Pour éviter d'avoir des conclusions vexantes ou limiter le taux d'erreur lorsqu'il s'agit de santé, des chercheurs ont créé une nouvelle infrastructure logicielle qui encadre l'action de l'intelligence artificielle.
Un algorithme pour éviter que les robots ne s'en prennent aux humains

Une équipe de chercheurs des universités du Massachusetts, à Amhrest, et de Stanford ont créé une nouvelle approche pour « empêcher le comportement indésirable des machines intelligentes », le titre de leur article est inspiré des Trois lois de la robotique d’Isaac Asimov. Ils ont ainsi créé un framework, ou infrastructure logicielle, pour empêcher le biais et les erreurs dans l’intelligence artificielle.

L’IA a fait de grands bonds en avant avec notamment le deep learning, ou apprentissage profond, ce qui permet d’atteindre des taux d’erreurs assez faibles sur de nombreuses tâches comme la reconnaissance faciale. Cependant, il existe des situations où aucune erreur n’est tolérée. Les systèmes actuels mettent la responsabilité sur l’utilisateur final, qui doit régler le niveau de sensibilité, ce qui influe sur le taux et le type d’erreurs sans nécessairement en comprendre le fonctionnement.

Les algorithmes seldoniens pour encadrer l’IA

Les...

Obtenez gratuitement votre guide mutuelle senior 2020 pour réaliser des économies !