Un algorithme censé prédire l’insuffisance cardiaque peut-il se comporter de manière discriminante ? Est-ce un symptôme d’injustice si cet outil d’IA parvient plus facilement à diagnostiquer un type de patient plutôt que d’autres ?
Ce sont des questions auxquelles nous avons posé et essayé de répondre dans le projet sandbox, dans lequel l’Autorité norvégienne de protection des données, le Médiateur pour l’égalité et la discrimination (LDO) et l’hôpital universitaire d’Akershus (Ahus) ont étudié et évalué un système d’aide à la décision qu’Ahus souhaite développer. L’outil est basé sur la technologie d’apprentissage automatique, dans le but de poser des diagnostics d’insuffisance cardiaque plus précis que ceux dont les médecins d’Ahus sont actuellement capables. Le rapport final du projet a été publié.
Nous vous invitons désormais à un séminaire intitulé « Comment garder les algorithmes à l’oreille ? Garantir une intelligence artificielle équitable ».
- Heure : lundi 13 mars à 10h00-11h30
- Lieu : auditorium de Dronning Eufemias porte 8, Oslo (ou numériquement)
- Les enregistrements du webinaire sont disponibles au bas de cette page
- Aucune inscription n’est requise pour participer, que ce soit numériquement ou physiquement
Ordre du jour
Dans un premier temps, le rapport final du projet sandbox est présenté, en plus de quoi nous recevons une conférence d’introduction sur l’intelligence artificielle éthique de Leonora Bergsjø, directrice de NORDE, professeure associée à HiØ et UiA et auteur du livre « Éthique numérique ».
Il y aura ensuite une table ronde sur la discrimination et l’intelligence artificielle éthique avec :
- Ishita Barua, docteur en médecine de l’IA, Lead AI in Healthcare, Deloitte
- Leonora Bergsjø, gérante chez NORDE
- Line Coll, directrice de l’Autorité norvégienne de protection des données
- Bjørn Erik Thon, médiateur pour l’égalité et la discrimination
La discussion portera, entre autres, sur la manière dont les nouvelles technologies peuvent remettre en question les réglementations actuelles lorsqu’elles sont utilisées dans le secteur public, et sur les modifications législatives nécessaires pour contrôler les algorithmes.
Enregistrement : Comment garder les algorithmes à l’esprit ?
Un algorithme censé prédire l’insuffisance cardiaque peut-il se comporter de manière discriminante ? Et que pouvons-nous faire pour garantir que l’intelligence artificielle nous traite équitablement ? Il y avait des questions centrales dans le projet sandbox avec Ahus et LDO. Et c’était le thème du séminaire « Comment garder les algorithmes à l’esprit ? »