Kann sich ein Algorithmus, der Herzversagen vorhersagen soll, diskriminierend verhalten? Ist es ein Zeichen von Ungerechtigkeit, wenn dieses KI-Tool einen bestimmten Patiententyp leichter diagnostizieren kann als andere?
Dies sind Fragen, die wir im Sandbox-Projekt gestellt und zu beantworten versucht haben. Dabei haben die norwegische Datenschutzbehörde, der Ombudsmann für Gleichstellung und Diskriminierung (LDO) und das Universitätskrankenhaus Akershus (Ahus) ein Entscheidungsunterstützungssystem untersucht und bewertet, das Ahus entwickeln möchte. Das Tool basiert auf maschineller Lerntechnologie mit dem Ziel, präzisere Diagnosen bei Herzinsuffizienz zu stellen, als es den Ärzten von Ahus derzeit möglich ist. Der Abschlussbericht des Projekts wurde veröffentlicht.
Jetzt laden wir Sie zu einem Seminar mit dem Titel „Wie behalten Sie Algorithmen im Auge? Für faire künstliche Intelligenz sorgen.“
- Zeit: Montag, 13. März um 10.00-11.30 Uhr
- Ort: das Auditorium in Dronning Eufemias Gate 8, Oslo (oder digital)
- Aufzeichnungen des Webinars finden Sie unten auf dieser Seite
- Für die Teilnahme ist weder digital noch physisch eine Anmeldung erforderlich
Agenda
Zunächst wird der Abschlussbericht des Sandbox-Projekts vorgestellt, darüber hinaus erhalten wir einen Einführungsvortrag zum Thema ethische künstliche Intelligenz von Leonora Bergsjø, Leiterin von NORDE, außerordentliche Professorin am HiØ und UiA und Autorin des Buches „Digitale Ethik“.
Anschließend gibt es eine Podiumsdiskussion zum Thema Diskriminierung und ethische künstliche Intelligenz mit:
- Ishita Barua, Ärztin mit einem Doktortitel in KI-Medizin, leitende KI im Gesundheitswesen, Deloitte
- Leonora Bergsjø, Managerin bei NORDE
- Line Coll, Direktorin der norwegischen Datenschutzbehörde
- Bjørn Erik Thon, Ombudsmann für Gleichstellung und Diskriminierung
In der Diskussion wird es unter anderem darum gehen, wie neue Technologien beim Einsatz im öffentlichen Sektor die aktuellen Vorschriften herausfordern können und welche Gesetzesänderungen erforderlich sind, um die Algorithmen unter Kontrolle zu halten.
Aufzeichnung: Wie behält man Algorithmen im Auge?
Kann sich ein Algorithmus, der Herzversagen vorhersagen soll, diskriminierend verhalten? Und was können wir tun, damit künstliche Intelligenz uns fair behandelt? Im Sandbox-Projekt mit Ahus und LDO gab es zentrale Fragestellungen. Und das war das Thema des Seminars „Wie behält man Algorithmen im Auge?“