„Menschen wollen der Maschine vertrauen können“
Samira Samadi leitet die Forschungsgruppe „Human Aspects of ML“
Im September 2020 trat Samadi dem Max-Planck-Institut für Intelligente Systeme (MPI-IS) und dem Tübingen AI Center als Leiterin der Forschungsgruppe „Human Aspects of ML“ bei. Die Gruppe konzentriert sich hauptsächlich auf zwei Themen. Das erste bezieht sich auf Ethik und Fairness beim maschinellen Lernen, wobei ein besonderer Schwerpunkt auf der Erforschung von Möglichkeiten zur Vermeidung von Voreingenommenheit und Diskriminierung bei der Entscheidungsfindung liegt. Das zweite erforscht, wie man Teams zwischen maschinellem Lernen und Menschen bilden kann, um bessere gemeinsame Entscheidungen zu treffen.
Eines der zentralen Ziele der Forschung auf dem Gebiet der künstlichen Intelligenz ist es, Maschinen zu entwickeln, die Entscheidungen in ähnlicher Weise wie Menschen treffen können. Allerdings können maschinelle Lernalgorithmen nur auf Basis der Daten, mit denen sie trainiert wurden, Entscheidungen treffen – sie reproduzieren dann Verzerrungen in den Daten in ihrer Entscheidungsfindung. Dies stellt insbesondere in jenen Bereichen eine Herausforderung dar, in denen der Einsatz von maschinellem Lernen und künstlicher Intelligenz Auswirkungen auf das Leben der Menschen hat. So verwenden viele Banken Algorithmen, um die Kreditwürdigkeit ihrer Kundschaft zu ermitteln und damit Entscheidungen über Kreditanträge zu treffen. Da diese Algorithmen jedoch mit historischen Daten trainiert werden, die sowohl verzerrt als auch unvollständig sein können, können die Empfehlungen, die sie abgeben, unfair oder diskriminierend sein. Bei der Untersuchung von Ansätzen des maschinellen Lernens, die helfen können, faire und unvoreingenommene Entscheidungen zu gewährleisten, arbeitet Samadi mit Forschenden aus anderen Disziplinen zusammen, darunter Philosophie, Wirtschaft und Sozialwissenschaften.
„In der Vergangenheit wurden Anwendungen des maschinellen Lernens meist isoliert entwickelt. Die Leute haben sich damit beschäftigt, wie sie die beste Leistung erzielen können, aber sie haben nicht ausreichend berücksichtigt, wie sich die von ihnen entwickelten Systeme tatsächlich auf Menschen auswirken“, sagt Samadi. „Um Algorithmen für maschinelles Lernen zu entwickeln, die ethisch und fair sind, muss man die Perspektiven von Expert:innen aus den verschiedensten Bereichen einholen.“ Das ist einer der Gründe, warum sie nach Tübingen gekommen ist: Die multidisziplinäre Forschungsgemeinschaft der Stadt hat es ihr ermöglicht, Projekte mit Forschenden zu initiieren, die nur einen Anruf und einen kurzen Spaziergang entfernt sind.
Neben der Entwicklung von maschinell lernenden Systemen, die Entscheidungen nach Prinzipien der Fairness treffen, will Samadi auch Methoden erforschen, die eine kollaborative Synergie zwischen Mensch und Maschine ermöglichen, wenn diese gemeinsam Entscheidungen treffen. Zum Beispiel könnten Ärzt:innen bei der medizinischen Diagnose Hilfe von einer Maschine erhalten, die alle historischen Daten der Patientin oder des Patienten analysiert und eine Vorhersage über die konkreten medizinische Bedürfnisse trifft. Um effektivere hybride Mensch-Maschine-Modelle zu erstellen, entwickelt Samadi Meta-Algorithmen, die die Entscheidungsdynamik zwischen Menschen und ML gestalten.
Samadis Forschung ist auch durch eine wachsende Bewegung von Wissenschaftler:innen motiviert, die glauben, dass einfache Modelle zu mehr Interpretierbarkeit und Fairness führen können, ohne notwendigerweise die Leistung zu beeinträchtigen. Sie stellt eine lange vertretene Ansicht in der Gemeinschaft des maschinellen Lernens in Frage, wonach ein Modell umso besser ist, je komplizierter es ist. „Den Menschen geht es nicht nur um das Ergebnis, sondern auch um ihre Würde – und darum, ob sie richtig behandelt wurden. Sie wollen das Gefühl haben, dass das Verfahren fair ist. Aber wenn man nicht versteht, was in einem ML-System vor sich geht, kann man nicht sicherstellen, dass es die Dinge richtig macht.“