Bild: Juli Eberle/TUM
News • Künstliche Intelligenz
Der 'embedded ethics' approach in der KI-Entwicklung
Der zunehmende Einsatz Künstlicher Intelligenz (KI) in der Entwicklung neuer Medizin-Technologien verlangt auch die verstärkte Berücksichtigung ethischer Aspekte. Ein interdisziplinäres Team der Technischen Universität München (TUM) spricht sich dafür aus, Ethik von Beginn an in den Entwicklungsprozess neuer Technologien zu integrieren. Alena Buyx, Professorin für Ethik der Medizin und Gesundheitstechnologien, erklärt den sogenannten „embedded ethics approach“.
Die Diskussionen um mehr Ethik in der KI-Forschung hat in den letzten Jahren sehr zugenommen, man könnte fast von einem „Ethik-Hype“ sprechen …
… und viele Gremien in Deutschland und weltweit, wie der Deutsche Ethikrat oder die High-Level Expert Group on Artificial Intelligence der EU-Kommission haben darauf reagiert. Alle sind sich einig: wir brauchen mehr Ethik in der Entwicklung von KI-basierten Gesundheitstechnologien. Doch wie sieht das für Ingenieure oder Designer in der Praxis aus? Dafür gibt es bis jetzt kaum konkrete Lösungen. In einem gemeinsamen Pilotprojekt mit zwei Integrativen Forschungszentren der TUM, der Munich School of Robotics and Machine Intelligence (MSRM) mit Direktor Professor Sami Haddadin und dem Munich Center for Technology in Society (MCTS) mit Professorin Ruth Müller, wollen wir den Ansatz der „embedded ethics“ ausprobieren. Den Vorschlag haben wir Ende Juli in Nature Machine Intelligence veröffentlicht.
Was genau kann man sich unter dem „embedded ethics approach“ vorstellen?
Ethik soll als fester Bestandteil in den Forschungsprozess integriert werden, indem Ethiker ab Tag eins Teil des KI-Entwicklungsteams sind. Sie sind zum Beispiel regelmäßig bei Team-Meetings mit dabei und können sowohl eine Art „ethical awareness“ für bestimmte Themen schaffen, als auch gezielt ethische und soziale Fragen aufwerfen und analysieren.
Gibt es bereits ein Anwendungsbeispiel?
Im Forschungszentrum Geriatronik, einem Leuchtturm-Projekt der MSRM in Garmisch-Partenkirchen, werden Roboter-Assistenten entwickelt, die Menschen ein selbstständiges Leben im Alter ermöglichen. Unter anderem ist dafür der Bau von Modell-Wohnungen geplant, in denen das Zusammenleben von Seniorinnen und Senioren und Robotern erprobt wird. Bei einem gemeinsamen Treffen mit den beteiligten Ingenieurinnen und Ingenieuren hatten wir festgestellt, dass die Idee, die Wohnungen komplett nach „open plan“, also kaum Türen oder einzelne Räume zu bauen, den Robotern zwar viel Bewegungsfreiheit lässt. Bei den Senioren könnte das aber zu Irritation führen, da sie Rückzugsorte gewohnt sind. Diesen Aspekt hatten die Ingenieurinnen und Ingenieure zunächst nicht explizit bedacht.
Der Ansatz klingt vielversprechend – wie lässt sich vermeiden, dass „embedded ethics“ als Alibi verwendet wird, um bei der Entwicklung neuer KI-Technologien vermeintlich auf der ethisch „sicheren“ Seite zu sein?
Das kann man nicht sicher vermeiden. Gegenseitige Offenheit und echtes Zuhören mit dem Ziel, eine gemeinsame Sprache zu finden, ist das, worauf es ankommt. Und die Bereitschaft, ethische Aspekte dann auch wirklich umzusetzen. An der TUM haben wir beste Voraussetzungen dafür. Professor Sami Haddadin, Direktor der MSRM, ist selbst Mitglied der EU High-Level Group of Artificial Intelligence. Seine Forschungsarbeit folgt dem Gedanken des „human centered engineering“, das den Menschen in den Mittelpunkt stellt. Die Idee „embedded ethics“ wurde von ihm deshalb von Anfang an mitgetragen. Klar ist aber auch: embedded ethics allein kann KI nicht plötzlich „ethisch machen“ – dafür muss es am Ende auch Gesetze und Kodizes sowie gegebenenfalls staatlichen Anreiz geben.
Quelle: Technische Universität München
01.09.2020