Ausgereifte Algorithmen liefern erstaunlich gute Ergebnisse, doch der 'Denkprozess' der KI ist selbst für Experten nicht nachvollziehbar. Ein Forschungsteam will das ändern.

Bildquelle: Shutterstock/Lightspring

News • Transparente Algorithmen

Wie 'denkt' eine KI? Forscher blicken in die 'Black Box'

Selbstlernende Computeralgorithmen treffen Entscheidungen, die je nach Einsatzgebiet massive Auswirkungen haben können. Wie die Algorithmen der Künstlichen Intelligenz (KI) ihre Eingabedaten intern repräsentieren und verarbeiten, ist jedoch noch weitgehend unbekannt.

Forschende des Lehrstuhls für Mustererkennung und der Cognitive Computational Neuroscience Group der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) sowie des Neurowissenschaftlichen Labors der HNO-Klinik am Universitätsklinikum Erlangen, der Aix-Marseille Université in Marseille, Frankreich, und der York University in Toronto, Kanada  haben sich des „Black-Box Problems der Künstlichen Intelligenz“ angenommen und ein Verfahren entwickelt, das die Prozesse sichtbar macht. Die Ergebnisse wurden in der Fachzeitschrift Neural Networks publiziert.

portrait of patrick krauss
Dr. Patrick Krauss, Leitung Cognitive Computational Neuroscience Group

Bildquelle: Patrick Krauss

„Was wir heute als Künstliche Intelligenz bezeichnen, ist zurückzuführen auf tiefe, künstliche neuronale Netze, die grob der menschlichen Gehirnfunktion nachempfunden sind“, sagt Dr. Patrick Krauss von der Cognitive Computational Neuroscience Group der FAU. Wie bei einem Kleinkind, das seine Muttersprache lernt,  ohne sich den Grammatikregeln bewusst zu sein, können die KI-Algorithmen durch das selbstständige Abgleichen vieler Eingabedaten lernen, die richtige Auswahl zu treffen. Die Leistungen beim Erkennen von Mustern seien erstaunlich, sagt Dr. Krauss. Doch wisse man nicht, wie die neuronalen Netze schrittweise vorgehen. „Aus ethischen Gründen müssen die Entscheidungen der KI jedoch nachvollziehbar sein.“  Man denke nur an Therapieentscheidungen aufgrund einer KI-gestützten, medizinischen Diagnose. Auch muss die Frage geklärt werden, ob die KI eines autonomen Fahrzeugs bei einer unvermeidlichen Kollision eher das Leben des Autofahrers oder des Fußgängers schützen soll.

Künstliche neuronale Netze (KNN) sind mathematische Nachbildungen der Reizverarbeitung im Gehirn. Sie bestehen aus miteinander verbundenen künstlichen Neuronen. Anstelle der elektrischen oder chemischen Signale bei biologischen Systemen verarbeiten die Algorithmen Zahlenwerte. Die Architektur eines KNN ist meist aus mehreren Schichten aufgebaut, wobei die Ausgabe der ersten Schicht zur Eingabe der zweiten wird. Eine Bilderkennungs-KI, die Autos von Fahrrädern unterscheiden soll, sortiert zum Beispiel in der ersten Schicht nur grob nach den Umrissen und trennt dann Schicht für Schicht nach weiteren Kriterien.  Das Forscherteam hat den Zahlenwert GDV (Generalized Discrimination Value) eingeführt, der für jede Schicht angibt, wie gut die Eingabedaten in Klassen getrennt sind. „Wenn sich der Wert nicht mehr wesentlich ändert, ist die optimale Schichttiefe erreicht“, erklärt Dr. Krauss. Jede weitere Schicht verbessere nicht die Trefferquote, sondern erhöhe nur die Rechenzeit.

Dieser Artikel könnte Sie auch interessieren

Photo

Artikel • Mensch gegen Maschine?

Der Mensch als Dirigent des KI-Orchesters

Um die Zukunft der Radiologie ist Peter Leander nicht bang. Deshalb stellte der Professor für radiologische Diagnostik an der Universität Lund auf dem ECR 2018 die Frage etwas anders: Die Radiologie bleibt bestehen – aber wird es künftig noch Radiologen geben? Ganz im Geiste der Gastgeberstadt Wien spielte die klassische Musik eine zentrale Rolle bei der Antwort auf diese Frage.

Künstliche Neuronale Netzwerke lernen mit Hilfe von Bilddatenbanken, wie der Modified National Institute of Standards and Technology Database (MNIST). Sie umfasst 60.000 handgeschriebene Ziffern von 0 bis 9, die in zehn Klassen getrennt werden können. Bei diesem Datensatz konnten die Forscher mit ihrer Methode eine optimale Schichttiefe von vier ermitteln. Dagegen sind bei der Fashion-MNIST, die Grauwertbilder von zehn verschiedenen Kleidungsstücken enthält, schon acht Schichtfolgen nötig, um die Objekte ausreichend gut zu unterscheiden. Und für die CIFAR-10 Datenbank, in der je 6.000 Farbfotos von Schiffen, Flugzeugen, Lastwagen, Autos, Pferden, Hirschen, Hunden, Katzen, Vögeln und Fröschen gespeichert sind, liegt die optimale Schichttiefe bei 15. „Je komplexer die Trainingsdaten, desto mehr Schichten sind für eine gute Klassifizierung nötig“, sagt Patrick Krauss.

Der Zusammenhang zwischen dem Verlauf des GDV und der zunehmenden Klassifizierungsgüte pro Schicht wurde anschaulich sichtbar gemacht, indem die Aktivierungen der Schichten als Punkte auf eine Ebene abgebildet wurden. Jeder Punkt entspricht einer bestimmten Eingabe in das neuronale Netz, und die zehn verschiedenen Klassen wurden mit zehn Farben gekennzeichnet. Je größer die Schichttiefe, desto mehr sammeln sich die Punkte zu gleichfarbigen Clustern. „Die neue Methode ermöglicht es, verschiedene KI-Systeme miteinander zu vergleichen, um so zum Beispiel die effizienteste Architektur für ein gegebenes Problem zu finden“, sagt Dr. Krauss. Ebenso könne analysiert werden, in welcher Art und Weise das KI-System die Eingabedaten ordnet und repräsentiert. Das Verfahren kann auch zu einem wichtigen Werkzeug für die Neurowissenschaft werden. „Unsere Methode ermöglicht es zu quantifizieren, wie gut ein gegebenes Modell die Gehirnfunktion beschreibt.“


Quelle: Friedrich-Alexander-Universität Erlangen-Nürnberg

05.05.2021

Verwandte Artikel

Photo

News • Prostatakrebs-Analyse

Mit KI und Multiomics gegen unnötige Entfernung der Prostata

Bei manchen Patienten mit Prostatakrebs muss die Prostata entfernt werden – aber nicht bei allen. Ein neues Verfahren nutzt KI und Multiomics, um die invasive Biopsie zur Abklärung zu vermeiden.

Photo

News • Mit Ursache und Wirkung rechnen

Medizin-KI knackt die Kausalitäts-Grenze

Kausales maschinelles Lernen ist ein vergleichsweise neuer Zweig von KI – und könnte den Erfolg von Therapien besser vorhersagen. Ein Forscherteam lotet das Potenzial der Methode aus.

Photo

News • Blick in die Black Box

Krebs-Diagnose per KI: Wie verlässlich ist der Algorithmus?

KI soll das Gesundheitswesen effizienter und günstiger machen. Doch wie können Mediziner sicher sein, dass die Maschine keine Fehler macht? Dieser Frage gehen Forscher der FH Dortmund nach.

Verwandte Produkte

Newsletter abonnieren