Artikel • Schnelligkeit und Präzision versus Vertrauen und Verantwortung
„KI darf nicht durch übermäßige Regulierungsanforderungen behindert werden“
Wird künstliche Intelligenz (KI) künftig den Menschen ersetzen? Für Prof. Dr. Steffen Augsberg ist das nicht nur unvermeidlich, sondern sogar wünschenswert, zumindest in manchen Bereichen. In seinem Impulsvortrag auf der MEDICA zum Thema ‚KI-Diagnosen: Schnelligkeit und Präzision versus Vertrauen und Verantwortung‘ widmete er sich den vielfältigen Aspekten und Herausforderungen von KI im Gesundheitswesen und betonte, dass KI menschliche Mängel durchaus ausgleichen könne. In der anschließenden Diskussionsrunde wurden jedoch auch die Herausforderungen und Risiken deutlich.
Artikel: Sonja Buske

© Sonja Buske
Augsberg, Professor für Öffentliches Recht und ehemaliges Mitglied des Deutschen Ethikrats, skizzierte zunächst die Breite und Vielschichtigkeit des Begriffs KI und machte deutlich, dass dieser häufig zu ungenau verwendet werde. „KI umfasst unterschiedlichste Technologien und Anwendungen, von der Analyse medizinischer Bilder über robotische Unterstützung bei Operationen bis hin zu digitalen Zwillingen, die in der Präzisionsmedizin eine zunehmend wichtige Rolle spielen. Diese Bandbreite bringt sowohl Chancen als auch Herausforderungen mit sich, etwa in der konkreten Anwendbarkeit, der Regulierbarkeit und den ethischen Implikationen.“
Notwendiger Kontrollverlust
KI stelle eine neue Qualität dar, da sie nicht nur bestehende Fähigkeiten erweitern, sondern auch die Art und Weise verändern könne, wie Entscheidungen getroffen und Prozesse gesteuert werden. „Dies bringt einen gewissen Kontrollverlust mit sich, der notwendig und produktiv ist, sofern er durch kontrollierte Kontrollverluste reguliert wird.“ Dabei gehe es darum, ein Gleichgewicht zwischen menschlicher Aufsicht und der autonomen Funktionsweise von KI zu finden.
Eine zentrale Herausforderung liegt im Spannungsfeld zwischen Geschwindigkeit, Präzision und Vertrauen. Augsberg betonte, dass KI-Anwendungen durch ihre Effizienz Vertrauen aufbauen können, dieses Vertrauen jedoch nicht allein durch funktionierende Technologien entsteht. Vielmehr würden auch Transparenz, die Herkunft und Qualität der Trainingsdaten sowie die ethischen Rahmenbedingungen der Datennutzung eine entscheidende Rolle spielen. Ein besonderer Fokus müsse darauf liegen, Verzerrungen und systemische Diskriminierungen – etwa durch voreingenommene Trainingsdaten – zu vermeiden, um Vertrauen in KI-Anwendungen zu fördern.
© Sonja Buske
Gefahr der „digitalen Demenz“
Prof. Dr. Ursula Nestle, Chefärztin der Klinik für Strahlentherapie und Radiologische Onkologie an den Kliniken Maria Hilf in Mönchengladbach, machte an Beispielen aus ihrem Klinikalltag auf die Potenziale und Grenzen von KI aufmerksam. „Wir nutzen KI in der Strahlentherapie, um Anatomien automatisch zu markieren und damit die Planung von Behandlungen zu beschleunigen und präziser zu machen. Solche Anwendungen sparen wertvolle Zeit und reduzieren die Arbeitsbelastung von Fachkräften, erfordern jedoch weiterhin eine kritische Überprüfung durch Experten, insbesondere bei Abweichungen von der Norm.“ Hier zeigt sich ein weiteres Problemfeld: Die Gefahr der „digitalen Demenz“, bei der sich Anwender zu sehr auf die Technologie verlassen und ihre eigenen Fähigkeiten zur kritischen Analyse und Korrektur vernachlässigen. Im Bereich der Onkologie gebe es zudem eine Diskrepanz zwischen erklärbarer KI und deren Leistungsfähigkeit. „Eine vollständig nachvollziehbare KI kann weniger leistungsstark sein, während leistungsstarke Systeme oft schwer zu verstehen sind. Dies stellt insbesondere in der Medizin eine Hürde dar, da Ärzte ungern Verantwortung an eine Technologie abgeben, deren Entscheidungen sie nicht nachvollziehen können“, erläuterte Nestle.
Augsberg plädierte für einen pragmatischen Ansatz, der normative und ethische Prinzipien berücksichtigt, ohne die Entwicklung und Anwendung von KI durch übermäßige Regulierungsanforderungen zu behindern. Er warnte vor einem übertriebenen Perfektionismus, der sowohl zu Enttäuschungen als auch zu Vertrauensverlusten führen könnte. Stattdessen forderte er eine realistische und optimistische Herangehensweise, die sowohl die Chancen als auch die Risiken der Technologie in den Blick nimmt.
Wettbewerbsfähigkeit nicht gefährden
Nicht zu vernachlässigen sei die Tatsache, dass KI ein globales Phänomen ist und nationale oder europäische Regulierungen die Wettbewerbsfähigkeit nicht gefährden dürften. Dazu Augsberg: „Eine Überregulierung könnte dazu führen, dass Innovationen in weniger regulierten Regionen vorangetrieben werden, möglicherweise unter schlechteren Bedingungen.“ Notwendig sei daher ein Gleichgewicht zwischen Schutzmechanismen und Innovationsförderung, um die Potenziale der KI optimal zu nutzen.
Die Diskussion verdeutlichte, dass KI nicht nur ein technisches, sondern auch ein soziales und ethisches Phänomen ist. Der bewusste Umgang mit Risiken und Chancen, eine kritische Reflexion von Kontrollansprüchen und ein Verständnis dafür, dass nicht alle Probleme durch Technologie gelöst werden können, sei essenziell, gerade im Gesundheitswesen, wo die Auswirkungen direkt in der Patientenversorgung spürbar sind.
21.04.2025