Im Profil ist eine Person vor einer Computertastatur und Bildschirm zu sehen....

© metamorworks – stock.adobe.com

News • Große KI-Sprachmodelle

LLM in der Medizin: Experten fordern klare rechtliche Vorgaben

Forschende um die Professoren Stephen Gilbert und Jakob N. Kather vom Else Kröner Fresenius Zentrum für Digitale Gesundheit der Technischen Universität Dresden geben einen Überblick über Stärken und Schwächen sowie die regulatorischen Herausforderungen aktueller Gesundheitsanwendungen, die auf großen Sprachmodellen, sogenannten Large Language Models – LLMs, basieren.

Sie fordern in der Fachzeitschrift „The Lancet Digital Health“ Rahmenbedingungen, die den Fähigkeiten und Grenzen dieser KI-Anwendungen gerecht werden und betonen, dass bestehende Vorschriften dringend durchgesetzt werden müssen. Ein weiterhin zögerliches Vorgehen seitens der Behörden gefährdet nicht nur die Nutzer, sondern auch das Potenzial zukünftiger LLM-Anwendungen in der Medizin. 

LLMs haben das Potenzial die Gesundheitsversorgung zu verändern und gewinnen in den Bereichen Krebsdiagnose und -behandlung sowie bei Vorsorge, Fernbetreuung, Dokumentation und Unterstützung bei medizinischen Entscheidungen immer mehr an Bedeutung. Sie bieten großes Potenzial, bergen aber auch Risiken

Jakob N. Kather

Anwendungen, die auf Künstlicher Intelligenz (KI) basieren, sind mittlerweile ein unverzichtbarer Bestandteil der Medizin. Große Sprachmodelle wie GPT-4 bieten vielfältige Unterstützungsmöglichkeiten in der Diagnose, Versorgung und Betreuung von Patienten. Gleichzeitig gibt es Bedenken bezüglich ihrer Sicherheit und Regulierung. Ergebnisse variieren häufig, sind schwer nachvollziehbar und bergen das Risiko erfundener Aussagen (Halluzinationen). Die Zulassung LLM-basierter Anwendungen für medizinische Zwecke als Medizinprodukte nach US- und EU-Recht stellt die zuständigen Behörden deshalb vor Herausforderungen. Trotz der Risiken, etwa durch Fehldiagnosen oder ungeprüfte medizinische Ratschläge, sind solche Anwendungen bereits auf dem Markt erhältlich. 

Seit der Einführung von großen Sprachmodellen haben Entwickler wie Google, Meta, OpenAI und Microsoft diese stetig verbessert und neue Modelle vorgestellt. Auch für medizinische Anwendungen wird deren Leistung immer besser. „LLMs haben das Potenzial die Gesundheitsversorgung zu verändern und gewinnen in den Bereichen Krebsdiagnose und -behandlung sowie bei Vorsorge, Fernbetreuung, Dokumentation und Unterstützung bei medizinischen Entscheidungen immer mehr an Bedeutung. Sie bieten großes Potenzial, bergen aber auch Risiken“, sagt Prof. Dr. Jakob N. Kather, Professor für Klinische Künstliche Intelligenz am EKFZ für Digitale Gesundheit der TU Dresden und Onkologe am Dresdner Universitätsklinikum Carl Gustav Carus. Derzeit wird noch intensiv daran geforscht, ob bei medizinischen Anwendungen die Vor- oder Nachteile überwiegen. Abgesehen von den vielseitigen Möglichkeiten und Chancen weisen die Forschenden in ihrer Publikation klar auf offene rechtliche und ethische Fragen hin, insbesondere mit Blick auf Datenschutz, Wahrung des geistigen Eigentums sowie auf die Problematik geschlechtsspezifischer und rassistischer Vorurteile. 

Sobald Anwendungen medizinischen Rat für Laien bezüglich ihrer Diagnose oder Behandlung von Erkrankungen anbieten, handelt es sich nach EU- und US-Recht um Medizinprodukte, die als solche eine entsprechende Zulassung erfordern. Während die Einhaltung dieser Regelungen bei bisherigen, eng gefassten Anwendungen relativ eindeutig war, stellt die Vielseitigkeit der LLMs die Behörden vor regulatorische Herausforderungen. Trotz rechtlicher Unklarheiten, sind solche Anwendungen jedoch unreguliert und ohne Zulassung durch die zuständigen Behörden auf dem Markt erhältlich. Die Forschenden machen deutlich, dass Behörden in der Pflicht stehen, geltende Regeln durchzusetzen. Gleichzeitig sollten sie sicherstellen, dass angepasste Rahmenbedingungen für die Prüfung und Regulierung von auf großen Sprachmodellen basierenden Gesundheitsanwendungen entwickelt werden. „Diese Technologien existieren bereits auf dem Markt und wir müssen zwei grundlegende Dinge beachten, um eine sichere Entwicklung solcher Anwendungen zu gewährleisten. Erstens braucht es passende Methoden, um diese neuen Technologien bewerten zu können. Zweitens müssen die geltenden rechtlichen Vorgaben gegenüber unsicheren LLM-Anwendungen auf dem Markt durchgesetzt werden. Das ist unerlässlich, wenn wir diese medizinischen KI-Anwendungen in Zukunft sicher nutzen wollen“, sagt Prof. Dr. Stephen Gilbert, Professor für Medical Device Regulatory Science am EKFZ für Digitale Gesundheit der TU Dresden. 


Quelle: Technische Universität Dresden

23.08.2024

Verwandte Artikel

Photo

News • EU-projekt "TEF-Health"

Qualitätssicherung von KI-Systemen und Robotik in der Medizin vorantreiben

Das jüngst gestartete EU-Projekt "TEF-Health" hat das Ziel, innovative Ansätze in KI und Robotik im Gesundheitswesen zu prüfen und schneller zur Marktreife zu bringen.

Photo

News • Gesundheitsversorgung der Zukunft

Verhindert veraltete Medizintechnik die digitale Transformation?

Moderne MRT- und CT-Scanner unterstützen datenbasiertes Arbeiten und KI-Anwendungen – doch in vielen Kliniken und Praxen stehen ältere Geräte, die diesen Prozess ausbremsen, mahnen Experten.

Photo

News • Zukunfts-Dialog in Essen

Digitalisierungs-Forum steckt Gesundheitswesen von morgen ab

Medizinische KI und Interoperabilität jenseits von Datensilos – so lautet der Schlüssel für eine zukunftsfähige Gesundheitsversorgung, zeigten sich Experten auf einem Fachforum überzeugt.

Verwandte Produkte

Newsletter abonnieren