Ein Smartphone mit einem KI-Sprachassistenten, der den Nutzer mit der Frage:...

© Zulfugar Karimov – unsplash.com

News • Studie zeigt Potenzial und Grenzen

LLMs machen medizinische Informationen verständlicher, aber...

Vier gängige Large Language Models (LLMs) getestet. Ergebnis: Lesbarkeit verbessert sich – Korrektheit bleibt zu hinterfragen.

Millionen Menschen suchen Gesundheitsinformationen im Internet – doch viele Texte sind für Laien nur schwer lesbar und unverständlich. Eine neue Studie von Forschenden der Hochschule Heilbronn zeigt auf: Künstliche Intelligenz kann helfen, medizinische Inhalte lesbarer zu machen. Die Verbesserungen sind jedoch moderat und sollten einer genauen fachlichen Prüfung unterzogen werden. 

Amela Miftaroski, Absolventin des Bachelorstudiengangs Medizinische Informatik an der Hochschule Heilbronn und Erstautorin hat im Rahmen ihrer Abschlussarbeit eine Studie zur Lesbarkeit von KI-vereinfachten medizinischen Online-Artikeln durchgeführt, welche im internationalen Journal JMIR AI veröffentlicht wurde

Einige KI-generierte Texte enthielten Ungenauigkeiten oder ließen wichtige Kontextinformationen weg, die im medizinischen Umfeld zu Missverständnissen oder Fehlinformationen führen können

Amela Miftaroski

Das Forschungsteam bestehend aus Amela Miftraoski, Dr. Richard Zowalla, Martin Wiesner und Dr. Monika Pobiruchin analysierte 60 medizinische Online-Artikel zu häufigen Erkrankungen und relevanten Gesundheitsthemen. Anschließend wurden die Texte mit vier großen Sprachmodellen, darunter ChatGPT und Microsoft Copilot, automatisch vereinfacht. Mithilfe etablierter Lesbarkeitsmaße wurde bewertet, wie gut die überarbeiteten Texte für Menschen ohne medizinischem Vorwissen verstanden werden können. 

Die Ergebnisse zeigen: Die geprüften KI-Modelle konnten die Lesbarkeit insgesamt steigern. Besonders Microsoft Copilot erzielte deutliche Verbesserungen und erreichte bei der Hälfte der Texte das empfohlene Niveau der Mittelstufe. ChatGPT-3.5 lieferte ebenfalls gute Ergebnisse, während andere Modelle nur geringfügige Verbesserungen erzielten. Das von Experten empfohlene Lesbarkeitsniveau, vergleichbar mit der 8. Klassenstufe, wurde jedoch insgesamt nur selten erreicht. 

Dieser Artikel könnte Sie auch interessieren

Photo

Artikel • Generative KI in der Medizin

Wie man LLMs beibringt, wie ein Arzt zu denken

Generative KI zeigt zwar immenses Potenzial für das Gesundheitswesen, doch die Zuverlässigkeit der großen Sprachmodelle leidet unter einem ernsten Problem: LLMs denken einfach nicht wie Ärzte, erklärte ein Experte für Datenwissenschaften auf dem Kongress Emerging Technologies in Medicine (ETIM) in Essen. Dieser potenziell folgenschwere Fehler könne jedoch behoben werden.

In diesem Zusammenhang macht Amela Miftaroski auf Risiken aufmerksam: „Einige KI-generierte Texte enthielten Ungenauigkeiten oder ließen wichtige Kontextinformationen weg, die im medizinischen Umfeld zu Missverständnissen oder Fehlinformationen führen können“. Diese Ungenauigkeiten zeigen, dass KI-Modelle ohne fachliche Begleitung schnell falsche oder kontextarme Inhalte erzeugen können. Für den privaten Einsatz, etwa wenn Laien selbst medizinische Texte mit KI vereinfachen möchten, ist die Methode daher nicht geeignet. Entsprechend betont die Nachwuchsforscherin: „Die KI kann die Texte vereinfachen, aber eine fachliche Überprüfung bleibt unerlässlich“. 

Trotz dieser Einschränkungen sehen die Autoren großes Potenzial: „Große Sprachmodelle könnten Gesundheitseinrichtungen entlasten, indem sie erste Textentwürfe erstellen, die anschließend von Fachpersonen geprüft und finalisiert werden. So könnten langfristig mehr verständliche Gesundheitsinformationen für Bürger verfügbar werden“, kommentiert Co-Autor Martin Wiesner. 

Die Studie liefert damit wichtige Erkenntnisse darüber, wie KI-gestützte Systeme künftig zur Verbesserung der Gesundheitskompetenz beitragen können und dass weiterhin Vorsicht beim Umgang mit medizinischen Fragestellungen und großen Sprachmodellen geboten ist. 


Quelle: Hochschule Heilbronn 

09.02.2026

Mehr zu den Themen:

Verwandte Artikel

Photo

News • Gangbiomechanik-Analyse

KI sagt Erfolg von Hüft-OPs voraus

Forschende am Karlsruher Institut für Technologie (KIT) haben ein KI-Modell entwickelt, um vorherzusagen, wie gut Patienten mit Hüftgelenksarthrose nach einer Operation wieder gehen können.

Photo

News • Digital Health Report 2026

Studie: „Schatten-KI“ im Gesundheitswesen verbreitet

Wunsch nach mehr Datenschutz auf der einen Seite, Nutzung nicht zertifizierter „Schatten-KI“ auf der anderen: Der Digital Health Report 2026 offenbart wichtige Baustellen im Gesundheitswesen.

Photo

News • Datenverzerrung verringert Zuverlässigkeit

Antibiotikaresistenzen: KI-Modelle bei Vorhersage oft zu optimistisch

Forschende konnten nachweisen, dass KI-Modelle zur Vorhersage von Antibiotikaresistenzen bei Krankheitserregern häufig weniger zuverlässig sind als bisher angenommen.

Verwandte Produkte

Newsletter abonnieren