Quelle: Pixabay/geralt

News • CERES-Studie

Algorithmen können die Gesundheitsversorgung verbessern

Kölner Forscher haben im Auftrag der Bertelsmann Stiftung eine umfassende Analyse zu den Chancen und Risiken des Einsatzes von Algorithmen in der digitalen Gesundheitsversorgung vorgelegt. Die Untersuchung zeigt anhand konkreter Beispiele und auf Basis einer umfassenden Literaturrecherche, dass der Einsatz von Algorithmen die Qualität und Effizienz der Gesundheitsversorgung erhöhen kann.

Das interdisziplinäre Forschungsteam des Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (ceres) der Universität zu Köln erarbeitete die Studie unter Leitung der Ethikerin Professorin Dr. Christiane Woopen. Algorithmen können etwa eine verbesserte Früherkennung sowie schnellere und genauere Diagnosen ermöglichen, beispielsweise im Bereich psychischer Erkrankungen oder in der Onkologie. Zudem können sie medizinisches Fachpersonal von Routineaufgaben entlasten. Demgegenüber stehen allerdings auch Herausforderungen wie die schwierige Kontrollierbarkeit von automatischen Abläufen, Beschränkungen in der Leistungsfähigkeit von Algorithmen und die unklare Zuschreibung von Verantwortung für algorithmische Entscheidungen.

Dieser Artikel könnte Sie auch interessieren

Photo

Interview • Recht & Technik

Wer verantwortet falsche KI-Diagnosen?

Die Möglichkeiten von Künstlicher Intelligenz (KI) wachsen rasant an, Algorithmen übernehmen auch in der Radiologie immer mehr Aufgaben – ein Beispiel ist etwa die automatisierte Auswertung radiologischer Bilder. Doch wer trägt die Verantwortung, wenn der Algorithmus einen Fehler macht? Darüber haben wir mit Prof. Dr. Susanne Beck gesprochen. Die Inhaberin des Lehrstuhls für Strafrecht,…

Die ethischen Fragestellungen, die sich aus der Anwendung von intelligenten digitalen Systemen für die einzelnen Anwender und Betroffene, für institutionelle Akteure im Gesundheitswesen und für die Gesellschaft als Ganzes ergeben, stehen im Mittelpunkt der Analyse. Dabei handelt es sich beispielweise um Fragen nach Verteilungsgerechtigkeit und dem Schutz vor Diskriminierung, nach der Haftung für algorithmenbasierte Entscheidungen, nach den anstehenden Veränderungen im Verhältnis zwischen Arzt und Patient und nicht zuletzt nach dem Vertrauen in das Gesundheitssystem als solches.

Photo

Aus ihren Ergebnissen leiten die Wissenschaftlerinnen und Wissenschaftler konkrete Handlungsempfehlungen ab. Dazu gehören etwa die Etablierung einheitlicher Standards für die Verarbeitung und den Austausch von Daten sowie die Einrichtung von interdisziplinären Teams zu ethisch fundierter Planung, Programmierung, Verwendung und Kontrolle von Algorithmen. Auch sollten geeignete Aufklärungsansätze entwickelt werden, um Patienten beim Einsatz von Algorithmen eine informierte Einwilligung zu ermöglichen. Insgesamt, so das Fazit, bedürfe es einer umfassenden, auch öffentlich geführten Diskussion über die möglichen sozialen Konsequenzen der aktuellen technologischen Entwicklungen. Es sei erforderlich, sich mit Fragen einer eigenständigen Algorithmenethik und Algorithmenkontrolle auseinanderzusetzen.

Die Studie 'Algorithmen in der digitalen Gesundheitsversorgung - Eine interdisziplinäre Analyse' steht auf der Website von ceres kostenfrei zum Download bereit.


Quelle: Universität zu Köln

15.12.2018

Verwandte Artikel

Photo

News • Studie zeigt Misstrauen von Patienten

Diagnose von der KI? „Nein, danke“

Vermuten Patienten, dass eine künstliche Intelligenz bei ihrer Diagnose die Finger im Spiel hat, misstrauen sie medizinischen Ratschlägen eher. Das ist das zentrale Ergebnis einer aktuellen Studie.

Photo

News • Studie zeigt Grenzen von LLM auf

KI in der Krebstherapie: Menschen treffen die besseren Entscheidungen

Berliner Forscher haben untersucht, ob generative Künstliche Intelligenz (KI), wie sie etwa bei ChatGPT zum Einsatz kommt, bei der personalisierten Behandlung von Krebs helfen kann.

Photo

News • KI produziert Fehler und Halbwahrheiten

Krebs-Therapieplan vom Chatbot? Noch lange nicht praxisreif

US-Experten haben den ChatGPT darauf angesetzt, Behandlungspläne für Krebs zu erstellen – und fanden zahlreiche Fehler, Halbwahrheiten und andere Unzulänglichkeiten in den KI-Texten.

Verwandte Produkte

Newsletter abonnieren