mHealth-Apps sind fest im Alltag vieler Menschen verankert. Sie helfen beim Fitnesstraining, der Zykluskontrolle oder beim Einnehmen von Medikamenten – und verarbeiten dabei besonders sensible Gesundheitsdaten.

© Patrick Pollmeier / Universität Bremen 

News • Mobile Gesundheitsanwendungen

Datenschutz: Studie zeigt Lücken und „Dark Patterns“ in beliebten mHealth-Apps

Forschende der Universität Bremen haben erhebliche Diskrepanzen zwischen den Datenschutzversprechen und dem tatsächlichen Verhalten von mobilen Gesundheitsanwendungen (mHealth-Apps) aufgedeckt:

Viele Apps übermitteln personenbezogene Daten, bevor Nutzer ihre Zustimmung gegeben haben. 

Die Arbeit mit dem Titel „Transparency and Consent Challenges in mHealth Apps: An Interdisciplinary Study of Privacy Policies, Data Sharing, and Dark Patterns“ veröffentlichte Dr. Mehrdad Bahrini mit fünf weiteren Forschenden der Universität Bremen im Anschluss an die Tagung „European Symposium on Research in Computer Security (ESORICS 2025)“. Dabei handelt es sich um eine der führenden internationalen Konferenzen im Bereich Computersicherheit, auf der das Team seine Ergebnisse vorgestellt hatte. Die Forschung der Bremer Wissenschaftler verbindet Ansätze aus Informationssicherheit, Human-Computer Interaction und Datenschutzrecht – ein zentraler Schwerpunkt des Digital Media Lab an der Universität Bremen. 

Rechtliche Konformität allein reicht nicht aus, wenn Nutzer nicht nachvollziehen können, was mit ihren Daten geschieht. Gerade bei sensiblen Gesundheitsdaten ist Vertrauen entscheidend

Mehrdad Bahrini

Die Forschenden haben zwanzig populäre mHealth-Apps, die in Deutschland verfügbar sind, umfassend analysiert. Solche Apps sind aus dem Alltag vieler Menschen kaum wegzudenken. Sie helfen beim Fitnesstraining, der Zykluskontrolle oder beim Einnehmen von Medikamenten – und verarbeiten dabei besonders sensible Gesundheitsdaten. Doch wie sicher und transparent gehen diese Anwendungen tatsächlich mit diesen Informationen um? 

Um das herauszufinden, brachten die Wissenschaftler statische und dynamische Analysemethoden zum Einsatz, um das App-Verhalten und Datenflüsse zu untersuchen. Auch die Datenschutzrichtlinien und Einwilligungsdialoge untersuchten sie im Detail. „Wir wollten nicht nur sehen, ob Daten geteilt werden, sondern auch, wann und wohin sie gesendet werden – und ob die Nutzer überhaupt informiert werden“, erklärt Dr. Mehrdad Bahrini. „Unser Ziel war es, die technische Perspektive mit rechtlichen und nutzerzentrierten Aspekten zu verbinden.“ 

Die Untersuchung offenbart mehrere gravierende Probleme in Bezug auf Datenschutz und Transparenz: So übermittelten mehrere Apps personenbezogene Daten wie etwa Werbe-IDs, noch bevor die Nutzer ihre Zustimmung gegeben hatten. Alle zwanzig untersuchten Apps sendeten außerdem Daten in Drittländer, insbesondere in die USA. Etwa 40% kommunizierten zusätzlich mit Servern in Irland, das häufig als europäischer Datenknotenpunkt dient. Darüber hinaus wurden Verbindungen zu Servern in Australien, Schweden, China und Singapur festgestellt – ein Hinweis auf die weltweite Verteilung der Datenflüsse in mHealth-Apps. Um die Zustimmung der Nutzer zur Datenweitergabe zu erhalten, enthielten alle Apps mindestens einen manipulativen Designtrick („Dark Pattern“), der Nutzer dazu verleitet, voreilig alle Bedingungen zu akzeptieren. 

Dazu kamen Sprach- und Verständlichkeitsprobleme: In 10 von 16 Apps mit deutscher Oberfläche waren die Datenschutzrichtlinien ausschließlich auf Englisch verfügbar. Und selbst bei deutschen Datenschutzrichtlinien blieb manches im Unklaren: Viele Apps nannten Datenempfänger nur in allgemeinen Kategorien wie „Partner“ oder „Dienstleister“, anstatt konkrete Unternehmen aufzuführen. 

Die Studie zeigt eine deutliche Lücke zwischen den erklärten Datenschutzpraktiken und dem tatsächlichen Verhalten der Apps. Auch wenn viele Anwendungen formal den Anforderungen der Datenschutzgrundverordnung der EU (DSGVO) genügen, mangelt es häufig an echter Transparenz und Verständlichkeit. „Rechtliche Konformität allein reicht nicht aus, wenn Nutzer nicht nachvollziehen können, was mit ihren Daten geschieht“, betont Bahrini. „Gerade bei sensiblen Gesundheitsdaten ist Vertrauen entscheidend – hier geht es um Ethik ebenso wie um Regulierung.“ 

Die Ergebnisse verdeutlichen den Bedarf nach klareren Vorgaben für transparente Datenschutzinformationen sowie nach Designstandards, die manipulative Einwilligungsdialoge verhindern – insbesondere im Bereich digitaler Gesundheitsanwendungen. 

In zukünftigen Projekten plant das Team, automatisierte Verfahren zur Analyse von Datenflüssen und zur Erkennung von Dark Patterns zu entwickeln. Ziel ist es, Entwickler und Aufsichtsbehörden bei der Bewertung und Verbesserung digitaler Gesundheitsanwendungen zu unterstützen. 


Quelle: Universität Bremen 

24.10.2025

Verwandte Artikel

Photo

News • Der Patient im Fokus

Wie digitale Technologien Menschen mit Diabetes helfen

Menschen mit Diabetes sind mit ihrer Therapie größtenteils auf sich alleine gestellt. Ob Apps, Wearables oder Instrumente zur Glukosemessung – viele Patienten nutzen zur Unterstützung…

Photo

News • Digitalisierung

„Medizinische Apps und kognitive Systeme verbessern die Patientenversorgung“

Die Digitalisierung und mobile Kommunikationen werden die Gesundheitsversorgung in den nächsten Jahren revolutionieren. Dazu gehören medizinische Apps ebenso wie kognitive Systeme, die aus großen…

Photo

News • MEDICA CONNECTED HEALTHCARE FORUM

Vernetzung im Gesundheitsbereich hat viele Facetten

Vernetzung aus dem Krankenhaus in die Schule: Die Themen beim MEDICA CONNECTED HEALTHCARE FORUM gehen weit über das hinaus, woran man spontan beim Stichwort Vernetzung denkt. An den neuen…

Verwandte Produkte

Newsletter abonnieren