© Hartono Creative Studio – unsplash.com
News • Prävention gegen Fake-Science
Wie „immun“ ist die Wissenschaft gegenüber Manipulation?
Ende September berichtete das „Science Magazine“ über den Verdacht eines Wissenschaftsskandals: Der US-amerikanische Neurowissenschaftler Eliezer Masliah habe Forschungsergebnisse manipuliert.
Dieser Verdacht1 erschütterte die Neurologie weltweit – der einflussreiche Forscher hat schließlich zahlreiche Studien zu Alzheimer und Parkinson durchgeführt. Deshalb stellt sich die Frage: Wie immun ist die Wissenschaft? Und in welchem Umfang können „präventive“ Maßnahmen umgesetzt werden?
Wie Prof. Daniela Berg, stellvertretende Präsidentin der Deutschen Gesellschaft für Neurologie (DGN), ausführt, sind Forscher der wissenschaftlichen Integrität verpflichtet. Diese bildet laut der Deutschen Forschungsgemeinschaft (DFG) die Grundlage einer vertrauenswürdigen Wissenschaft. „Im Rahmen ihres Verantwortungsbereichs hat die DFG zur Sicherung der guten wissenschaftlichen Praxis Leitlinien aufgestellt, die die grundlegenden Prinzipien und Standards guter wissenschaftlicher Praxis abbilden.“2 Die Leitlinie zur „Verpflichtung auf die allgemeinen Prinzipien“3 hebt hervor: „Zu den Prinzipien gehört es insbesondere, lege artis zu arbeiten, strikte Ehrlichkeit im Hinblick auf die eigenen und die Beiträge Dritter zu wahren, alle Ergebnisse konsequent selbst anzuzweifeln sowie einen kritischen Diskurs in der wissenschaftlichen Gemeinschaft zuzulassen und zu fördern.“
Mittlerweile hat nahezu jede wissenschaftliche Institution, Forschungseinrichtung oder Fachgesellschaft Kodizes entwickelt, je nach Schwerpunkt für das grundwissenschaftliche Arbeiten, die Durchführung klinischer Studien oder für die Erstellung von Leitlinien. „Grundsätzlich lässt sich sagen, dass es klare Regelwerke gibt und sich die meisten Wissenschaftler ihnen verpflichtet fühlen“, so Prof. Berg. „Dennoch kommt es in seltenen Einzelfällen, sei es unbeabsichtigt oder mit betrügerischer Intention, auch zu Verfälschungen in Forschungsarbeiten.“
Das Anzweifeln und die kritische Auseinandersetzung sind das Wesen der Wissenschaft – und je mehr das gefördert wird, desto erfolgreicher und weniger anfällig für Fehler ist die Forschung
Daniela Berg
Nach Ansicht der Expertin könnten aber verschiedene Maßnahmen dieses Risiko maßgeblich verringern. Wesentliche Kriterien für die „Sicherheit“ von Forschungsergebnissen sind die Replizierbarkeit und die Reproduzierbarkeit. „Ersteres bedeutet, dass ein Experiment, das unter genau den gleichen oder leicht abgewandelten Bedingungen durchgeführt wird, zu den gleichen Ergebnissen kommt und damit ihre Generalisierbarkeit bestätigt. Der Begriff Reproduzierbarkeit wird häufig allgemeiner verwendet und bedeutet in der Regel, dass die Ergebnisse wiederholt generiert werden können – auch von anderen Forschungsgruppen bzw. Laboren“, erklärt die Expertin. Die Reproduktion durch eine andere Forschungsgruppe ist oft nicht unmittelbar festzustellen, da unpublizierte Daten und Forschungsansätze zunächst nicht mit anderen, konkurrierenden Arbeitsgruppen geteilt werden. Die Replizierbarkeit im eigenen Haus wird damit zu einem wesentlichen Qualitätskriterium.
Entsprechend wichtig sei es, in einer Arbeitsgruppe eine Kultur des Hinterfragens und eine gute Fehlerkultur zu etablieren. „Das Anzweifeln und die kritische Auseinandersetzung sind das Wesen der Wissenschaft – und je mehr das gefördert wird, desto erfolgreicher und weniger anfällig für Fehler ist die Forschung“, so Prof. Berg. Sie plädiert daher für flache Hierarchien in der Wissenschaft, in der eine offene Fehlerkultur auch die Leitenden der Forschungsgruppen einschließt – so, wie es in Deutschland und Europa bereits vielerorts Standard ist. Denn bei Forschungsskandalen, auch bei dem aktuellen, seien es oft hochrenommierte Persönlichkeiten, die unter den Verdacht von Manipulation und Täuschung geraten. In einer hierarchischen, autoritären, vielleicht sogar angstbesetzten Arbeitsstruktur trauen sich Mitarbeitenden nicht, den Chef auf Fehler hinzuweisen. „Die Leitungsebenen haben daher eine besondere Verantwortung, ein gutes Klima der Offenheit und des Vertrauens zu schaffen“, mahnt Berg. Kritische Mitarbeitende seien gute Mitarbeitende. Das sieht auch die DFG so: „So erfüllen Hinweisgebende, die einen begründeten Verdacht eines wissenschaftlichen Fehlverhaltens anzeigen, eine für die Selbstkontrolle der Wissenschaft unverzichtbare Funktion. Wissenschaftliche Fachgesellschaften fördern gute wissenschaftliche Praxis durch eine gemeinsame Willensbildung ihrer Mitglieder und durch die Festlegung forschungsethischer Standards, auf die sie ihre Mitglieder verpflichten und die sie in der Community etablieren.“2
Auch bedürfe es eines konstruktiven Umgangs mit Fehlern. „Fehlschläge, Ablehnungen und Scheitern gehören im Kern zur Wissenschaft und negative Forschungsergebnisse tragen ebenso wie positive zum Erkenntnisgewinn bei“, so die Parkinson-Forscherin. Wie sie glaubt, bedarf es eines Umfelds, das Scheitern zulässt, negative Ergebnisse bekannt und somit „salonfähig“ macht. Der Titel eines juristischen Workshops der Uni Hannover brachte das mit dem Begriff des „Nach-vorne-Scheiterns“ gut auf den Punkt. Noch sei aber häufig der Druck, positive Ergebnisse zu generieren, die treibende Kraft, was man daran ablesen könne, dass positive Studien meist als hochwertiger eingestuft würden und am Ende oft auch hochrangiger publiziert werden könnten. „Ein solches Umfeld kann ein unbewusstes Bias darstellen, negative Signale werden von den Forschenden dann leichter übersehen.“
Dieser Artikel könnte Sie auch interessieren
Artikel • Morbiditäts- und Mortalitäts-Konferenz
M&M: Aus Fehlern lernen
Eine plötzliche Blutung, eine unerwartete Infektion, ein unglücklicher Schnitt – nicht immer läuft bei einem Eingriff alles so, wie es sollte. Komplikationen und eigene Fehler können aber auch ihre guten Seiten haben – wenn man richtig mit ihnen umgeht, sagt Prof. Dr. Niels Zorger, Chefarzt der Radiologie, Neuroradiologie und Nuklearmedizin am Krankenhaus Barmherzige Brüder in Regensburg.
Last, but not least stelle auch die ausreichende Finanzierung von Forschung ein Sicherheitsnetz dar: Ein hoher Publikationsdruck und Schnelligkeit könnten zulasten der Qualität gehen. Wissenschaftsprojekte sollten so finanziert sein, dass ein umfassendes „Controlling“ zum Standardprozedere gehört und nicht wegrationalisiert wird. Fehler oder gar bewusste Manipulationen würden dann auch eher auffallen als ohne die kritische Prüfung der Daten und es könnte sogar genug Zeit geben, einen Versuch unter anderen Bedingungen zu wiederholen.
Angesichts des aktuellen Wissenschaftsskandals stellt sich auch die Frage, ob künstliche Intelligenz (KI) die Wissenschaft noch manipulationsanfälliger macht. Laut Prof. Berg ist das per se nicht der Fall. Natürlich könne KI Manipulationen erleichtern, diese seien aber auch vorher in Excel-Tabellen oder mit Grafikprogrammen möglich gewesen. Umgekehrt könne KI jedoch eingesetzt werden, um Studiendaten zu überprüfen und Forschung sicherer zu machen. Es gibt dafür bereits verschiedene Möglichkeiten.4,5
Referenzen:
- Piller C. Picture imperfect. Science. 2024 Sep 27;385(6716):1406-1412. doi: 10.1126/science.adt3535. Epub 2024 Sep 26. PMID: 39325884.
- Kodex „Wissenschaftliche Integrität“, Präambel, Deutsche Forschungsgemeinschaft
- Kodex „Wissenschaftliche Integrität“, Leitlinie 1: Verpflichtung auf die allgemeinen Prinzipien, Deutsche Forschungsgemeinschaft
- Odri GA, Ji Yun Yoon D. Detecting generative artificial intelligence in scientific articles: Evasion techniques and implications for scientific integrity. Orthop Traumatol Surg Res. 2023 Dec;109(8):103706. doi: 10.1016/j.otsr.2023.103706. Epub 2023 Oct 12. PMID: 37838021.
- Besong DO. New Software Interface for Registering Rapid Antigen Test Results to Prevent Fraud. Disaster Med Public Health Prep. 2022 Oct 13;17:e260. doi: 10.1017/dmp.2022.226. PMID: 36226404.
Quelle: Deutsche Gesellschaft für Neurologie
30.10.2024