Technologie

KI in der Medizin: ChatGPT und die Grenzen der digitalen Selbstdiagnose

KI-Chatbots wie ChatGPT sind beliebt - ihren medizinischen Ratschlägen wird aber mit Skepsis begegnet, so eine neue Studie. Das könnte die Zukunft der digitalen Medizin beeinflussen.
01.08.2024 07:59
Lesezeit: 3 min
KI in der Medizin: ChatGPT und die Grenzen der digitalen Selbstdiagnose
Eine Radiologin im Unfallkrankenhaus Berlin betrachtet in einer KI-basierten App auf einem Tablet Gehirnbilder eines Patienten. Laut Studien gibt es noch große Vorbehalte gegenüber der medizinischen Kompetenz von Künstlicher Intelligenz. (Foto: dpa) Foto: Monika Skolimowska

Ein unerklärliches Ziehen im Bauch, ein hartnäckiger Husten oder ein merkwürdiger Fleck auf dem Zehennagel: Dass Menschen bei unterschiedlichsten Symptomen Google befragen, ist kein neues Phänomen – und mit der zunehmenden Beliebtheit von KI-basierten Chatbots wie ChatGPT scheinen die Möglichkeiten zur digitalen Selbstdiagnose weiter gewachsen zu sein. Tatsächlich aber wird der medizinischen Kompetenz einer solchen Künstlichen Intelligenz noch mit großen Vorbehalten begegnet, zeigt eine neue Studie, über die im Fachblatt „Nature Medicine“ berichtet wird.

Wahrnehmung von KI-Ratschlägen untersucht

Die Würzburger Wissenschaftler untersuchten die Reaktion von Menschen auf KI-generierte medizinische Ratschläge. „Uns interessierte nicht die technische Kompetenz der KI, sondern allein die Frage, wie der KI-Output wahrgenommen wird“, sagt Moritz Reis von der Julius-Maximilians-Universität.

Dafür teilte das Forschungsteam mehr als 2.000 Probanden in drei Gruppen ein, die identische medizinische Ratschläge erhielten. Die erste Gruppe bekam gesagt, dass die Empfehlungen von einem Arzt oder einer Ärztin stammten. Bei der zweiten wurde ein KI-basierter Chatbot als Urheber genannt und die dritte Gruppe ging davon aus, dass die Ratschläge zwar von einem Chatbot stammten, aber nochmal ärztlich überprüft wurden.

Die Probanden bewerteten die Empfehlungen auf Verlässlichkeit, Verständlichkeit und Empathie. Sobald sie vermuteten, dass eine KI beteiligt war, nahmen sie die Ratschläge als weniger empathisch und verlässlich wahr. Dies galt auch für die Gruppe, die glaubte, dass ein Arzt die KI-Empfehlungen überprüft hatte. Entsprechend waren sie weniger bereit, diesen Empfehlungen zu folgen. „Der Effekt der Voreingenommenheit gegen KI ist zwar nicht riesig, aber statistisch signifikant“, kommentiert Reis.

Erklärungsansätze für KI-Skepsis

Die KI-Skepsis erklärt sich der Kognitionspsychologe teilweise mit Stereotypen: „Viele glauben, eine Maschine könne nicht empathisch sein.“ Bei der Verständlichkeit bewerteten alle drei Gruppen die Ratschläge jedoch gleich.

Für die Forschungsgruppe ist die festgestellte KI-Skepsis wichtig, da KI in der Medizin eine immer wichtigere Rolle spiele. So werden derzeit zahlreiche Studien zu neuen KI-Anwendungsmöglichkeiten veröffentlicht. Umso bedeutsamer sei die öffentliche Akzeptanz, sagt Reis: „Bei der Frage nach dem künftigen Einsatz von KI in der Medizin geht es nicht nur um das technisch Mögliche, sondern auch darum, wie weit Patientinnen und Patienten mitgehen.“ Aufklärung über entsprechende Anwendungen und KI generell sei nötig. „Darüber hinaus haben andere Studien gezeigt, wie wichtig es für das Patientenvertrauen ist, dass am Ende immer der menschliche Arzt oder Ärztin gemeinsam mit den Patienten die finale Entscheidungsgewalt hat“, betont Reis.

Transparenz als Schlüsselfaktor

Für besonders relevant hält der Wissenschaftler Transparenz: „Das bedeutet zum Beispiel, dass eine KI nicht nur eine Diagnose stellt, sondern auch nachvollziehbar erklärt, welche Informationen zu diesem Ergebnis geführt haben.“

Die Qualität dieser Ergebnisse wird bereits seit längerem wissenschaftlich untersucht - mit unterschiedlichen Erfolgen. So attestierte etwa eine 2023 im „Journal of Medical Internet Research“ ChatGPT eine hohe Diagnosegenauigkeit: Getestet mit 36 Fallbeispielen stellte der Chatbot in fast 77 Prozent der Fälle die korrekte endgültige Diagnose. In Notaufnahmen reichte die Diagnosekompetenz einer niederländischen Studie zufolge gar an die von Ärzten heran. Ausgestattet mit den anonymisierten Daten von 30 Patienten, die in einer niederländischen Erste-Hilfe-Stelle behandelt worden waren, stellte ChatGPT in 97 Prozent der Fälle die richtige Diagnose (Annals of Emergency Medicine, 2023).

Im Gegensatz dazu stellte eine 2023 im Fachblatt „Jama“ veröffentlichte Studie fest, dass der Chatbot bei 70 medizinischen Fallbeispielen nur 27 Fälle richtig diagnostizierte. Das sind gerade einmal 39 Prozent. Eine im Journal „Jama Pediatrics“ präsentierte Studie kam zu dem Schluss, dass diese Trefferquote bei Krankheiten, die in erster Linie Kinder betreffen, noch schlechter ist.

ChatGPT in der medizinischen Ausbildung

Eine aktuelle im Fachblatt „Plos One“ veröffentlichte Studie hat nun untersucht, ob ChatGPT in der medizinischen Ausbildung von Nutzen sein könnte. Schließlich greife der Chatbot nicht nur auf eine riesige Wissensbasis zurück, sondern sei auch in der Lage, dieses Wissen interaktiv und verständlich zu vermitteln, so das Forschungsteam des kanadischen London Health Sciences Centre.

Die Gruppe fütterte ChatGPT mit 150 sogenannten Fallherausforderungen aus einer Datenbank mit medizinischen Fallgeschichten, in denen Symptome und Krankheitsverlauf beschrieben werden. Sowohl angehende als auch bereits im Beruf stehende Medizinerinnen und Mediziner sind aufgefordert, in einem Antwort-Wahl-Verfahren eine Diagnose zu stellen und einen Behandlungsplan zu entwickeln.

ChatGPT lag bei diesem Test in gerade einmal knapp der Hälfte der Fälle (74 von 150) richtig. Die Studie stellte fest, dass ChatGPT Schwierigkeiten bei der Interpretation von Laborwerten und bildgebenden Verfahren hat und wichtige Informationen übersehe. Entsprechend kommen die Autoren zu dem Schluss, dass ChatGPT in seiner derzeitigen Form als Diagnoseinstrument nicht genau sei und bei der Verwendung des Chatbots als Diagnosewerkzeug wie auch als Lehrmittel unbedingt Vorsicht geboten sei.

„Die Kombination aus hoher Relevanz und relativ geringer Genauigkeit spricht dagegen, sich bei der medizinischen Beratung auf ChatGPT zu verlassen, da es wichtige Informationen präsentieren kann, die möglicherweise irreführend sind“, heißt es dazu in der Studie – eine Warnung, die höchstwahrscheinlich ebenso für medizinische Laien gilt, die den Chatbot für digitale Selbstdiagnosen nutzen.

ChatGPTs eigene Einschätzung

ChatGPT selbst betont, dafür nicht geeignet zu sein. Befragt nach seiner diagnostischen Qualifikation antwortet der Bot: „Ich bin kein Arzt und habe keine medizinische Ausbildung. Ich kann Informationen über medizinische Themen bereitstellen, allgemeine Ratschläge geben und Fragen beantworten, aber ich kann keine medizinischen Diagnosen stellen oder professionelle medizinische Beratung bieten. Bei gesundheitlichen Problemen oder Fragen solltest Du immer einen Arzt oder einen qualifizierten Gesundheitsdienstleister konsultieren.“

Mehr zum Thema
article:fokus_txt
Anzeige
DWN
Technologie
Technologie BradyPrinter i7500: Revolution im Hochpräzisionsdruck

Sie haben genug vom altmodischen Druck großer Etikettenmengen? Keine Kalibrierung, keine Formatierung, kein umständliches Hantieren mit...

X

DWN Telegramm

Verzichten Sie nicht auf unseren kostenlosen Newsletter. Registrieren Sie sich jetzt und erhalten Sie jeden Morgen die aktuellesten Nachrichten aus Wirtschaft und Politik.
E-mail: *

Ich habe die Datenschutzerklärung gelesen und erkläre mich einverstanden.
Ich habe die AGB gelesen und erkläre mich einverstanden.

Ihre Informationen sind sicher. Die Deutschen Wirtschafts Nachrichten verpflichten sich, Ihre Informationen sorgfältig aufzubewahren und ausschließlich zum Zweck der Übermittlung des Schreibens an den Herausgeber zu verwenden. Eine Weitergabe an Dritte erfolgt nicht. Der Link zum Abbestellen befindet sich am Ende jedes Newsletters.

DWN
Politik
Politik „Machen Sie sich auf die Auswirkungen gefasst“: EU kündigt weitere Gegenmaßnahmen zu US-Zöllen an
03.04.2025

Die Präsidentin der Europäischen Kommission, Ursula von der Leyen, hat die Bürger der EU auf die bevorstehenden wirtschaftlichen Folgen...

DWN
Politik
Politik US-Finanzminister warnt vor Vergeltungszöllen: Eskalation könnte die Lage verschärfen
03.04.2025

US-Finanzminister Scott Bessent hat betroffene Länder vor einer schnellen Reaktion auf die jüngste Ankündigung von Präsident Donald...

DWN
Politik
Politik AfD-Kandidat erstmals ins Verfassungsgericht gewählt: Zweidrittelmehrheit im Thüringer Landtag
03.04.2025

Die AfD hat einen Kandidaten für den Thüringer Verfassungsgerichtshof durchgesetzt: Rechtsanwalt Bernd Falk Wittig wurde mit...

DWN
Unternehmen
Unternehmen Bewerbercheck: Dürfen Arbeitgeber frühere Chefs kontaktieren?
03.04.2025

Referenzen von ehemaligen Arbeitgebern können wertvolle Einblicke bieten – aber ist es rechtlich erlaubt, ohne Zustimmung des Bewerbers...

DWN
Unternehmen
Unternehmen Sichere KI statt Datenleck: Das müssen Firmen beim Chatbot-Einsatz beachten
03.04.2025

KI-Chatbots sind im Mittelstand längst Alltag – doch oft fehlt es an Sicherheitsstandards. Der Hamburger KI- und Digitalisierungsexperte...

DWN
Panorama
Panorama Orban trifft Netanjahu in Budapest trotz Haftbefehl -und erklärt Rückzug aus Internationalen Strafgerichtshof
03.04.2025

Viktor Orbán ignoriert den Haftbefehl, den der Internationale Strafgerichtshof gegen Israels Premier erlassen hat – und heißt ihn in...

DWN
Politik
Politik Russlands Verzögerung der Verhandlungen könnte auch der Ukraine nützen
03.04.2025

Die Verhandlungen zwischen Russland und der Ukraine über eine mögliche Waffenruhe oder Friedenslösung ziehen sich weiter hin. Während...

DWN
Finanzen
Finanzen DAX aktuell: DAX-Kurs fällt nach Trumps Zollankündigung - wie sollten Anleger reagieren?
03.04.2025

Die erneute Zollankündigung von US-Präsident Donald Trump hat am Donnerstag die Aktienmärkte stark unter Druck gesetzt. Der DAX-Kurs...