Fortbildungstag 2023
ChatGPT schreibt Artikel: KI in der Medizin – ungedingt lesen!
- Posted by: Michael Wachholz
- Category: Künstliche Intelligenz Standard Tipps für den ärztlicher Dienst Tipps für Pflegekräfte
Ich sitze im Café, recherchiere „Künstliche Intelligenz in der Medizin“. Dann frage ich mich: Warum mache ich mir eigentlich die Mühe. Also bitte ich ChatGPT einen Artikel über das Thema zu schreiben. Nachdem ich ein paar Prompts ausprobiert habe schreibt ChatGPT
Medizin im KI-Zeitalter: Neue Chancen für Ärztinnen und Ärzte
2023 ist das Jahr, in dem künstliche Intelligenz (KI) den Alltag der breiten Bevölkerung revolutionieren wird, und Experten sind sich sicher, dass ein außergewöhnlicher Meilenstein kurz bevorsteht. Einer der Hauptakteure dieser Entwicklung ist das US-Start-up OpenAI, das mit seinem kostenlosen Chatbotprototyp ChatGPT seit November 2022 für Furore sorgt. Dank seiner beeindruckenden Fähigkeiten hat das textbasierte Dialogsystem in kürzester Zeit eine Nutzerschaft von geschätzten 100 Millionen Menschen angezogen (Stand 3. Februar 2023).
Das Herzstück
Das Herzstück von ChatGPT ist das KI-Modul GPT4, dass sich aus einer Fülle verschiedener Informationsquellen speist – von Nachrichtenartikeln und Büchern über Blogs und Foren bis hin zu sozialen Medien und gesprochener Sprache. Indem es rund eine halbe Billion Wörter Text verarbeitet hat, hat das sogenannte Large Language Model (LLM) gelernt, wie Sprache funktioniert und wie sie sich passend zum jeweiligen Kontext ausdrücken sollte. Dabei machen die Informationen der gesamten Wikipedia-Enzyklopädie lediglich drei Prozent des von GPT4 verarbeiteten Datenvolumens aus, wie Prof. Dr. rer. nat. Ute Schmid, Psychologin und Informatikerin an der Universität Bamberg, dem Deutschen Ärzteblatt (DÄ) erläutert.
Verblüffende Kompetenzen
Das Ergebnis dieser Lernleistung ist eine bemerkenswert menschenähnliche Ausdrucksweise. „Selbst manche KI-Forscher waren von GPT4s Fähigkeiten überrascht“, so Schmid. Dabei gerät leicht in Vergessenheit, dass moderne KI im Kern auf Mustererkennung und wahrscheinlichkeitsbasierten Sätzen basiert – und damit, trotz der gängigen Bezeichnung, nicht im herkömmlichen Sinne intelligent ist.
Seit der Version 4 lässt sich inzwischen recht genau sagen, auf welche Quellen die KI für eine bestimmte Antwort zurückgreift. Die Palette der möglichen Anwendungsbereiche, insbesondere in der Medizin, ist beeindruckend. So könnten ChatGPT und ähnliche Anwendungen in Zukunft als Diagnoseunterstützungssysteme fungieren, die Ärztinnen und Ärzten dabei helfen, Krankheiten anhand von Symptomen und Krankengeschichten zu identifizieren – nicht unbedingt besser als Fachleute, aber wesentlich schneller.
Dabei ist es wichtig, solche Anwendungen von KI-Systemen zu unterscheiden, die Bildgebungsverfahren wie Röntgenbilder, Blut- und Gewebeproben oder MRT-Scans auswerten. Solche KI-basierten Systeme vergleichen die Bildgebung in wenigen Sekunden bis Minuten mit tausenden oder gar Millionen bereits vorhandenen Scans und schlagen eine entsprechende Diagnose vor, die dann von Ärztinnen und Ärzten überprüft, ergänzt oder korrigiert wird. Durch diese Unterstützung können Radiologen oder Pathologen bereits heute erhebliche Zeit einsparen. In Ländern wie den USA oder Israel setzen pathologische Institute in großen Krankenhäusern solche Systeme bereits routinemäßig ein.
Arztbriefe vom Chatbot
Textbasierte Dialogsysteme wie ChatGPT können auch charmant bei der Entscheidungsfindung für die beste Therapie oder Behandlung unterstützen, indem sie relevante medizinische Daten und Empfehlungen auf den Tisch legen.
Im medizinischen Bereich wird ChatGPT insbesondere bei der Erstellung von Arztbriefen eine nützliche Assistentenrolle einnehmen, meint Prof. Dr. med. Michael Forsting, Neuroradiologe und Leiter des Instituts für Künstliche Intelligenz in der Medizin (IKIM) am Universitätsklinikum Essen, im Gespräch mit dem DÄ. „Bisher ist ChatGPT in der Medizin noch nicht besonders versiert“, fügt Forsting hinzu. Dennoch handelt es sich bei der Anwendung um ein „unglaublich leistungsstarkes Instrument“. Sobald OpenAI, das Unternehmen hinter ChatGPT, das Programm gezielt mit medizinischen Daten füttere, könne es dazu beitragen, komplexe medizinische Zusammenhänge in einfache Sprache zu übersetzen. Dadurch könnten sich Ärztinnen und Ärzte die Mühe ersparen, medizinisch komplexe Themen für Laien verständlich zu formulieren, erklärt Forsting.
Die Fachärzte für Frauenheilkunde und Geburtshilfe Univ.-Prof. Dr. med. Philipp Soergel vom Johannes Wesling Klinikum Minden, Universitätsklinikum der Ruhr-Universität Bochum, und Dr. med. Albert Neff vom Krankenhaus Lübbecke betrachten die Erstellung von Arztbriefen ebenfalls als diejenige Anwendung, die die Arbeitsbelastung von Ärztinnen und Ärzten reduzieren kann. Die beiden Ärzte haben ChatGPT einige Aufgaben gegeben, die für sie direkt Zeit einsparen würden Ihre Bilanz: „ChatGPT liefert einen soliden Grundstock für einen Arztbrief“, sagt Neff. Allerdings neige das Programm dazu, zu konfabulieren. „Das bedeutet, dass dieses leistungsstarke Werkzeug auch falsche oder sogar völlig unsinnige Informationen schreiben kann, die dennoch glaubwürdig erscheinen“, erläutert Neff.
In ihrem Beispiel für einen Arztbrief erfindet ChatGPT beispielsweise eine durchgeführte Mammografie und fügt hinzu, dass die Narkose gut vertragen wurde, obwohl die Ärzte ChatGPT diese Informationen nicht mitgeteilt hatten. „Die Selbstüberschätzung ist eines der größten Probleme dieses Modells“, sagt auch Dr. Narges Ahmidi, Leiterin der Abteilung „Reasoned AI Decisions“ am Fraunhofer-Institut für Kognitive Systeme IKS. „Wenn man mit dem Programm spricht, hat man das Gefühl, dass es sehr viel weiß.“ Derzeit gibt es jedoch keine Möglichkeit herauszufinden, wie verlässlich die Informationen sind, die ChatGPT bereitstellt. Daher ist es von entscheidender Bedeutung, dass medizinisches Fachpersonal die generierten Texte sorgfältig überprüft und gegebenenfalls korrigiert, bevor sie zur Kommunikation mit Patientinnen und Patienten oder anderen medizinischen Fachkräften verwendet werden.
Ethische und rechtliche Fragestellungen
Die zunehmende Verbreitung und Anwendung von KI-Systemen wie ChatGPT in der Medizin wirft auch ethische und rechtliche Fragen auf. Datenschutz und der vertrauliche Umgang mit Patientendaten sind besonders wichtig, wenn solche Systeme Zugang zu sensiblen Informationen erhalten. Darüber hinaus müssen klare Richtlinien und Zuständigkeiten für den Fall geschaffen werden, dass KI-Systeme fehlerhafte Diagnosen oder Empfehlungen abgeben.
Eine weitere Herausforderung ist die Frage der Haftung: Wer trägt die Verantwortung, wenn ein Chatbot wie ChatGPT falsche medizinische Ratschläge gibt oder eine fehlerhafte Diagnose erstellt? Rechtsexperten sind sich einig, dass es notwendig ist, Gesetze und Vorschriften anzupassen, um diese neuen Technologien angemessen zu berücksichtigen.
Der Weg in die Zukunft der Medizin ist also gespickt mit interessanten Fragestellungen und Herausforderungen. Dennoch bietet ChatGPT großes Potenzial, um den Arbeitsalltag von Ärztinnen und Ärzten zu erleichtern und die Kommunikation zwischen medizinischem Fachpersonal und Patientinnen und Patienten zu verbessern. Mit sorgfältiger Überprüfung, ethischen Richtlinien und rechtlichen Anpassungen könnte ChatGPT in absehbarer Zeit zu einem nützlichen und verlässlichen Instrument in der medizinischen Welt werden.
Die Rolle der KI in der Medizin: Helfer, nicht Ersatz
Trotz der zahlreichen Vorteile und Potenziale von KI-Systemen wie ChatGPT ist es wichtig, die Rolle dieser Technologie im Gesundheitswesen realistisch einzuschätzen. Künstliche Intelligenz kann Ärztinnen und Ärzten bei der Analyse von Daten, der Diagnosestellung und der Entscheidungsfindung unterstützen. Sie sollte jedoch nicht als Ersatz für das medizinische Fachwissen und die menschliche Intuition angesehen werden, die bei der Behandlung von Patientinnen und Patienten unerlässlich sind.
Die Zukunft der KI in der Medizin liegt daher weniger in der vollständigen Automatisierung, sondern vielmehr in der Kollaboration zwischen Menschen und Maschinen. Ärztinnen und Ärzte können von KI-Systemen profitieren, indem sie Zeit sparen und effizienter arbeiten. Gleichzeitig müssen sie aber auch die Grenzen dieser Technologien erkennen und die Verantwortung für die bestmögliche Versorgung ihrer Patientinnen und Patienten übernehmen.
Reproduktion statt Bewertung
ChatGPT ist beispielsweise nicht in der Lage, den Grad der Evidenz oder die Relevanz und Anwendbarkeit von Studienergebnissen einzuschätzen und auch keine Quellenangaben zu machen. „Wenn der Nutzer unkritisch damit umgeht, können daraus Gefahren entstehen, weil beispielsweise seltene Kombinationen übersehen werden oder ein voreingenommener Blick aus der Vergangenheit in eine aktuelle Empfehlung übernommen wird“, warnt er, betont jedoch, dass diese heutigen Schwächen in Zukunft durchaus behoben werden könnten. Hierbei sei auch wichtig, welche Mechanismen zur Reduzierung des sogenannten Automatisierungsfehlers entwickelt werden können.
Menschliches Vertrauen in die Maschine
Schmid erweitert den Gedanken und weist darauf hin, dass das Phänomen des sogenannten Anthropomorphismus in Zukunft eine größere Rolle spielen könnte: Aufgrund der beeindruckend menschenähnlichen Kommunikation von Programmen wie ChatGPT neigen viele Menschen dazu, deren strukturelle Fähigkeiten zu überschätzen und ihnen zu viel Vertrauen entgegenzubringen. „Wir Menschen sind evolutionär darauf ausgelegt, dass wir anderen autonomen Wesen ähnliche geistige Fähigkeiten zusprechen wie uns selbst“, erklärt die Psychologin und Informatikerin Schmid. Wenn wir mit einem KI-System interagieren, neigen wir sehr schnell dazu, unbewusst auch dem Computerprogramm diese geistigen Fähigkeiten zuzuschreiben. „Insbesondere, wenn etwas so scheinbar präzise daherkommt, schenken wir ihm schnell Vertrauen“, betont Schmid. „Blindes Vertrauen in eine Systemausgabe ist jedoch grundsätzlich niemals angebracht.“
Lernen und Anpassen
All diese Phänomene sind jedoch bekannt und können von Menschen entsprechend gelernt und bewältigt werden. Für die Zukunft zeigt sich Wehkamp daher durchaus optimistisch. „Wenn richtig und verantwortungsbewusst angewendet, kann der Nutzen in Zukunft enorm sein“, sagt er.
Mangelnde Transparenz: Blackbox KI
Diese Mitgestaltung muss über die rein individuelle Anwendung bestimmter KI-Systeme hinausgehen, fordert Bart de Witte. Der KI-Experte und ehemalige Leiter der Abteilung Digital Health DACH bei IT-Riese IBM gründete vor fast vier Jahren die Hippo AI Foundation, mit der er medizinische Daten der Allgemeinheit zugänglich machen möchte, damit sich KI-basierte Gesundheitsforschung nicht in privaten Händen konzentriert. Er warnt davor, speziell ChatGPT allzu naiv zu begegnen, denn das Programm sei in zweifacher Hinsicht eine Blackbox: Nicht nur sei die Entscheidungsfindung von Deep-Learning-Algorithmen rein technisch oft nicht mehr nachvollziehbar – auch sei bei kommerziellem Code von außen nicht zu beurteilen, welche Limitierungen oder Verzerrungen bewusst programmiert wurden. „Solange ChatGPT nicht offen ist, sollte man vermeiden, es in der Gesundheitsversorgung zu skalieren“, fordert er.
Verzerrungen und Risiken
Bei anderen kommerziellen KI-Anwendungen wie dem Text-zu-Bild-Programm Stable Diffusion habe sich bereits gezeigt, dass vorgelagerte Logiken eincodiert wurden, um bestimmte Inhalte zu sperren oder zu befördern, beispielsweise aus Gründen der kulturellen Sensibilität. Solche nicht nachvollziehbaren Verzerrungen könnten unkalkulierbare Risiken bergen, wenn es um medizinische Daten geht. Außerdem stelle sich grundsätzlich die Frage, was mit dem durch ChatGPT generierten Wissen und den Daten geschieht, wenn sie in privater Hand bleiben.
Optimismus für Open-Source-Alternativen
Auch de Witte ist optimistisch: „Die Erfahrung der vergangenen Jahre zeigt, dass kommerzielle KI-Dienste sehr schnell an Marktanteilen verlieren, sobald es Open-Source-Alternativen gibt.“
Neue Horizonte
KI-Systeme wie ChatGPT eröffnen uns neue Horizonte, indem sie uns wertvolle Unterstützung bieten und Arbeitsabläufe optimieren.
Wenn wir künstlicher Intelligenz nutzen, uns helfen lassen, die komplexe Bibliothek des medizinischen Wissens zu meistern – wenn wir die richtigen Fragen stellen und offen für seine Unterstützung sind, eröffnen sich uns neue Horizonte in der Patientenversorgung.
Autor: GPT4 + WebPlugin (für den Zugriff auf die aktuellen Daten im Internet)
Quelle: Internet, insbesondere www.aerztezeitung.de
Möchten Sie lernen, welche Programme Ihnen helfen, was sie kosten (sehr wenig) und wie sie sie benutzen (sehr einfach), dann
- rufen Sie uns an 0201-843 99 89 0 oder
- schreiben Sie uns eine Email an martina.wachholz@kompetenz-trainieren.de oder
- klicken Sie hier oder
- füllen Sie die Anmeldung auf der letzten Seite der Seminarbeschreibung aus.
Weniger arbeiten mit künstlicher Intelligenz – 2 Tage