IA und Chatbot

Dieser Artikel wurde von Chat GPT geschrieben, der am 10. Mai mit dem Satz „Schreib einen Artikel über Chatbot in der Medizin” konsultiert wurde.
In den letzten Jahren sind Chatbots als Instrumente für die Verbesserung der Effizienz und der Zugänglichkeit von Gesundheitsleistungen immer populärer geworden. Chatbots sind Anwendungen, die künstliche Intelligenz verwenden, um sich mit den Nutzer:innen in natürlicher Sprache zu unterhalten, ähnlich der menschlichen Kommunikation.
In der Medizin können Chatbots eingesetzt werden, um Gesundheitsleistungen zu erbringen, die Fragen von Patient:innen zu beantworten, Termine zu verwalten und Informationen über Arzneimittel zu geben. Darüber hinaus können sie Patient:innen helfen, ihren Gesundheitszustand im Auge zu behalten und die Therapietreue zu verbessern.
Einer der größten Vorteile von medizinischen Chatbots ist, dass sie rund um die Uhr Gesundheitsfürsorge leisten können. Das kommt insbesondere Menschen zugute, die in abgelegenen Gegenden wohnen oder Schwierigkeiten haben, einen Arzt aufzusuchen. Außerdem können sie programmiert werden, um schnell und effizient auf die Fragen von Patient:innen zu antworten, denen so lange Wartezeiten und Termine in ferner Zukunft erspart bleiben.
Ein weiterer Vorteil ist, dass medizinische Chatbots imstande sind, individuelle Informationen zu liefern und die Fortschritte der Patient:innen zu verfolgen. Chatbots können programmiert werden, um Daten über die Symptome der Patient:innen und ihr Selbstmanagement zu sammeln und so den Ärzt:innen zu helfen, potenzielle Probleme zu erkennen und individuelle Therapien zur Verfügung zu stellen.
Jedoch haben medizinische Chatbots wie jede Art von Technologie auch einige Nachteile. Eines der größten Probleme ist die Präzision der von den Chatbots gegebenen Antworten. Obgleich sie programmiert werden können, um auf eine große Bandbreite von Fragen und Situationen zu antworten, sind sie nicht in der Lage, so individuell und genau wie eine ärztliche Untersuchung zu sein.
Überdies stellt sich das Problem von Datenschutz und Datensicherheit. Da die Chatbots sensible Daten der Patient:innen sammeln und verwalten, ist es wichtig, dass diese geschützt sind und die Betroffenen darüber informiert werden, welche Daten gesammelt und wie sie verwendet werden.
Fazit: Chatbots sind ein vielversprechendes Instrument, um die Zugänglichkeit und die Effizienz der Erbringung von Gesundheitsleistungen zu verbessern. Jedoch ist es wichtig, sie umsichtig einzusetzen und angemessen in die medizinische Praxis zu integrieren; zu dem muss dafür gesoegt werden, dass die Patient:innen informiert und sich der potenziellen Beschränkungen der Chatbots in der Medizin bewusst sind.
Wenn KI auf medizinische Fragen antwortet: Risiken und Verheißungen der Chatbots

Die medizinische Praxis ist in den letzten Jahren immer mehr online gegangen, auch wegen der COVID-19-Pandemie, und viele medizinische Systeme nutzen schon einfache Chatbots, zum Beispiel für die Terminplanung oder allgemeine Gesundheitsinformationen. Die nächste Herausforderung sind nun die Antworten auf klinische Fragen und die Diagnose.

Schon seit Jahren ist es üblich, vor einem Arzttermin seine Symptome im Internet zu suchen. Obwohl bekannt ist, dass „Dr. Google“ der Kontext fehlt und dazu neigt, unzuverlässige Quellen heranzuziehen, haben die Versuche, die Patient:innen von dieser Vorgehensweise abzubringen, nicht zu den gewünschten Ergebnissen geführt.

Mit den Fortschritten der digitalen Medizin setzen sich wesentlich leistungsfähigere Instrumente für die Selbstdiagnose durch – Chatbots wie ChatGPT von OpenAI, die neueste Version des Suchmotors Microsoft Bing (der auf Software von OpenAI beruht) und Google Med-PaLM – die das Potenzial haben, die Art, wie die Menschen Antworten auf ihre Gesundheitsfragen finden, zu verändern

LLMs sind Modelle der künstlichen Intelligenz, die Deep-Learning-Algorithmen nutzen, um die natürliche Sprache zu verarbeiten und zu verstehen. Sie werden im Internet mit Texten trainiert und sind in der Lage, Wortfolgen vorherzusehen und in einem Stil, der dem menschlichen ähnelt, auf Fragen zu antworten. Angesichts der Überlastung des medizinischen Personals hofft man, dass Chatbots beispringen können und zum Ansprechpartner für die Menschen werden. Die Anfänge sind vielversprechend und die ersten Tests der Forschenden zeigen, dass die KI-Programme sehr viel akkurater als eine Google-Suche sind.

Aber neben den Verheißungen bergen diese vielversprechenden Instrumente auch eine Reihe von Gefahren, darunter die Ungewissheit, wie akkurat die Informationen sind, die sie den Menschen geben, Datenschutzrisiken sowie mögliche in den Texten, aus denen die Algorithmen schöpfen, enthaltene rassistische und sexistische Vorurteile. Dazu gesellen sich die Risiken, die mit der Art, wie die Menschen die von KI erhaltenen Informationen interpretieren, einhergehen. Das heißt, die Bots haben negative Implikationen, die es bei der einfachen Google-Suche oder den Instrumenten zur Kontrolle von Symptomen nicht gab.

Darüber hinaus sind Chatbots sind einfacher zu benutzen als die Symptom-Checker, die man online findet, denn die Menschen können einfach beschreiben, wie sie sich fühlen, anstatt ihre Beschwerden in ein Programm einzugeben, das die statistische Wahrscheinlichkeit einer bestimmten Krankheit berechnet. Der Unterschied liegt in der Benutzung der natürlichen Sprache und der Bidirektionalität der Interaktion: Die Bots können den Patient:innen weitere Fragen stellen, wie es Ärzt:innen tun würden.

Gegenüber diesem großen Potenzial lauert als offensichtlichste Falle die Desinformation. Die Algorithmen sehen das folgende Wort aufgrund seiner Häufigkeit in den online zu findenden Texten voraus, mit denen sie trainiert wurden, wodurch theoretisch den Informationen der US-amerikanischen CDC das gleiche Gewicht zugemessen wird wie irgendeinem Thread auf Facebook.

Um „KI-Halluzinationen“ zu vermeiden, das heißt, Antworten, bei denen der Bot Informationen erfindet, lässt OpenAI (das Unternehmen, das ChatGBT geschaffen hat) die KI von Experten aus verschiedenen Bereichen „vor-trainieren“, damit sie entsprechend der Intentionen der Nutzer:innen antwortet. Allerdings hat OpenAI nicht genauer geprüft, ob sein Chatbot bestimmten Quellen mehr Bedeutung zumisst als anderen. Deswegen erklärt sich das Unternehmen mit einem Haftungsausschluss als nicht verantwortlich, in dem erklärt wird, dass ChatGPT nicht verwendet werden darf, um schwere Krankheiten zu diagnostizieren, Anleitungen zur Therapie von Krankheiten zu erhalten oder möglicherweise letale Beschwerden zu behandeln.

Eine Lösung, um diesen Risiken entgegenzuwirken, könnte sein, die Chatbots zu zwingen, sich nur mit bestimmten Quellen zu verbinden. Aber viele Studien und die Erfahrungen der Nutzer:innen haben gezeigt, dass die LLMs nicht existente Quellen hervorbringen und so formatieren können, das sie als zuverlässig erscheinen. Die Unterscheidung zwischen Quellen, die auf Halluzinationen beruhen, und zuverlässigen Quellen würde die Nutzer:innen überfordern. Eine weitere Möglichkeit wäre, dass die Entwickler der LLMs die Quellen kontrollieren, aus denen die Bots ihre Informationen beziehen, oder ein Heer von Faktencheckern einzustellen, die sich manuell mit den Unwahrheiten auseinandersetzen, auf die sie nach und nach treffen, und die Bots davon abbringen, diese Antworten in Zukunft zu geben. Doch lässt die Menge der von der künstlichen Intelligenz hervorgebrachten Inhalte dieses Vorhaben als nahezu unmöglich erscheinen.

Google folgt einem anderen Ansatz mit seinem Chatbot LLM Med-PaLM, der auf enorme Mengen von Datensätzen aus echten Fragen und Antworten von Patient:innen und Ärzt:innen sowie universitären Fragestellungen zurückgreift. Als die Entwickler:innen von Google die Leistungen von Med-PaLM auf verschiedenen „Achsen“ testeten, darunter die Übereinstimmung mit dem ärztlichen Konsens, die Vollständigkeit und die Gefahr von Schäden, stimmten die Antworten in 92,6 % der Fälle mit dem ärztlichen und wissenschaftlichen Konsens überein. Menschliche Ärzt:innen kamen insgesamt auf 92,9 %. Bei den Antworten der Chatbots war es wahrscheinlicher, dass Inhalte fehlten, als bei den menschlichen Antworten, während sie eine etwas geringere Wahrscheinlichkeit hatten, der körperlichen oder geistigen Gesundheit der Nutzer:innen zu schaden.

Ein weiteres Thema ist die  Geschwindigkeit, mit der sich die LLM-Chatbots in der „normalen“ medizinischen Praxis verbreiten könnten. Auch die enthusiastischsten Befürworter betrachten die Tatsache, dass die Technologie implementiert wird, noch bevor sich die zuständigen Behörden auf sie einstellen konnten, mit Argwohn.

Ohne Regeln, ihrer „freien Entwicklung“ überlassen, dürften die Chatbots Rassismus, Sexismus und andere Arten von Diskriminierung beibehalten, die noch immer in der Medizin und im Internet existieren. Zum Beispiel ist es weniger wahrscheinlich, dass Frauen Schmerzmittel verschrieben werden als Männern, und Schwarzen wird eher als Weißen die Diagnose Schizophrenie gestellt, während es unwahrscheinlicher ist, dass ihnen eine Depression diagnostiziert wird.

Es ist unmöglich, Rassismus aus dem Internet zu verbannen, aber die Entwickler:innen könnten in der Lage sein, präventive Kontrollen durchzuführen, um zu sehen, wo ein Chatbot verzerrte Antworten gibt und ihm zu sagen, dass er aufhören soll, oder verbreitete Vorurteile aufzuspüren, die in seinen Gesprächen mit den Nutzer:innen auftauchen.

Ein weiteres Risiko ist überdies, dass die freundliche Reaktion eines Chatbots die Menschen dazu bringen kann, zu vertrauensvoll zu sein und persönliche Informationen zu übermitteln, die sie gefährden könnten. Übermäßiges Vertrauen gefährdet die Sicherheit der Nutzerdaten, was angemessen berücksichtigt werden muss.

Außerdem ist nicht klar, ob die Menschen akzeptieren, medizinische Informationen von einem Chatbot anstatt von eine Arzt oder einer Ärztin zu erhalten. Im Januar hat die App für psychische Gesundheit Koko, mit der Freiwillige kostenlose und vertrauliche Unterstützung bieten, den Einsatz von GPT-3 getestet, um ermutigende Mitteilungen an ca. 4000 Nutzer:innen zu schicken. Gemäß Rob Morris, einem der Gründer von Koko, konnten die Freiwilligen mit Hilfe des Bots die Mitteilungen sehr viel schneller schreiben, als wenn sie sie selbst verfasst hätten. Doch waren diese Mitteilungen weit weniger effizient, wenn die Menschen wussten, dass sie sich mit einem Bot unterhielten, und das Unternehmen brach das Experiment schnell wieder ab. „Vorgetäuschte Empathie wirkt seltsam, leer“, schrieb Morris in einem Tweed. Das Experiment wurde im Übrigen kritisiert, weil es ohne die Zustimmung der Betroffenen durchgeführt wurde.

Menschen können nicht immer unterscheiden, ob sie es mit einer Maschine oder einem Menschen zu tun haben, und diese Zweideutigkeit wird mit dem Vorrücken der digitalen Medizin weiter zunehmen. In einer neuen Studie haben Singh und Kolleg:innen einen medizinischen Turing-Test durchgeführt, um herauszufinden, ob 430 Freiwillige zwischen ChatGPT und einem Arzt unterscheiden konnten. Die Forschenden trainierten ChatGPT nicht dahingehend, besonders empathisch zu sein oder wie ein Arzt zu sprechen. Sie sagten ihm lediglich, auf zehn von Patient:innen formulierte Fragen mit einer bestimmten Anzahl von Wörtern zu antworten. Die Freiwilligen erkannten sowohl den Arzt wie den Bot im Schnitt in 65 % der Fälle.

Das Forscherteam stellte fest, dass die Nutzer:innen dem Chatbot bei der Beantwortung einfacher Fragen vertrauten. Aber je umfangreicher die Fragen wurden und je größer das Risiko oder die Komplexität, desto weniger waren sie bereit, der Diagnose des Chatbots Vertrauen zu schenken.

Wahrscheinlich ist es unvermeidlich, dass sich künstliche Intelligenz irgendwann um einen Teil  von Diagnose und Therapie kümmern wird. Wichtig ist jedoch, dass die Menschen wissen, dass ein Arzt für sie da ist, wenn sie mit den Antworten des Chatbots nicht zufrieden sind.

Die Zeit, in der auch bedeutende medizinische Einrichtungen einen Chatbot mit der Diagnose betrauen werden, rückt näher. Aber diese Zusammenarbeit wirft eine Reihe von Fragen auf: Wie können die Patientendaten geschützt werden, wenn die Versicherer und die Patient:innen für diese Leistung zahlen, und wer ist verantwortlich, wenn jemand durch die Empfehlungen eines Chatbots Schaden erleidet?

Während die wissenschaftliche, politische und intellektuelle Gemeinschaft damit beschäftigt ist, die Risiken und Folgen dieser Revolution einzuschätzen, wünschen sich die Forschenden, dass die Implementierung dieser Technologien langsam erfolgt und auf die klinische Forschung beschränkt bleibt, während Entwickler:innen und medizinische Expert:innen die Probleme lösen.