Große Sprachmodelle (engl.: Large Language Models, LLMs) haben sich in wenigen Jahren rasant entwickelt. Sie verstehen natürliche Sprache und können Texte formulieren, Fragen beantworten, Inhalte zusammenfassen oder übersetzen.
Viele Krebspatientinnen und -patienten nutzen solche Systeme bereits ganz selbstverständlich: Sie geben Befunde, Fachbegriffe oder Therapiebezeichnungen ein und lassen sich diese in verständlicher Sprache erklären. Dafür ist es wichtig zu wissen, wie LLMs funktionieren und welche Risiken bestehen.
Die Europäische Gesellschaft für Medizinische Onkologie (ESMO) hat nun eine Orientierungshilfe zu LLMs in der Krebsmedizin erarbeitet (ESMO guidance on the use of Large Language Models in Clinical Practice, ELCAP). Sie bietet erstmals einen klaren Rahmen für den Einsatz solcher Systeme in der Onkologie.
- Ihr Ziel: Chancen von KI nutzen, ihre Risiken vermeiden – und Patienten befähigen, digitale KI-Werkzeuge sicher einzusetzen.
Welche KI-Systeme ELCAP bewertet hat
Die ESMO-Leitlinie unterscheidet verschiedene patientenorientierte ("Typ 1") KI-Anwendungen, die bereits im Einsatz oder in Entwicklung sind. Keines dieser Systeme ist in der Europäischen Union (EU) als Medizinprodukt zugelassen.
Symptom-Checker und allgemeine Gesundheitsratgeber: beantworten Fragen zu Symptomen, Diagnosen, Behandlungen oder Nebenwirkungen.
- Diese Chatbots greifen beispielsweise auf Wissensdatenbanken oder Patienteninformationen von Kliniken zu.
- Erste Studien zeigen, dass GPT-4-basierte Modelle teils genaue und empathische Antworten geben – sie ersetzen aber keine ärztliche Beratung.
Entscheidungshilfen und Studienfinder: schlagen mögliche Diagnosen, Therapien oder passende klinische Studien vor.
- Diese Systeme befinden sich derzeit überwiegend im frühen Entwicklungsstadium und werden in Studien getestet.
Erklärende Systeme: übersetzen Fachbegriffe, Befunde und Therapien in verständliche Sprache und haben so das Potential vor und nach Arztterminen zu unterstützen.
- Dafür nutzen Patientinnen und Patienten schon jetzt allgemeine LLMs wie ChatGPT.
- Medizinisch spezialisierte Modelle können noch gezielter unterstützen, etwa indem sie ihre Erklärungen an den Wissensstand und die Bedürfnisse der einzelnen Person anpassen.
Symptomtagebücher: erleichtern die Dokumentation von Symptomen, Nebenwirkungen, die Einnahme von Medikamenten und des allgemeinen Befindens.
- Im Gegensatz zu klassischen Symptom-Trackern erlauben große Sprachmodelle (LLM), Beschwerden auch frei zu beschreiben. Das könnte Hürden senken, Symptome regelmäßig zu dokumentieren.
- Ob sie messbare medizinische Vorteile bringen – zum Beispiel weniger Krankenhausaufenthalte oder bessere Behandlungsergebnisse – ist noch offen.
Alltagshelfer: könnten bei Verwaltungsaufgaben helfen, indem sie zum Beispiel Termine automatisch planen, rechtzeitig Erinnerungen schicken, Unterlagen sortieren oder Formulare selbst ausfüllen. So würde weniger organisatorische Arbeit anfallen.
- Viele dieser Funktionen gibt es bereits. Oder sie wären auch mit anderen, einfachen digitalen Werkzeugen möglich. Allerdings werden sie im Gesundheitswesen noch wenig genutzt. Das liegt weniger an der Technik als an praktischen Hürden: Dafür bräuchte es besser vernetzte Strukturen und klare Abläufe im Gesundheitssystem.
Emotionale Unterstützung: Chatbots können einfache Bewältigungsstrategien und Selbstfürsorge-Tipps anbieten.
- Sie dienen als niederschwellige Ansprechstelle außerhalb von Praxis- und Klinikzeiten – sie können und dürfen aber eine psychotherapeutische oder psychiatrische Behandlung nicht ersetzen.
- Ob sie als Teil eines umfassenden Versorgungskonzepts messbar zu besseren Ergebnissen beitragen, muss noch wissenschaftlich geklärt werden.
Wichtig zu wissen
Bei allen KI-Systemen kann es sein, dass Patientinnen und Patienten ihre persönlichen Gesundheitsdaten eingeben müssen.
Benutzt man diese Tools, kann das daher Datenschutzrisiken bergen, wenn diese die Daten nicht ordnungsgemäß verschlüsseln und schützen.
So nutzen Sie KI-Chatbots sicher
ELCAP formuliert klare Empfehlungen ("Do’s & Don’ts") für den Umgang mit KI-Systemen:
Was Sie tun sollten ("Do")
- Stellen Sie Ihre Fragen möglichst klar und konkret. Je verständlicher die Frage, desto genauer und hilfreicher ist die Antwort.
- Überprüfen Sie KI-Ratschläge immer anhand verlässlicher Quellen. Treffen Sie keine wichtigen medizinischen Entscheidungen ausschließlich auf Basis von Chatbot-Antworten.
- Sprechen Sie mit Ihrem Arzt/Ihrer Ärztin über Informationen aus KI-Chatbots. Teilen Sie mit, was Ihnen der Chatbot vorgeschlagen oder erklärt hat. So kann Ihr Behandlungsteam einordnen, was davon zu Ihnen passt.
Was Sie vermeiden sollten ("Don’t")
- Nutzen Sie KI-Chatbots nicht als Ersatz für eine ärztliche Untersuchung und Beratung – besonders nicht, wenn es Ihnen akut schlecht geht. Bei Notfällen oder deutlicher Verschlechterung gilt: Suchen Sie direkt medizinische Hilfe.
- Geben Sie keine eindeutig personenbezogenen, sensiblen Gesundheitsdaten in allgemeine Chatbots ein. Das gilt insbesondere für Systeme, die nicht ausdrücklich für medizinische Zwecke entwickelt und zugelassen sind.
- Stellen Sie KI-Antworten nie über die Empfehlungen Ihres Behandlungsteams. Die medizinische Verantwortung liegt bei Ihren behandelnden Ärztinnen und Ärzten, nicht bei der KI.
Die ESMO-Experten empfehlen außerdem, dass patientenorientierte KI-Systeme idealerweise nicht "im Alleingang" arbeiten, sondern in ärztlich begleitete Abläufe eingebunden sein sollten.
Fazit: Große Chancen – aber nur im Team mit echten Menschen
ELCAP kommt zu einem klaren Schluss: Die Onkologie kann die Chancen von KI für Krebspatientinnen und -patienten nicht ignorieren. Der Informationsbedarf, die Komplexität moderner Therapien und die knappen personellen Ressourcen machen digitale Unterstützung attraktiv.
Gleichzeitig mahnt ELCAP zur Vorsicht:
- Die Datenlage ist noch begrenzt. Es fehlen Studien, die Nutzen und Sicherheit eindeutig belegen.
- Viele Systeme sind nicht für die medizinische Anwendung zugelassen und nicht ausreichend geprüft.
- Datenschutz und ärztliche Kontrolle sind entscheidend für die sichere Nutzung.
Für Patientinnen und Patienten heißt das: KI-Chatbots können ein hilfreiches Zusatzwerkzeug sein – um Informationen zu verstehen, Fragen zu sortieren und sich während der Behandlung besser zurechtzufinden. Aber sie ersetzen weder Ärztinnen und Ärzte noch das persönliche Gespräch. Die beste Versorgung entsteht dort, wo KI und medizinisches Fachpersonal Hand in Hand arbeiten – mit aktiv informierten Patienten als Partnerin oder Partner in der Mitte.
Zum Weiterlesen
Dieser Artikel beruht auf folgender englisch-sprachigen Veröffentlichung:
Wong, E. Y. T., Verlingue, L., Aldea, M., Franzoi, M. A., Umeton, R., Halabi, S., Harbeck, N., Indini, A., Prelaj, A., Romano, E. et al. (2025). ESMO guidance on the use of Large Language Models in Clinical Practice (ELCAP). Annals of oncology : official journal of the European Society for Medical Oncology, S0923-7534(25)04698-8. Advance online publication. https://doi.org/10.1016/j.annonc.2025.09.001
![Informationssuche beginnt für viele Krebspatienten im Internet – KI-Chatbots spielen dabei eine immer größere Rolle [Symbolbild]., © Krebsinformationsdienst, DKFZ; Foto: Tobias Schwerdt Ein Mann schaut auf den Bildschirm eines Smartphones.](/fileadmin/_processed_/b/a/csm_mann-jung-handy-nutzen-sessel_a740bfff45.jpg)