KI in der Medizin: Chatbots als neuer Dr. Google?

Date:

Dieses Video wurde am 16.04.2026 von t3n Magazin auf YouTube veröffentlicht. Zum Original-Video auf YouTube.

KI in der Medizin ist längst mehr als ein Zukunftsversprechen: Große Sprachmodelle halten Einzug in Arztpraxen, Krebskonferenzen und Vorsorge-Apps. Während Patientinnen und Patienten zunehmend Chatbots statt Suchmaschinen befragen, stehen auch Ärztinnen und Ärzte vor neuen Herausforderungen. Wer profitiert wirklich von der Entwicklung – und welche Risiken bleiben bestehen? Ein Überblick über den aktuellen Stand, konkrete Anwendungsfälle und die noch offenen Fragen im Gesundheitsbereich.

Vom Symptom-Googeln zum KI-gestützten Vorsorgebot

Das reflexartige Googeln von Krankheitssymptomen gilt als schlechte Angewohnheit – zu oft enden solche Suchen in unbegründeten Ängsten oder falschen Schlüssen. Doch mit dem Aufkommen großer Sprachmodelle entsteht eine neue Generation digitaler Gesundheitsberatung, die mehr Verlässlichkeit verspricht.

Ein konkretes Beispiel ist der Chatbot Sundi, der gemeinsam vom Bosch Health Campus Stuttgart, der Berliner Charité und dem Karolinska Institut in Stockholm entwickelt wurde. Das öffentlich zugängliche Angebot richtet sich vor allem an Menschen ab 55 Jahren und beantwortet Fragen rund um Ernährung, Schlaf und Sport.

Entscheidend ist dabei die Datenbasis: Sundi recherchiert nicht im offenen Internet, sondern greift auf eine kuratierte, evidenzbasierte Informationsgrundlage zurück. Wissenschaftliche Paper wurden direkt in das Modell eingespeist und auf ihre Qualität geprüft. Wer konkrete Symptome schildert, wird korrekt an den Hausarzt verwiesen – ein Qualitätsmerkmal, das die Entwicklerinnen regelmäßig überprüfen.

Zum Vergleich: Bei kommerziellen Angeboten wie ChatGPT Health wurden bereits Fälle dokumentiert, in denen Nutzer trotz akutem Handlungsbedarf nicht in die Notaufnahme verwiesen wurden.

Chatbots als Werkzeug für Ärztinnen und Ärzte

Nicht nur Patientinnen profitieren von KI-gestützten Sprachmodellen – auch medizinisches Fachpersonal nutzt sie zunehmend im Alltag. Besonders wertvoll erweisen sich die Systeme bei der Arbeit mit seltenen Erkrankungen: Betroffene kommen häufig mit umfangreichen Befundakten, die ein Sprachmodell effizient sichten und mit vergleichbaren Fällen abgleichen kann.

Noch weiter geht der Einsatz in der Krebsmedizin. Forscher wie Jakob Kather von der TU Dresden untersuchen, wie KI auf verschiedenen Ebenen eingesetzt werden kann – von der automatisierten Bildauswertung bis hin zu KI-Agenten, die ganze Tumorkonferenzen simulieren. Erste Ergebnisse deuten darauf hin, dass solche Systeme ähnlich präzise arbeiten können wie menschliche Expertengremien.

Gleichzeitig entstehen neue Spannungsfelder:

  • Ärztinnen und Ärzte recherchieren teils über private Smartphones, was Datenschutzprobleme aufwirft.
  • Viele Krankenhäuser verfügen noch über keine eigenen, abgesicherten KI-Systeme.
  • Die medizinische Ausbildung berücksichtigt den Umgang mit KI bislang kaum.
  • Gut informierte Patientinnen können ihren Ärztinnen in spezifischen Fragen zuweilen überlegen sein.

Letzteres stellt das klassische Rollenverständnis in der Arzt-Patienten-Beziehung grundlegend infrage.

Qualitätssicherung und das Problem der KI-Kontrolle

Die Verlässlichkeit medizinischer Chatbots hängt maßgeblich davon ab, wie gut die zugrundeliegenden Modelle kontrolliert werden. Beim Sundi-Bot prüfen Wissenschaftsjournalistinnen und -journalisten regelmäßig, ob die Antworten korrekt und sicher sind. Zudem werden verschiedene aktuelle Sprachmodelle gegeneinander getestet, um die jeweils beste Performanz sicherzustellen.

Dieser Aufwand ist erheblich: Der Faktenchecking-Prozess ist personal- und kostenintensiv. Bereits heute kursiert die Idee, eine KI zur Kontrolle einer anderen KI einzusetzen – doch das bleibt laut Entwicklerin Susanne Melin vorerst Zukunftsmusik.

Die grundsätzliche Frage, wie viel menschliche Kontrolle bei KI-gestützten medizinischen Entscheidungen notwendig ist, ähnelt der Debatte um autonomes Fahren: Muss immer ein Mensch die letzte Entscheidung treffen, oder darf eine KI eigenständig handeln – und ab welcher Fehlerrate?

Ausblick: Großes Potenzial, viele offene Fragen

Der Einsatz von Sprachmodellen im Gesundheitswesen bietet erhebliches Potenzial – von der Entlastung medizinischen Personals bis hin zur besseren Vorbereitung von Patientinnen auf Arztgespräche. Experten empfehlen sogar ausdrücklich, Chatbots vor einem Arztbesuch zu nutzen, um ein informiertes Gespräch führen zu können. Für akute Notfälle gilt diese Empfehlung ausdrücklich nicht.

Was fehlt, sind flächendeckende Strukturen: sichere Systeme in Kliniken, verbindliche Standards in der Ausbildung und transparente Qualitätssicherung. Die Technologie entwickelt sich rasant – die institutionellen Rahmenbedingungen hinken noch deutlich hinterher. Wie das Verhältnis zwischen Mensch und Maschine in der Medizin langfristig aussehen soll, ist eine gesellschaftliche Frage, die dringend öffentlich verhandelt werden muss.

Dieser Artikel wurde KI-gestützt erstellt und kann Fehler enthalten.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

xxx

Popular

Ähnliche Beiträge
Related

IG Metall: Transformation als Chance, nicht als Abbau

Christiane Benner, Vorsitzende der IG Metall, erklärt zum Tag der Arbeit, wie Transformation, KI und Elektromobilität Arbeitsplätze sichern können.

Erdbeerpflückroboter: KI erntet rund um die Uhr

Ein Erdbeerpflückroboter erkennt reife Früchte per KI und erntet sie beschädigungsfrei – auch nachts. Was die Technologie kann und wo sie noch an Grenzen stößt.

Industrial AI: Chancen und Hürden für die Industrie

Industrial AI optimiert Produktion in Echtzeit – doch Datenchaos, Regulierung und hohe Kosten bremsen viele Unternehmen. Was jetzt nötig ist.

Gen Z verliert Vertrauen in KI – Zahlen alarmieren

Eine Gallup-Umfrage zeigt: Das Vertrauen der Gen Z in KI sinkt deutlich. Begeisterung fiel von 36 auf 22 % – trotz täglicher Nutzung der Tools.