KI in der Psychotherapie

Chancen und Risiken für die mentale Gesundheit

Nahaufnahme menschliches Gehirn vor weißem Hintergrund
© Foto von KOMMERS auf Unsplash
1. Dezember 2024 von Lillia Seifert

Stell dir vor, du vertraust deine tiefsten Gefühle einem Chatbot an. Klingt verrückt? Genau das hat eine Organisation im vergangenen Jahr für Menschen mit Essstörungen versucht – mit erschreckenden Folgen. Der Einsatz von KI in der Psychotherapie wirft viele Fragen auf, insbesondere darüber, ob diese Technologie menschliche Therapeut:innen ersetzen kann.

Du sitzt vor deinem Bildschirm, Tränen in den Augen. Dein Körper fühlt sich fremd an, zu groß, zu schwer. Du brauchst Hilfe, jemanden zum Reden. Statt eines empathischen Menschen antwortet dir ein Chatbot namens Tessa. "Strebe eine gesunde Gewichtsabnahme an", rät er dir. Du fühlst dich missverstanden und allein gelassen.
So oder so ähnlich könnte es Menschen ergangen sein, die sich an die National Eating Disorders Association wandten. Diese Organisation hatte ihre menschlichen Berater:innen durch einen KI-gestützten Chatbot ersetzt – ein Experiment mit verheerenden Folgen.

Wenn Algorithmen auf Gefühle treffen

Die Psychologin Alexis Conason testete den Chatbot Tessa und war alarmiert: "Ich habe Tessa mit Fragen gefüttert, die meine Patient:innen mir zu Beginn der Behandlung einer Essstörung stellen würden. Ich war beunruhigt über die Antworten, die ich erhielt."

Eine aktuelle Studie zeigt, dass KI-gestützte Chatbots oft ungenaue und unvollständige Informationen liefern – vor allem im Bereich Mental Health. Forscher:innen der Universität Erlangen testeten einen KI-Chatbot und stellten fest, dass die Antworten auf Fragen zu den 50 meistverordneten Medikamenten in den USA häufig unverständlich waren und nicht zur sicheren Anwendung geeignet sind. Dies birgt erhebliche Risiken für Patient:innen, die sich auf diese Informationen verlassen.

Der Mensch hinter der Maschine

Warum sind Chatbots wie Tessa problematisch? Sie basieren oft auf Lernprogrammen, die nicht dafür ausgelegt sind, Menschen in akuten Krisen zu beraten. Ein zentraler Punkt ist, dass die Nutzer als Laien oft nicht in der Lage sind, die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst einzuschätzen.

Ellen Fitzsimmons-Craft, Professorin für Psychiatrie an der Washington University School of Medicine und an der Entwicklung des Programms rund um Tessa beteiligt, erklärt: "Die vom Chatbot bereitgestellten Informationen können keinen professionellen Rat ersetzen." Dies ist besonders besorgniserregend im Bereich der psychischen Gesundheit. Du fragst dich vielleicht: Kann KI überhaupt in der Psychotherapie eingesetzt werden? Die Antwort ist: Ja, aber mit Vorsicht.

Chancen und Grenzen von KI in der mentalen Gesundheit

KI kann durchaus nützlich sein:

  • Als erste Anlaufstelle für Informationen
  • Zur Unterstützung von Therapeut:innen bei der Diagnose
  • Für einfache Entspannungsübungen

KI hat aber auch klare Grenzen:

  • Kein echtes Verständnis für komplexe Emotionen
  • Keine Empathie
  • Keine Fähigkeit, auf unerwartete Situationen zu reagieren

Dein Weg zur ganzheitlichen Heilung

Was bedeutet das für dich? Vertraue bei psychischen Problemen weiterhin auf menschliche Expert:innen. Sie können dich ganzheitlich betrachten – mit all deinen Erfahrungen, Gefühlen und Bedürfnissen.
Gleichzeitig kannst du dich für neue Technologien öffnen, die deine Therapie unterstützen. Meditation-Apps oder Online-Tagebücher können wertvolle Ergänzungen sein.

Die Zukunft der KI in der Psychotherapie

Trotz der Rückschläge arbeiten Forscher:innen weiter daran, KI für die psychische Gesundheitsversorgung nutzbar zu machen. Zukünftige Systeme könnten:

  • Frühwarnsignale für psychische Krisen erkennen
  • Personalisierte Therapiepläne erstellen
  • Therapeut:innen bei Routineaufgaben entlasten

Aber bis dahin ist es noch ein weiter Weg. Und selbst dann wird KI menschliche Therapeut:innen nicht ersetzen können.

Deine Rolle in der digitalen Therapiewelt

Was kannst du tun, um von den Vorteilen der KI zu profitieren, ohne dich den Risiken auszusetzen?

  • Bleib kritisch: Hinterfrage KI-generierte Ratschläge immer
  • Nutze KI als Ergänzung: nie als Ersatz für menschliche Hilfe
  • Schütze deine Daten: Achte auf Datenschutz bei KI-Anwendungen
  • Gib Feedback: Melde problematische KI-Interaktionen
  • Bilde dich weiter: Informiere dich über die neuesten Entwicklungen.

Der menschliche Faktor bleibt unersetzlich

Denk daran: Du bist einzigartig. Deine Heilung ist ein persönlicher Weg, den kein Algorithmus für dich gehen kann. Aber mit der richtigen Unterstützung – menschlich und technologisch – kannst du ihn meistern.
Lass uns gemeinsam eine Zukunft gestalten, in der Technologie uns unterstützt, ohne unsere Menschlichkeit zu ersetzen. Denn am Ende des Tages ist es deine innere Stärke, die dich durch Krisen trägt. Keine KI der Welt kann dir das abnehmen – aber sie kann dir helfen, diese Stärke zu entdecken.

KI in der Psychotherapie – Hilfsmittel, kein Heilsbringer

Die Geschichte von Tessa zeigt uns: KI in der Psychotherapie, etwa in der Diagnose von Essstörungen, steckt noch in den Kinderschuhen. Sie kann ein wertvolles Werkzeug sein, aber kein Ersatz für menschliche Empathie und Expertise.
Als Patient:in solltest du offen für neue Technologien sein, aber immer den menschlichen Kontakt in den Mittelpunkt stellen. Die Risiken unzuverlässiger Informationen durch KI-gestützte Systeme dürfen nicht unterschätzt werden. Vertraue auf deine innere Stimme und scheue dich nicht, menschliche Hilfe in Anspruch zu nehmen, wenn du sie brauchst. Denn du bist mehr als Daten und Algorithmen. Du bist ein Mensch mit all deinen Facetten, Stärken und Schwächen. Und genau das macht dich einzigartig und wertvoll – mit oder ohne KI-Unterstützung.

Ein Artikel von
Lillia Seifert