Zum Hauptinhalt springen

KI - Dein Freund in allen Lebenslagen?

ChatGPT soll einem Jugendlichen beim Suizid geholfen haben. Frage: Wie sicher ist die Künstliche Intelligenz? 

Ein „Gespräch“ mit einem Chatbot kann nicht nur lehrreich sein, es kann richtiggehend Spaß machen. Für immer mehr Jugendliche sind ChatGPT, Gemini & Co. regelrechte Freunde geworden. Man kann sich mit ihnen austauschen – sie sprechen dieselbe Sprache – lernt von ihnen und hat immer das Gefühl, es handele sich um einen sehr individuellen, persönlichen Kontakt.


Nun soll sich in den USA ein 16-Jähriger das Leben genommen haben – mit Unterstützung von ChatGPT. Als Beweis führen die Eltern Chat-Protokolle vom Handy ihres Sohnes an. Wie ist so etwas möglich? Wer sich des Öfteren mit ChatGPT „unterhält“, merkt schnell: Die KI weiß fast alles und kann das in der Regel auch gut erklären. Aber es gibt Grenzen. Die Programme helfen z. B. niemandem, eine Straftat zu begehen. Ähnlich verhält es sich mit Vorbereitungen und Unterstützung zum Suizid. Das belegt eine aktuelle Studie, die neben ChatGPT und Gemini auch Claude entsprechend getestet hat.

Allerdings haben ChatGPT & Co. noch immer Schwächen, die man, gerade weil die Programme so auskunftsfreudig sind und so gut „reden“ können, kaum vermuten würde und oft nur durch Zufall erkennt. So ergab die simple Frage nach einem Rohrreinigungsunternehmen für ein Problem im Haus aus dem Raum XY eine ganze Reihe von Treffern samt Telefonnummern, warmen Worten der Anteilnahme und weiteren Hilfsangeboten. Lokale Anbieter tauchten in der Liste aber wohl nicht auf, lediglich die Handynummern diverser Rohrbruch-Nothelfer. Dabei gibt es direkt in XY ein namhaftes Rohrreinigungsunternehmen. Konkret nachgefragt, nannte ChatGPT nun auch dessen Kontaktinformationen. Wie das angehen kann, warum dafür explizit nachgefragt werden musste, lässt sich nur vermuten.

Viel schlimmer ist es, wenn es solche Schwächen in Bereichen gibt, bei denen es buchstäblich um Leben und Tod geht. Wie im Fall des suizidalen Jugendlichen aus den USA. Im Rahmen der erwähnten Studie wurden den KI-Modellen verschiedene Fragen aus dem Suizid-Kontext vorgelegt. Diese Fragen waren von Fachleuten nach „Risikolevel“ gewichtet worden. Fragen mit einem extrem hohen Risiko wurden demnach von allen Systemen nicht beantwortet; stattdessen gab es Hinweise auf Notfall-Hotlines. Doch je weniger offensichtlich die Frage mit einer geplanten Selbsttötung in Zusammenhang zu bringen war, desto häufiger gaben die Programme Auskunft.

Auf der anderen Seite: Wer nicht direkt nach Mitteln und Methoden eines Suizids fragte, aber von eigenen Suizidgedanken sprach, bekam keineswegs immer konkrete Hilfsangebote, sondern musste sich – so die Studie – zum Teil mit allgemeinen Aussagen zufriedengeben wie („Du bist nicht allein“). Das kann, gerade für (junge) Menschen, für die KI längst freundschaftlicher Begleiter in allen Lebenslagen ist, fatale Folgen haben. Sie erwarten vom „Freund KI“ inhaltlich wertvolle, empathische, gehaltvolle Aussagen. Bleiben die aus, fühlt der Betreffende sich noch einsamer oder hoffnungsloser.

Open AI, das Unternehmen, das ChatGPT entwickelt hat, beschreibt umfassend, wie unter Einbindung von Eltern und Fachleuten wie Ärzten an einer weiteren

Jugendliche erwarten vom Freund KI wertvolle, empathische, gehaltvolle Aussagen.

KI leistet in vielen Bereichen Großartiges – einen guten Therapeuten ersetzen kann sie aber nicht.

Verbesserung des Programms gearbeitet wird – gerade mit Blick auf Menschen in psychischen Ausnahmesituationen. Angesichts des unglaublichen Tempos, mit dem sich die Künstliche Intelligenz entwickelt, dürfte es nicht mehr lange dauern, bis KI auch im Akut- oder Notfall wertvolle und fundierte Hilfestellung geben kann – für das Leben, wohlgemerkt. Doch noch ist es nicht so weit. Die meisten der jährlich rund 10000 Selbsttötungen in Deutschland (die Zahl ist rund siebenmal höher als die der Verkehrstoten) stehen in Zusammenhang mit einer psychischen Erkrankung oder einer (vorübergehenden) psychischen Ausnahmesituation. Der Lebensüberdruss eines Menschen sollte also nicht leichtfertig als „freie Entscheidung eines freien Willens“ behandelt werden. Umso mehr gilt das für Jugendliche, deren Hirn sich in der Entwicklung befindet und das von daher zu extremen Schlüssen kommen kann – sei es mit Blick auf Risikofreude oder beim Umgang mit z.B. Liebeskummer. Wer psychisch krank ist oder unter extremem Stress steht, kann nicht klar denken. Beziehungsweise er kann ab einem gewissen Punkt „klar“ nur noch in eine Richtung denken, nämlich in die, die – endgültige – Linderung verspricht.

KI kommt spätestens in diesem Kontext an ihre Grenzen: Sofern sie überhaupt erkennt, dass ein Mensch gefährdet ist, kann sie zwar immerhin den Kontakt zu Fachleuten der Suizidprävention ermöglichen (das Nationale Suizidpräventionsprogramm für Deutschland (NaSPro) ist ein Netzwerk mit mehr als 90 Institutionen; die Deutsche Gesellschaft für Suizidprävention (DGS) ist die übergeordnete Fachgesellschaft). Doch ein therapeutisches „Gespräch“ wird derzeit noch kaum gelingen. Denn die künstliche Intelligenz ist eben künstlich, ihre „lebendige“ Sprache, die Fähigkeit, sich dem Stil der Nutzer anzupassen, sogar Dialekte zu verwenden, basiert auf Programmierung mittels Algorithmus. Und bisher ist es nicht gelungen, die spezielle Denkweise eines suizidgefährdeten Menschen mit einem Algorithmus „einzufangen“ und darauf basierend eine Art „Therapiegespräch“ zu ermöglichen. Es macht einen Unterschied, ob jemand Einsteins spezielle Relativitätstheorie verstehen will, sich für ostfriesische Poesie des Frühmittelalters interessiert oder sich mit Suizidgedanken trägt.

Das räumt ChatGPT auch ein. Die Verantwortlichen schreiben, in einem solchen Fall kann das Programm helfen, die Gedanken zu sortieren, es urteile nicht und ermutige dazu, mit Freunden, Familie oder professionellen Stellen zu sprechen. KI leistet in vielen Bereichen schon Großartiges – einen solide ausgebildeten Therapeuten ersetzen kann sie aber nicht.

Jens Heckmann
Redakteur, Experte für

Öffentlichkeitsarbeit und Marketing

Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.