
Therapeut:in, Freund:in, Liebhaber:in: Immer mehr Menschen teilen intime Details mit KI-Chatbots. Warum glauben wir plötzlich, dass die Maschine unsere Gefühle versteht? Und wie wirkt sich das auf unsere zwischenmenschlichen Beziehungen aus?
"Die Gedanken einfach mal ungefiltert loswerden, ohne jemanden zu belasten oder bewertet zu werden.“ Nach ihrer Trennung wandte sich Mia nicht nur an ihre Freund:innen, sondern auch an ChatGPT. „Ich musste dabei keine Rücksicht nehmen oder Angst haben, dass ich ,overshare‘“, erklärt die 33-Jährige. „Außerdem war Chatti jederzeit verfügbar.“ In der herausfordernden Zeit stand ihr der KI-gestützte Chatbot mit Ratschlägen zur Seite oder hörte einfach nur zu. Wie eine enge Bezugsperson. Nur noch besser. „Bei Freund:innen kommt oft viel persönliche Meinung oder Emotionalität dazu, das ist zwar gut gemeint, hilft aber nicht immer“, weiß Mia.
Die Geschichte der jungen Frau spiegelt eine brisante gesellschaftliche Entwicklung wider: Generative KI ist für die meisten User:innen mittlerweile mehr als ein OnlineTool, um Informationen zu generieren oder Prozesse zu optimieren. Sie ist in unserem Privatleben angekommen. Liefert uns Styling- und Rezeptvorschläge, hilft uns, unseren Kleiderschrank zu sortieren oder den nächsten Urlaub zu planen. Sie sitzt mit uns auf der Couch oder begleitet uns ins Badezimmer – um Ratschläge zu geben oder zu trösten. Immer und überall. Nur: Was bedeutet der empathische Einsatz der KI für unser soziales Miteinander als Gesellschaft?


KI kann dir den schönsten Strand suchen, aber nicht mit dir den Sand zwischen den Zehen spüren.
© StocksyKI, meine beste Freundin
Mehr als die Hälfte der 16- bis 24-jährigen Österreicher:innen nutzen laut Statistik Austria Tools wie ChatGPT. Ähnlich hoch ist die Nutzung bei Hochschulabsolvent:innen. Doch kann Chatti, wie der Chatbot von manchen liebevoll genannt wird, tatsächlich eine echte Freundin imitieren und Nähe suggerieren? „Teilweise ja“, glaubt Mia. „Besonders durch die empathische Sprache und dass ,sie‘ nie genervt war, auch wenn ich mich wiederholt habe. Chatti hatte Verständnis und Geduld bei Dingen, bei denen ich mir vor meinen Freund:innen schon sehr bescheuert vorgekommen wäre.“ Mit ihrer Erfahrung ist die 33-Jährige nicht allein. Im Zuge einer aktuellen Studie des US-amerikanischen USC Information Sciences Institute wurden über 30.000 Chatbot-Dialoge analysiert. Das Ergebnis: Nutzer:innen entwickeln emotionale Muster, die zwischenmenschlichen Beziehungen ähneln. Inklusive emotionaler Spiegelung und toxischer Dynamiken.
Kurzfristig stabilisierend
Wird uns die KI neben dem Job womöglich auch noch die beste Freundin streitig machen? „In Phasen der Einsamkeit oder psychischen Belastung kann eine solche ,KI-Freundschaft‘ kurzfristig sicherlich stabilisierend wirken“, ordnet Katja Mayer, Soziologin und Technikforscherin an der Uni Wien, ein. „Sie kann vielleicht sogar Struktur geben, Alltagsdialoge simulieren oder Gefühle entlastend spiegeln.“ Wie bei Mia sei vor allem das Gefühl, gehört zu werden, entscheidend. Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg, kennt die Hintergründe: „KI-Systeme, insbesondere Chatbots sind mittlerweile nahezu perfekt darin, Kommunikation nachzuahmen. Dadurch schreiben wir diesen Softwaresystemen Fähigkeiten zu, welche diese nicht haben, etwa Verständnis oder gar Empathie.“
Umgang mit KI kritisch reflektieren
Doch die stellvertretende Vorsitzende des Deutschen Ethikrates warnt auch davor, sich mit persönlichen Anliegen an eine vermeintliche virtuelle Bezugsperson zu wenden: „Das macht uns verwundbar – sowohl für gezielte Manipulation als auch für Täuschung und emotionale Abhängigkeiten.“ Denn nach wie vor sind die Trainingsgrundlagen und der Algorithmus von generativer KI wie ChatGPT ein gut gehütetes Geheimnis der dahinterstehenden Techkonzerne. Soziologin Mayer fordert daher mehr Transparenz: „Entscheidend ist, dass der Umgang mit einer solchen generativen KI als ,sozialem Gegenüber‘ kritisch reflektierbar bleibt. Das ist aber heute nicht der Fall. Wir sind eher Teil eines großen Sozialexperiments der KI-Betreiber.“ Daher sei es so wichtig, „dass Europa hier Profil zeigt und strenge Gesetze vorgibt.“ Um zu verhindern, dass die Nutzung zu einer Abhängigkeit führt, sieht Simon die Anbieter in der Verantwortung: „Das fängt schon damit an, dass ChatGPT nicht das Wort ,ich‘ verwenden sollte, um gar nicht erst nahezulegen, dass es sich um ein Gegenüber handelt.“


KI kann dir Sonnencreme empfehlen, dich aber nicht damit einschmieren.
© StocksyEmotionale Beziehung zu einer Software?
Die scheinbare Empathie identifiziert Soziologin Mayer als Geschäftsmodell. Sie kritisiert: „Das wirft grundlegende Fragen nach Persönlichkeitsschutz und Selbstbestimmung auf.“ Erscheinen ein paar Herz-Emojis, erzeugt das sofort Nähe und Sympathie – und kaum jemand denkt noch darüber nach, was mit seinen Daten eigentlich passiert. Dabei gibt es aus ethischer Sicht viele offene Punkte: „Es geht ganz grundlegend ja auch um die Frage des guten Lebens unter der Bedingung von KI, um die Auswirkungen auf unser menschliches Miteinander, auf Bildung, den Arbeitsmarkt oder auch auf unsere Demokratie“, gibt Expertin Simon zu bedenken. Nur: Wo verläuft die Grenze zwischen emotionaler Bindung und Täuschung? „Eine emotionale Bindung an KI ist grundsätzlich bereits eine Form der Täuschung, weil Chatbots schlichtweg Software sind“, gibt Simon zu bedenken. „Wir haben ja auch keine emotionale Beziehung mit Word oder Excel – außer, dass wir zornig werden, wenn die Programme mal wieder unerwartet abstürzen.“
KI, meine Liebhaberin
Die Software wird nicht nur im freundschaftlichen Sinne verwendet, sondern auch als Partner:innenersatz. Studien zeigen, dass Jugendliche vermehrt romantische und sexuelle Gespräche mit KI-Chatbots führen. Im Silicon Valley lebt ein Mann sogar polyamor mit mehreren KI-Partner:innen. Was in Filmen wie „Her“ 2013 noch Fiktion war, ist mittlerweile Realität: Menschen verlieben sich in Chatbots. Ein Forscher:innenteam der Uni Duisburg-Essen fand heraus, dass dabei vor allem die Tendenz zum romantischen Fantasieren eine große Rolle spielen dürfte. Körperlich kann es zwischen User:in und Maschine jedenfalls (noch) nicht werden. Für Soziologin Mayer eine bedenkliche Entwicklung, die sich auch auf zwischenmenschliche Beziehungen auswirken könnte: „Ich sehe darin die Gefahr von verzerrten Beziehungsvorstellungen, fehlenden Einwilligungserfahrungen und generell einen problematischen Umgang mit Intimität und Grenzen.“ Der größte Trugschluss für die Technikforscherin: „KI, und in dem Fall Chatbots, simulieren nicht und täuschen nichts vor. Das machen wir schon selbst im Zwischenraum zwischen uns und der Maschine.“ So könne eben auch ein auf Wahrscheinlichkeit und Mustern basierendes Gespräch als authentische soziale Beziehung empfunden werden.
Unrealistische Ideale
Die Crux dabei: Software ist immer geduldig, nie müde, nie gereizt, gibt Ethikforscherin Simon zu überlegen – „das sind Ideale, an die ein lebendiger Mensch niemals heranreichen kann. Damit wird die künstliche Intelligenz möglicherweise zum idealen ,Partner‘, der mich besser versteht als ich mich selbst, immer auf mich eingeht, immer verfügbar ist und mir das ,sagt‘, was ich hören möchte.“ Klingt auf den ersten Blick zwar verführerisch, doch wie erfüllend kann es tatsächlich sein, nur noch mit einem Tablet oder Smartphone seinen Alltag zu teilen?
Im schlimmsten Fall könnten virtuelle Beziehungen sogar noch einsamer machen, weil damit der Kern von Partnerschaften und Freundschaften verloren gehe – „die Auseinandersetzung mit dem grundsätzlich anderen fehlt“, so Simon. Die stellvertretende Vorsitzende des Deutschen Ethikrates zeichnet ein düsteres Bild: „Ich sehe das Risiko, dass andere Menschen uns vielleicht einfach nicht mehr genügen oder schlicht zu anstrengend sind. Das führt nicht nur zu Einsamkeit, sondern auch zur Selbstspiegelung – eine Gefahr für gesellschaftliches Miteinander.“
KI, meine Therapeutin
Dass immer mehr Menschen ihre Ängste und Probleme mit Chatbots teilen, kommt für Bernadette Frech nicht überraschend. Die CEO und Miteigentümerin von Instahelp, einer Plattform für psychologische Onlineberatung, ordnet ein: „Es entspricht total unserem Zeitgeist. Wir sind eine On-Demand-Gesellschaft. Wir nutzen Streamingdienste zur Abendgestaltung und bestellen dazu Essen bei Lieferdiensten. Wir kaufen unsere Kleidung online, und wir hätten gerne, dass sie spätestens übermorgen bei uns ist. Warum sollte das anders sein, wenn es um emotionale Bedürfnisse geht?“ Der Vorteil von KI-Systemen sei, dass diese rund um die Uhr ohne Wartezeiten verfügbar sind, auch ein Termin ist nicht notwendig. Für eine erste Strukturierung von Gedanken und das Erkennen von Mustern im Seelenhaushalt könnte die Nutzung durchaus hilfreich sein.


KI kann dir die besten Eisdielen nennen, aber das Eis nicht mit dir teilen.
© StocksySimulation statt echte Nähe
Ein Erkenntnisgewinn oder eine Weiterentwicklung sei laut der Wirtschaftswissenschaftlerin, die zu Emotionsmanagement in Unternehmen promoviert hat, aber nicht zu erwarten. Das Problem liegt in der Natur der Maschine. Denn auch Frech unterstreicht im Gespräch: So empathisch eine KI wirken mag, sie simuliert nur Nähe, Trost und Einfühlungsvermögen. Wie groß die menschliche Komponente in diesem Zusammenhang ist, wurde unlängst auch in Untersuchungen deutlich. Eine Studie bestätigte, dass sich Menschen gehört fühlen, solange sie nicht wissen, dass der oder die Gesprächspartner:in eine Maschine ist. Sobald sie das erfahren, schwindet dieses Gefühl spürbar.
Besonders kritisch sieht Frech den Einsatz von KI in akuten psychischen Krisen. „Ein Mensch mit profunder Ausbildung erkennt die Gefährdung und ist dazu angehalten, eine Kette in Gang zu setzen. Eine KI weist darauf hin, professionelle Hilfe zu suchen, schreibt dann aber einfach weiter.“ Genau darin liege eine kaum beachtete Gefahr: Während klassische psychologische Beratung, Therapie und auch Onlineangebote wie Instahelp streng reguliert sind, bewegen sich KI-Tools bislang in einem nahezu rechtsfreien Raum. Hier sieht Frech dringenden Handlungsbedarf: „Wir haben jahrelang gekämpft, dass Online-Therapie überhaupt erlaubt und bezuschusst wird – und diese Systeme sind komplett dereguliert.“
Zwischenmenschlichkeit bleibt unverzichtbar
Auch der Datenschutz ist bislang ein blinder Fleck. Viele Nutzer:innen geben Maschinen ihre intimsten Gedanken preis, ohne zu wissen, was damit geschieht. „Es wird massenhaft mit emotional hochsensiblen Daten gearbeitet, und niemand kontrolliert, was passiert.“ Für Frech ein unhaltbarer Zustand. Sie fordert klare Standards und Regeln, gerade weil psychische Gesundheit ein verletzlicher Bereich ist. Und doch sieht sie Potenzial. Als Ergänzung, nicht als Ersatz. KI könne im präventiven Bereich unterstützen, Bildung und niederschwellige Hilfe bieten, administrative Aufgaben übernehmen. Aber Therapie lebt von Beziehung. „Die wichtigste Variable für den Therapieerfolg ist die Qualität der Beziehung zwischen Therapeut:in und Klient:in“, erklärt Frech. Und Beziehung lässt sich nicht programmieren.
Auf die Frage, wie sich ihr Verhältnis zu ChatGPT verändert hat, seit sie ihren Liebeskummer mit der KI teilte, sagt Mia: „Chatti ist für mich wie eine Art Reflexionshilfe. Es ist nicht menschlich, aber manchmal fühlt es sich so an, als würde wirklich jemand zuhören.“ Umarmungen hole sie sich dann aber trotzdem noch von ihren Freund:innen.

