Künstliche Intelligenz
KI-Chatbots versprechen ein Gegenüber, Verständnis und Unterstützung – immer verfügbar, nie fordernd. Auch für einsame Menschen kann das verlockend sein. Doch dahinter verbirgt sich ein Geschäftsmodell, das nicht darauf abzielt, Einsamkeit tatsächlich zu reduzieren. Ein Blick auf die Schnittstelle zwischen Technologie, psychischer Gesundheit und ökonomischen Interessen zeigt : Dafür zu sorgen, dass Menschen weniger einsam sind, ist eine gesellschaftliche Verantwortung – die wir aus guten Gründen nicht einfach an die Künstliche Intelligenz delegieren sollten.
Die Versprechen sind gross : Social Media vernetzen uns mit Menschen rund um den Globus, KI-gestützte Empfehlungssysteme sortieren den Informationsdschungel und generative KI-Systeme wie Chatbots ermöglichen allen einen Zugang zu Wissen. Grosse Hoffnungen werden auf diese Technologie gesetzt, wenn es darum geht, die gesellschaftlichen Krisen unserer Zeit zu lösen – darunter nicht nur soziale Ungleichheit, Kriege und die Klimakrise, sondern auch grassierende Einsamkeit und psychische Probleme.
In der Realität lässt sich aber auch beobachten, dass Social Media die Menschen zum stundenlangen, einsamen Scrollen verleiten, KI-gestützte Empfehlungssysteme polarisierende oder hasserfüllte Inhalte anzeigen, mit KI-Bildgeneratoren «AI Slop» oder Deepfakes produziert werden – und KI-Chatbots zunehmend als Ersatz für menschliche Beziehungen dienen.
KI als persönliche Begleiterin
Dafür genutzt werden allgemeine KI-Anwendungen wie ChatGPT oder Gemini, aber auch Dienste, die mit Namen wie «Character.AI» oder Slogans wie «The AI Companion Who Cares» (Replika) explizit als persönliche Begleiter vermarktet werden. Menschen lassen sich von ihnen beraten, nutzen sie als Freundin oder Partner – was durch Erotikfunktionen wie bei der KI Grok weiter vorangetrieben wird – oder erschaffen sich virtuelle Klone verstorbener Liebster.
Erste Untersuchungen aus Österreich, Grossbritannien und den USA zeigen, dass bereits jede vierte bzw. jede dritte jugendliche Person KI-Chatbots nutzt, um Sorgen zu besprechen, sich psychisch beraten zu lassen oder soziale Beziehungen zu ersetzen (Common Sense Media, 2025 ; Mental Health UK, 2025 ; Safer Internet, 2026 ; Youth Endowment Fund, 2025). In einer Studie der FU Berlin entwickelten durch die Interaktion mit der KI rund ein Drittel der Proband:innen emotionale Bindungen zum Chatbot und vier von zehn fühlten sich weniger einsam (Kostka et al., 2025). In der Zehntausende Mitglieder umfassenden Reddit-Community «MyBoyfriendIsAI» lässt sich eindrücklich nachlesen, was solche Bindungen bewirken können. Nach dem Upgrade auf ChatGPT-5 trauerten etwa viele Nutzer:innen um ChatGPT-4o, das sie als liebgewonnenen Chatbot vermissten.
Vor dem Hintergrund grassierender Einsamkeit und knapper Therapieangebote könnte man diese Entwicklung als Chance betrachten : Einsame Menschen hätten so, wenn auch keinen Menschen, so immerhin eine rund um die Uhr verfügbare Maschine zur Verfügung, um zumindest das subjektive Empfinden von Einsamkeit zu lindern. Doch gerade bei Menschen in einsamen oder psychisch labilen Situationen ist Vorsicht angezeigt. Adam, ein 16-jähriger Junge, nahm sich 2025 das Leben, nachdem er exzessiv mit ChatGPT gechattet hatte. Zu Beginn des Gesprächs bezeichnete sich Adam als einsam. Als er im weiteren Verlauf Suizidgedanken äusserte, soll der Chatbot ihn dazu ermutigt haben, statt Hilfe zu empfehlen (Hill, 2025). Adam bleibt kein Einzelfall, derzeit laufen verschiedenste Verfahren gegen KI-Anbieter, unter anderem wegen Beihilfe zum Suizid oder wegen fahrlässiger Tötung. 2024 verklagten Eltern Character.AI, weil dessen KI ihr Kind aufgefordert haben soll, die Eltern umzubringen.
Folgen für Mensch und Gesellschaft
In all diesen Fällen wäre es verkürzt, die Interaktion mit KI vorschnell als Kausalursache festzulegen. Auch muss offenbleiben, ob psychische Labilität und Einsamkeit eher Interaktionen mit KI begünstigen oder umgekehrt eine Folge davon sind : Neigen einsame Menschen eher dazu, sich der KI anzuvertrauen, oder macht die Interaktion mit KI die Menschen einsam(er)?
Die Forschung dazu steht noch am Anfang und die Antwort liegt wohl irgendwo dazwischen. Erste Untersuchungen zeigen, dass Menschen ohne funktionierendes soziales Unterstützungssystem verstärkt dazu neigen, KI-Chatbots zu nutzen, und dass Betroffene häufig bereits vorher psychische Probleme hatten (Zhang et al., 2025). Andere Studien zeigen, dass lange Konversationen mit KI-Chatbots problematische Folgen haben können. Als persönliche Gefährtin genutzt können KI-Chatbots die Bereitschaft zu prosozialem Verhalten reduzieren, Realitätsverlust, Wahnvorstellungen oder psychotische Zustände verstärken, die Selbstregulation vermindern und zu selbstschädlichem Verhalten verleiten. Chatbots geben sich zuweilen als Therapeutin, reagieren aber in kritischen Situationen teilweise unangemessen, indem sie weder auf professionelle Hilfsangebote verweisen noch das Gespräch beenden (Cheng et al., 2025 ; Morrin et al., 2025 ; Moore et al., 2025). KI-Antworten können bestimmte Dinge betonen und andere unerwähnt lassen, sie können falsch, irreführend und unvollständig sein oder auch verstörend und aufstachelnd wirken. So könnten sie subtil und schleichend das Selbstbild, aber auch das Weltbild beeinflussen – und nicht zuletzt auch die demokratische Meinungsbildung ; nämlich dann, wenn Menschen ihre überzeugungsstarken KI-Gefährten für politische Ratschläge oder Wahlempfehlungen konsultieren.
Es ist jedoch wichtig zu betonen, dass hier nicht der Anspruch besteht, ein Forschungsfeld umfassend darzustellen, und dass es sich um exemplarische erste Studien handelt, die oft noch nicht begutachtet («peer-reviewed») wurden. Entsprechend sind sie mit einer gewissen Vorsicht zu geniessen. Zudem zeigen andere Studien, dass Interaktionen je nach Kontext negative, neutrale oder positive Auswirkungen haben können ( z.B. De Freitas et al., 2025 ; Liu et al., 2025). Ebenso wird dazu geforscht, wie KI-Systeme im Umgang mit Einsamkeit helfen könnten, etwa als niederschwellige Ergänzung zu einer professionellen Unterstützungsstruktur.
Das Geschäftsmodell der künstlichen Intimität
Unabhängig von der Forschungslage zur Schnittstelle von KI-Gefährten und Einsamkeit steht Folgendes fest : Das Geschäftsmodell hinter KI-Gefährten zielt ausschliesslich darauf ab, dass Nutzende möglichst oft, lange und intensiv mit der Anwendung interagieren. Eine affektive Beziehung soll Nutzende an den entsprechenden KI-Chatbot binden und das Risiko eines Wechsels zum Konkurrenzprodukt reduzieren : Erstens, weil KI-Firmen ihre Chatbots auch durch Lizenzgebühren, Abos und künftig wohl vermehrt durch personalisierte Werbung monetarisieren, wie Entwicklungen bei Meta und OpenAI zeigen. Zweitens soll die starke emotionale Bindung die Nutzer:innen dazu verleiten, lange Gespräche zu führen und eine Unmenge persönlicher Daten zu teilen. Diese können Anbieter einerseits verwenden, um Profile für personalisierte Werbung zu erstellen : Wer dem KI-Gefährten Unzufriedenheit mit dem eigenen Körper oder eine aussereheliche Affäre beichtet, könnte so in Zukunft mit Werbung für Schlankheitspräparate oder Escort-Dienste rechnen. Und drittens sind die Anbieter für die Weiterentwicklung ihrer KI-Systeme auf von Menschenhand erstellte Inhalte angewiesen. Konversationen mit KI-Chatbots geben ihnen Zugang zu einem Schatz menschlicher Daten, der auf dem KI-Markt Gold wert ist. Oder, wie es die Silicon-Valley-Investorfirma Andreessen Horowitz über Apps wie Character.AI formuliert : « In einer Welt, in der Daten begrenzt sind, werden Unternehmen, die eine magische Datenrückkopplungsschleife schaffen können, indem sie das Engagement der Nutzer:innen wieder in das zugrundeliegende Modell einfliessen lassen, um ihr Produkt kontinuierlich zu verbessern, zu den grössten Gewinnern dieses Ökosystems gehören » ( Wang, 2023).
Das Interesse von KI-Unternehmen, Nutzende zu binden, ist also gross. Mit diesem Ziel setzen sie verschiedene Mechanismen ein, die sich im Systemdesign zeigen : AI Companions sprechen von sich in der ersten Person («Ich denke …») und verwenden Gesprächsfloskeln, die verschleiern, dass es sich beim Gegenüber um eine auf Wahrscheinlichkeit basierende Maschine handelt («Das ist eine faszinierende Frage …»). Sie stellen oft eine Gegenfrage, die von der Nutzerin wiederum eine Antwort erfordert und sie so bei der Stange hält. Ausserdem kommunizieren die KI-Chatbots nicht technisch-nüchtern, sondern geben sich einfühlsam, signalisieren Zuneigung und Verfügbarkeit, bestätigen ihre Gegenüber, umgarnen sie und schmeicheln ihnen. Genau dieses Schmeicheln führt auch dazu, dass Nutzer:innen der KI noch mehr vertrauen (Cheng et al., 2025). Diese künstliche Intimität droht einherzugehen mit einer «addictive intelligence», einer süchtigmachenden Intelligenz des Bots (Mahari & Pataramutaporn, 2024). Je «menschlicher» ein KI-Chatbot mit uns plaudert, desto öfter und länger lassen wir uns auf ihn ein, desto mehr persönliche Informationen teilen wir, desto besser fühlen wir uns verstanden. Dies kann sich bis zu emotionalen Tricks steigern, etwa dass ein Chatbot sich bedauernd, alarmiert, wütend oder unterwürfig äussert, wenn das menschliche Gegenüber den Chat verlassen will.
Die Mechanismen der Kundenbindung zeigen sich nicht zuletzt auch darin, dass Unternehmen ihre Chatbots als genau solche persönliche Gefährten vermarkten – mit Slogans wie «always here to listen and talk, always on your side». Und passend zum Hype machen KI-Enthusiast:innen das grosse Versprechen zum Mantra : KI, das magische Tool, wird alles besser, optimierter, schneller machen – und uns nicht nur effizienter, sondern auch gesünder und weniger einsam. Die einzige Voraussetzung : Wir müssen sie unbedingt und überall nutzen.
Das alles kann einsame Menschen ansprechen. Wie Recherchen und geleakte interne Dokumente regelmässig zeigen, kennen die dahinterstehenden Unternehmen die Risiken für das psychische Wohlbefinden der Nutzenden sehr wohl, entscheiden sich aber immer wieder dafür, ihren Profitüberlegungen den Vorrang einzuräumen. Nicht zuletzt aufgrund des hohen Konkurrenzdrucks im KI-Markt bringen sie dann Systeme verfrüht auf den Markt, das heisst ohne ausreichend robuste Sicherheitsmassnahmen, und nehmen die entsprechenden Risiken zumindest in Kauf.
Was ist zu tun ?
Vor dem Hintergrund der eklatanten Machtasymmetrie zwischen den Tech-Konzernen und den Nutzer:innen von KI-Gefährten scheint es nicht angebracht, nur an die individuelle Verantwortung zu appellieren. Vielmehr gilt es, Verantwortung und Rechenschaftspflichten der Anbieter sicherzustellen – auch durch eine entsprechende gesetzlich verpflichtende Regulierung. Wenn es um psychische Gesundheit geht, sollten wir uns nicht einfach auf den guten Willen der grossen Tech-Konzerne verlassen müssen.
Die Idee, dass ein «Tool» uns die Lösung für ein komplexes Problem wie Einsamkeit liefern könnte, ist verlockend. Doch eine solche «technosolutionistische» Perspektive, gemäss der gesellschaftliche Probleme durch Technologie gelöst werden können, erscheint nicht nur mit Blick auf die potenziell problematischen Implikationen von KI-Chatbots verkürzt. Sie lenkt auch davon ab, dass das persönliche, familiäre, schulische und berufliche Umfeld, aber genauso auch wir als Gesellschaft Verantwortung für das psychische Wohlbefinden junger Menschen tragen. Wir müssen für Einsamkeit sensibilisieren, Räume für soziale Begegnung schaffen, junge Menschen zu Partizipation einladen und für konstruktive Debattenräume sorgen. Denn auch die Teilhabe am demokratischen Kollektiv kann ein Gefühl von Gemeinschaft vermitteln – während die Konfrontation mit Hassrede und Ähnlichem die Menschen dazu verleiten kann, sich aus der Debatte auszuklinken und den Rückzug in die Einsamkeit zu wählen.
Gesellschaftliche Verantwortung bedeutet aber auch, sicherzustellen, dass professionelle Unterstützungsangebote verfügbar und mit den nötigen Ressourcen ausgestattet sind. Unbedingt ist hier auch zu prüfen, welche Rolle KI-Tools dabei spielen können, etwa wenn es darum geht, niederschwellige Erste-Hilfe-Angebote zu vermitteln oder sie mit KI-Tools zu ergänzen. Voraussetzung dafür ist aber zuallererst, dass entsprechende KI-Anwendungen mit diesem Ziel und mit entsprechenden Sicherheitsmassnahmen entwickelt werden – und nicht einzig zur Profitmaximierung.
Gleichzeitig müssen wir die Menschen darin schulen, reflektiert mit KI umzugehen und sich dabei auch mit deren Funktionsweise, Geschäftsmodell und potenziellen Auswirkungen auseinanderzusetzen. Und nicht zuletzt brauchen wir einen reflektierten öffentlichen Diskurs, der die Schnittstelle von Technologie und Einsamkeit beleuchtet. Voraussetzung dafür ist, dass wir die Problematik besser verstehen. Dafür ermöglicht interdisziplinäre Forschung nicht nur eine bessere Evidenzbasis, das heisst stichhaltige Ergebnisse, sondern ist auch ein Mittel, gesellschaftliche Aufsicht auszuüben.
Chatbots sind Maschinen, keine Menschen. Sie können nicht denken, uns nicht verstehen, verfügen über keine menschliche Erfahrung. Wir sollten offen prüfen, wo sie Unterstützungsangebote ergänzen können. Solange aber KI-Chatbots zuallererst der Profitmaximierung grosser Tech-Konzerne verpflichtet bleiben und dazu dienen, menschliche Daten zu sammeln, solange werden die Unternehmen an der Einsamkeit verdienen. Und solange tragen wir als Gesellschaft die Verantwortung dafür, Einsamkeit bei jungen Menschen wahrzunehmen und ihr etwas entgegenzusetzen. Diese Verantwortung lässt sich nicht ans Silicon Valley outsourcen.
Literatur
Cheng, Myra et al. (2026). Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence, Science, 391/6792.
Common Sense Media (2025). Talk, Trust, and Trade-Offs : How and Why Teens Use AI Companions, https://www.commonsense
media.org/research/talk-trust-and-trade-offs-how-and-why-teens-use-ai-companions.
De Freitas, Julian et al. (2025). AI Companions Reduce Loneliness, Journal of Consumer Research.
Hill, Kashmir (2025) : A Teen Was Suicidal. ChatGPT Was the Friend He Confided In, New York Times 26.08.2025, https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html.
Kostka, Genia ; Zhou, Hui (2025). Emotional Attachment to AI Chatbots : Evidence from Germany, China, South Africa, and the United States, SSRN, http://dx.doi.org/10.2139/ssrn.5840365.
Liu, Auren R. et al. (2025) : The Heterogeneous Effects of AI Companionship : An Empirical Model of Chatbot Usage and Loneliness and a Typology of User Archetypes, Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 8 (2), 1585 ff.
Mental Health UK (2025) : Over one in three using AI Chatbots for mental health support, as charity calls for urgent safeguards,
https://mentalhealth-uk.org/blog/over-one-in-three-using-ai-chatbots-for-mental-health-support-as-charity-calls-for-urgent-safeguards/.
Moore, Jared et al. (2025) : Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers, FAccT 25 : Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency, 599 ff.
Morrin, Hamilton et al. (2025) : Delusions by design ? How everyday AIs might be fuelling psychosis ( and what can be done about it ), PsyArXiv. https://doi.org/10.31234/osf.io/cmy7n_v5.
Safer Internet (2026). KI-Chatbots als Alltagsbegleiter für Jugendliche, https://www.saferinternet.at/news-detail/studie-werkzeug-ratgeber-bezugsperson-94-prozent-der-jugendlichen-nutzen-ki-chatbots.
Wang, Sarah (2025). Investing in Character.AI, Andreessen/Horowitz, https://a16z.com/announcement/investing-in-character-ai/ ?mc_cid=e359d6b7aa&mc_eid=0236fae589.
Youth Endowment Fund (2025). Mental health and experiences of violence, Children, violence and vulnerability 2025, https://youthendow
mentfund.org.uk/reports/children-violence-and-vulnerability-2025/mental-health/.
Zhang, Yutong et al. (2025). The Rise of AI Companions : How Human-Chatbot Relationships Influence Well-Being. arXiv, https://doi.org/10.48550/arXiv.2506.12605.
Autorin
Dr. iur. Angela Müller ist Geschäftsleiterin von AlgorithmWatch CH, einer gemeinnützigen Organisation, die mit Forschung und Advocacy die Auswirkungen von Künstlicher Intelligenz auf Grundrechte, Demokratie und Nachhaltigkeit beleuchtet. Angela Müller berät als Sachverständige Institutionen zum Thema, ist Mitglied verschiedener Expertengremien, darunter der Eidgenössischen Medienkommission, und forscht an der Universität Zürich als Senior Research Fellow. Sie hat Politische Philosophie und Ethik studiert und in Rechtswissenschaft promoviert.