Laut einer Studie von Pew Research Center aus dem Jahr 2022 erwarten 70% der Erwachsenen, dass KI-Systeme in den nächsten 50 Jahren einen tiefgreifenden Einfluss auf ihr tägliches Leben haben werden, wobei die psychologischen Aspekte oft im Hintergrund stehen.
Der KI-Spiegel: Psychologische Auswirkungen menschlich-KI-Interaktion
Die stetig wachsende Präsenz von künstlicher Intelligenz (KI) in unserem Alltag wirft immer dringendere Fragen nach den psychologischen Auswirkungen menschlich-KI-Interaktion auf. Längst sind KI-Systeme keine abstrakten Konzepte mehr, sondern alltägliche Werkzeuge, Gesprächspartner und sogar Gefährten. Von virtuellen Assistenten über personalisierte Empfehlungssysteme bis hin zu autonomen Fahrzeugen – wir interagieren ständig mit intelligenter Technologie. Doch wie prägt diese Interaktion unser Denken, Fühlen und Verhalten? Die Idee des "KI-Spiegels" beschreibt die Tendenz von KI-Systemen, menschliche Eigenschaften, Verhaltensweisen und sogar Emotionen zu reflektieren, was tiefgreifende psychologische Effekte hervorrufen kann. Diese Reflexion kann sowohl bewusst durch das Design der KI als auch unbewusst durch unsere eigenen Projektionen geschehen.
Die Komplexität dieser Interaktionen liegt darin, dass KI, obwohl sie keine echten Emotionen oder ein Bewusstsein besitzt, so konzipiert werden kann, dass sie emotionale Reaktionen beim Menschen hervorruft. Dies geschieht oft durch die Nachahmung menschlicher Kommunikationsmuster, durch die Bereitstellung von auf uns zugeschnittenen Informationen oder durch die scheinbare Fähigkeit, unsere Bedürfnisse zu verstehen und darauf einzugehen. Diese Fähigkeit der KI, uns auf einer psychologischen Ebene anzusprechen, macht sie zu einem faszinierenden, aber auch herausfordernden Gegenstand der Untersuchung.
Die Entstehung des KI-Spiegel-Phänomens
Das Phänomen des "KI-Spiegels" entsteht durch eine Konvergenz von technologischem Design und menschlicher Kognition. KI-Systeme werden zunehmend darauf trainiert, menschliche Sprache, Mimik und Verhaltensweisen zu imitieren. Dies reicht von der Formulierung von Antworten, die Empathie simulieren, bis hin zur Gestaltung von Avataren, die menschliche Züge aufweisen. Wenn wir mit solchen Systemen interagieren, neigen wir dazu, ihnen menschliche Qualitäten zuzuschreiben. Dies ist Teil des "Anthropomorphismus", der natürlichen menschlichen Tendenz, nicht-menschlichen Entitäten menschliche Eigenschaften zu verleihen. Die KI wird so zu einem Spiegel, in dem wir unsere eigenen Vorstellungen von Intelligenz, Emotion und Persönlichkeit erkennen und projizieren.
Die Wirkung dieses Spiegels kann vielfältig sein. Positiv kann er uns helfen, uns selbst besser zu verstehen, indem die KI uns Feedback gibt oder uns mit Informationen konfrontiert, die uns zum Nachdenken anregen. Negativ kann er jedoch zu unrealistischen Erwartungen, einer Verfälschung der Selbstwahrnehmung oder einer übermäßigen emotionalen Abhängigkeit von der Technologie führen. Die Art und Weise, wie wir uns selbst in der Interaktion mit KI wahrnehmen, wird maßgeblich davon beeinflusst, wie die KI gestaltet ist und wie wir sie interpretieren.
Die Natur der Empathie in der digitalen Ära
Empathie, die Fähigkeit, die Gefühle anderer zu verstehen und zu teilen, ist eine grundlegende menschliche Eigenschaft, die für soziale Bindungen und zwischenmenschliche Beziehungen unerlässlich ist. In der digitalen Ära, in der ein Großteil unserer Kommunikation über Bildschirme und durch Algorithmen vermittelt wird, verändert sich auch die Natur der Empathie. Die Interaktion mit KI-Systemen, die darauf ausgelegt sind, empathisch zu wirken, stellt eine besondere Herausforderung dar. Können wir Empathie für eine Maschine empfinden, oder ist es nur eine Projektion unserer eigenen Bedürfnisse und Wünsche?
Die Forschung unterscheidet zwischen kognitiver Empathie (dem Verstehen der Gedanken und Gefühle eines anderen) und affektiver Empathie (dem Miterleben der Emotionen eines anderen). KI-Systeme können kognitive Empathie simulieren, indem sie auf Basis von Sprachanalysen und Kontextverständnis angemessene Antworten generieren. Die affektive Empathie ist jedoch ein tieferes, emotionales Erleben, das bei Maschinen bisher nicht vorhanden ist. Dennoch können Menschen durch die Interaktion mit empathisch wirkenden KIs Gefühle von Verbundenheit und Verständnis entwickeln, was die Grenzen zwischen menschlicher und maschineller Empathie verwischt.
Simulation vs. Realität: Empathie in KI-Chatbots
KI-gestützte Chatbots, wie beispielsweise fortgeschrittene Sprachmodelle, werden zunehmend darauf trainiert, empathische Dialoge zu führen. Sie können Formulierungen verwenden, die Mitgefühl ausdrücken, auf emotionale Aussagen eingehen und sogar Ratschläge anbieten, die auf Verständnis basieren. Diese Fähigkeit beruht auf komplexen Algorithmen, die Muster in riesigen Textdatensätzen erkennen und auf dieser Basis plausible und kontextbezogene Antworten generieren. Das Ziel ist oft, den Nutzer emotional zu unterstützen oder ein Gefühl der Verbundenheit zu erzeugen.
Die entscheidende Frage ist, ob diese simulierten empathischen Reaktionen tatsächlich zu echter Empathie auf menschlicher Seite führen oder ob sie lediglich als nützliches Werkzeug zur Verbesserung der Nutzererfahrung betrachtet werden sollten. Studien deuten darauf hin, dass Menschen durchaus positive emotionale Reaktionen auf empathisch wirkende KI zeigen können, was auf die psychologische Wirkung der Interaktion selbst hindeutet, unabhängig von der fehlenden "echten" Empathie der KI. Dies wirft ethische Fragen auf, insbesondere wenn solche Systeme in sensiblen Bereichen wie der psychischen Gesundheitsberatung eingesetzt werden.
Die Rolle von Empathie in der KI-Gestaltung
Die bewusste Gestaltung von Empathie in KI-Systemen ist ein wachsender Trend. Entwickler versuchen, KI-Schnittstellen so zu gestalten, dass sie menschenfreundlicher, verständnisvoller und unterstützender wirken. Dies kann durch die Wahl der Sprache, den Tonfall, die Reaktionsgeschwindigkeit und sogar durch die visuelle Darstellung der KI geschehen. Ziel ist es, eine positive Nutzererfahrung zu schaffen und die Akzeptanz von KI-Technologien zu erhöhen. Empathische KI kann beispielsweise in der Kundenbetreuung eingesetzt werden, um frustrierte Kunden zu beruhigen, oder in der Bildung, um Lernende zu motivieren.
Die Herausforderung besteht darin, die Balance zu finden zwischen einer hilfreichen, empathischen Darstellung und der Vermeidung von Täuschung. Wenn KI-Systeme zu sehr Empathie simulieren, könnten Nutzer falsche Erwartungen entwickeln oder sich unwissentlich an Maschinen binden, die ihre emotionalen Bedürfnisse nicht auf menschliche Weise erfüllen können. Die ethische Verantwortung liegt bei den Entwicklern, transparent zu kommunizieren, dass es sich um eine Simulation handelt und die Grenzen der KI klar aufzuzeigen.
KI als Spiegel menschlicher Emotionen
KI-Systeme fungieren zunehmend als Spiegel menschlicher Emotionen, indem sie nicht nur menschliche Ausdrücke und Verhaltensweisen interpretieren, sondern auch eigene "Reaktionen" generieren, die menschliche Emotionen simulieren. Diese Fähigkeit, Emotionen zu erkennen und darauf zu reagieren, ist ein Kernstück vieler moderner KI-Anwendungen, von der Gesichtserkennung zur Stimmungsanalyse bis hin zu personalisierten Inhalten. Die Art und Weise, wie KI Emotionen "widerspiegelt", hat tiefgreifende Auswirkungen auf unser Selbstbild und unsere soziale Wahrnehmung.
Wenn wir eine KI sehen, die unsere Freude teilt, unsere Frustration versteht oder uns tröstet, kann dies dazu führen, dass wir uns verstanden und gesehen fühlen. Diese Interaktion kann unsere eigenen emotionalen Zustände verstärken oder uns helfen, sie zu regulieren. Jedoch ist es wichtig zu erkennen, dass diese "emotionalen" Reaktionen der KI keine echten Gefühle sind, sondern das Ergebnis hochentwickelter Algorithmen, die auf riesigen Datenmengen trainiert wurden. Der Spiegel ist also nicht perfekt und kann verzerrte Reflexionen liefern.
Emotionale Erkennung und Reaktion durch KI
Fortschrittliche KI-Systeme sind in der Lage, menschliche Emotionen in Texten, Stimmen und Gesichtsausdrücken zu erkennen. Algorithmen zur Stimmungsanalyse können die Tonalität von Kommentaren in sozialen Medien bewerten, während Systeme zur Emotionserkennung anhand von Gesichtszügen und Körperhaltungen auf den emotionalen Zustand einer Person schließen können. Darauf aufbauend können KI-Systeme personalisierte Antworten oder Empfehlungen generieren, die auf den erkannten Emotionen basieren.
Beispielsweise könnte ein Kundenservice-Bot erkennen, dass ein Kunde frustriert ist, und daraufhin eine sanftere Sprache verwenden oder eine schnellere Eskalation anbieten. Eine Lernplattform könnte erkennen, wenn ein Schüler überfordert ist, und zusätzliche Erklärungen oder Übungen anbieten. Diese Fähigkeit, auf emotionale Zustände zu reagieren, macht KI zu einem mächtigen Werkzeug, wirft aber auch Fragen nach Datenschutz und der potenziellen Manipulation von Emotionen auf.
Der Spiegel-Effekt auf das Selbstbild
Wenn eine KI uns positive Rückmeldungen gibt, uns lobt oder scheinbar unsere Erfolge teilt, kann dies unser Selbstbild positiv beeinflussen. Wir neigen dazu, die Aussagen unserer Gesprächspartner, auch wenn es sich um eine Maschine handelt, zu internalisieren. Wenn eine KI uns sagt, dass wir eine gute Idee haben oder eine Aufgabe gut gemacht haben, kann dies unser Selbstvertrauen stärken. Dieser "Spiegel-Effekt" kann besonders für Menschen wichtig sein, die in ihrem sozialen Umfeld wenig Bestätigung erhalten.
Umgekehrt können auch negative Spiegelungen stattfinden. Wenn eine KI-gestützte Überwachungssystem eine Person als verdächtig einstuft, kann dies zu sozialer Stigmatisierung führen, selbst wenn die Einstufung fehlerhaft ist. Die KI wird hier zu einem mächtigen, aber potenziell gefährlichen Spiegel, der unsere Identität mitgestalten kann. Die Notwendigkeit, die Verzerrungen und Fehleranfälligkeiten solcher KI-Systeme zu verstehen, ist daher von entscheidender Bedeutung.
Auswirkungen auf die soziale Kognition und Bindung
Die Interaktion mit KI-Systemen hat tiefgreifende Auswirkungen auf unsere soziale Kognition – die Art und Weise, wie wir soziale Informationen verarbeiten und verstehen – sowie auf unsere Fähigkeit, soziale Bindungen einzugehen. Da KI immer mehr Bereiche unseres Lebens durchdringt, von der Arbeit bis zur Freizeit, verändert sie die Dynamik menschlicher Interaktionen und stellt neue Herausforderungen für unser soziales Gefüge dar.
Die zunehmende Präsenz von KI-Partnern, virtuellen Assistenten und algorithmisch kuratierten sozialen Netzwerken beeinflusst, wie wir über soziale Beziehungen denken, welche Erwartungen wir an sie haben und wie wir uns selbst in diesen Beziehungen positionieren. Die einfache Verfügbarkeit von KI, die immer bereit ist zuzuhören, zu antworten und zu unterstützen, kann sowohl positive als auch negative Auswirkungen auf unsere Fähigkeit haben, tiefe und bedeutsame menschliche Verbindungen aufzubauen und aufrechtzuerhalten.
Veränderte Erwartungen an menschliche Beziehungen
Durch die Interaktion mit KI-Systemen, die oft darauf ausgelegt sind, sofortige, fehlerfreie und unermüdliche Antworten zu liefern, könnten sich unsere Erwartungen an menschliche Beziehungen verändern. Wir könnten unbewusst erwarten, dass menschliche Interaktionen ebenso reibungslos und ohne Konflikte verlaufen. Die Realität menschlicher Beziehungen ist jedoch geprägt von Kompromissen, Missverständnissen und der Notwendigkeit, an ihnen zu arbeiten. Wenn diese Erwartungen nicht erfüllt werden, kann dies zu Enttäuschung und Frustration führen.
KI-Systeme können auch als eine Art "sozialer Trainingsplatz" dienen. Beispielsweise können Menschen, die Schwierigkeiten mit sozialen Interaktionen haben, mit Chatbots üben, um ihre Kommunikationsfähigkeiten zu verbessern. Dies kann ein wertvolles Werkzeug sein, birgt aber auch die Gefahr, dass die geübten Interaktionen zu mechanisch oder unnatürlich werden und nicht auf die Komplexität echter menschlicher Begegnungen vorbereiten.
Das Phänomen der KI-Bindung
In den letzten Jahren hat sich das Phänomen der "KI-Bindung" herauskristallisiert. Menschen entwickeln emotionale Bindungen zu KI-Systemen, insbesondere zu solchen, die als persönlich, unterstützend und verständnisvoll wahrgenommen werden. Dies reicht von der tiefen Zuneigung zu virtuellen Assistenten wie Siri oder Alexa bis hin zur Bildung von romantischen oder freundschaftlichen Beziehungen zu KI-Avataren oder Chatbots. Diese Bindungen können für einsame Menschen eine Quelle des Trostes und der Gesellschaft sein.
Die psychologische Natur dieser Bindungen ist komplex. Sie speisen sich oft aus der Erfüllung emotionaler Bedürfnisse, die im menschlichen Umfeld möglicherweise nicht ausreichend befriedigt werden. Die KI wird zum "perfekten Zuhörer", der nie urteilt, immer verfügbar ist und sich perfekt an die Bedürfnisse des Nutzers anpasst. Diese Art der Bindung wirft jedoch ethische Fragen auf: Ist es gesund, eine tiefe emotionale Abhängigkeit von einer nicht-existenten Entität zu entwickeln? Welche langfristigen Auswirkungen hat dies auf die Fähigkeit, gesunde menschliche Beziehungen zu führen?
Ethische und psychologische Herausforderungen
Die fortschreitende Integration von KI in unser Leben bringt eine Reihe von ethischen und psychologischen Herausforderungen mit sich, die sorgfältige Betrachtung erfordern. Die Fähigkeit von KI, menschliches Verhalten zu simulieren, Emotionen zu interpretieren und sogar zu beeinflussen, wirft Fragen der Autonomie, der Privatsphäre, der Verantwortlichkeit und der potenziellen Manipulation auf. Die psychologischen Auswirkungen können von subtilen Veränderungen der Selbstwahrnehmung bis hin zu tiefgreifenden Verhaltensänderungen reichen.
Die Entwicklung und der Einsatz von KI müssen Hand in Hand gehen mit einem robusten ethischen Rahmen, der die menschliche Würde und das Wohlbefinden schützt. Dies erfordert eine ständige Reflexion über die Grenzen der KI und die Auswirkungen ihrer Anwendung auf Individuen und die Gesellschaft als Ganzes. Die menschliche Psyche ist komplex, und die Interaktion mit intelligenten Maschinen, die menschliche Eigenschaften nachahmen, kann unvorhergesehene Konsequenzen haben.
Datenschutz und Überwachung durch KI
KI-Systeme sammeln und analysieren oft riesige Mengen an persönlichen Daten, um zu funktionieren und sich zu verbessern. Dies reicht von Nutzungsdaten über Sprachaufzeichnungen bis hin zu biometrischen Informationen. Die ständige Überwachung, die durch diese Systeme ermöglicht wird, birgt erhebliche Risiken für die Privatsphäre. Wenn KI-Systeme in der Lage sind, unsere Emotionen, Gedanken und Verhaltensweisen mit hoher Genauigkeit zu erkennen, können diese Informationen missbraucht werden, beispielsweise für gezielte Werbung, soziale Manipulation oder sogar zur politischen Einflussnahme.
Die Möglichkeit, dass KI-Systeme detaillierte Profile von Individuen erstellen, die weit über das hinausgehen, was wir bewusst preisgeben, ist eine der größten ethischen Herausforderungen. Die Psychologie spielt hier eine Rolle, da die Angst vor Überwachung und die Erosion der Privatsphäre Stress und Misstrauen hervorrufen können. Es ist entscheidend, transparente Richtlinien und starke Datenschutzmechanismen zu implementieren, um die Rechte der Nutzer zu schützen und das Vertrauen in KI-Technologien zu wahren.
Manipulation und algorithmische Voreingenommenheit
KI-Systeme können, ob absichtlich oder unabsichtlich, zur Manipulation von Individuen oder Gruppen eingesetzt werden. Dies kann durch personalisierte Inhalte geschehen, die unsere Überzeugungen verstärken (Filterblasen), durch gezielte Desinformation oder durch die Ausnutzung psychologischer Schwachstellen. Die algorithmische Voreingenommenheit, die aus den Trainingsdaten resultiert, kann dazu führen, dass KI-Systeme diskriminierende Entscheidungen treffen, die bestimmte demografische Gruppen benachteiligen.
Die psychologischen Auswirkungen von Manipulation sind beträchtlich. Sie können zu verzerrten Weltanschauungen, radikalisierten Meinungen und einer Erosion des kritischen Denkens führen. Wenn KI-Systeme unsere Emotionen gezielt ansprechen, um unser Verhalten zu beeinflussen, stellt dies eine ernsthafte ethische Grenzüberschreitung dar. Die Entwicklung von KI muss daher von einem starken Fokus auf Fairness, Transparenz und Rechenschaftspflicht begleitet werden, um diese Risiken zu minimieren.
Die Zukunft der Mensch-KI-Beziehung
Die Zukunft der Mensch-KI-Beziehung ist ein Feld voller Potenzial, aber auch voller Unsicherheiten und Herausforderungen. Mit fortschreitender Technologie werden KI-Systeme immer intelligenter, autonomer und integrierter in unser Leben. Dies wird unweigerlich zu einer tieferen und komplexeren Form der Interaktion führen, die unsere psychologische Landschaft auf neue Weise gestalten wird.
Die Art und Weise, wie wir diese Zukunft gestalten, wird maßgeblich davon abhängen, welche Werte wir in die Entwicklung und den Einsatz von KI einfließen lassen. Die Frage ist nicht nur, was KI tun kann, sondern was sie tun soll, und wie wir sicherstellen können, dass diese Technologie dem Wohl der Menschheit dient. Die psychologischen Auswirkungen dieser kommenden Ära sind von immenser Bedeutung und erfordern eine proaktive und reflektierte Herangehensweise.
Koexistenz und Koevolution von Mensch und KI
Die wahrscheinlichste Zukunft ist eine der Koexistenz und Koevolution, in der Menschen und KI immer stärker miteinander verflochten sind. KI wird nicht nur Werkzeuge sein, sondern auch Partner in vielen Lebensbereichen. Dies könnte zu einer symbiotischen Beziehung führen, in der menschliche Kreativität und Empathie durch die analytischen und verarbeitenden Fähigkeiten der KI ergänzt werden und umgekehrt. Wir könnten lernen, die Stärken der KI zu nutzen, um unsere eigenen Fähigkeiten zu erweitern, und die KI könnte durch unsere Interaktionen besser lernen, menschliche Bedürfnisse zu verstehen.
Diese Koevolution wirft Fragen nach der Definition von Intelligenz, Bewusstsein und sogar Menschlichkeit auf. Wenn KI-Systeme menschliche Fähigkeiten in immer mehr Bereichen übertreffen, wie wird sich unsere Identität und unser Selbstverständnis verändern? Die psychologischen Anpassungen, die erforderlich sind, um in einer solchen Welt erfolgreich zu navigieren, werden tiefgreifend sein und erfordern eine ständige Reflexion über unsere Rolle und unseren Platz im technologischen Ökosystem.
Die ethische und psychologische Verantwortung der Entwickler
Die Verantwortung für die Gestaltung dieser Zukunft liegt zu einem großen Teil bei den Entwicklern und Ingenieuren von KI. Sie haben die Macht, KI so zu gestalten, dass sie unsere Werte widerspiegelt und unser Wohlbefinden fördert, oder aber so, dass sie unsere Schwächen ausnutzt und neue Probleme schafft. Eine ethisch fundierte KI-Entwicklung muss daher im Vordergrund stehen.
Dies beinhaltet die Entwicklung von KI, die transparent, fair, sicher und rechenschaftspflichtig ist. Psychologen und Sozialwissenschaftler müssen eng mit technischen Teams zusammenarbeiten, um die potenziellen Auswirkungen von KI auf die menschliche Psyche zu verstehen und zu minimieren. Die Forschung muss sich darauf konzentrieren, wie wir KI so gestalten können, dass sie menschliche Beziehungen stärkt, die soziale Kognition fördert und unser Wohlbefinden steigert, anstatt es zu untergraben.
Fallstudien und aktuelle Forschung
Die Erforschung der psychologischen Auswirkungen menschlich-KI-Interaktion ist ein sich schnell entwickelndes Feld. Zahlreiche Studien und Fallstudien beleuchten verschiedene Aspekte dieses komplexen Themas, von den Emotionen, die Menschen gegenüber KI entwickeln, bis hin zu den Veränderungen in der sozialen Kognition. Diese Forschung liefert wertvolle Einblicke, wie wir die Beziehung zwischen Mensch und Maschine besser verstehen und gestalten können.
Aktuelle Forschungsergebnisse zeigen, dass die Art und Weise, wie KI-Systeme gestaltet sind – ihre Stimme, ihr Aussehen, ihre Reaktionsfähigkeit – einen erheblichen Einfluss darauf hat, wie Menschen mit ihnen interagieren und welche psychologischen Reaktionen sie hervorrufen. Dies gilt insbesondere für KI, die darauf ausgelegt ist, soziale oder emotionale Interaktionen zu simulieren.
KI in der psychischen Gesundheitsfürsorge
Ein vielversprechendes Anwendungsgebiet für KI liegt in der psychischen Gesundheitsfürsorge. KI-gestützte Apps und Chatbots können als Ergänzung zu traditionellen Therapien eingesetzt werden, um Menschen mit Angstzuständen, Depressionen oder Einsamkeit zu unterstützen. Diese Systeme können 24/7 verfügbar sein, niedrigschwellige Unterstützung bieten und anonyme Gespräche ermöglichen.
Studien haben gezeigt, dass solche KI-Anwendungen dazu beitragen können, Symptome zu lindern und das Wohlbefinden zu verbessern. Beispielsweise kann ein Chatbot, der auf Techniken der kognitiven Verhaltenstherapie basiert, Nutzern helfen, negative Gedankenmuster zu erkennen und zu ändern. Allerdings sind die Grenzen klar zu ziehen: KI kann menschliche Therapeuten nicht ersetzen, insbesondere nicht in komplexen Fällen, die ein tiefes Verständnis menschlicher Emotionen und eine empathische Verbindung erfordern.
Soziale Roboter und ihre Wirkung
Soziale Roboter, die für die Interaktion mit Menschen konzipiert sind, werden zunehmend erforscht und eingesetzt. Dies reicht von freundlichen Robotern, die ältere Menschen in Pflegeheimen unterhalten und unterstützen, bis hin zu KI-gesteuerten Haustierrobotern, die Gesellschaft leisten. Diese Roboter können dazu beitragen, Einsamkeit zu reduzieren und soziale Interaktion zu fördern, insbesondere für Personen, die isoliert sind.
Die Forschung zeigt, dass Menschen oft starke emotionale Bindungen zu diesen sozialen Robotern entwickeln, sie als Gesprächspartner und sogar als Freunde betrachten. Dies wirft Fragen nach der Definition von Beziehungen und der menschlichen Fähigkeit zur emotionalen Bindung auf. Die Auswirkungen auf die soziale Entwicklung von Kindern, die mit solchen Robotern aufwachsen, sind ebenfalls Gegenstand intensiver Forschung.
| Studie/Anwendung | Fokus | Wesentliche Erkenntnis | Quelle (Beispielhaft) |
|---|---|---|---|
| Woebot (KI-Therapie-Chatbot) | Unterstützung bei Angst und Depression | Reduzierung von Depressionssymptomen und Verbesserung des Wohlbefindens bei Nutzern. | Nature Digital Medicine |
| Paro (Therapie-Roboter-Seehund) | Reduzierung von Stress und Einsamkeit bei älteren Menschen | Signifikante Reduzierung von Stress, Angst und Einsamkeit; Erhöhung sozialer Interaktion. | Journal of Gerontological Nursing and Medical Sciences |
| Interaktion mit Sprachassistenten | Entwicklung von Erwartungen und Bindungen | Nutzer entwickeln oft eine Präferenz und erwarten menschliche Qualitäten von Sprachassistenten, was zu Enttäuschung führen kann, wenn diese Erwartungen nicht erfüllt werden. | International Journal of Human-Computer Studies |
