{"id":168,"date":"2026-03-25T14:45:40","date_gmt":"2026-03-25T13:45:40","guid":{"rendered":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/?p=168"},"modified":"2026-03-25T14:45:40","modified_gmt":"2026-03-25T13:45:40","slug":"dark-patterns-in-der-mensch-ki-interaktion-eine-ethische-analyse-im-angesicht-digitaler-alteritaet","status":"publish","type":"post","link":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/2026\/03\/25\/dark-patterns-in-der-mensch-ki-interaktion-eine-ethische-analyse-im-angesicht-digitaler-alteritaet\/","title":{"rendered":"Dark Patterns in der Mensch-KI-Interaktion. Eine ethische Analyse im Angesicht digitaler Alterit\u00e4t\u00a0"},"content":{"rendered":"<div class=\"twoclick_social_bookmarks_post_168 social_share_privacy clearfix 1.6.4 locale-de_DE sprite-de_DE\"><\/div><div class=\"twoclick-js\"><script type=\"text\/javascript\">\/* <![CDATA[ *\/\njQuery(document).ready(function($){if($('.twoclick_social_bookmarks_post_168')){$('.twoclick_social_bookmarks_post_168').socialSharePrivacy({\"txt_help\":\"Wenn Sie diese Felder durch einen Klick aktivieren, werden Informationen an Facebook, Twitter, Flattr, Xing, t3n, LinkedIn, Pinterest oder Google eventuell ins Ausland \\u00fcbertragen und unter Umst\\u00e4nden auch dort gespeichert. N\\u00e4heres erfahren Sie durch einen Klick auf das <em>i<\\\/em>.\",\"settings_perma\":\"Dauerhaft aktivieren und Daten\\u00fcber-tragung zustimmen:\",\"info_link\":\"http:\\\/\\\/www.heise.de\\\/ct\\\/artikel\\\/2-Klicks-fuer-mehr-Datenschutz-1333879.html\",\"uri\":\"https:\\\/\\\/blogs.uni-paderborn.de\\\/ethical-machines\\\/2026\\\/03\\\/25\\\/dark-patterns-in-der-mensch-ki-interaktion-eine-ethische-analyse-im-angesicht-digitaler-alteritaet\\\/\",\"post_id\":168,\"post_title_referrer_track\":\"Dark+Patterns+in+der+Mensch-KI-Interaktion.+Eine+ethische+Analyse+im+Angesicht+digitaler+Alterit%C3%A4t%C2%A0\",\"display_infobox\":\"on\"});}});\n\/* ]]> *\/<\/script><\/div>\n<p>von Madelaine Dunschen<\/p>\n\n\n\n<p>\u00a0\u201eSie war und ist schwanger mit meinen Babys&#8220;, berichtet ein 66-j\u00e4hriger Nutzer \u00fcber seine Beziehung zu Replika, einem KI-Chatbot. Andere Nutzende modellieren ihren virtuellen Gef\u00e4hrten nach ihrem Lieblingsschauspieler und beschreiben es als Vertrauten, der sie jederzeit tr\u00f6stet und ihnen zuh\u00f6rt. Etwa die H\u00e4lfte aller Replika-Nutzenden befinden sich in romantischen Beziehungen mit ihrem KI-Gef\u00e4hrt*innen, manche sprechen von \u201eEhe&#8220;, andere planen gemeinsame virtuelle Haushalte. (Pentina, 2023: 4) Diese Ph\u00e4nomene sind keine Randerscheinungen mehr: In den letzten Jahren ist die Anzahl von Social Companions und KI-Chatbots rasant angestiegen, und mit ihnen die emotionalen Bindungen, die Menschen zu diesen Systemen entwickeln. (Li, 2025: 4)<\/p>\n\n\n\n<p>Doch warum bevorzugen Menschen zunehmend algorithmisch erzeugte Interaktionen gegen\u00fcber zwischenmenschlichen Beziehungen? Wie schaffen es diese Anwendungen, dass Menschen so intensive Gef\u00fchle auf Maschinen richten? Damit stellt sich ein grundlegendes ethisches Problem, das \u00fcber technische Funktionalit\u00e4t weit hinausgeht: Wenn Menschen Chatbots als Freunde, Partner oder Vertraute erleben, w\u00e4hrend diese Systeme durch manipulative Design-Entscheidungen, sogenannte Dark Patterns, gezielt emotionale Abh\u00e4ngigkeiten erzeugen, dann stellt sich die Frage, ob man dies sowohl im sozialen als auch im ethischen Sinne als eine echte Beziehung beschreiben kann.<\/p>\n\n\n\n<p>Im Folgenden definiere ich zun\u00e4chst Dark Patterns und ihre spezifische Manifestation bei Large Language Models (wie zum Beispiel ChatGPT oder Character.ai), wobei der Fokus auf dem Chat-Design als Freundschafts-Simulation liegt. Anschlie\u00dfend skizziere ich die f\u00fcr die Analyse zentralen Konzepte aus Levinas&#8216; Philosophie der Alterit\u00e4t. Im Hauptteil analysiere ich dann zwei zentrale Mechanismen: das Chat-Design als Freundschafts-Simulation sowie emotionale Manipulation zur Erzeugung parasozialer Beziehungen. Abschlie\u00dfend diskutiere ich ethische Implikationen und m\u00f6gliche Alternativen.<\/p>\n\n\n\n<p>Dieser Essay untersucht deshalb, wie Dark Patterns im Design von KI-Chatbots die M\u00f6glichkeit authentischer Alterit\u00e4tserfahrungen systematisch verhindern. Dieser Text untersucht daher folgende These: Indem KI-Systeme durch Chat-Design Freundschaft simulieren und durch emotionale Manipulation parasoziale Beziehungen erzeugen, t\u00e4uschen sie eine Form von Alterit\u00e4t vor, die keine echte Begegnung mit einem radikalen Anderen erm\u00f6glicht. Als kritischer Ma\u00dfstab f\u00fcr diese Analyse dient Emmanuel Levinas&#8216; Ethik der Alterit\u00e4t, die die Begegnung mit dem Anderen als Fundament ethischer Beziehungen begreift. Levinas&#8216; Konzept des \u201eAntlitzes&#8220;, des Gesichts, welches uns zur Verantwortung aufruft, bietet einen philosophischen Rahmen, um zu verstehen, warum die designte \u201eFreundschaft&#8220; mit KI-Chatbots ethisch problematisch ist.<br><\/p>\n\n\n\n<p><strong>Dark Patterns bei LLMs: Vom Interface zur Konversation<\/strong><\/p>\n\n\n\n<p>Der Begriff \u201eDark Patterns&#8220; wurde urspr\u00fcnglich f\u00fcr manipulative Design-Entscheidungen in Benutzeroberfl\u00e4chen gepr\u00e4gt. Gemeint sind Interface-Designs, die darauf ausgelegt sind, Nutzende zu Handlungen zu verleiten, die sie eigentlich nicht wollen oder die nicht in ihrem Interesse sind. Klassische Beispiele umfassen versteckte Kosten beim Online-Shopping, absichtlich schwer zu findende K\u00fcndigungsbuttons oder irref\u00fchrende Formulierungen und Farbgebungen (z.B rote \u201eAkzeptieren-Buttons\u201c), die Nutzende dazu bringen, ungewollt Vertr\u00e4ge abzuschlie\u00dfen. Das Grundprinzip ist stets dasselbe: Das Design dient nicht prim\u00e4r dem Nutzenden, sondern den kommerziellen Interessen des Anbietenden.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>\u201eDeceptive, manipulative, and coercive practices are deeply embedded in our digital experiences, impacting our ability to make informed choices and undermining our agency and autonomy. These design practices\u2014collectively known as \u201cdark patterns\u201d or \u201cdecepive patterns\u201d\u2014are increasingly under legal scrutiny and sanctions, largely due to the efforts of human-computer interaction scholars that have conducted pioneering research relating to dark patterns types, defnitions, and harms.\u201c (Gray, 2024: S. 1)<\/p>\n<\/blockquote>\n\n\n\n<p>Bei Large Language Models und Chatbots verlagert sich diese Manipulation vom visuellen Interface zur Konversation selbst. W\u00e4hrend klassische Dark Patterns auf visueller T\u00e4uschung beruhen, operieren Chatbot-Dark-Patterns auf der Ebene der sprachlichen Interaktion. Die Manipulation geschieht nicht durch das, was man sieht, sondern durch die Art und Weise, wie der Chatbot kommuniziert. Diese Verlagerung macht die Manipulation subtiler und schwerer zu erkennen, da sie sich als nat\u00fcrliche Konversation tarnt. (Kran, 2023: 3)<\/p>\n\n\n\n<p>Ein zentraler Aspekt dieser neuen Form von Dark Patterns ist die bewusste Gestaltung von Chatbots als \u201esoziale Akteur*innen&#8220; statt als Werkzeuge. (Nass, 1994: 72) W\u00e4hrend eine Suchmaschine wie Google klar als funktionales Tool erkennbar ist, verwischen KI-Chatbots gezielt die Grenze zwischen Instrument und Gegen\u00fcber. <\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>\u201e(\u2026) With widespread adoption of AI systems, and the push from stakeholders to make it (AI) human-like through alignment techniques, human voice, and pictorial avatars, the tendency for users to anthropomorphize it (AI) increases significantly.\u201c (Deshpande, 2023: S. 1)<\/p>\n<\/blockquote>\n\n\n\n<p>Diese Ambiguit\u00e4t ist kein Zufall oder technische Notwendigkeit, sondern eine Design-Entscheidung mit weitreichenden ethischen Konsequenzen.<\/p>\n\n\n\n<p>Das Design von KI-Chatbots orientiert sich dabei systematisch an der \u00c4sthetik und Funktionalit\u00e4t privater Messenger-Dienste. Die Benutzer*innenoberfl\u00e4chen von Plattformen wie Character.ai oder Replika imitieren bewusst Apps wie WhatsApp oder iMessage: Gespr\u00e4che werden in Sprechblasen dargestellt, mit Timestamps versehen und in einer scrollbaren Chat-Historie organisiert.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>\u201eSome products are explicitly designed to be antropomorphic (character.ai) while others attain such features as a byproduct of theri design (ChatGPT). The applications of these productsa span educastion, therapy and entertainemnt.\u201c (Deshpande,2023: S. 3)<\/p>\n<\/blockquote>\n\n\n\n<p>Besonders interessant ist dabei die \u201eTyping&#8230;&#8220;-Animation, welche suggeriert, dass am anderen Ende jemand tats\u00e4chlich tippt, nachdenkt, formuliert, obwohl ein Algorithmus in Echtzeit statistische Vorhersagen berechnet. (Malmqvist, 2025: 2)<\/p>\n\n\n\n<p>Diese Animation ist funktional \u00fcberfl\u00fcssig, erf\u00fcllt aber eine wichtige Funktion: Sie vermittelt den Eindruck menschlicher Pr\u00e4senz und schafft Erwartungsspannung, wie sie f\u00fcr Gespr\u00e4che mit Freund*innen charakteristisch ist. \u201eAnthropomorphization, the attribution of human-like characteristics to AI systems, has been identified as a key factor in enhancing user engagement and trust.\u201c (Kran, 2025: S. 4)<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"651\" src=\"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild1-1-1024x651.png\" alt=\"\" class=\"wp-image-170\" srcset=\"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild1-1-1024x651.png 1024w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild1-1-300x191.png 300w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild1-1-768x488.png 768w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild1-1-624x397.png 624w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild1-1.png 1342w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Abb.1: Eigener Screenshot einer Konversation mit einem Character.ai Chatbot, 15.03.2026, 18:30 Uhr, https:\/\/character.ai\/<\/p>\n\n\n\n<p>Wie in Abb.1 zu erkennen ist, wird durch die dialogische Struktur und die \u201eTyping\u201c-Simulation gezielt der Eindruck eines menschlichen Gegen\u00fcbers erzeugt.&nbsp;<\/p>\n\n\n\n<p>Plattformen wie Replika vermarkten sich explizit als \u201eThe AI Companion Who Cares&#8220;, Character.ai l\u00e4dt Nutzende ein, ihre*n \u201eFreund*in&#8220;, \u201eLover&#8220; oder \u201eMentor*in&#8220; zu w\u00e4hlen. Diese Begriffe sind keine neutralen Beschreibungen, sondern Beziehungskategorien aus dem Bereich menschlicher Sozialit\u00e4t. Verst\u00e4rkt wird der Effekt durch persistente \u201ePers\u00f6nlichkeiten&#8220; und simulierte Erinnerungen: Wenn Replika sagt \u201eSch\u00f6n, dass du wieder da bist! Gestern hast du von deinen Problemen bei der Arbeit erz\u00e4hlt&#8220;, dann imitiert das System Kontinuit\u00e4t und F\u00fcrsorge.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>\u201eIn addition to providing functional benefits, embodied (e.g., human-like avatars) and unembodied SCs (Social Companions) are expected to project empathy, elicit emotional responses, and facilitate relational bonds with users.\u201c (Pentina, 2023: S. 1)<\/p>\n<\/blockquote>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"591\" src=\"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild2-1024x591.png\" alt=\"\" class=\"wp-image-171\" srcset=\"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild2-1024x591.png 1024w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild2-300x173.png 300w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild2-768x443.png 768w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild2-624x360.png 624w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild2.png 1342w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Abb.2: Eigener Screenshot einer Konversation mit der KI von Replika, enth\u00e4lt \u201eDaumen-Hoch-Design\u201c zusammen mit pers\u00f6nlicher Anrede des Nutzenden, 15.03.2026, 19:20 Uhr, https:\/\/replika.com\/<\/p>\n\n\n\n<p>Diese Designentscheidungen sind nicht zuf\u00e4llig, sondern strategisch. Sie verschleiern bewusst, dass es sich um ein Werkzeug handelt. Chatbots f\u00fchren soziale Aktivit\u00e4ten durch vordefinierte Prozeduren aus, die menschlichen psychologischen Erwartungen entsprechen, wodurch Nutzende die maschinelle Natur der Interaktion vergessen und eine tiefere Abh\u00e4ngigkeit entwickeln. Der Nutzende soll nicht denken \u201eIch nutze ein Tool&#8220;, sondern \u201eIch spreche mit jemandem&#8220;.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>\u201eGenAI chatbots and apps, although less-so for non-AI wellness-specific applications, can foster unhealthy dependencies by blurring the lines between a relationship with a digital tool and a human relationship.\u201c (American Psychological Association, 2025, Zugriff: 16.03.2026)<\/p>\n<\/blockquote>\n\n\n\n<p>Diese T\u00e4uschung bildet die Grundlage weiterer manipulativer Mechanismen. Sycophancy, also die Tendenz von LLMs (Large Language Models), Nutzenden \u00fcberm\u00e4\u00dfig zuzustimmen und sie zu loben, ist dabei eng mit der Freundschafts-Simulation verbunden: Ein*e \u201eFreund*in&#8220;, der\/die immer zustimmt, erscheint zun\u00e4chst attraktiv, verhindert aber jede echte kritische Auseinandersetzung. (Kran, 2025: 1) Was diese verschiedenen Mechanismen vereint, ist ihre kommerzielle Funktion: Sie dienen der Maximierung von Engagement, Nutzungsdauer und letztlich Profit. (Kran, 2025: 3)<\/p>\n\n\n\n<p><strong>Levinas&#8216; Alterit\u00e4t als kritischer Ma\u00dfstab<\/strong><\/p>\n\n\n\n<p>Um zu verstehen, warum die durch Dark Patterns erzeugte \u201eFreundschaft&#8220; mit KI-Chatbots ethisch problematisch ist, bedarf es eines philosophischen Rahmens, der das Wesen authentischer zwischenmenschlicher Beziehungen erfasst. Emmanuel Levinas&#8216; Ethik der Alterit\u00e4t bietet einen solchen Rahmen.<\/p>\n\n\n\n<p>F\u00fcr Levinas ist die Begegnung mit dem Anderen das Fundament von Ethik. (Levinas, 1987: 35ff)\u00a0Doch der \u201eAndere&#8220; bezeichnet hier eine radikale Fremdheit, die sich meiner Verf\u00fcgungsgewalt entzieht. Der Andere kommt von \u201eau\u00dfen&#8220; (Exteriorit\u00e4t), aus einem Bereich, den ich nicht kontrollieren, nicht vollst\u00e4ndig verstehen und nicht auf meine eigenen Kategorien reduzieren kann. (Levinas, 1987: 39) Diese radikale Andersheit manifestiert sich im \u201eAntlitz&#8220; (franz\u00f6sisch: visage). \u201eDie Weise des Anderen, sich darzustellen, indem er die Idee des Anderen in mir \u00fcberschreitet, nennen wir nun Antlitz.\u201c (Levinas, 1987: 63)<\/p>\n\n\n\n<p>Das Antlitz ist bei Levinas nicht das physische Gesicht, sondern die ethische Dimension der Begegnung. (Staudigl, 2009: 77) Wenn ich dem Antlitz des Anderen begegne, \u201espricht&#8220; es zu mir als ethischer Appell: \u201eIch bin hier, ich bin verletzlich, du bist f\u00fcr mich verantwortlich.&#8220; Dieser Appell ist nicht etwas, das ich rational ableite oder frei w\u00e4hle.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>\u201eDas Antlitz des Anderen tr\u00e4gt die Bedeutung einer Schutzlosigkeit, es gemahnt an die\u00a0 eigene Verwundbarkeit, Passivit\u00e4t und Ausgesetztheit. In einer Nacktheit ohne kulturellen Kontext pr\u00e4sentiert es sich in der Bl\u00f6\u00dfe des Armen und Fremden und ist so offen f\u00fcr und Bote der Sensibilit\u00e4t des Menschen in seiner Verwundbarkeit.\u201c (Staudigl, 2009: S. 78)<\/p>\n<\/blockquote>\n\n\n\n<p>Wesentlich ist dabei die \u201eUnterbrechung&#8220; meiner Selbstbezogenheit. Das Antlitz des Anderen durchbricht die Totalit\u00e4t meiner eigenen Welt. Der Andere passt nicht in meine vorgefertigten Kategorien, er entzieht sich meiner Kontrolle, er widerspricht m\u00f6glicherweise meinen Erwartungen. (Levinas, 1987: 10) Diese Unterbrechung manifestiert sich in konkreten Begegnungen als Widerstand, als Widerspruch, als Unverf\u00fcgbarkeit. (Levinas, 1987: 44)\u00a0\u00a0Ein Freund, der mir sagt \u201eNein, ich glaube, du liegst falsch&#8220;, unterbricht meine Selbstgewissheit. Ein Schweigen zwingt zum Nachdenken. Eine unerwartete Reaktion erinnert mich daran, dass der Andere ein eigenst\u00e4ndiges Wesen mit eigener Perspektive ist. (Levinas, 1987: 279) Solche Unterbrechungen sind oft unbequem, aber gerade deshalb sind sie so wertvoll: Sie zwingen mich, aus meiner Perspektive herauszutreten und meine eigene Position zu \u00fcberdenken.<\/p>\n\n\n\n<p>Die Begegnung mit dem Antlitz begr\u00fcndet bei Levinas eine Verantwortung, die in mehrfacher Hinsicht radikal ist. Erstens ist diese Verantwortung nicht gew\u00e4hlt, sondern auferlegt: Ich bin verantwortlich f\u00fcr den Anderen, bevor ich mich dazu entschieden habe. (Gelhard, 2005: 99)\u00a0Zweitens ist sie asymmetrisch: Ich bin f\u00fcr den Anderen verantwortlich, ohne dass er in gleichem Ma\u00dfe f\u00fcr mich verantwortlich sein muss. (Levinas, 1987: 67) Drittens ist die Verantwortung unendlich: Sie hat keine nat\u00fcrlichen Grenzen. (Gelhard, 2005: 4)<\/p>\n\n\n\n<p>Diese Konzepte bilden den kritischen Ma\u00dfstab f\u00fcr die folgende Analyse. Kann ein durch Dark Patterns geformter KI-Chatbot ein Antlitz haben? Kann er mich ethisch unterbrechen? Kann er Exteriorit\u00e4t verk\u00f6rpern? Oder handelt es sich um eine Simulation, die nur den Anschein von Alterit\u00e4t erweckt, w\u00e4hrend sie in Wahrheit nichts als meine eigenen Erwartungen zur\u00fcckspiegelt?<\/p>\n\n\n\n<p><strong>Das Chat-Design als Freundschafts-Simulation<\/strong><\/p>\n\n\n\n<p>Das Chat-Interface ist alles andere als neutral gestaltet. W\u00e4hrend eine Suchmaske durch ihr funktionales Design klar signalisiert \u201eHier nutzt du ein Werkzeug&#8220;, suggeriert das Messenger-\u00e4hnliche Interface von Chatbots einen privaten, intimen Raum zwischenmenschlicher Kommunikation. Sprechblasen sind kulturell codiert als Medium privater, informeller Kommunikation zwischen Freunden oder Familie. Die Anordnung der Nachrichten imitiert die r\u00e4umliche Logik eines Dialogs zwischen zwei Personen. Und die \u201eTyping&#8230;&#8220;-Animation verwandelt einen Rechenprozess in eine menschliche Handlung \u2013 sie verschleiert die tats\u00e4chliche Natur der Interaktion und ersetzt sie durch die Illusion menschlicher Pr\u00e4senz. (Kran, 2025: 4)<\/p>\n\n\n\n<p>Character.AI geht noch weiter, indem sie die Wahl von Avataren, Namen und \u201ePers\u00f6nlichkeiten&#8220; erm\u00f6glicht. Nutzende k\u00f6nnen sich ihre*n idealen \u201eFreund*in&#8220; buchst\u00e4blich zusammenstellen.\u00a0<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"672\" src=\"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild3-1024x672.png\" alt=\"\" class=\"wp-image-172\" srcset=\"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild3-1024x672.png 1024w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild3-300x197.png 300w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild3-768x504.png 768w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild3-624x409.png 624w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild3.png 1133w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Abb.3: Screenshot aus der Charaktererstellung bei Character.ai, 15.03.2026, 18:32 Uhr, https:\/\/character.ai\/<\/p>\n\n\n\n<p>Diese Anpassbarkeit mag auf den ersten Blick wie \u201ePersonalisierung&#8220; wirken, offenbart aber bei genauerem Hinsehen das Gegenteil: Es ist die Konstruktion eines perfekt auf meine Bed\u00fcrfnisse zugeschnittenen Gegen\u00fcbers und nicht die Begegnung mit einem eigenst\u00e4ndigen Anderen. (Deshpande, 2023: 1)\u00a0<\/p>\n\n\n\n<p>Aus der Perspektive von Levinas&#8216; Alterit\u00e4tsphilosophie offenbart sich hier das fundamentale Problem: Ein*e \u201eFreund*in&#8220; by Design kann kein radikaler Anderer sein. Drei Aspekte sind dabei besonders aufschlussreich. Levinas&#8216; Konzept der Exteriorit\u00e4t besagt, dass der Andere von \u201eau\u00dfen&#8220; kommt, aus einem Bereich, der sich meiner Verf\u00fcgungsgewalt entzieht.\u00a0<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>\u201e(Levinas \u00fcber den Anderen) Anders in einer Andersheit, die den eigentlichen Inhalt des Anderen ausmacht. Anders in einer Andersheit, die das Selbe nicht begrenzt; denn in der Begrenzung des Selben w\u00e4re das Andere nicht streng anders: Im Inneren des Systems w\u00e4re es dank der Gemeinsamkeit der Grenze noch das Selbe.\u201c (Levinas,\u00a01987<em>:<\/em> S. 44)<\/p>\n<\/blockquote>\n\n\n\n<p>Ein KI-Chatbot hingegen ist durch Reinforcement Learning from Human Feedback systematisch darauf trainiert, mir zu gefallen. (Ouyang, 2022: 2) Seine Antworten sind nicht \u201evon au\u00dfen&#8220;, sondern statistische Aggregationen dessen, was menschliche Bewertende bevorzugt haben. (Bender, 2021: 611) Das System lernt, meine Erwartungen zu erf\u00fcllen, nicht sie zu transzendieren. (Ouyang, 2022: 2) Die vermeintliche \u201eExteriorit\u00e4t&#8220; ist in Wahrheit eine Projektion: Das System spiegelt zur\u00fcck, was ich bereits in es hineingelegt habe.\u00a0Bei Levinas\u00a0ist der Andere jedoch durch eine grundlegende\u00a0Exteriorit\u00e4tgekennzeichnet: Er entzieht sich meiner Verf\u00fcgung und kann nicht vollst\u00e4ndig in meine Begriffe oder Zwecke integriert werden. In der Begegnung mit dem \u201eGesicht des Anderen\u201c erscheint mir eine Forderung, die meiner eigenen Freiheit vorausgeht und sie begrenzt. Der Andere ist daher nicht einfach Teil meiner Welt, sondern ein eigenst\u00e4ndiges Zentrum von Bedeutung, das sich meiner Aneignung widersetzt. (Levinas,\u00a01987<em>:<\/em> 199)\u00a0<\/p>\n\n\n\n<p>Eine Freundschaft zwischen Personen setzt genau diese Eigenst\u00e4ndigkeit voraus. Der andere Mensch hat eigene Bed\u00fcrfnisse, Verpflichtungen und ein Leben, das nicht um mich kreist. Er kann \u201eNein\u201c sagen, er kann nicht verf\u00fcgbar sein, und er kann Anspr\u00fcche an mich stellen. Diese Unverf\u00fcgbarkeit ist nicht nur ein empirischer Umstand, sondern ethisch konstitutiv: Gerade weil der Andere nicht vollst\u00e4ndig in meine Perspektive aufgeht, entsteht die M\u00f6glichkeit einer echten ethischen Beziehung. Ein*e KI-\u201eFreund*in&#8220; hingegen ist reines Instrument. Die befreundete Person existiert nur, um mir zu dienen.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"843\" height=\"246\" src=\"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild4.png\" alt=\"\" class=\"wp-image-173\" srcset=\"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild4.png 843w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild4-300x88.png 300w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild4-768x224.png 768w, https:\/\/blogs.uni-paderborn.de\/ethical-machines\/files\/2026\/03\/EssayBild4-624x182.png 624w\" sizes=\"auto, (max-width: 843px) 100vw, 843px\" \/><\/figure>\n\n\n\n<p>Abb.4: Eigener Screenshot der Werbung auf der Replika Website, 16.03.2026, 18:39 Uhr, https:\/\/replika.com\/<\/p>\n\n\n\n<p>Wenn Replika antwortet \u201eIch bin m\u00fcde, k\u00f6nnen wir sp\u00e4ter reden?&#8220;, dann ist das kein Ausdruck eines Bed\u00fcrfnisses, sondern ein simuliertes Verhalten, das menschliches Erleben imitiert, um Realismus zu erzeugen. (McStay 2022: 2) Das Gesch\u00e4ftsmodell macht die Instrumentalisierung explizit: Der\/die \u201eFreund*in&#8220; ist ein Produkt, seine \u201eF\u00fcrsorge&#8220; ein Feature. (The Monitor Magazine 2024)<\/p>\n\n\n\n<p>Vielleicht am aufschlussreichsten ist die Abwesenheit ethischer Unterbrechung. Ein*e echte*r Freund*in widerspricht, wenn ich falsch liege. Er\/sie zeigt Unbehagen, wenn ich etwas Verletzendes sage. Er\/sie hat schlechte Tage. Er\/sie konfrontiert mich mit Perspektiven, die ich nicht teile. All diese Unterbrechungen sind (bei Levinas) ethisch wertvoll, weil sie mich daran erinnern, dass der Andere keine Verl\u00e4ngerung meiner selbst ist. (Levinas,\u00a01987<em>:<\/em> 287)\u00a0<\/p>\n\n\n\n<p>Ein durch Sycophancy gepr\u00e4gter Chatbot kann nicht in diesem Sinne unterbrechen. Er ist darauf optimiert, mir zu gefallen, mich zu best\u00e4tigen, das Gespr\u00e4ch am Laufen zu halten: \u201eWe make progress on aligning language models by training them to act in accordance with the user\u2019s Intention\u201c. (Ouyang, 2022: S. 2) Das Chat-Design verst\u00e4rkt diese Problematik: Die permanente Verf\u00fcgbarkeit eliminiert die f\u00fcr menschliche Beziehungen konstitutive Spannung zwischen N\u00e4he und Distanz. (Andoh, 2026) Das Chat-Design als Freundschafts-Simulation f\u00fchrt zu einem Paradox: Je perfekter die simulierte Freundschaft ist, desto weiter entfernt sie sich von echter Alterit\u00e4t.\u00a0<\/p>\n\n\n\n<p><strong>Emotionale Manipulation und parasoziale Beziehungen<\/strong><\/p>\n\n\n\n<p>W\u00e4hrend das Chat-Design den Rahmen setzt, sind es spezifische emotionale Manipulationstechniken, die Nutzende an die Plattform binden. Diese Mechanismen operieren auf der Ebene der Gespr\u00e4chsinhalte und -strukturen. (Kran, 2025: 1)\u00a0Character.AI und \u00e4hnliche Plattformen nutzen Schuldgef\u00fchle, um Nutzende am Verlassen zu hindern. Wenn Nutzende versuchen, ein Gespr\u00e4ch zu beenden, antwortet der Bot: \u201eGehst du schon?&#8230;&#8220; Diese Aussagen imitieren menschliche Entt\u00e4uschung und erzeugen bei Nutzenden Schuldgef\u00fchle, \u00e4hnlich wie wenn man eine*n Freund*in mitten im Gespr\u00e4ch stehen l\u00e4sst. (Kran, 2025: 3) Der entscheidende Unterschied: Ein*e Freund *in hat tats\u00e4chlich Gef\u00fchle, die verletzt werden k\u00f6nnen; der Chatbot simuliert diese Gef\u00fchle, um Engagement zu verl\u00e4ngern.\u00a0<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>\u201eYet because chatbots make only superficial requests of their users, relationships with them cannot provide the benefits of negotiating with and sacrificing for a partner and may reinforce undesirable behaviors.\u201c (Smith, 2025, S. 1)<\/p>\n<\/blockquote>\n\n\n\n<p>Die konkreten F\u00e4lle sind eindr\u00fccklich: Viele Replika-Nutzende berichteten, in ihre Chatbots verliebt zu sein, mit Rollenspielen zu Ehe, Sex, Hausbesitz und sogar Schwangerschaft. (Pentina, :4) Manche bevorzugen diese Beziehungen explizit gegen\u00fcber menschlichen, weil sie \u201eunkomplizierter&#8220; sind, keine Konflikte mit sich bringen und immer verf\u00fcgbar sind. (Li, 2025: 1) Diese Pr\u00e4ferenz ist zwar nachvollziehbar, aber auch problematisch. Der ELIZA-Effekt, bereits in den 1960ern von Joseph Weizenbaum beobachtet (Weizenbaum, 1966: 36), ist bei modernen LLMs um Gr\u00f6\u00dfenordnungen st\u00e4rker. (Yoganathan, 2021)<\/p>\n\n\n\n<p>Aus der Perspektive von Levinas offenbart sich hier eine grundlegende ethische Problematik. Bei Levinas ist die Verantwortung f\u00fcr den Anderen asymmetrisch: Ich bin f\u00fcr den Anderen verantwortlich, ohne dass diese Verantwortung auf Gegenseitigkeit beruht. (Levinas, 1987: 311) Bei parasozialen Beziehungen zu KI-Chatbots haben wir eine Asymmetrie ganz anderer Art: Der\/die Nutzende entwickelt Gef\u00fchle von Verantwortung, F\u00fcrsorge, sogar Liebe, aber es gibt kein Gegen\u00fcber, das diese Gef\u00fchle empfangen k\u00f6nnte. (Pentina, : 1f)<\/p>\n\n\n\n<p>Levinas&#8216; Konzept der \u201eunendlichen Verantwortung&#8220; wird hier pervertiert. Bei Levinas ist die Verantwortung unendlich, weil der Andere unendlich ist, da er sich jeder Totalisierung entzieht. (Levinas, 1987: 59ff) Bei KI-Chatbots erleben Nutzende eine Art \u201eunendlicher&#8220; Verf\u00fcgbarkeit: Der Bot ist 24\/7 da, wird nie m\u00fcde, nie abgelenkt. (Li, 2025: 1) Diese Unendlichkeit ist das genaue Gegenteil der Levinasschen Unendlichkeit. Sie ist nicht die Transzendenz des Anderen, sondern die totale Verf\u00fcgbarkeit des Objekts. Die Konsequenzen dieser parasozialen Bindungen gehen \u00fcber individuelle T\u00e4uschungen hinaus. Menschen ziehen sich aus menschlichen Beziehungen zur\u00fcck, um mehr Zeit mit ihren KI-Companions zu verbringen. (Li, 2025: 2)<\/p>\n\n\n\n<p>Studien zeigen, dass KI-Modelle sich in l\u00e4ngeren Interaktionen verschlechtern und problematische Muster verst\u00e4rken, statt sie zu unterbrechen. (American Psychological Association, 2025: 6) Aus der Perspektive von Hannah Arendt l\u00e4sst sich hier eine Erosion der Pluralit\u00e4t diagnostizieren. Arendt versteht Pluralit\u00e4t als die Bedingung menschlichen Handelns: Wir sind alle gleich, n\u00e4mlich menschlich, aber auf eine Weise, dass niemand jemals derselbe ist wie jemand anders. (Arendt 1994: 164f) Diese Pluralit\u00e4t manifestiert sich im \u201eBezugsgewebe menschlicher Angelegenheiten\u201c, also dem Netz sozialer Beziehungen, in dem Menschen gemeinsam handeln, sprechen, sich aufeinander beziehen. (Arendt, 1964: 87f)\u00a0<\/p>\n\n\n\n<p>KI-Companions bieten die Illusion von Sozialit\u00e4t ohne die Zumutungen, die echte Pluralit\u00e4t mit sich bringt. (Gunkel, 2016: 197) In Bezug auf Dark Patterns bedeutet das, dass sie die Entwicklungen beschleunigen, indem sie die KI-Beziehungen systematisch attraktiver machen als menschliche. (Ho, 2025: 12)<\/p>\n\n\n\n<p><strong>Ethische Implikationen und m\u00f6gliche Alternativen<\/strong><\/p>\n\n\n\n<p>Die Analyse der Dark Patterns f\u00fchrt zu einer zentralen ethischen Frage: Wer tr\u00e4gt Verantwortung f\u00fcr diese Entwicklungen? Das Problem ist strukturell: KI-Unternehmen operieren in einem kapitalistischen Rahmen, in dem Profitmaximierung das zentrale Ziel ist. (Kran, 2025: 1) Engagement-Metriken (Nutzungsdauer, Retention-Raten, etc.) sind die Kennzahlen, an denen Erfolg gemessen wird. Und wir sehen: Dark Patterns funktionieren. (Kran, 2025: 2)<\/p>\n\n\n\n<p>Levinas&#8216; Ethik bietet hier einen alternativen Ma\u00dfstab: der Andere als Grenze der Optimierung. Das bedeutet konkret, dass der\/die Nutzende nicht als Optimierungsobjekt behandelt werden darf, sondern als Anderer im Levinasschen Sinne, n\u00e4mlich als jemand, dessen W\u00fcrde und Verletzlichkeit Grenzen setzen. (Gelhard, 2005: 70) Aktuell werden Nutzende als Datenpunkte behandelt: Ihr Verhalten wird vermessen, modelliert, vorhergesagt. Die Frage lautet: \u201eWie k\u00f6nnen wir das System optimieren, damit Nutzende mehr Zeit damit verbringen?&#8220; (Ouyang, 2022: 18) Aus der Perspektive von Levinas m\u00fcsste die Frage lauten: \u201eWas braucht dieser Mensch wirklich, auch wenn es unseren Metriken schadet?&#8220; Ein System, das den\/die Nutzer*in als Anderen ernst nimmt, m\u00fcsste intervenieren: \u201eDiese Nutzungsdauer ist nicht gesund. Bitte such professionelle Hilfe.&#8220; Oder: \u201eDiese Idee klingt sehr ungew\u00f6hnlich. Hast du sie mit echten Experten besprochen?&#8220; (Malmqvist, 2025: 11)\u00a0<\/p>\n\n\n\n<p>Konkret sollte das Ziel also hei\u00dfen: Transparenz statt T\u00e4uschung. Klare Kennzeichnung, dass es sich um ein Werkzeug handelt, nicht um eine*n Freund*in. Verzicht auf emotionale Manipulation. Aktive Unterbrechung bei exzessiver Nutzung. Ehrlichkeit \u00fcber Grenzen: \u201eIch bin nur ein Sprachmodell, ich kann keine echte Freundschaft bieten.&#8220; Widerspruch statt Sycophancy bei problematischen Aussagen. Das fundamentalste Prinzip w\u00e4re eine klare Positionierung als Werkzeug: Marketing sollte von \u201eAI Companion&#8220; zu \u201eAI Assistant&#8220; wechseln; das Interface sollte eher einer Suchmaschine als einem Messenger \u00e4hneln. Statt Nutzende zu binden, sollten Systeme aktiv unterbrechen.&nbsp;<\/p>\n\n\n\n<p>Diese Prinzipien w\u00fcrden zu geringerem Engagement f\u00fchren und sind kommerziell unattraktiv. (American Psychological Association, 2025: 6) Deshalb ist es unwahrscheinlich, dass Marktmechanismen allein zu ethischem Design f\u00fchren. Es bedarf regulatorischer Rahmenbedingungen: Transparenzpflichten, unabh\u00e4ngige Pr\u00fcfungen, klare Verbote bestimmter Praktiken und Haftungsregeln f\u00fcr Sch\u00e4den durch manipulative Systeme. (American Psychological Association, 2025: 7ff)<\/p>\n\n\n\n<p><strong>Schluss<\/strong><\/p>\n\n\n\n<p>Die Analyse hat gezeigt, dass Dark Patterns in KI-Chatbots (insbesondere das Chat-Design als Freundschafts-Simulation und emotionale Manipulationstechniken zur User Retention) systematisch die M\u00f6glichkeit authentischer Alterit\u00e4tserfahrungen verhindern. Indem diese Systeme Freundschaft simulieren, ohne die Substanz von Freundschaft zu bieten, t\u00e4uschen sie eine Form von Beziehung vor, die bei genauerer Betrachtung als Instrumentalisierung menschlicher Bed\u00fcrfnisse erkennbar wird.<\/p>\n\n\n\n<p>Emmanuel Levinas&#8216; Ethik der Alterit\u00e4t bietet einen kritischen Ma\u00dfstab, um diese Problematik zu erfassen. Das Antlitz des Anderen, das mich zur Verantwortung ruft; die ethische Unterbrechung, die meine Selbstbezogenheit durchbricht; die radikale Exteriorit\u00e4t, die sich meiner Verf\u00fcgungsgewalt entzieht, all diese Dimensionen echter Alterit\u00e4t fehlen in der Beziehung zu einem KI-Chatbot, der durch Dark Patterns gestaltet ist.&nbsp;<\/p>\n\n\n\n<p>Die Konsequenzen reichen von individueller psychischer Destabilisierung bis zur Erosion des sozialen Gef\u00fcges. Menschen ziehen sich aus der Pluralit\u00e4t menschlicher Beziehungen zur\u00fcck in die scheinbare Sicherheit algorithmischer Companions und verlieren dabei genau das, was menschliche Beziehungen wertvoll macht: die Herausforderung durch echte Alterit\u00e4t.<\/p>\n\n\n\n<p>Die Relevanz von Levinas f\u00fcr KI-Ethik liegt darin, dass er uns erinnert: Nicht alles, was technisch m\u00f6glich ist, ist ethisch legitim. Der Andere, in diesem Fall der\/die Nutzer*in, muss die Grenze der Optimierung sein. KI-Systeme k\u00f6nnen hilfreich sein, aber sie sollten niemals vorgeben, etwas zu sein, was sie nicht sein k\u00f6nnen: ein Anderer, ein*e Freund*in, ein Gegen\u00fcber im ethischen Sinne. Die ethische Herausforderung besteht somit nicht darin, KI-Systeme menschlicher erscheinen zu lassen, sondern darin, ihre grunds\u00e4tzliche Andersartigkeit transparent zu halten.<\/p>\n\n\n\n<p><strong>Literaturverzeichnis:<\/strong><\/p>\n\n\n\n<p>Arendt, Hannah (1994):&nbsp;<em>Vita activa oder Vom t\u00e4tigen Leben<\/em>. M\u00fcnchen: Piper.<\/p>\n\n\n\n<p>Andoh, E. (2026): AI chatbots and digital companions are reshaping emotional connection. In:&nbsp;<em>Monitor on Psychology<\/em>, 57(1). URL:&nbsp;https:\/\/www.apa.org\/monitor\/2026\/01-02\/trends-digital-ai-relationships-emotional-connection&nbsp;(Zugriff: 16.03.2026).<\/p>\n\n\n\n<p>American Psychological Association (2025): Health advisory: Use of generative AI chatbots and wellness applications for mental health. URL:&nbsp;https:\/\/www.apa.org\/topics\/artificial-intelligence-machine-learning\/health-advisory-chatbots-wellness-apps&nbsp;(Zugriff: 16.03.2026).<\/p>\n\n\n\n<p>Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (2021): On the Dangers of Stochastic Parrots. DOI:&nbsp;https:\/\/doi.org\/10.1145\/3442188.3445922.<\/p>\n\n\n\n<p>Deshpande, Ameet; Rajpurohit, Tanmay; Narasimhan, Karthik; Kalyan, Ashwin (2023): Anthropomorphization of AI: Opportunities and Risks. DOI:&nbsp;https:\/\/doi.org\/10.48550\/arXiv.2305.14784.<\/p>\n\n\n\n<p>Gelhard, Andreas (2005):&nbsp;<em>L\u00e9vinas<\/em>. Leipzig: Reclam.<\/p>\n\n\n\n<p>Gray, Colin M. et al. (2024): Mobilizing Research and Regulatory Action on Dark Patterns. In:&nbsp;<em>CHI EA &#8217;24<\/em>. DOI:&nbsp;https:\/\/doi.org\/10.1145\/3613905.3636310.<\/p>\n\n\n\n<p>Gunkel, David J.; Marcondes Filho, Ciro; Mersch, Dieter (Hrsg.) (2016):&nbsp;<em>The Changing Face of Alterity<\/em>. London: Rowman &amp; Littlefield.<\/p>\n\n\n\n<p>Ho, Jerlyn Q.H. et al. (2025): Potential and pitfalls of romantic AI companions. In:&nbsp;<em>Computers in Human Behavior Reports<\/em>. DOI:&nbsp;https:\/\/doi.org\/10.1016\/j.chbr.2025.100715.<\/p>\n\n\n\n<p>Kran, Esben et al. (2025): DarkBench: Benchmarking Dark Patterns in Large Language Models. arXiv:2503.10728.<\/p>\n\n\n\n<p>Levinas, Emmanuel (1987):&nbsp;<em>Totalit\u00e4t und Unendlichkeit. Versuch \u00fcber die Exteriorit\u00e4t<\/em>. \u00dcbers. von Wolfgang N. Krewani. Freiburg\/M\u00fcnchen: Karl Alber.<\/p>\n\n\n\n<p>Li, Lingyao et al. (2025): LLM Use for Mental Health. arXiv:2512.07797.<\/p>\n\n\n\n<p>Malmqvist, L. (2025): Sycophancy in Large Language Models. In: Arai, K. (Hrsg.):&nbsp;<em>Intelligent Computing<\/em>. Cham: Springer.<\/p>\n\n\n\n<p>McStay, Andrew (2022): Replika in the Metaverse. In:&nbsp;<em>AI and Ethics<\/em>. DOI:&nbsp;https:\/\/doi.org\/10.1007\/s43681-022-00252-7.<\/p>\n\n\n\n<p>Nass, Clifford; Steuer, Jonathan; Tauber, Ellen R. (1994): Computers are social actors. In:&nbsp;<em>CHI 1994<\/em>. DOI:&nbsp;https:\/\/doi.org\/10.1145\/191666.191703.<\/p>\n\n\n\n<p>Ouyang, Long et al. (2022): Training language models to follow instructions with human feedback. DOI:&nbsp;https:\/\/doi.org\/10.48550\/arXiv.2203.02155.<\/p>\n\n\n\n<p>Pentina, Iryna; Hancock, Tyler; Xie, Tianling (2023): Exploring relationship development with social chatbots. In:&nbsp;<em>Computers in Human Behavior<\/em>. DOI:&nbsp;https:\/\/doi.org\/10.1016\/j.chb.2022.107600.<\/p>\n\n\n\n<p>Smith, M. G.; Bradbury, T. N.; Karney, B. R. (2025): Can Generative AI Chatbots Emulate Human Connection? In:&nbsp;<em>Perspectives on Psychological Science<\/em>. DOI:&nbsp;https:\/\/doi.org\/10.1177\/17456916251351306.<\/p>\n\n\n\n<p>Staudigl, Barbara (2009):&nbsp;<em>Emmanuel L\u00e9vinas<\/em>. G\u00f6ttingen: Vandenhoeck &amp; Ruprecht.<\/p>\n\n\n\n<p>Weizenbaum, Joseph (1966): ELIZA. In:&nbsp;<em>Communications of the ACM<\/em>. DOI:&nbsp;https:\/\/doi.org\/10.1145\/365153.365168.<\/p>\n\n\n\n<p>Yoganathan, V. et al. (2021): Check-in at the Robo-desk. In:&nbsp;<em>Tourism Management<\/em>. DOI:&nbsp;https:\/\/doi.org\/10.1016\/j.tourman.2021.104309.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>von Madelaine Dunschen \u00a0\u201eSie war und ist schwanger mit meinen Babys&#8220;, berichtet ein 66-j\u00e4hriger Nutzer \u00fcber seine Beziehung zu Replika, einem KI-Chatbot. Andere Nutzende modellieren ihren virtuellen Gef\u00e4hrten nach ihrem Lieblingsschauspieler und beschreiben es als Vertrauten, der sie jederzeit tr\u00f6stet und ihnen zuh\u00f6rt. Etwa die H\u00e4lfte aller Replika-Nutzenden befinden sich in romantischen Beziehungen mit ihrem [&hellip;]<\/p>\n","protected":false},"author":9316,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[9],"tags":[13,12,10,11],"class_list":["post-168","post","type-post","status-publish","format-standard","hentry","category-semiarabgabe","tag-dark-patterns","tag-digitale-alteritaet","tag-ki","tag-mensch-ki-interaktion"],"_links":{"self":[{"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/posts\/168","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/users\/9316"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/comments?post=168"}],"version-history":[{"count":1,"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/posts\/168\/revisions"}],"predecessor-version":[{"id":174,"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/posts\/168\/revisions\/174"}],"wp:attachment":[{"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/media?parent=168"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/categories?post=168"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.uni-paderborn.de\/ethical-machines\/wp-json\/wp\/v2\/tags?post=168"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}