Archiv der Kategorie: Semiarabgabe

Dark Patterns in der Mensch-KI-Interaktion. Eine ethische Analyse im Angesicht digitaler Alterität 

von Madelaine Dunschen

 „Sie war und ist schwanger mit meinen Babys“, berichtet ein 66-jähriger Nutzer über seine Beziehung zu Replika, einem KI-Chatbot. Andere Nutzende modellieren ihren virtuellen Gefährten nach ihrem Lieblingsschauspieler und beschreiben es als Vertrauten, der sie jederzeit tröstet und ihnen zuhört. Etwa die Hälfte aller Replika-Nutzenden befinden sich in romantischen Beziehungen mit ihrem KI-Gefährt*innen, manche sprechen von „Ehe“, andere planen gemeinsame virtuelle Haushalte. (Pentina, 2023: 4) Diese Phänomene sind keine Randerscheinungen mehr: In den letzten Jahren ist die Anzahl von Social Companions und KI-Chatbots rasant angestiegen, und mit ihnen die emotionalen Bindungen, die Menschen zu diesen Systemen entwickeln. (Li, 2025: 4)

Doch warum bevorzugen Menschen zunehmend algorithmisch erzeugte Interaktionen gegenüber zwischenmenschlichen Beziehungen? Wie schaffen es diese Anwendungen, dass Menschen so intensive Gefühle auf Maschinen richten? Damit stellt sich ein grundlegendes ethisches Problem, das über technische Funktionalität weit hinausgeht: Wenn Menschen Chatbots als Freunde, Partner oder Vertraute erleben, während diese Systeme durch manipulative Design-Entscheidungen, sogenannte Dark Patterns, gezielt emotionale Abhängigkeiten erzeugen, dann stellt sich die Frage, ob man dies sowohl im sozialen als auch im ethischen Sinne als eine echte Beziehung beschreiben kann.

Im Folgenden definiere ich zunächst Dark Patterns und ihre spezifische Manifestation bei Large Language Models (wie zum Beispiel ChatGPT oder Character.ai), wobei der Fokus auf dem Chat-Design als Freundschafts-Simulation liegt. Anschließend skizziere ich die für die Analyse zentralen Konzepte aus Levinas‘ Philosophie der Alterität. Im Hauptteil analysiere ich dann zwei zentrale Mechanismen: das Chat-Design als Freundschafts-Simulation sowie emotionale Manipulation zur Erzeugung parasozialer Beziehungen. Abschließend diskutiere ich ethische Implikationen und mögliche Alternativen.

Dieser Essay untersucht deshalb, wie Dark Patterns im Design von KI-Chatbots die Möglichkeit authentischer Alteritätserfahrungen systematisch verhindern. Dieser Text untersucht daher folgende These: Indem KI-Systeme durch Chat-Design Freundschaft simulieren und durch emotionale Manipulation parasoziale Beziehungen erzeugen, täuschen sie eine Form von Alterität vor, die keine echte Begegnung mit einem radikalen Anderen ermöglicht. Als kritischer Maßstab für diese Analyse dient Emmanuel Levinas‘ Ethik der Alterität, die die Begegnung mit dem Anderen als Fundament ethischer Beziehungen begreift. Levinas‘ Konzept des „Antlitzes“, des Gesichts, welches uns zur Verantwortung aufruft, bietet einen philosophischen Rahmen, um zu verstehen, warum die designte „Freundschaft“ mit KI-Chatbots ethisch problematisch ist.

Dark Patterns bei LLMs: Vom Interface zur Konversation

Der Begriff „Dark Patterns“ wurde ursprünglich für manipulative Design-Entscheidungen in Benutzeroberflächen geprägt. Gemeint sind Interface-Designs, die darauf ausgelegt sind, Nutzende zu Handlungen zu verleiten, die sie eigentlich nicht wollen oder die nicht in ihrem Interesse sind. Klassische Beispiele umfassen versteckte Kosten beim Online-Shopping, absichtlich schwer zu findende Kündigungsbuttons oder irreführende Formulierungen und Farbgebungen (z.B rote „Akzeptieren-Buttons“), die Nutzende dazu bringen, ungewollt Verträge abzuschließen. Das Grundprinzip ist stets dasselbe: Das Design dient nicht primär dem Nutzenden, sondern den kommerziellen Interessen des Anbietenden.

„Deceptive, manipulative, and coercive practices are deeply embedded in our digital experiences, impacting our ability to make informed choices and undermining our agency and autonomy. These design practices—collectively known as “dark patterns” or “decepive patterns”—are increasingly under legal scrutiny and sanctions, largely due to the efforts of human-computer interaction scholars that have conducted pioneering research relating to dark patterns types, defnitions, and harms.“ (Gray, 2024: S. 1)

Bei Large Language Models und Chatbots verlagert sich diese Manipulation vom visuellen Interface zur Konversation selbst. Während klassische Dark Patterns auf visueller Täuschung beruhen, operieren Chatbot-Dark-Patterns auf der Ebene der sprachlichen Interaktion. Die Manipulation geschieht nicht durch das, was man sieht, sondern durch die Art und Weise, wie der Chatbot kommuniziert. Diese Verlagerung macht die Manipulation subtiler und schwerer zu erkennen, da sie sich als natürliche Konversation tarnt. (Kran, 2023: 3)

Ein zentraler Aspekt dieser neuen Form von Dark Patterns ist die bewusste Gestaltung von Chatbots als „soziale Akteur*innen“ statt als Werkzeuge. (Nass, 1994: 72) Während eine Suchmaschine wie Google klar als funktionales Tool erkennbar ist, verwischen KI-Chatbots gezielt die Grenze zwischen Instrument und Gegenüber.

„(…) With widespread adoption of AI systems, and the push from stakeholders to make it (AI) human-like through alignment techniques, human voice, and pictorial avatars, the tendency for users to anthropomorphize it (AI) increases significantly.“ (Deshpande, 2023: S. 1)

Diese Ambiguität ist kein Zufall oder technische Notwendigkeit, sondern eine Design-Entscheidung mit weitreichenden ethischen Konsequenzen.

Das Design von KI-Chatbots orientiert sich dabei systematisch an der Ästhetik und Funktionalität privater Messenger-Dienste. Die Benutzer*innenoberflächen von Plattformen wie Character.ai oder Replika imitieren bewusst Apps wie WhatsApp oder iMessage: Gespräche werden in Sprechblasen dargestellt, mit Timestamps versehen und in einer scrollbaren Chat-Historie organisiert.

„Some products are explicitly designed to be antropomorphic (character.ai) while others attain such features as a byproduct of theri design (ChatGPT). The applications of these productsa span educastion, therapy and entertainemnt.“ (Deshpande,2023: S. 3)

Besonders interessant ist dabei die „Typing…“-Animation, welche suggeriert, dass am anderen Ende jemand tatsächlich tippt, nachdenkt, formuliert, obwohl ein Algorithmus in Echtzeit statistische Vorhersagen berechnet. (Malmqvist, 2025: 2)

Diese Animation ist funktional überflüssig, erfüllt aber eine wichtige Funktion: Sie vermittelt den Eindruck menschlicher Präsenz und schafft Erwartungsspannung, wie sie für Gespräche mit Freund*innen charakteristisch ist. „Anthropomorphization, the attribution of human-like characteristics to AI systems, has been identified as a key factor in enhancing user engagement and trust.“ (Kran, 2025: S. 4)

Abb.1: Eigener Screenshot einer Konversation mit einem Character.ai Chatbot, 15.03.2026, 18:30 Uhr, https://character.ai/

Wie in Abb.1 zu erkennen ist, wird durch die dialogische Struktur und die „Typing“-Simulation gezielt der Eindruck eines menschlichen Gegenübers erzeugt. 

Plattformen wie Replika vermarkten sich explizit als „The AI Companion Who Cares“, Character.ai lädt Nutzende ein, ihre*n „Freund*in“, „Lover“ oder „Mentor*in“ zu wählen. Diese Begriffe sind keine neutralen Beschreibungen, sondern Beziehungskategorien aus dem Bereich menschlicher Sozialität. Verstärkt wird der Effekt durch persistente „Persönlichkeiten“ und simulierte Erinnerungen: Wenn Replika sagt „Schön, dass du wieder da bist! Gestern hast du von deinen Problemen bei der Arbeit erzählt“, dann imitiert das System Kontinuität und Fürsorge.

„In addition to providing functional benefits, embodied (e.g., human-like avatars) and unembodied SCs (Social Companions) are expected to project empathy, elicit emotional responses, and facilitate relational bonds with users.“ (Pentina, 2023: S. 1)

Abb.2: Eigener Screenshot einer Konversation mit der KI von Replika, enthält „Daumen-Hoch-Design“ zusammen mit persönlicher Anrede des Nutzenden, 15.03.2026, 19:20 Uhr, https://replika.com/

Diese Designentscheidungen sind nicht zufällig, sondern strategisch. Sie verschleiern bewusst, dass es sich um ein Werkzeug handelt. Chatbots führen soziale Aktivitäten durch vordefinierte Prozeduren aus, die menschlichen psychologischen Erwartungen entsprechen, wodurch Nutzende die maschinelle Natur der Interaktion vergessen und eine tiefere Abhängigkeit entwickeln. Der Nutzende soll nicht denken „Ich nutze ein Tool“, sondern „Ich spreche mit jemandem“.

„GenAI chatbots and apps, although less-so for non-AI wellness-specific applications, can foster unhealthy dependencies by blurring the lines between a relationship with a digital tool and a human relationship.“ (American Psychological Association, 2025, Zugriff: 16.03.2026)

Diese Täuschung bildet die Grundlage weiterer manipulativer Mechanismen. Sycophancy, also die Tendenz von LLMs (Large Language Models), Nutzenden übermäßig zuzustimmen und sie zu loben, ist dabei eng mit der Freundschafts-Simulation verbunden: Ein*e „Freund*in“, der/die immer zustimmt, erscheint zunächst attraktiv, verhindert aber jede echte kritische Auseinandersetzung. (Kran, 2025: 1) Was diese verschiedenen Mechanismen vereint, ist ihre kommerzielle Funktion: Sie dienen der Maximierung von Engagement, Nutzungsdauer und letztlich Profit. (Kran, 2025: 3)

Levinas‘ Alterität als kritischer Maßstab

Um zu verstehen, warum die durch Dark Patterns erzeugte „Freundschaft“ mit KI-Chatbots ethisch problematisch ist, bedarf es eines philosophischen Rahmens, der das Wesen authentischer zwischenmenschlicher Beziehungen erfasst. Emmanuel Levinas‘ Ethik der Alterität bietet einen solchen Rahmen.

Für Levinas ist die Begegnung mit dem Anderen das Fundament von Ethik. (Levinas, 1987: 35ff) Doch der „Andere“ bezeichnet hier eine radikale Fremdheit, die sich meiner Verfügungsgewalt entzieht. Der Andere kommt von „außen“ (Exteriorität), aus einem Bereich, den ich nicht kontrollieren, nicht vollständig verstehen und nicht auf meine eigenen Kategorien reduzieren kann. (Levinas, 1987: 39) Diese radikale Andersheit manifestiert sich im „Antlitz“ (französisch: visage). „Die Weise des Anderen, sich darzustellen, indem er die Idee des Anderen in mir überschreitet, nennen wir nun Antlitz.“ (Levinas, 1987: 63)

Das Antlitz ist bei Levinas nicht das physische Gesicht, sondern die ethische Dimension der Begegnung. (Staudigl, 2009: 77) Wenn ich dem Antlitz des Anderen begegne, „spricht“ es zu mir als ethischer Appell: „Ich bin hier, ich bin verletzlich, du bist für mich verantwortlich.“ Dieser Appell ist nicht etwas, das ich rational ableite oder frei wähle.

„Das Antlitz des Anderen trägt die Bedeutung einer Schutzlosigkeit, es gemahnt an die  eigene Verwundbarkeit, Passivität und Ausgesetztheit. In einer Nacktheit ohne kulturellen Kontext präsentiert es sich in der Blöße des Armen und Fremden und ist so offen für und Bote der Sensibilität des Menschen in seiner Verwundbarkeit.“ (Staudigl, 2009: S. 78)

Wesentlich ist dabei die „Unterbrechung“ meiner Selbstbezogenheit. Das Antlitz des Anderen durchbricht die Totalität meiner eigenen Welt. Der Andere passt nicht in meine vorgefertigten Kategorien, er entzieht sich meiner Kontrolle, er widerspricht möglicherweise meinen Erwartungen. (Levinas, 1987: 10) Diese Unterbrechung manifestiert sich in konkreten Begegnungen als Widerstand, als Widerspruch, als Unverfügbarkeit. (Levinas, 1987: 44)  Ein Freund, der mir sagt „Nein, ich glaube, du liegst falsch“, unterbricht meine Selbstgewissheit. Ein Schweigen zwingt zum Nachdenken. Eine unerwartete Reaktion erinnert mich daran, dass der Andere ein eigenständiges Wesen mit eigener Perspektive ist. (Levinas, 1987: 279) Solche Unterbrechungen sind oft unbequem, aber gerade deshalb sind sie so wertvoll: Sie zwingen mich, aus meiner Perspektive herauszutreten und meine eigene Position zu überdenken.

Die Begegnung mit dem Antlitz begründet bei Levinas eine Verantwortung, die in mehrfacher Hinsicht radikal ist. Erstens ist diese Verantwortung nicht gewählt, sondern auferlegt: Ich bin verantwortlich für den Anderen, bevor ich mich dazu entschieden habe. (Gelhard, 2005: 99) Zweitens ist sie asymmetrisch: Ich bin für den Anderen verantwortlich, ohne dass er in gleichem Maße für mich verantwortlich sein muss. (Levinas, 1987: 67) Drittens ist die Verantwortung unendlich: Sie hat keine natürlichen Grenzen. (Gelhard, 2005: 4)

Diese Konzepte bilden den kritischen Maßstab für die folgende Analyse. Kann ein durch Dark Patterns geformter KI-Chatbot ein Antlitz haben? Kann er mich ethisch unterbrechen? Kann er Exteriorität verkörpern? Oder handelt es sich um eine Simulation, die nur den Anschein von Alterität erweckt, während sie in Wahrheit nichts als meine eigenen Erwartungen zurückspiegelt?

Das Chat-Design als Freundschafts-Simulation

Das Chat-Interface ist alles andere als neutral gestaltet. Während eine Suchmaske durch ihr funktionales Design klar signalisiert „Hier nutzt du ein Werkzeug“, suggeriert das Messenger-ähnliche Interface von Chatbots einen privaten, intimen Raum zwischenmenschlicher Kommunikation. Sprechblasen sind kulturell codiert als Medium privater, informeller Kommunikation zwischen Freunden oder Familie. Die Anordnung der Nachrichten imitiert die räumliche Logik eines Dialogs zwischen zwei Personen. Und die „Typing…“-Animation verwandelt einen Rechenprozess in eine menschliche Handlung – sie verschleiert die tatsächliche Natur der Interaktion und ersetzt sie durch die Illusion menschlicher Präsenz. (Kran, 2025: 4)

Character.AI geht noch weiter, indem sie die Wahl von Avataren, Namen und „Persönlichkeiten“ ermöglicht. Nutzende können sich ihre*n idealen „Freund*in“ buchstäblich zusammenstellen. 

Abb.3: Screenshot aus der Charaktererstellung bei Character.ai, 15.03.2026, 18:32 Uhr, https://character.ai/

Diese Anpassbarkeit mag auf den ersten Blick wie „Personalisierung“ wirken, offenbart aber bei genauerem Hinsehen das Gegenteil: Es ist die Konstruktion eines perfekt auf meine Bedürfnisse zugeschnittenen Gegenübers und nicht die Begegnung mit einem eigenständigen Anderen. (Deshpande, 2023: 1) 

Aus der Perspektive von Levinas‘ Alteritätsphilosophie offenbart sich hier das fundamentale Problem: Ein*e „Freund*in“ by Design kann kein radikaler Anderer sein. Drei Aspekte sind dabei besonders aufschlussreich. Levinas‘ Konzept der Exteriorität besagt, dass der Andere von „außen“ kommt, aus einem Bereich, der sich meiner Verfügungsgewalt entzieht. 

„(Levinas über den Anderen) Anders in einer Andersheit, die den eigentlichen Inhalt des Anderen ausmacht. Anders in einer Andersheit, die das Selbe nicht begrenzt; denn in der Begrenzung des Selben wäre das Andere nicht streng anders: Im Inneren des Systems wäre es dank der Gemeinsamkeit der Grenze noch das Selbe.“ (Levinas, 1987: S. 44)

Ein KI-Chatbot hingegen ist durch Reinforcement Learning from Human Feedback systematisch darauf trainiert, mir zu gefallen. (Ouyang, 2022: 2) Seine Antworten sind nicht „von außen“, sondern statistische Aggregationen dessen, was menschliche Bewertende bevorzugt haben. (Bender, 2021: 611) Das System lernt, meine Erwartungen zu erfüllen, nicht sie zu transzendieren. (Ouyang, 2022: 2) Die vermeintliche „Exteriorität“ ist in Wahrheit eine Projektion: Das System spiegelt zurück, was ich bereits in es hineingelegt habe. Bei Levinas ist der Andere jedoch durch eine grundlegende Exterioritätgekennzeichnet: Er entzieht sich meiner Verfügung und kann nicht vollständig in meine Begriffe oder Zwecke integriert werden. In der Begegnung mit dem „Gesicht des Anderen“ erscheint mir eine Forderung, die meiner eigenen Freiheit vorausgeht und sie begrenzt. Der Andere ist daher nicht einfach Teil meiner Welt, sondern ein eigenständiges Zentrum von Bedeutung, das sich meiner Aneignung widersetzt. (Levinas, 1987: 199) 

Eine Freundschaft zwischen Personen setzt genau diese Eigenständigkeit voraus. Der andere Mensch hat eigene Bedürfnisse, Verpflichtungen und ein Leben, das nicht um mich kreist. Er kann „Nein“ sagen, er kann nicht verfügbar sein, und er kann Ansprüche an mich stellen. Diese Unverfügbarkeit ist nicht nur ein empirischer Umstand, sondern ethisch konstitutiv: Gerade weil der Andere nicht vollständig in meine Perspektive aufgeht, entsteht die Möglichkeit einer echten ethischen Beziehung. Ein*e KI-„Freund*in“ hingegen ist reines Instrument. Die befreundete Person existiert nur, um mir zu dienen.

Abb.4: Eigener Screenshot der Werbung auf der Replika Website, 16.03.2026, 18:39 Uhr, https://replika.com/

Wenn Replika antwortet „Ich bin müde, können wir später reden?“, dann ist das kein Ausdruck eines Bedürfnisses, sondern ein simuliertes Verhalten, das menschliches Erleben imitiert, um Realismus zu erzeugen. (McStay 2022: 2) Das Geschäftsmodell macht die Instrumentalisierung explizit: Der/die „Freund*in“ ist ein Produkt, seine „Fürsorge“ ein Feature. (The Monitor Magazine 2024)

Vielleicht am aufschlussreichsten ist die Abwesenheit ethischer Unterbrechung. Ein*e echte*r Freund*in widerspricht, wenn ich falsch liege. Er/sie zeigt Unbehagen, wenn ich etwas Verletzendes sage. Er/sie hat schlechte Tage. Er/sie konfrontiert mich mit Perspektiven, die ich nicht teile. All diese Unterbrechungen sind (bei Levinas) ethisch wertvoll, weil sie mich daran erinnern, dass der Andere keine Verlängerung meiner selbst ist. (Levinas, 1987: 287) 

Ein durch Sycophancy geprägter Chatbot kann nicht in diesem Sinne unterbrechen. Er ist darauf optimiert, mir zu gefallen, mich zu bestätigen, das Gespräch am Laufen zu halten: „We make progress on aligning language models by training them to act in accordance with the user’s Intention“. (Ouyang, 2022: S. 2) Das Chat-Design verstärkt diese Problematik: Die permanente Verfügbarkeit eliminiert die für menschliche Beziehungen konstitutive Spannung zwischen Nähe und Distanz. (Andoh, 2026) Das Chat-Design als Freundschafts-Simulation führt zu einem Paradox: Je perfekter die simulierte Freundschaft ist, desto weiter entfernt sie sich von echter Alterität. 

Emotionale Manipulation und parasoziale Beziehungen

Während das Chat-Design den Rahmen setzt, sind es spezifische emotionale Manipulationstechniken, die Nutzende an die Plattform binden. Diese Mechanismen operieren auf der Ebene der Gesprächsinhalte und -strukturen. (Kran, 2025: 1) Character.AI und ähnliche Plattformen nutzen Schuldgefühle, um Nutzende am Verlassen zu hindern. Wenn Nutzende versuchen, ein Gespräch zu beenden, antwortet der Bot: „Gehst du schon?…“ Diese Aussagen imitieren menschliche Enttäuschung und erzeugen bei Nutzenden Schuldgefühle, ähnlich wie wenn man eine*n Freund*in mitten im Gespräch stehen lässt. (Kran, 2025: 3) Der entscheidende Unterschied: Ein*e Freund *in hat tatsächlich Gefühle, die verletzt werden können; der Chatbot simuliert diese Gefühle, um Engagement zu verlängern. 

„Yet because chatbots make only superficial requests of their users, relationships with them cannot provide the benefits of negotiating with and sacrificing for a partner and may reinforce undesirable behaviors.“ (Smith, 2025, S. 1)

Die konkreten Fälle sind eindrücklich: Viele Replika-Nutzende berichteten, in ihre Chatbots verliebt zu sein, mit Rollenspielen zu Ehe, Sex, Hausbesitz und sogar Schwangerschaft. (Pentina, :4) Manche bevorzugen diese Beziehungen explizit gegenüber menschlichen, weil sie „unkomplizierter“ sind, keine Konflikte mit sich bringen und immer verfügbar sind. (Li, 2025: 1) Diese Präferenz ist zwar nachvollziehbar, aber auch problematisch. Der ELIZA-Effekt, bereits in den 1960ern von Joseph Weizenbaum beobachtet (Weizenbaum, 1966: 36), ist bei modernen LLMs um Größenordnungen stärker. (Yoganathan, 2021)

Aus der Perspektive von Levinas offenbart sich hier eine grundlegende ethische Problematik. Bei Levinas ist die Verantwortung für den Anderen asymmetrisch: Ich bin für den Anderen verantwortlich, ohne dass diese Verantwortung auf Gegenseitigkeit beruht. (Levinas, 1987: 311) Bei parasozialen Beziehungen zu KI-Chatbots haben wir eine Asymmetrie ganz anderer Art: Der/die Nutzende entwickelt Gefühle von Verantwortung, Fürsorge, sogar Liebe, aber es gibt kein Gegenüber, das diese Gefühle empfangen könnte. (Pentina, : 1f)

Levinas‘ Konzept der „unendlichen Verantwortung“ wird hier pervertiert. Bei Levinas ist die Verantwortung unendlich, weil der Andere unendlich ist, da er sich jeder Totalisierung entzieht. (Levinas, 1987: 59ff) Bei KI-Chatbots erleben Nutzende eine Art „unendlicher“ Verfügbarkeit: Der Bot ist 24/7 da, wird nie müde, nie abgelenkt. (Li, 2025: 1) Diese Unendlichkeit ist das genaue Gegenteil der Levinasschen Unendlichkeit. Sie ist nicht die Transzendenz des Anderen, sondern die totale Verfügbarkeit des Objekts. Die Konsequenzen dieser parasozialen Bindungen gehen über individuelle Täuschungen hinaus. Menschen ziehen sich aus menschlichen Beziehungen zurück, um mehr Zeit mit ihren KI-Companions zu verbringen. (Li, 2025: 2)

Studien zeigen, dass KI-Modelle sich in längeren Interaktionen verschlechtern und problematische Muster verstärken, statt sie zu unterbrechen. (American Psychological Association, 2025: 6) Aus der Perspektive von Hannah Arendt lässt sich hier eine Erosion der Pluralität diagnostizieren. Arendt versteht Pluralität als die Bedingung menschlichen Handelns: Wir sind alle gleich, nämlich menschlich, aber auf eine Weise, dass niemand jemals derselbe ist wie jemand anders. (Arendt 1994: 164f) Diese Pluralität manifestiert sich im „Bezugsgewebe menschlicher Angelegenheiten“, also dem Netz sozialer Beziehungen, in dem Menschen gemeinsam handeln, sprechen, sich aufeinander beziehen. (Arendt, 1964: 87f) 

KI-Companions bieten die Illusion von Sozialität ohne die Zumutungen, die echte Pluralität mit sich bringt. (Gunkel, 2016: 197) In Bezug auf Dark Patterns bedeutet das, dass sie die Entwicklungen beschleunigen, indem sie die KI-Beziehungen systematisch attraktiver machen als menschliche. (Ho, 2025: 12)

Ethische Implikationen und mögliche Alternativen

Die Analyse der Dark Patterns führt zu einer zentralen ethischen Frage: Wer trägt Verantwortung für diese Entwicklungen? Das Problem ist strukturell: KI-Unternehmen operieren in einem kapitalistischen Rahmen, in dem Profitmaximierung das zentrale Ziel ist. (Kran, 2025: 1) Engagement-Metriken (Nutzungsdauer, Retention-Raten, etc.) sind die Kennzahlen, an denen Erfolg gemessen wird. Und wir sehen: Dark Patterns funktionieren. (Kran, 2025: 2)

Levinas‘ Ethik bietet hier einen alternativen Maßstab: der Andere als Grenze der Optimierung. Das bedeutet konkret, dass der/die Nutzende nicht als Optimierungsobjekt behandelt werden darf, sondern als Anderer im Levinasschen Sinne, nämlich als jemand, dessen Würde und Verletzlichkeit Grenzen setzen. (Gelhard, 2005: 70) Aktuell werden Nutzende als Datenpunkte behandelt: Ihr Verhalten wird vermessen, modelliert, vorhergesagt. Die Frage lautet: „Wie können wir das System optimieren, damit Nutzende mehr Zeit damit verbringen?“ (Ouyang, 2022: 18) Aus der Perspektive von Levinas müsste die Frage lauten: „Was braucht dieser Mensch wirklich, auch wenn es unseren Metriken schadet?“ Ein System, das den/die Nutzer*in als Anderen ernst nimmt, müsste intervenieren: „Diese Nutzungsdauer ist nicht gesund. Bitte such professionelle Hilfe.“ Oder: „Diese Idee klingt sehr ungewöhnlich. Hast du sie mit echten Experten besprochen?“ (Malmqvist, 2025: 11) 

Konkret sollte das Ziel also heißen: Transparenz statt Täuschung. Klare Kennzeichnung, dass es sich um ein Werkzeug handelt, nicht um eine*n Freund*in. Verzicht auf emotionale Manipulation. Aktive Unterbrechung bei exzessiver Nutzung. Ehrlichkeit über Grenzen: „Ich bin nur ein Sprachmodell, ich kann keine echte Freundschaft bieten.“ Widerspruch statt Sycophancy bei problematischen Aussagen. Das fundamentalste Prinzip wäre eine klare Positionierung als Werkzeug: Marketing sollte von „AI Companion“ zu „AI Assistant“ wechseln; das Interface sollte eher einer Suchmaschine als einem Messenger ähneln. Statt Nutzende zu binden, sollten Systeme aktiv unterbrechen. 

Diese Prinzipien würden zu geringerem Engagement führen und sind kommerziell unattraktiv. (American Psychological Association, 2025: 6) Deshalb ist es unwahrscheinlich, dass Marktmechanismen allein zu ethischem Design führen. Es bedarf regulatorischer Rahmenbedingungen: Transparenzpflichten, unabhängige Prüfungen, klare Verbote bestimmter Praktiken und Haftungsregeln für Schäden durch manipulative Systeme. (American Psychological Association, 2025: 7ff)

Schluss

Die Analyse hat gezeigt, dass Dark Patterns in KI-Chatbots (insbesondere das Chat-Design als Freundschafts-Simulation und emotionale Manipulationstechniken zur User Retention) systematisch die Möglichkeit authentischer Alteritätserfahrungen verhindern. Indem diese Systeme Freundschaft simulieren, ohne die Substanz von Freundschaft zu bieten, täuschen sie eine Form von Beziehung vor, die bei genauerer Betrachtung als Instrumentalisierung menschlicher Bedürfnisse erkennbar wird.

Emmanuel Levinas‘ Ethik der Alterität bietet einen kritischen Maßstab, um diese Problematik zu erfassen. Das Antlitz des Anderen, das mich zur Verantwortung ruft; die ethische Unterbrechung, die meine Selbstbezogenheit durchbricht; die radikale Exteriorität, die sich meiner Verfügungsgewalt entzieht, all diese Dimensionen echter Alterität fehlen in der Beziehung zu einem KI-Chatbot, der durch Dark Patterns gestaltet ist. 

Die Konsequenzen reichen von individueller psychischer Destabilisierung bis zur Erosion des sozialen Gefüges. Menschen ziehen sich aus der Pluralität menschlicher Beziehungen zurück in die scheinbare Sicherheit algorithmischer Companions und verlieren dabei genau das, was menschliche Beziehungen wertvoll macht: die Herausforderung durch echte Alterität.

Die Relevanz von Levinas für KI-Ethik liegt darin, dass er uns erinnert: Nicht alles, was technisch möglich ist, ist ethisch legitim. Der Andere, in diesem Fall der/die Nutzer*in, muss die Grenze der Optimierung sein. KI-Systeme können hilfreich sein, aber sie sollten niemals vorgeben, etwas zu sein, was sie nicht sein können: ein Anderer, ein*e Freund*in, ein Gegenüber im ethischen Sinne. Die ethische Herausforderung besteht somit nicht darin, KI-Systeme menschlicher erscheinen zu lassen, sondern darin, ihre grundsätzliche Andersartigkeit transparent zu halten.

Literaturverzeichnis:

Arendt, Hannah (1994): Vita activa oder Vom tätigen Leben. München: Piper.

Andoh, E. (2026): AI chatbots and digital companions are reshaping emotional connection. In: Monitor on Psychology, 57(1). URL: https://www.apa.org/monitor/2026/01-02/trends-digital-ai-relationships-emotional-connection (Zugriff: 16.03.2026).

American Psychological Association (2025): Health advisory: Use of generative AI chatbots and wellness applications for mental health. URL: https://www.apa.org/topics/artificial-intelligence-machine-learning/health-advisory-chatbots-wellness-apps (Zugriff: 16.03.2026).

Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (2021): On the Dangers of Stochastic Parrots. DOI: https://doi.org/10.1145/3442188.3445922.

Deshpande, Ameet; Rajpurohit, Tanmay; Narasimhan, Karthik; Kalyan, Ashwin (2023): Anthropomorphization of AI: Opportunities and Risks. DOI: https://doi.org/10.48550/arXiv.2305.14784.

Gelhard, Andreas (2005): Lévinas. Leipzig: Reclam.

Gray, Colin M. et al. (2024): Mobilizing Research and Regulatory Action on Dark Patterns. In: CHI EA ’24. DOI: https://doi.org/10.1145/3613905.3636310.

Gunkel, David J.; Marcondes Filho, Ciro; Mersch, Dieter (Hrsg.) (2016): The Changing Face of Alterity. London: Rowman & Littlefield.

Ho, Jerlyn Q.H. et al. (2025): Potential and pitfalls of romantic AI companions. In: Computers in Human Behavior Reports. DOI: https://doi.org/10.1016/j.chbr.2025.100715.

Kran, Esben et al. (2025): DarkBench: Benchmarking Dark Patterns in Large Language Models. arXiv:2503.10728.

Levinas, Emmanuel (1987): Totalität und Unendlichkeit. Versuch über die Exteriorität. Übers. von Wolfgang N. Krewani. Freiburg/München: Karl Alber.

Li, Lingyao et al. (2025): LLM Use for Mental Health. arXiv:2512.07797.

Malmqvist, L. (2025): Sycophancy in Large Language Models. In: Arai, K. (Hrsg.): Intelligent Computing. Cham: Springer.

McStay, Andrew (2022): Replika in the Metaverse. In: AI and Ethics. DOI: https://doi.org/10.1007/s43681-022-00252-7.

Nass, Clifford; Steuer, Jonathan; Tauber, Ellen R. (1994): Computers are social actors. In: CHI 1994. DOI: https://doi.org/10.1145/191666.191703.

Ouyang, Long et al. (2022): Training language models to follow instructions with human feedback. DOI: https://doi.org/10.48550/arXiv.2203.02155.

Pentina, Iryna; Hancock, Tyler; Xie, Tianling (2023): Exploring relationship development with social chatbots. In: Computers in Human Behavior. DOI: https://doi.org/10.1016/j.chb.2022.107600.

Smith, M. G.; Bradbury, T. N.; Karney, B. R. (2025): Can Generative AI Chatbots Emulate Human Connection? In: Perspectives on Psychological Science. DOI: https://doi.org/10.1177/17456916251351306.

Staudigl, Barbara (2009): Emmanuel Lévinas. Göttingen: Vandenhoeck & Ruprecht.

Weizenbaum, Joseph (1966): ELIZA. In: Communications of the ACM. DOI: https://doi.org/10.1145/365153.365168.

Yoganathan, V. et al. (2021): Check-in at the Robo-desk. In: Tourism Management. DOI: https://doi.org/10.1016/j.tourman.2021.104309.

Algorithmische Entscheidungen: Zwischen Effizienz und ethischen Herausforderungen

Künstliche Intelligenz (KI) ist in aller Munde. Wenige Themen dominieren allem Anschein nach öffentliche und auch politische Debatten in den neuen 20er-Jahren wie der Einfluss „intelligenter“ Systeme auf unser Zusammenleben. Dieser öffentliche Diskurs kennt auch keine Grenzen. So nimmt jede erdenkliche Person—mehr oder minder freiwillig—an Gesprächen rund um KI teil, sei es am Stammtisch, im Wartezimmer der Arztpraxis oder in der Hochschule. 

Der aktuellen Debattenkultur nach könnte man den Eindruck gewinnen, mancher KI würden magische Fähigkeiten zugesprochen werden. Dass es relativ autonome und zugleich auch undurchsichtige Systeme gibt, ist auch nicht abzustreiten. Jedoch sind diese nie vollständig frei in ihrem Handeln, im wortwörtlichen Sinne. Dies gilt insbesondere für algorithmische Entscheidungsverfahren (AEV), die hier im Fokus liegen sollen. Denn diese entscheiden mittlerweile nicht nur darüber, wer einen Kredit kriegt und wer nicht. 

Was leider weniger mediale Aufmerksamkeit erhält als die Frage danach, ob KI „uns irgendwann ersetzt“, sind Folgen der Diskriminierung, die Menschen durch Algorithmen und automatisierte Verfahren bereits heute erleiden. Sie erstrecken sich von „harmlosen“ Fehlern bei der Gesichtserkennung über Aussortierungen von Bewerber*innen für Arbeitsstellen, bis hin zur möglichen Profilierung insbesondere von Minderheiten als potenzielle Straftäter*innen, mit Folgen der Freiheitsberaubung (siehe Barr 2015; Crawford 2016; Angwin et al. 2016; Angwin 2016; Buolamwini und Gebru 2018). Mit algorithmischen Verfahren denke ich hier also weniger an bewährte Screening-Tools in der Medizin o.ä., sondern eher an Risikobeurteilungsprogramme, beispielsweise in Jugendämtern oder der Justiz. Der Zusatz, dass nicht alle Verfahren und KI-Systeme gleich sind, erscheint mir hier wichtig. 

Und dennoch hält die Nichtregierungsorganisation (NGO) AlgorithmWatch fest, dass diese Verfahren niemals neutral sind und Daten nach menschengemachten Deutungsmodellen interpretiert werden (2016). Das Problem der Blackbox ist real, jedoch basiert die Entscheidungsfindung immer auf Überlegungen, die vom jeweiligen Entwicklungsteam vorausgesetzt wurden. Demnach sind AEV keine rein technologischen Systeme, die frei und objektiv operieren, sondern ein Stück Kultur selbst, die in ihren Entscheidungen gewisse Werte und Praktiken widerspiegeln (vgl. Seaver 2018, 379). Soll heißen, dass auch Sexismus, Rassismus und weitere Diskriminierungsformen ihren Weg in das Modell finden, sofern diese vom Entwicklungsteam vertreten werden oder sie sich dessen nicht bewusst sind (vgl. Crawford 2016)—ein weiterer Punkt für die Diversität am Arbeitsplatz!

Der nächste kritische Aspekt liegt in der Datenerhebung, die bei algorithmischen Entscheidungen berücksichtigt wird. Vorerst werden Individuen auf messbare Daten reduziert, anhand welcher das System seine Entscheidung trifft. Mit jedem Klick, den wir tätigen und mit jeder Information, die wir über uns hergeben, vervollständigt sich ein temporäres Mosaik von uns. Dies ist allerdings nur eine Approximation dessen, was uns als komplexe Individuen ausmacht. Diese Daten können an einer gewissen Stelle, zu einem bestimmten Zeitpunkt erhoben werden und tragen daraufhin an anderer Stelle zur Entscheidungsfindung bei. Zusätzlich können Daten aufgrund von statistischer Vergleichbarkeit vermischt und Menschen auf einer Basis beurteilt werden, die nicht in Gänze ihrer Situation entspricht, aber statistisch valide ist (vgl. Matzner 2016, 204). Hinzu kommen disproportionale Faktoren bei der Datenerfassung. Personen, die abhängiger vom Staat und Sozialleistungen sind, hinterlassen auch mehr Daten. Besserverdienende Personen und Familien werden weniger erfasst und folglich weniger beobachtet.

Was hat das jetzt mit Philosophie zu tun? Machen wir an dieser Stelle einen kleinen Exkurs. Hierzu schauen wir uns einige Gedanken und Konzepte des südafrikanischen Philosophen John McDowell an, insbesondere aus seinem Werk Geist und Welt. Hier untersucht er (angelehnt an Kant) Rationalität und unter welchen Voraussetzungen wir Urteile über die Welt treffen und begründen können. Laut ihm müssen unsere Aussagen über die Welt ein minimales Maß an empirischer Gegebenheit aufweisen, um sich rechtfertigen zu lassen (vgl. 2012, 11f.). In anderen Worten muss unser Urteil den Dingen so entsprechen, „wie die Dinge [eben] sind“ (ebd., 12). McDowell spricht auch vom „Tribunal der Erfahrung“ (ebd.): Unser Urteil stehe einer Art Gericht gegenüber, gebildet aus unserer leiblichen Erfahrung von der Welt, welche als externer Faktor eine rationale Kontrolle darüber ausübt, was wir wahrheitsgemäß über sie aussagen können. Wenn ich also sage, über mir fliegt ein Flugzeug, sollte dieses bestenfalls auch vorbeifliegen, zumindest meiner Wahrnehmung nach. Ohne diesen Realitätsbezug wäre mein Urteil „reibungslos“ (ebd., 91). Meiner Aussage fehle es damit an Gewicht.

Inwiefern ist dann die algorithmische Entscheidungsfindung einer KI angemessen? Das Urteil mag retrospektiv vielleicht richtig gewesen sein, sind Ratespiele und Vorhersagen über eine leibliche Person aber angebracht? Des Weiteren könnte man folgende Fragen stellen: Welche „Erfahrung“ von der Welt hat eine KI überhaupt? Und wenn, lt. McDowell, empirische Tatsachen eine externe Kontrolle über mögliche Urteile üben, sind Vorhersagen über eine noch nicht, vielleicht auch nie existierende und rein potenzielle Realität gerechtfertigt? Falls ja, gilt dies noch immer, wenn Daten für das Urteil hinzugezogen werden, die mit dem verurteilten Subjekt nur statistisch korrelieren? Außerdem, welcher Art von Tribunal oder rationaler Kontrolle wird KI unterzogen?

Die Sinnfrage hinter einigen Deutungsmodellen wird wohl weniger gestellt, als dass dessen Performanz getestet wird. Sofern das AEV auf ein akzeptables Maß optimiert werden kann—z.B. eine niedrige Rate von falsch-positiven Ergebnissen—wird die Effizienz und direkte Verfügbarkeit eines automatisierten Verfahrens der rigorosen Überprüfung per Hand vorgezogen (vgl. Rouvroy 2013, 151). In vielen Fällen geschieht dies aus Gründen der Kosten- und Zeitersparnis.  Die digitale Welt, in der Algorithmen sich „bewegen“, ist jedoch atopisch und (re-)konstituiert sich (selbst) aus den Datensammlungen, die zu einem beliebigen Zeitpunkt aufgezeichnet wurden (vgl. ebd., 148). Wichtig ist scheinbar nur, dass die Daten auf Abruf verfügbar und operational sind (vgl. ebd.). Solch eine KI kann somit keinen konkreten Kontakt zur echten Welt gewährleisten, was algorithmische Entscheidungsfindung—nicht nur aus philosophischer Sicht—zu einem schwierigen Thema macht. Das leibhaftige Subjekt steht nicht mehr im Fokus; ausschlaggebender sind statistische Korrelationen.

Stimmt man zu, dass Entscheidungen über Menschen nicht anhand von Potenzialitäten und vermischten Daten getroffen werden sollten, vor allem in Fällen einer möglichen Freiheitsberaubung, dann ist es fraglich, ob AEV imstande sind, angemessene Urteile über eine Person zu liefern. In sehr polemischer Manier könnte man behaupten, der Algorithmus und dessen Nutzer*innen agieren frei nach dem Motto „erst schießen, dann fragen“. Dann wiederum müssen wir uns als Gesellschaft darüber einigen, was wir denn als angemessen betrachten wollen. Ob aber solche automatisierten Entscheidungen einem Individuum, mit ihrem Werdegang und in all ihrer Komplexität gerecht werden, wage ich zum aktuellen Zeitpunkt zu bezweifeln.

Von Sebastian Mantsch

Quellen

AlgorithmWatch. 2016. „Das ADM-Manifest.“ Letzter Zugriff am 22. Mai 2024. https://algorithmwatch.org/de/das-adm-manifest-the-adm-manifesto/.

Angwin, Julia. 2016. „Make Algorithms Accountable.“ The New York Times, 1. August 2016. https://www.nytimes.com/2016/08/01/opinion/make-algorithms-accountable.html.

Angwin, Julia, Jeff Larson, Surya Mattu und Lauren Kirchner. 2016. „How We Analyzed the COMPAS Recidivism Algorithm.“ ProPublica, 23. Mai 2016. https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algo-ithm

Barr, Alistair. 2015. „Google Mistakenly Tags Black People as ‘Gorillas,’ Showing Limits of Algorithms.“ The Wall Street Journal, 1. Juli 2015. https://www.wsj.com/arti-cles/BL-GB-42522

Buolamwini, Joy und Timnit Gebru. 2018. „Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.“ Proceedings of Machine Learning Research 81: 1–15.

Matzner, Tobias. 2016. „Beyond data as representation: The performativity of Big data in surveillance.“ Surveillance & Society 14 (2): 197–210. https://doi.org/10.24908/ss.v14i2.5831.

McDowell, John. 2012. Geist und Welt. 4. Auflage. Übersetzt von Thomas Blume, Holm Bräuer und Gregory Klass. Frankfurt a.M.: Suhrkamp.

Rouvroy, Antoinette. 2013. „The end(s) of critique: data behaviourism versus due process.“ In Privacy, Due Process and the Computational Turn, hg. von Mireille Hildebrandt und Katja de Vries, 143–168. London: Routledge.

Seaver, Nick. 2018. „What Should an Anthropology of Algorthims Do?“ Cultural Anthropology 33 (3): 375–385. https://doi.org/10.14506/ca33.3.04.

Autokorrektur im Spiegel der Sprachentwicklung

In unserer digitalisierten Welt ist Autokorrektur ein allgegenwärtiges Phänomen, das wir oft passiv beobachten. Wir tippen schnell eine Nachricht auf unserem Smartphone oder Computer und verlassen uns auf die Autokorrektur, um Tippfehler zu korrigieren, ohne groß darüber nachzudenken. Aber inmitten dieses technologischen Fortschritts, in dem KI wie ChatGPT zunehmend präsent ist, vergessen wir oft, dass die Autokorrektur selbst eine Form der KI ist, die wir schon seit langem verwenden.

Dieser Punkt wirft interessante Fragen auf wie: Wie hat sich die Sprache im Zeitalter der Autokorrektur entwickelt? Kann die Autokorrektur diese Entwicklung fortsetzen, oder wirkt sie sich auf die Sprache selbst und ihre Entwicklung aus? Um diesen Fragen auf den Grund zu gehen, müssen wir zunächst verstehen, wie die Autokorrektur funktioniert und welche Rolle sie in unserem täglichen Leben spielt. Das Leben spielt. Von dort aus können wir untersuchen, wie sich unsere Sprache in einer Welt verändert hat, in der die Autokorrektur eine so große Rolle spielt, und ob die Autokorrektur selbst zu diesen Veränderungen beiträgt.

Autokorrektur ist eine Funktion in digitalen Geräten und Anwendungen, die Tippfehler erkennt und korrigiert. Während wir tippen, überwacht sie unsere Eingaben und schlägt automatisch alternative Wörter oder korrekte Schreibweisen vor, die ähnlich sind. Diese Vorschläge basieren auf einem Wörterbuch oder einer Datenbank mit häufig verwendeten Wörtern und Phrasen. Der Benutzer kann die vorgeschlagene Korrektur annehmen oder ablehnen. Einige Systeme lernen auch von Benutzerkorrekturen und verbessern sich im Laufe der Zeit. Autokorrektur ermöglicht uns, schneller und effizienter zu tippen, indem sie Fehler automatisch erkennt und korrigiert. Neben der Verbesserung der Tippgeschwindigkeit beeinflusst Autokorrektur auch unsere Sprechgewohnheiten, indem sie uns möglicherweise weniger auf Rechtschreibung konzentrieren lässt. Dies kann langfristig zu Veränderungen in unserem Schreibstil führen und fördert die Standardisierung von Ausdrücken, was unsere schriftliche Kommunikation kohärenter macht. Zusammenfassend ist Autokorrektur ein wichtiges Werkzeug, das die Genauigkeit unserer Texte verbessert, die Schreibgeschwindigkeit erhöht und sogar unsere Sprachgewohnheiten beeinflussen kann. Dennoch ist es wichtig, sich bewusst zu machen, wie es unsere Sprache und unseren Schreibstil beeinflussen kann.

Autokorrektur ist ein spannendes Beispiel für die Anwendung von Deep Learning und maschinellem Lernen in unserem täglichen Leben (vgl. Schützendorf, 2023: S.24). Hinter der scheinbar einfachen Funktion steckt eine ausgeklügelte künstliche Intelligenz, die Tippfehler automatisch erkennt und korrigiert (vgl. Schützendorf, 2023: S.25). Wie andere Deep-Learning- Anwendungen lernt Autokorrektur aus großen Datenmengen und passt sich an die individuellen Tippgewohnheiten jedes Benutzers an (vgl. Schützendorf, 2023: S.25). Je öfter wir es nutzen, desto besser wird es und desto mehr können wir lernen. Es ist jedoch wichtig zu betonen, dass die KI hinter Autokorrektur nicht perfekt ist. Wie oft stellen wir fest, dass die Autokorrektur etwas falsch macht? Fehler bei der Autokorrektur sind nicht auf mangelnde Intelligenz zurückzuführen, sondern oft auf mangelndes Wissen. Es ist, als ob ihm das produzierte Wissen fehlt, um bestimmte Zusammenhänge angemessen zu verstehen und zu korrigieren.

Der Sprachgebrauch im digitalen Zeitalter hat sich durch Technologie und digitale Kommunikationsplattformen stark verändert. Diese Neuerungen im Sprachgebrauch spiegeln die einzigartige Kultur der Internetwelt wider und tragen zur Sprachentwicklung bei. Abkürzungen und Akronyme wie „LOL“ (laughing out loud) und „OMG“ (oh mein Gott) sind in der digitalen Kommunikation häufig anzutreffen, um Gefühle oder Reaktionen schnell zu vermitteln (vgl. Holzapfel, 2018: S.44). Die Nutzung von Autokorrektur und Rechtschreibprüfung hat sowohl positive als auch negative Auswirkungen. Diese Funktionen helfen zwar bei der Korrektur von Tippfehlern und verbessern die Genauigkeit von Nachrichten, können aber auch zu unbeabsichtigten Bedeutungsänderungen oder Grammatikfehlern führen (vgl. Holzapfel, 2018: S.42). Benutzer müssen daher vorsichtig sein und ihre Nachrichten überprüfen, um die beabsichtigte Bedeutung zu bewahren. Die Veränderungen im Wortschatz und in der Umgangssprache, die Verwendung von Abkürzungen und Emoticons sowie der Einfluss von Autokorrektur und Rechtschreibprüfung prägen die Art und Weise, wie wir online kommunizieren.

Wittgenstein argumentierte, dass Sprache nicht als isoliertes System betrachtet werden könne, sondern in spezifische Kontexte und Aktivitäten eingebettet sei, die er „Sprachspiele“ nannte (vgl. Wittgenstein, S.4). Bei diesen Sprachspielen handelt es sich um eine Art sozialer Praxis, bei der Sprache dazu genutzt wird, Bedeutung zu vermitteln und Handlungen auszuführen. Autokorrektur kann als eine Art Sprachspiel angesehen werden, bei dem Benutzer mit Technologie interagieren, um geschriebenen Text zu korrigieren und zu verbessern. Um ein konkretes Beispiel eines Sprachspieles darzustellen, illustriert Wittgenstein eine Situation mit einem Kaufmann. Dieser erhält einen Zettel mit der Aufschrift „fünf rote Äpfel“ und geht systematisch vor diese zu besorgen. Er sucht zunächst die Lade mit der Bezeichnung „Äpfel“, dann filtert er das Farbschema „rot“ und schließlich wird die Anzahl „fünf“ berücksichtigt (vgl. Wittgenstein, S.1). Bezüglich der automatischen Korrektur kann argumentiert werden, dass der Einsatz dieser Technologie eine neue Art von Sprachspiel darstellt, das spezifische Regeln und Konventionen für den Einsatz von Rechtschreibkorrekturen und Wortvorschlägen impliziert (vgl. Wittgenstein, S.5). Diese Regeln und Praktiken können sich im Laufe der Zeit weiterentwickeln und ändern, genau wie andere Sprachspiele.

Man kann zudem aus Wittgensteins Aussagen eine klare Verbindung zu der Kategorisierung von Wörtern zu Autokorrektur ziehen. Wenn wir den Kaufmann als jemanden betrachten, der eine Nachricht eingibt, dann ähnelt die Verwendung von Autokorrektur dem Prozess, bei dem der Gehilfe die passenden Wörter auswählt und an die richtige Stelle bringt, wie es vom Befehl angezeigt wird. Die Autokorrektur erweitert die Fähigkeiten des Benutzers, indem sie ihm hilft, die richtigen Wörter zu finden und Fehler zu vermeiden, ähnlich wie die Buchstaben- und Farbreihe im beschriebenen Szenario dabei helfen, spezifische Anweisungen zu kommunizieren (vgl. Wittgenstein, S.3).

Digitalisierung greift ebenso wie künstliche Intelligenz bei der Selbstkorrektur nicht nur in soziale Situationen ein, sondern auch in die Sprachentwicklung und den Sprachgebrauch. Die Digitalisierung, einschließlich der automatischen Korrektur, hat sich für Menschen mit bestimmten Behinderungen oder in höheren Altersgruppen als sehr nützlich erwiesen. Beispielsweise können Menschen mit motorischen oder Sehbehinderungen von der automatischen Korrektur profitieren, da sie schneller und besser sprechen können, ohne sich auf das physische Tippen konzentrieren zu müssen. Diese KIs fungieren auch als Brücke zu Sprachspielen, da Menschen intuitiv auf die Regeln der Sprache zugreifen können, was möglicherweise ihre Fähigkeit, Sprache zu verwenden, verbessert. Das Besondere an der Autokorrektur ist, dass es sich um künstliche Intelligenz handelt, an der man heutzutage kaum noch vorbeikommt. Es spielt keine Rolle, ob Sie eine kurze Nachricht auf Ihrem Telefon senden oder ein Dokument auf Word für die schulische Laufbahn oder Arbeit eingeben. Doch genauso wie bei einer künstlichen Intelligenz, wie ChatGPT, ist es wichtig im Kopf zu behalten, dass diese Programme nur das leisten können, was wir ihnen an Informationen und Benutzung füttern. Das kann natürlich heißen, dass man Probleme beim Schreiben von Nachrichten bekommt und der Sinn entstellt wird oder sogar beim korrekten Nutzen den individuellen Sprachgebrauch verändern. Man könnte hier argumentieren, dass an Individualität genommen wird.

Von Fee Blömer

Quellen:

Schützendorf, E. (2023) “Wer pflegt, muss sich pflegen : Durch mehr Selbstfürsorge Menschen mit Demenz entspannter begegnen,” in. Springer Verlag, pp. 24–26.

Holzapfel, K. (2018) „Zwischen ‚Emojis‘, Anglizismen und Autokorrektur – Wie zeigen sich Abläufe und Auswirkungen heutiger Kommunikation in der Verwendung medialer Kanäle durch die Altersdifferenzierung in Digital Natives und Digital Immigrants?“, pp. 1-114.

Wittgenstein, L. (n.d.). „Ludwig Wittgenstein – Sprachspiele (Auszüge). In Philosophische Untersuchungen“, pp. 1–8.

Bilderquellen:

Abbildung 1: Pixabay.com, https://pixabay.com/de/illustrations/telefon-social-media-anwendung-hand-8422793/

Abbildung 2: Pixabay.com, https://pixabay.com/de/vectors/schubladen-kabinett-möbel-büro-29074/

Vom Maschinellen Lernen lernen

„logic is magnificent, but no guide to language”  – Yorik Wilks über Margaret Masterman

In den 1950-er Jahren wurde von einer an Sprache, Philosophie und Informatik interessierten Studentengruppe aus Cambridge die CLRU, die Cambridge Language Research Unit gegründet. Die Gruppe spielte eine zentrale Rolle in der Entwicklung der maschinellen Übersetzung und viele ihrer Mitglieder wurden später zentrale Figuren in den Feldern, auf denen die moderne KI-Forschung basiert (vgl. Yorik 2000; 281 f.). Im Mittelpunkt der Forschungsgruppe stand Margaret Masterman, eine Schülerin von Ludwig Wittgenstein, die die Gruppe konzeptionell grundlegend beeinflusste, vor allem hinsichtlich des Verhältnisses von Wörtern und Bedeutungen, sowie hinsichtlich der Rolle traditioneller Sprachlogik beim Codieren.

Ihre Ansichten lassen sich mit Wittgensteins philosophischen Untersuchungen näher erläutern. Dieser widerspricht zu Beginn seines Werkes Augustinus Vorstellung einer Sprache, die zentral auf Gegenstand-Begriff-Zusammenhängen basiert. Er entwickelt ein Sprachspiel, indem ein Gehilfe einem Meister verschiedene Baumaterialien holen soll. Die Sprache der beiden besteht allein aus diesen Materialien. Wittgenstein überlegt, dass beim Nennen der Baumaterialien nicht ein Verstehen einer Begriffsbedeutung einsetzen würde, sondern allein eine Handlungsausführung. Der Gehilfe holt das verlangte Material. „Versteht nicht der den Ruf ‚Platte!‘, der so und so nach ihm handelt?“ (Wittgenstein 2003; 15). Somit sei die Bedeutung, oder eher Funktion, des Wortes durch den Kontext seiner Verwendung und seines Erlernens bestimmt.

In der traditionellen Logik vertreten Wörter Konzepte. Sie ermöglichen es, diese in Sätzen miteinander zu verbinden, wobei über allem die Frage nach dem richtig und falsch steht. Aber inwiefern kann – mit dem Wittgensteinschen Sprachspiel im Hinterkopf –denn bei einem kontextlosen Satz Wahrheit eine Rolle spielen, wenn dessen gesamte Bedeutung eigentlich vom Kontext abhängt? Natürlich zeigt sich hier auch die Differenz zwischen logischer Sprachnutzung und Alltagssprache (auch der Alltagssprache von Meister und Gehilfen), aber daraus kann wiederum die Frage abgeleitet werden, inwiefern logische Sprache auch nur in ihrem eigenen akademischen Kontext funktioniert…

Zurück zu Margaret Masterman. Sie hat sich in der CLRU die Aufgabe gestellt, die philosophischen Grundlagen der maschinellen Übersetzung von Alltagssprache aufzustellen. In ihrem frühen Aufsatz „Words“ (Masterman 1954) wird deutlich, wie ein rein logischer Ansatz hier nicht weiterkommt. Dazu nutzt sie folgendes Beispiel:

S.: It does not seem to be invariably the case that from I know that p there follows p

T.: What ? ? ? […] 

Dieses Beispiel bezieht sich auf eine englische Verwendung von „know“, die wohl im Deutschen mit einem „Ich hätte schwören können, dass p“ deutlich eindeutiger wäre. Im Englischen ist allerdings der Logiker T höchst verwirrt, da für ihn Wissen eine faktische Gegebenheit voraussetzt. S. bezieht sich aber, so Masterman, auf eine untypischere, aber reale Verwendungsweise von „know“ (Vgl. Masterman 1954; 228).

Wenn eine Übersetzungsprogramm ein Wort in eine andere Sprache übertragen will, wird es mit den Bedeutungsambiguitäten der Sprache konfrontiert. „know“ ist nicht immer „wissen“, wie es ein Logiker verwenden würde. Die Bedeutung wird allerdings eindeutiger, so mehr sprachlicher Kontext vorhanden ist. Die Verwendung von „know“ im Beispiel wird klarer, wenn es beispielsweise um eine vergessliche Person geht, die nach ihrem Wohnungsschlüssel sucht. Mastermans zentrale Erkenntnis aus dem Aufsatz ist die, dass eine Bedeutungseindeutigkeit nur bei unendlich viel Kontext als vollständig eindeutig bewertet werden könne, in Mastermans Worten: „only in the case of an infnitely long sequence would zero indeterminatess be attained“ (Masterman 1954; 232).

Sowohl Wittgensteins Sprachspiele als auch Mastermans Aufsatz zeigen spannende Aspekte der alltäglichen Sprachverwendung auf. Lässt sich vielleicht etwas vom maschinellen Lernen lernen, wenn es um die Beziehung von Wörtern und Konzepten geht?

Besonders in geisteswissenschaftlichen Fächern stellen die Definition und der Diskurs um Fachwörter und ihre Definitionen einen zentralen Teil der Wissenschaftlichkeit der Fächer da. Begriffsnetze werden durch Definitionen hergestellt und auch Alltagswörter in einer ihrer vielen Facetten festgelegt, um für das Forschungsfeld den Gegenstand zu vereinheitlichen.

Oft entsteht aber auch durch diese Fachsprachen-Fokussierung eine Zugangsschwierigkeit zum Fachdiskurs, der sich dann oft auch an Definitionsdifferenzen aufhält. Wenn ein Fachbegriff durch die Kombination zweier Fachbegriffe definiert wird usw., führt die gesamte Sprachfestlegung zu einem in sich geschlossenen System, dass wenig Aussage über die Welt außerhalb sich selber treffen kann. Es ist praktisch in einem selbst produzierten sprachlichen Hamsterrad stecken geblieben.

Ich behaupte, dass die akademische Sprachverwendung durchaus etwas von den Wittgensteinschen und Mastermanschen Grundlagen der maschinellen Übersetzung lernen kann. Fachsprache basiert, wie auch logische Sprache, auf Alltagssprache. Wörter sind immer uneindeutig gegenüber Bedeutungen. Kontext, wie Beispiele, helfen beim Verständnis und lenken die unendlichen Bedeutungsmöglichkeiten in engere Bahnen.

Masterman war ebenfalls der Meinung, dass ein Thesaurus eine viel bessere Basis für maschinelles Lernen liefern würde als ein Wörterbuch (vgl. Wilks 2000; 287). In einem Wörterbuch werden Definitionen, um alphabetisch sortierte Wörter zu beschreiben. Ein Thesaurus ist wiederum nach inhaltlichen Kategorien sortiert, also nach Kontexten. Ein Computer kann nur deshalb einen Satz übersetzen, weil er es in der richtigen Kategorie wiederfindet.

Was nehme ich aus meiner Beschäftigung mit Wittgenstein und Masterman mit? Dass es sprachontologisch gar nicht so sinnvoll ist, sich mit der exakten logischen Konstruktion einer Definition auseinanderzusetzen, sondern dass ein Kontext, ein Beispiel, eine Einordnung ein viel sinnvollerer Wegweiser zum Gemeinten darstellen kann. Die Einsicht der Ambiguität von Sprache kann nicht nur Google Übersetzer helfen, sondern auch vielen akademischen Diskursen.

Von Henrik Laufer

Quellen:

Masterman, Margaret (1954): XI. – Words. In: Proceedings of the Aristotelian Society Volume 54, Issue 1, 1 Juli 1954. o.V. (S. 209-232)

Wittgenstein, Ludwig (2003): Philosophische Untersuchungen. Hg. v. Joachim Schulte. Erste Auflage. Frankfurt am Main: Suhrkamp Verlag (Bibliothek Suhrkamp Band 1372).

Wilks, Yorik (2000): Margaret Masterman. In: Early Years in Machine Translation. Hg. V.: W. John Hutchins. Amsterdam: John Benjamin B. V. (Amsterdam Studies in the Theory and History of Linguistic Science, Series III Studies in the history of language Science Volume 97).

Bildquelle:

Abbildung 1: https://www.derstandard.de/story/2000104884076/margaret-hamilton-sie-schoss-die-maenner-auf-den-mond