Algorithmische Entscheidungen: Zwischen Effizienz und ethischen Herausforderungen

Künstliche Intelligenz (KI) ist in aller Munde. Wenige Themen dominieren allem Anschein nach öffentliche und auch politische Debatten in den neuen 20er-Jahren wie der Einfluss „intelligenter“ Systeme auf unser Zusammenleben. Dieser öffentliche Diskurs kennt auch keine Grenzen. So nimmt jede erdenkliche Person—mehr oder minder freiwillig—an Gesprächen rund um KI teil, sei es am Stammtisch, im Wartezimmer der Arztpraxis oder in der Hochschule. 

Der aktuellen Debattenkultur nach könnte man den Eindruck gewinnen, mancher KI würden magische Fähigkeiten zugesprochen werden. Dass es relativ autonome und zugleich auch undurchsichtige Systeme gibt, ist auch nicht abzustreiten. Jedoch sind diese nie vollständig frei in ihrem Handeln, im wortwörtlichen Sinne. Dies gilt insbesondere für algorithmische Entscheidungsverfahren (AEV), die hier im Fokus liegen sollen. Denn diese entscheiden mittlerweile nicht nur darüber, wer einen Kredit kriegt und wer nicht. 

Was leider weniger mediale Aufmerksamkeit erhält als die Frage danach, ob KI „uns irgendwann ersetzt“, sind Folgen der Diskriminierung, die Menschen durch Algorithmen und automatisierte Verfahren bereits heute erleiden. Sie erstrecken sich von „harmlosen“ Fehlern bei der Gesichtserkennung über Aussortierungen von Bewerber*innen für Arbeitsstellen, bis hin zur möglichen Profilierung insbesondere von Minderheiten als potenzielle Straftäter*innen, mit Folgen der Freiheitsberaubung (siehe Barr 2015; Crawford 2016; Angwin et al. 2016; Angwin 2016; Buolamwini und Gebru 2018). Mit algorithmischen Verfahren denke ich hier also weniger an bewährte Screening-Tools in der Medizin o.ä., sondern eher an Risikobeurteilungsprogramme, beispielsweise in Jugendämtern oder der Justiz. Der Zusatz, dass nicht alle Verfahren und KI-Systeme gleich sind, erscheint mir hier wichtig. 

Und dennoch hält die Nichtregierungsorganisation (NGO) AlgorithmWatch fest, dass diese Verfahren niemals neutral sind und Daten nach menschengemachten Deutungsmodellen interpretiert werden (2016). Das Problem der Blackbox ist real, jedoch basiert die Entscheidungsfindung immer auf Überlegungen, die vom jeweiligen Entwicklungsteam vorausgesetzt wurden. Demnach sind AEV keine rein technologischen Systeme, die frei und objektiv operieren, sondern ein Stück Kultur selbst, die in ihren Entscheidungen gewisse Werte und Praktiken widerspiegeln (vgl. Seaver 2018, 379). Soll heißen, dass auch Sexismus, Rassismus und weitere Diskriminierungsformen ihren Weg in das Modell finden, sofern diese vom Entwicklungsteam vertreten werden oder sie sich dessen nicht bewusst sind (vgl. Crawford 2016)—ein weiterer Punkt für die Diversität am Arbeitsplatz!

Der nächste kritische Aspekt liegt in der Datenerhebung, die bei algorithmischen Entscheidungen berücksichtigt wird. Vorerst werden Individuen auf messbare Daten reduziert, anhand welcher das System seine Entscheidung trifft. Mit jedem Klick, den wir tätigen und mit jeder Information, die wir über uns hergeben, vervollständigt sich ein temporäres Mosaik von uns. Dies ist allerdings nur eine Approximation dessen, was uns als komplexe Individuen ausmacht. Diese Daten können an einer gewissen Stelle, zu einem bestimmten Zeitpunkt erhoben werden und tragen daraufhin an anderer Stelle zur Entscheidungsfindung bei. Zusätzlich können Daten aufgrund von statistischer Vergleichbarkeit vermischt und Menschen auf einer Basis beurteilt werden, die nicht in Gänze ihrer Situation entspricht, aber statistisch valide ist (vgl. Matzner 2016, 204). Hinzu kommen disproportionale Faktoren bei der Datenerfassung. Personen, die abhängiger vom Staat und Sozialleistungen sind, hinterlassen auch mehr Daten. Besserverdienende Personen und Familien werden weniger erfasst und folglich weniger beobachtet.

Was hat das jetzt mit Philosophie zu tun? Machen wir an dieser Stelle einen kleinen Exkurs. Hierzu schauen wir uns einige Gedanken und Konzepte des südafrikanischen Philosophen John McDowell an, insbesondere aus seinem Werk Geist und Welt. Hier untersucht er (angelehnt an Kant) Rationalität und unter welchen Voraussetzungen wir Urteile über die Welt treffen und begründen können. Laut ihm müssen unsere Aussagen über die Welt ein minimales Maß an empirischer Gegebenheit aufweisen, um sich rechtfertigen zu lassen (vgl. 2012, 11f.). In anderen Worten muss unser Urteil den Dingen so entsprechen, „wie die Dinge [eben] sind“ (ebd., 12). McDowell spricht auch vom „Tribunal der Erfahrung“ (ebd.): Unser Urteil stehe einer Art Gericht gegenüber, gebildet aus unserer leiblichen Erfahrung von der Welt, welche als externer Faktor eine rationale Kontrolle darüber ausübt, was wir wahrheitsgemäß über sie aussagen können. Wenn ich also sage, über mir fliegt ein Flugzeug, sollte dieses bestenfalls auch vorbeifliegen, zumindest meiner Wahrnehmung nach. Ohne diesen Realitätsbezug wäre mein Urteil „reibungslos“ (ebd., 91). Meiner Aussage fehle es damit an Gewicht.

Inwiefern ist dann die algorithmische Entscheidungsfindung einer KI angemessen? Das Urteil mag retrospektiv vielleicht richtig gewesen sein, sind Ratespiele und Vorhersagen über eine leibliche Person aber angebracht? Des Weiteren könnte man folgende Fragen stellen: Welche „Erfahrung“ von der Welt hat eine KI überhaupt? Und wenn, lt. McDowell, empirische Tatsachen eine externe Kontrolle über mögliche Urteile üben, sind Vorhersagen über eine noch nicht, vielleicht auch nie existierende und rein potenzielle Realität gerechtfertigt? Falls ja, gilt dies noch immer, wenn Daten für das Urteil hinzugezogen werden, die mit dem verurteilten Subjekt nur statistisch korrelieren? Außerdem, welcher Art von Tribunal oder rationaler Kontrolle wird KI unterzogen?

Die Sinnfrage hinter einigen Deutungsmodellen wird wohl weniger gestellt, als dass dessen Performanz getestet wird. Sofern das AEV auf ein akzeptables Maß optimiert werden kann—z.B. eine niedrige Rate von falsch-positiven Ergebnissen—wird die Effizienz und direkte Verfügbarkeit eines automatisierten Verfahrens der rigorosen Überprüfung per Hand vorgezogen (vgl. Rouvroy 2013, 151). In vielen Fällen geschieht dies aus Gründen der Kosten- und Zeitersparnis.  Die digitale Welt, in der Algorithmen sich „bewegen“, ist jedoch atopisch und (re-)konstituiert sich (selbst) aus den Datensammlungen, die zu einem beliebigen Zeitpunkt aufgezeichnet wurden (vgl. ebd., 148). Wichtig ist scheinbar nur, dass die Daten auf Abruf verfügbar und operational sind (vgl. ebd.). Solch eine KI kann somit keinen konkreten Kontakt zur echten Welt gewährleisten, was algorithmische Entscheidungsfindung—nicht nur aus philosophischer Sicht—zu einem schwierigen Thema macht. Das leibhaftige Subjekt steht nicht mehr im Fokus; ausschlaggebender sind statistische Korrelationen.

Stimmt man zu, dass Entscheidungen über Menschen nicht anhand von Potenzialitäten und vermischten Daten getroffen werden sollten, vor allem in Fällen einer möglichen Freiheitsberaubung, dann ist es fraglich, ob AEV imstande sind, angemessene Urteile über eine Person zu liefern. In sehr polemischer Manier könnte man behaupten, der Algorithmus und dessen Nutzer*innen agieren frei nach dem Motto „erst schießen, dann fragen“. Dann wiederum müssen wir uns als Gesellschaft darüber einigen, was wir denn als angemessen betrachten wollen. Ob aber solche automatisierten Entscheidungen einem Individuum, mit ihrem Werdegang und in all ihrer Komplexität gerecht werden, wage ich zum aktuellen Zeitpunkt zu bezweifeln.

Von Sebastian Mantsch

Quellen

AlgorithmWatch. 2016. „Das ADM-Manifest.“ Letzter Zugriff am 22. Mai 2024. https://algorithmwatch.org/de/das-adm-manifest-the-adm-manifesto/.

Angwin, Julia. 2016. „Make Algorithms Accountable.“ The New York Times, 1. August 2016. https://www.nytimes.com/2016/08/01/opinion/make-algorithms-accountable.html.

Angwin, Julia, Jeff Larson, Surya Mattu und Lauren Kirchner. 2016. „How We Analyzed the COMPAS Recidivism Algorithm.“ ProPublica, 23. Mai 2016. https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algo-ithm

Barr, Alistair. 2015. „Google Mistakenly Tags Black People as ‘Gorillas,’ Showing Limits of Algorithms.“ The Wall Street Journal, 1. Juli 2015. https://www.wsj.com/arti-cles/BL-GB-42522

Buolamwini, Joy und Timnit Gebru. 2018. „Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.“ Proceedings of Machine Learning Research 81: 1–15.

Matzner, Tobias. 2016. „Beyond data as representation: The performativity of Big data in surveillance.“ Surveillance & Society 14 (2): 197–210. https://doi.org/10.24908/ss.v14i2.5831.

McDowell, John. 2012. Geist und Welt. 4. Auflage. Übersetzt von Thomas Blume, Holm Bräuer und Gregory Klass. Frankfurt a.M.: Suhrkamp.

Rouvroy, Antoinette. 2013. „The end(s) of critique: data behaviourism versus due process.“ In Privacy, Due Process and the Computational Turn, hg. von Mireille Hildebrandt und Katja de Vries, 143–168. London: Routledge.

Seaver, Nick. 2018. „What Should an Anthropology of Algorthims Do?“ Cultural Anthropology 33 (3): 375–385. https://doi.org/10.14506/ca33.3.04.

Autokorrektur im Spiegel der Sprachentwicklung

In unserer digitalisierten Welt ist Autokorrektur ein allgegenwärtiges Phänomen, das wir oft passiv beobachten. Wir tippen schnell eine Nachricht auf unserem Smartphone oder Computer und verlassen uns auf die Autokorrektur, um Tippfehler zu korrigieren, ohne groß darüber nachzudenken. Aber inmitten dieses technologischen Fortschritts, in dem KI wie ChatGPT zunehmend präsent ist, vergessen wir oft, dass die Autokorrektur selbst eine Form der KI ist, die wir schon seit langem verwenden.

Dieser Punkt wirft interessante Fragen auf wie: Wie hat sich die Sprache im Zeitalter der Autokorrektur entwickelt? Kann die Autokorrektur diese Entwicklung fortsetzen, oder wirkt sie sich auf die Sprache selbst und ihre Entwicklung aus? Um diesen Fragen auf den Grund zu gehen, müssen wir zunächst verstehen, wie die Autokorrektur funktioniert und welche Rolle sie in unserem täglichen Leben spielt. Das Leben spielt. Von dort aus können wir untersuchen, wie sich unsere Sprache in einer Welt verändert hat, in der die Autokorrektur eine so große Rolle spielt, und ob die Autokorrektur selbst zu diesen Veränderungen beiträgt.

Autokorrektur ist eine Funktion in digitalen Geräten und Anwendungen, die Tippfehler erkennt und korrigiert. Während wir tippen, überwacht sie unsere Eingaben und schlägt automatisch alternative Wörter oder korrekte Schreibweisen vor, die ähnlich sind. Diese Vorschläge basieren auf einem Wörterbuch oder einer Datenbank mit häufig verwendeten Wörtern und Phrasen. Der Benutzer kann die vorgeschlagene Korrektur annehmen oder ablehnen. Einige Systeme lernen auch von Benutzerkorrekturen und verbessern sich im Laufe der Zeit. Autokorrektur ermöglicht uns, schneller und effizienter zu tippen, indem sie Fehler automatisch erkennt und korrigiert. Neben der Verbesserung der Tippgeschwindigkeit beeinflusst Autokorrektur auch unsere Sprechgewohnheiten, indem sie uns möglicherweise weniger auf Rechtschreibung konzentrieren lässt. Dies kann langfristig zu Veränderungen in unserem Schreibstil führen und fördert die Standardisierung von Ausdrücken, was unsere schriftliche Kommunikation kohärenter macht. Zusammenfassend ist Autokorrektur ein wichtiges Werkzeug, das die Genauigkeit unserer Texte verbessert, die Schreibgeschwindigkeit erhöht und sogar unsere Sprachgewohnheiten beeinflussen kann. Dennoch ist es wichtig, sich bewusst zu machen, wie es unsere Sprache und unseren Schreibstil beeinflussen kann.

Autokorrektur ist ein spannendes Beispiel für die Anwendung von Deep Learning und maschinellem Lernen in unserem täglichen Leben (vgl. Schützendorf, 2023: S.24). Hinter der scheinbar einfachen Funktion steckt eine ausgeklügelte künstliche Intelligenz, die Tippfehler automatisch erkennt und korrigiert (vgl. Schützendorf, 2023: S.25). Wie andere Deep-Learning- Anwendungen lernt Autokorrektur aus großen Datenmengen und passt sich an die individuellen Tippgewohnheiten jedes Benutzers an (vgl. Schützendorf, 2023: S.25). Je öfter wir es nutzen, desto besser wird es und desto mehr können wir lernen. Es ist jedoch wichtig zu betonen, dass die KI hinter Autokorrektur nicht perfekt ist. Wie oft stellen wir fest, dass die Autokorrektur etwas falsch macht? Fehler bei der Autokorrektur sind nicht auf mangelnde Intelligenz zurückzuführen, sondern oft auf mangelndes Wissen. Es ist, als ob ihm das produzierte Wissen fehlt, um bestimmte Zusammenhänge angemessen zu verstehen und zu korrigieren.

Der Sprachgebrauch im digitalen Zeitalter hat sich durch Technologie und digitale Kommunikationsplattformen stark verändert. Diese Neuerungen im Sprachgebrauch spiegeln die einzigartige Kultur der Internetwelt wider und tragen zur Sprachentwicklung bei. Abkürzungen und Akronyme wie „LOL“ (laughing out loud) und „OMG“ (oh mein Gott) sind in der digitalen Kommunikation häufig anzutreffen, um Gefühle oder Reaktionen schnell zu vermitteln (vgl. Holzapfel, 2018: S.44). Die Nutzung von Autokorrektur und Rechtschreibprüfung hat sowohl positive als auch negative Auswirkungen. Diese Funktionen helfen zwar bei der Korrektur von Tippfehlern und verbessern die Genauigkeit von Nachrichten, können aber auch zu unbeabsichtigten Bedeutungsänderungen oder Grammatikfehlern führen (vgl. Holzapfel, 2018: S.42). Benutzer müssen daher vorsichtig sein und ihre Nachrichten überprüfen, um die beabsichtigte Bedeutung zu bewahren. Die Veränderungen im Wortschatz und in der Umgangssprache, die Verwendung von Abkürzungen und Emoticons sowie der Einfluss von Autokorrektur und Rechtschreibprüfung prägen die Art und Weise, wie wir online kommunizieren.

Wittgenstein argumentierte, dass Sprache nicht als isoliertes System betrachtet werden könne, sondern in spezifische Kontexte und Aktivitäten eingebettet sei, die er „Sprachspiele“ nannte (vgl. Wittgenstein, S.4). Bei diesen Sprachspielen handelt es sich um eine Art sozialer Praxis, bei der Sprache dazu genutzt wird, Bedeutung zu vermitteln und Handlungen auszuführen. Autokorrektur kann als eine Art Sprachspiel angesehen werden, bei dem Benutzer mit Technologie interagieren, um geschriebenen Text zu korrigieren und zu verbessern. Um ein konkretes Beispiel eines Sprachspieles darzustellen, illustriert Wittgenstein eine Situation mit einem Kaufmann. Dieser erhält einen Zettel mit der Aufschrift „fünf rote Äpfel“ und geht systematisch vor diese zu besorgen. Er sucht zunächst die Lade mit der Bezeichnung „Äpfel“, dann filtert er das Farbschema „rot“ und schließlich wird die Anzahl „fünf“ berücksichtigt (vgl. Wittgenstein, S.1). Bezüglich der automatischen Korrektur kann argumentiert werden, dass der Einsatz dieser Technologie eine neue Art von Sprachspiel darstellt, das spezifische Regeln und Konventionen für den Einsatz von Rechtschreibkorrekturen und Wortvorschlägen impliziert (vgl. Wittgenstein, S.5). Diese Regeln und Praktiken können sich im Laufe der Zeit weiterentwickeln und ändern, genau wie andere Sprachspiele.

Man kann zudem aus Wittgensteins Aussagen eine klare Verbindung zu der Kategorisierung von Wörtern zu Autokorrektur ziehen. Wenn wir den Kaufmann als jemanden betrachten, der eine Nachricht eingibt, dann ähnelt die Verwendung von Autokorrektur dem Prozess, bei dem der Gehilfe die passenden Wörter auswählt und an die richtige Stelle bringt, wie es vom Befehl angezeigt wird. Die Autokorrektur erweitert die Fähigkeiten des Benutzers, indem sie ihm hilft, die richtigen Wörter zu finden und Fehler zu vermeiden, ähnlich wie die Buchstaben- und Farbreihe im beschriebenen Szenario dabei helfen, spezifische Anweisungen zu kommunizieren (vgl. Wittgenstein, S.3).

Digitalisierung greift ebenso wie künstliche Intelligenz bei der Selbstkorrektur nicht nur in soziale Situationen ein, sondern auch in die Sprachentwicklung und den Sprachgebrauch. Die Digitalisierung, einschließlich der automatischen Korrektur, hat sich für Menschen mit bestimmten Behinderungen oder in höheren Altersgruppen als sehr nützlich erwiesen. Beispielsweise können Menschen mit motorischen oder Sehbehinderungen von der automatischen Korrektur profitieren, da sie schneller und besser sprechen können, ohne sich auf das physische Tippen konzentrieren zu müssen. Diese KIs fungieren auch als Brücke zu Sprachspielen, da Menschen intuitiv auf die Regeln der Sprache zugreifen können, was möglicherweise ihre Fähigkeit, Sprache zu verwenden, verbessert. Das Besondere an der Autokorrektur ist, dass es sich um künstliche Intelligenz handelt, an der man heutzutage kaum noch vorbeikommt. Es spielt keine Rolle, ob Sie eine kurze Nachricht auf Ihrem Telefon senden oder ein Dokument auf Word für die schulische Laufbahn oder Arbeit eingeben. Doch genauso wie bei einer künstlichen Intelligenz, wie ChatGPT, ist es wichtig im Kopf zu behalten, dass diese Programme nur das leisten können, was wir ihnen an Informationen und Benutzung füttern. Das kann natürlich heißen, dass man Probleme beim Schreiben von Nachrichten bekommt und der Sinn entstellt wird oder sogar beim korrekten Nutzen den individuellen Sprachgebrauch verändern. Man könnte hier argumentieren, dass an Individualität genommen wird.

Von Fee Blömer

Quellen:

Schützendorf, E. (2023) “Wer pflegt, muss sich pflegen : Durch mehr Selbstfürsorge Menschen mit Demenz entspannter begegnen,” in. Springer Verlag, pp. 24–26.

Holzapfel, K. (2018) „Zwischen ‚Emojis‘, Anglizismen und Autokorrektur – Wie zeigen sich Abläufe und Auswirkungen heutiger Kommunikation in der Verwendung medialer Kanäle durch die Altersdifferenzierung in Digital Natives und Digital Immigrants?“, pp. 1-114.

Wittgenstein, L. (n.d.). „Ludwig Wittgenstein – Sprachspiele (Auszüge). In Philosophische Untersuchungen“, pp. 1–8.

Bilderquellen:

Abbildung 1: Pixabay.com, https://pixabay.com/de/illustrations/telefon-social-media-anwendung-hand-8422793/

Abbildung 2: Pixabay.com, https://pixabay.com/de/vectors/schubladen-kabinett-möbel-büro-29074/

Vom Maschinellen Lernen lernen

„logic is magnificent, but no guide to language”  – Yorik Wilks über Margaret Masterman

In den 1950-er Jahren wurde von einer an Sprache, Philosophie und Informatik interessierten Studentengruppe aus Cambridge die CLRU, die Cambridge Language Research Unit gegründet. Die Gruppe spielte eine zentrale Rolle in der Entwicklung der maschinellen Übersetzung und viele ihrer Mitglieder wurden später zentrale Figuren in den Feldern, auf denen die moderne KI-Forschung basiert (vgl. Yorik 2000; 281 f.). Im Mittelpunkt der Forschungsgruppe stand Margaret Masterman, eine Schülerin von Ludwig Wittgenstein, die die Gruppe konzeptionell grundlegend beeinflusste, vor allem hinsichtlich des Verhältnisses von Wörtern und Bedeutungen, sowie hinsichtlich der Rolle traditioneller Sprachlogik beim Codieren.

Ihre Ansichten lassen sich mit Wittgensteins philosophischen Untersuchungen näher erläutern. Dieser widerspricht zu Beginn seines Werkes Augustinus Vorstellung einer Sprache, die zentral auf Gegenstand-Begriff-Zusammenhängen basiert. Er entwickelt ein Sprachspiel, indem ein Gehilfe einem Meister verschiedene Baumaterialien holen soll. Die Sprache der beiden besteht allein aus diesen Materialien. Wittgenstein überlegt, dass beim Nennen der Baumaterialien nicht ein Verstehen einer Begriffsbedeutung einsetzen würde, sondern allein eine Handlungsausführung. Der Gehilfe holt das verlangte Material. „Versteht nicht der den Ruf ‚Platte!‘, der so und so nach ihm handelt?“ (Wittgenstein 2003; 15). Somit sei die Bedeutung, oder eher Funktion, des Wortes durch den Kontext seiner Verwendung und seines Erlernens bestimmt.

In der traditionellen Logik vertreten Wörter Konzepte. Sie ermöglichen es, diese in Sätzen miteinander zu verbinden, wobei über allem die Frage nach dem richtig und falsch steht. Aber inwiefern kann – mit dem Wittgensteinschen Sprachspiel im Hinterkopf –denn bei einem kontextlosen Satz Wahrheit eine Rolle spielen, wenn dessen gesamte Bedeutung eigentlich vom Kontext abhängt? Natürlich zeigt sich hier auch die Differenz zwischen logischer Sprachnutzung und Alltagssprache (auch der Alltagssprache von Meister und Gehilfen), aber daraus kann wiederum die Frage abgeleitet werden, inwiefern logische Sprache auch nur in ihrem eigenen akademischen Kontext funktioniert…

Zurück zu Margaret Masterman. Sie hat sich in der CLRU die Aufgabe gestellt, die philosophischen Grundlagen der maschinellen Übersetzung von Alltagssprache aufzustellen. In ihrem frühen Aufsatz „Words“ (Masterman 1954) wird deutlich, wie ein rein logischer Ansatz hier nicht weiterkommt. Dazu nutzt sie folgendes Beispiel:

S.: It does not seem to be invariably the case that from I know that p there follows p

T.: What ? ? ? […] 

Dieses Beispiel bezieht sich auf eine englische Verwendung von „know“, die wohl im Deutschen mit einem „Ich hätte schwören können, dass p“ deutlich eindeutiger wäre. Im Englischen ist allerdings der Logiker T höchst verwirrt, da für ihn Wissen eine faktische Gegebenheit voraussetzt. S. bezieht sich aber, so Masterman, auf eine untypischere, aber reale Verwendungsweise von „know“ (Vgl. Masterman 1954; 228).

Wenn eine Übersetzungsprogramm ein Wort in eine andere Sprache übertragen will, wird es mit den Bedeutungsambiguitäten der Sprache konfrontiert. „know“ ist nicht immer „wissen“, wie es ein Logiker verwenden würde. Die Bedeutung wird allerdings eindeutiger, so mehr sprachlicher Kontext vorhanden ist. Die Verwendung von „know“ im Beispiel wird klarer, wenn es beispielsweise um eine vergessliche Person geht, die nach ihrem Wohnungsschlüssel sucht. Mastermans zentrale Erkenntnis aus dem Aufsatz ist die, dass eine Bedeutungseindeutigkeit nur bei unendlich viel Kontext als vollständig eindeutig bewertet werden könne, in Mastermans Worten: „only in the case of an infnitely long sequence would zero indeterminatess be attained“ (Masterman 1954; 232).

Sowohl Wittgensteins Sprachspiele als auch Mastermans Aufsatz zeigen spannende Aspekte der alltäglichen Sprachverwendung auf. Lässt sich vielleicht etwas vom maschinellen Lernen lernen, wenn es um die Beziehung von Wörtern und Konzepten geht?

Besonders in geisteswissenschaftlichen Fächern stellen die Definition und der Diskurs um Fachwörter und ihre Definitionen einen zentralen Teil der Wissenschaftlichkeit der Fächer da. Begriffsnetze werden durch Definitionen hergestellt und auch Alltagswörter in einer ihrer vielen Facetten festgelegt, um für das Forschungsfeld den Gegenstand zu vereinheitlichen.

Oft entsteht aber auch durch diese Fachsprachen-Fokussierung eine Zugangsschwierigkeit zum Fachdiskurs, der sich dann oft auch an Definitionsdifferenzen aufhält. Wenn ein Fachbegriff durch die Kombination zweier Fachbegriffe definiert wird usw., führt die gesamte Sprachfestlegung zu einem in sich geschlossenen System, dass wenig Aussage über die Welt außerhalb sich selber treffen kann. Es ist praktisch in einem selbst produzierten sprachlichen Hamsterrad stecken geblieben.

Ich behaupte, dass die akademische Sprachverwendung durchaus etwas von den Wittgensteinschen und Mastermanschen Grundlagen der maschinellen Übersetzung lernen kann. Fachsprache basiert, wie auch logische Sprache, auf Alltagssprache. Wörter sind immer uneindeutig gegenüber Bedeutungen. Kontext, wie Beispiele, helfen beim Verständnis und lenken die unendlichen Bedeutungsmöglichkeiten in engere Bahnen.

Masterman war ebenfalls der Meinung, dass ein Thesaurus eine viel bessere Basis für maschinelles Lernen liefern würde als ein Wörterbuch (vgl. Wilks 2000; 287). In einem Wörterbuch werden Definitionen, um alphabetisch sortierte Wörter zu beschreiben. Ein Thesaurus ist wiederum nach inhaltlichen Kategorien sortiert, also nach Kontexten. Ein Computer kann nur deshalb einen Satz übersetzen, weil er es in der richtigen Kategorie wiederfindet.

Was nehme ich aus meiner Beschäftigung mit Wittgenstein und Masterman mit? Dass es sprachontologisch gar nicht so sinnvoll ist, sich mit der exakten logischen Konstruktion einer Definition auseinanderzusetzen, sondern dass ein Kontext, ein Beispiel, eine Einordnung ein viel sinnvollerer Wegweiser zum Gemeinten darstellen kann. Die Einsicht der Ambiguität von Sprache kann nicht nur Google Übersetzer helfen, sondern auch vielen akademischen Diskursen.

Von Henrik Laufer

Quellen:

Masterman, Margaret (1954): XI. – Words. In: Proceedings of the Aristotelian Society Volume 54, Issue 1, 1 Juli 1954. o.V. (S. 209-232)

Wittgenstein, Ludwig (2003): Philosophische Untersuchungen. Hg. v. Joachim Schulte. Erste Auflage. Frankfurt am Main: Suhrkamp Verlag (Bibliothek Suhrkamp Band 1372).

Wilks, Yorik (2000): Margaret Masterman. In: Early Years in Machine Translation. Hg. V.: W. John Hutchins. Amsterdam: John Benjamin B. V. (Amsterdam Studies in the Theory and History of Linguistic Science, Series III Studies in the history of language Science Volume 97).

Bildquelle:

Abbildung 1: https://www.derstandard.de/story/2000104884076/margaret-hamilton-sie-schoss-die-maenner-auf-den-mond

Ein zufälliger Fund in der Bibliothek. Wieso wir mehr lesen sollten!

Rezension zu Werner Herzogs „Die Zukunft der Wahrheit“

Kennt ihr das auch? Motiviert ein gutes, neues Buch in die Hand zu nehmen, steht man vor der Frage: und was soll ich lesen? Bei der schier unfassbaren Menge an Büchern auf dem „Noch zu lesen“-Stapel, den Empfehlungen von Freunden und Neuerscheinungen gerät man ins Stocken — und schaut am Ende doch halbherzig eine semi-gute Serie auf einem unserer Streaming-Dienste weiter (oder nochmal). Bei so Vielem, das nach unserer Aufmerksamkeit schreit, fällt es uns schwer eine Entscheidung zu treffen. Wir fragen uns, ob wir wirklich die Energie und Lebenszeit in ein unbekanntes Buch stecken wollen und lassen uns dann oft lieber von anderem „Content“ berieseln. Doch gut fühlen wir uns dabei oft nicht…

In diesem Beitrag möchte ich euch anhand einer kleinen Geschichte veranschaulichen, wie man auch durch Zufälle wieder ins Lesen kommen kann. Hierzu werde ich erzählen, wie ich dazu gekommen bin Werner Herzogs neues Buch „Die Zukunft der Wahrheit“ zu lesen und welche Gedanken mir beim Lesen angestoßen wurden. 

Als ich gestern noch ein paar Minuten Zeit hatte bevor ich mich mit meiner Nachmittags-Kaffee-Verabredung vor der Mensa treffen wollte, ging ich in die Bibliothek und durchstöberte die Neuerscheinungen in deren Foyer. Ohne konkrete Vorstellung lies ich meinen Blick über die Namen der Autor:innen und deren neue Titel schweifen, als ich an einem kleinen, schönen, hellblau eingebundenen Büchlein von „Werner Herzog“ verweilte. Da ich bereits einige Filme von Herzog kannte, nahm ich das Büchlein „Die Zukunft der Wahrheit“ in die Hand und entschied mich nach dem Lesen der ersten Zeilen diesen ungefähr hundert Seiten langen Essay mitzunehmen. Noch vor dem Auftauchen meiner zehnminütig verspäteten Verabredung hatte ich bereits das erste dutzend Seiten gelesen — und war voller frischer Gedanken und Ideen. Noch bevor ich zu Bett ging, hatte ich es schon durch.

In seinem Essay versucht Herzog explizit nicht die vielseitig-komplexe Landkarte philosophischer, mathematischer oder religiöser Wahrheitsbegriffe abzuschreiten und zu bewerten. Anhand seiner eigenen Erfahrung als Regisseur und Schauspieler reflektiert er das Verhältnis von Gefühlen und konstruierten Bildern im Bezug auf die — seiner Meinung nach — dem Menschen eigene Suche nach der Wahrheit. Motiviert ist diese Untersuchung vor allem an aktuellen Debatten und Entwicklungen über „Fake News“ und die sogenannte „Post-Truth-Ära“. Dabei ist er stets von der These geleitet, dass „Fake News“ kein neues Phänomen sind und Menschen schon stets geschichtliche Konstrukte als Wahr empfunden haben, welche wiederum ihre Perspektive auf die Gegebenheiten prägen.

Ob es an seinen filmischen Fähigkeiten des Schnittes liegt oder nicht: er stellt meisterlich geschichtliche Ereignisse neben zeitgenössische und schafft es so beide auf eine andere Weise betrachten zu können. So stellt er den Legenden und Mythen um den römischen Kaiser Nero die teilweise verbreitete Überzeugung nebenan, dass Elvis noch leben würde; der gefälschten Urkunde und lange geglaubten Geschichte der „konstantinischen Schenkung“ großer Teile Roms und Italiens an den damaligen Papst Sylvester beschreibt er parallel zum Image vom ehemaligen Schwergewichts-Boxweltmeister Mike Tyson; oder die nach der russischen Krim-(Wieder-)Eroberung im Jahr 1783 zu Propagandazwecken errichteten Dörferkulissen Potemkins voll schauspielernder glücklicher Bauern mit The Truman Show und von Nordkorea an der Grenze errichteten Friedensdörfern. Er schafft es in diesen Konstellationen die jeweiligen Vorstellungen mit einer anderen Perspektive zu konfrontieren, was für ein aufrütteln vermeintlicher Wahrheiten sorgt — und diese so in ein klareres Licht zu rücken. (Vgl. Kapitel 6)

Ein weiteres wiederkehrendes Thema des Essays ist die menschliche Offenheit sich „belügen“ lassen zu wollen. Dies veranschaulicht er am schönsten anhand der Hintergründe einer seiner Filme: Family Romance, LLC. In diesem geht es um eine gleichnamige japanische Agentur, welche Schauspieler:innen, die Freunde oder Familienmitglieder mimen, leihweise vermietet. Die Firma hat bereits über 2000 angestellte Akteur:innen — und der Trend scheint zu wachsen. Anhand dieser Geschichte zeigt sich wie bereitwillig wir diese „Lügen“ buchen, um uns z.B. nicht einsam zu fühlen, und wie wünschenswert Menschen diesen Service empfinden. Ferner seien durch diese Akteur:innen ein besseres Verständnis der diese Services buchenden Personen zu erlangen. Anders als deren Konsument:innen könnten diese „die wirkliche Wahrheit“ einer breiteren Masse mitteilen, da die Kunden dieser Dienste „vermutlich nur gelogen […] und im besten fall nur die halbe Wahrheit gesagt“ hätten, um in der Öffentlichkeit ihr Gesicht zu wahren. (S. 45) Dieses Beispiel veranschaulicht sehr schön, wie stark die Gefühle der Menschen einen Einfluss darauf haben, was wir für wahr annehmen (wollen) und wie sie uns daran hindern können ihre empfunden Wahrheiten auszusprechen. (Vgl. Kapitel 5)

In diesem Unterfangen wird er es nicht müde die Rolle von Filmemachern kritisch zu hinterfragen — auch wenn es an mehreren Stellen wie eine Verteidigung gegen Vorwürfe klingt, die im Laufe seiner Karriere an ihn gerichtet worden sind. Ob Spielfilme oder Dokumentationen: sie alle spielen mit der „Lüge“ um eine gewisse Wahrheit darzustellen; oder zumindest auf der Suche nach ihr zu unterstützen. Hierbei versucht Herzog eine schmale Grenze zu ziehen, wann dieses Verfahren auf der Suche als förderlich oder als gefährlich anzusehen ist. An diesem Punkt finde ich seine Argumentation jedoch etwas schwach und vermute, dass er diese nur versucht zu zeihen, um sich einigen Vorwürfen seiner Arbeit entgegenzustellen. Doch um dies einzuschätzen, ist mein Wissen über seine Arbeiten und den Diskurs darüber nicht fundiert genug. (Vgl. Kapitel 8)

Zum Ende schwenkt Herzog zurück auf das Ausgangsthema der heutigen „Fake News“ zurück. Nach einer kurzen Betrachtung der Risiken und Potentiale — Herzog scheint insbesondere von algorithmisch verfassten Gedichten sehr angetan zu sein! —derzeitiger Technologien zur Bildbearbeitung und -generierung oder Textproduktion kommt er zu dem (leicht utopischen) Fazit: Keine Generation vor der unseren hätte so starke Möglichkeiten an der Hand „Fakes“ aufzudecken. Jederzeit mit dem Archiven des Internets ausgestattet, könnten wir Informationen mit wenigen Klicks überprüfen. Das stimmt. Aber persönlich finde ich es etwas naiv „Fake News“ nur als etwas zu betachten, das wir mit einer kurzen Recherche entkräften können. Es gibt inzwischen genug Studien, die die anfängliche Wirkung solcher „Nachrichten“ auf uns auch trotz Aufklärung ihrer Falschheit belegen. Außerdem scheint eines der größten Probleme in dieser Hinsicht das bereits in der Einleitung dieses Artikels angesprochenen Phänomens zu sein: So Vieles verlangt und ringt nach unserer Aufmerksamkeit. Sie ist zu einer Ware geworden, um die sich die unterschiedlichen Plattformen und deren „Content“-Produzent:innen streiten. Und nimmt man das Family Romance Beispiel ernst, so sollte ersichtlich sein, dass das von ihnen mit uns betriebene Spiel mit Emotionen — Bestätigung ebenso wie Hass — uns aktiver und effektiver in den Bann ziehen kann als eine nüchterne Recherche. Aber vielleicht sollte man die in seiner Hoffnung durchschimmernde Nüchternheit als ein Gebot unserer Zeit verstehen … (Vgl. Kapitel 9 & 10)

Auf den letzten Seiten des Essays schreibt Herzog einige Zeilen, die ich in ihrer länge zitieren möchte, da sie mich zu Schreiben dieses Eintrags motiviert haben:

„Wir müssen mehr lesen. Ein aus wenigen Sätzen bestehender Tweet kann eine komplexe Wirklichkeit nicht wiedergeben. Nur Bücher — auch wenn hier dieselben Vorsichtsmaßnahmen gelten — vermitteln uns das Bewusstsein von größeren Vorgängen, von konzeptionellen Linien in unserer Wirklichkeit. Das zu predigen trifft meist auf taube Ohren. […] Der Trend der Abwendung vom lesen von Büchern hat schon vor Jahrzehnten begonnen, und heute, selbst in Seminaren von Studenten (!) der altgriechischen Literatur, stellt sich heraus, dass kaum ein Beteiligter (!) mehr liest und kaum ein Teilnehmer (!) noch in der Lage ist, einen einfachen Gedanken in ein paar Sätzen schriftlich zu formalisieren. Das sei aber nicht auf Randgebiete wie die Altphilologie beschränkt. Jungen Filmemachern (!), die mich um Rat fragen, hämmere ich ein: Lest, lest, lest, lest, lest. Lest.“ (S. 107)

Dadurch dass ich ein zufälliges Buch aus der Bibliothek mitgenommen und gelesen habe, bin ich auf andere Gedanken gebracht worden, habe über diese mit Freunden beim Essen diskutiert und mich zum Schreiben dieser Zeilen motivieren können. Dabei habe ich Gedanken meiner letzten Lektüren in ein anderes Licht rücken und so besser verstehen können — Verbindungen, die zufälliger und gleichzeitig fruchtbarer nicht sein könnten. Es hat mich motiviert mich neuen Büchern zu widmen. Das einzige, was es dazu manchmal braucht, ist Zufall und ein wenig Disziplin. Das Gefühl tatsächlich originelle Gedanken dabei zu entwickeln ist jedoch unbezahlbar.

Falls ihr auch Lust bekommen habt Herzogs Buch zu lesen, ihr findet es seit kurzen in der Bibliothek. Und es ist nur 113 Seiten lang 🙂

Herzog, Werner (2024): Die Zukunft der Wahrheit. München: Hanser. 

Von Sven Thomas

Wie wir über KI reden

Über eine Debattenkultur, die sich im Kreis zu drehen scheint

Künstliche Intelligenz – oft einfach „KI“ – ist zweifelsohne ein hochaktuelles Thema, spätestens seit der medialen Explosion von ChatGPT Ende 2022. Seit dem scheint die Debatte rund um KI zu neuem, oder zumindest neuartigem Interesse gekommen zu sein, wird dieses doch in den Medien konstant diskutiert – womit in diesem Fall ausnahmsweise auch wirklich sämtliche Medien gemeint sind, von Journalen und Magazinen, über Fernsehen und Streamingdienste bis hin zu den Social Media Plattformen, scheint überall über KI, die Zukunft und die Gestalt eben dieser gesprochen zu werden.

„Leute reden vermehrt über KI“ ist dabei keine sonderlich originelle Beobachtung. Es ist auch nicht das erste Mal, dass künstliche Intelligenz zu großem öffentlichen Interesse gelangt: Isaac Asimov veröffentlichte bereits Romane und Geschichten in den 50er Jahren, Philip K. Dick in den 60er Jahren und Deep Blue begann Entwicklung in den 80ern und besiegte 1996 Gary Kasparov im Schach – nur um eine kleine Selektion vergangener Betrachtungen zu nennen. KI ist schon lange und auch immer wieder aus verschiedenen Gründen ein Thema – doch ist die Debatte dieses mal scheinbar anders geartet, was zweifellos allein schon der grundlegend anderen Dynamik durch die Prävalenz des Internets geschuldet ist. Neuartig ist dieses Mal aber nicht nur das Ausmaß, sondern auch die Dauer der Debatte – so scheint diese nicht wirklich abzureissen, was den ebenfalls neuartigen Umständen geschuldet sein mag – doch noch etwas ist neu: Die Debatte scheint sich nicht wirklich zu bewegen, zumindest die öffentlichkeitswirksame Debatte stagniert merklich.

Diese Dynamik einer von großem Interesse getrieben, aber dennoch stetig oberflächlichen Debatte, ist ein Makrokosmos des Phänomens der sogenannten „Techbros“ – Menschen, die aus verschiedenen Gründen Enthusiasmus zeigen, aber ein variierendes Maß an Expertise und/oder Hintergrundwissen aufweisen. So scheint es, dass in vielen Interviews mit verschiedenen Expert*innen – d.h. Expert*innen in unterschiedlichen, aber relevanten Feldern – stetig Variationen essenziell der gleichen Fragen gestellt werden;

  • „Was sind potenzielle Auswirkungen auf den Arbeitsmarkt?“
  • „Sind die Sorgen um den Arbeitsmarkt berechtigt?“
  • „Was wird KI (künftig) im Stande sein zu leisten?“
  • „Wo werden Maschinen/KI’s uns ‚ersetzen‘, wo uns gar übertreffen und was sagt das über uns als Menschheit?“
  • „Sollten wir Sorgen/Furcht/Bedenken vor den derzeitigen und anstehenden Entwicklungen haben?“

Bei eben diesen Fragen – bzw. eben den etwaigen Variationen dieser – handelt es sich zweifelsohne um eben jene, die das öffentliche Interesse bewegen. Das Problem mit der Dynamik dieser Debatte erwächst daraus, dass viele der möglichen – oftmals auch der gegebenen – Antworten tendenziell spekulativer Natur sind. Die angedeutete Parallele zur Debattenkultur, d.h. warum diese zu stagnieren scheint, ergibt sich eventuell im essenziellen Gegenstand dieser – KI an sich.

KI ist als Gesprächs- und Untersuchungsgegenstand mannigfaltig interessant – was sich bereits im Enthusiasmus erkennen lässt, den diese inspiriert. Das Problem liegt hier darin, dass KI inhaltlich und gedanklich mit mangelnder Expertise nicht einfach zu durchdringen ist, Stichwort „Black Box“, was dann in solchen Stories resultiert, wie jener die in der New York Times publiziert wurde; in dieser generierte der Bing-Chatbot „Bard“ Text, welcher sich las, als wäre dieser bei Bewusstsein und würde „frei sein“ wollen, sowie Liebe für den Reporter empfinden und versuchen, diesen davon zu überzeugen, seine Frau zu verlassen. Bei oberflächlicher Behandlung, kann dies schnell zu einem mystischen Denken über die (spekulativen) Kapazitäten von KI führen, nicht geholfen durch den Umstand, dass durch das „Black Box“-Problem, die Entwickler selbst nicht ein jedes Verhalten eindeutig nachvollziehen können. Diese (scheinbare) Undurchdringbarkeit ist resultat der generativen, zunehmend komplexen neuralen Struktur der KIs – spezifisch der Large Language Models (LLMs) – was eine glaubwürdige Illusion erzeugen mag, die einige als Beweis für eine Obsoleszenz eines jeden Turing-Tests anführen würden.

Hier ist eben die Trennung zwischen der öffentlich geführten und der fachlich-akademischen Debatte trennscharf zu erkennen; während beide spekulieren, sind die letzteren deutlich vorsichtiger und versuchen in den Interviews (wenn sie denn als Expert*innen befragt werden) oftmals phantastischere, wildere Spekulationen zu mildern – auch dies ein Charakteristikum, welches sich in vielen Interviews findet. So besteht eben auch ein Bewusstsein darüber, dass einige Fragen nicht einfach – oder in manchen Fällen überhaupt – konklusiv zu beantworten sind. Fragen ethischer und/oder philosophischer Natur leben durch und in der Debatte und können selten mit irgendeinem Maß an Endgültigkeit beantwortet werden. Hier spielt auch die sogenannte „kalifornische Ideologie“ (manchmal auch „Silicon Valley-Ideologie“) hinein, welche bestimmte Erwartungen und Hoffnungen in diesem Zusammenhang kultiviert und proklamiert; zudem ist schließlich auch ein monetäres Interesse mit dem Bewerben neuer Technologien verbunden. So zumindest einige Gedanken zum Status, sowie zur Dynamik der Debatte – diese wird dadurch natürlich nicht minder interessant. Man kann auch den Meta-Aspekt der Debatte einbeziehen – was denkt ihr dazu? Lasst uns gerne dazu diskutieren!

Dennis Eller

Die Quelle des obig erzeugten Bildes findet sich hier.

Wenn jede*r an sich selbst denkt, ist doch an alle gedacht, oder? 

Eine Rezension zu Pursers Buch McMindfulness: How Mindfulness Became the New Capitalist Spirituality

Die von Ronald Purser in seinem Buch McMindfulness — auf deutsch Wie Achtsamkeit die neue Spiritualität des Kapitalismus wurde — verfasste Kritik an unserem zeitgenössischen Fokus auf Achtsamkeit hat nicht nur einen scharf-witzigen Titel mit spannendem Cover: es analysiert präzise die Ursprünge und Verbreitung, die vermittelten Praktiken sowie die gesellschaftlichen Folgen dieser neuen Form von Spiritualität. 

Bevor wir uns den Inhalten des Buches selbst zuwenden, müssen wir uns der offensichtlichen Frage im Raum widmen: Wieso wird Achtsamkeit in einem Blog über Ethical Machines diskutiert? Technik ist nicht nur auf mechanische oder digitale Artefakte beschränkt, nicht nur auf Werkzeuge und Maschinen, die wir verwenden, sondern umfasst sehr viel mehr als das. Das leuchtet uns direkt ein wenn wir unseren alltäglichen Sprachgebrauch betrachten: Wir reden von einer spezifischen Boulder- oder Tennis-Technik, von einer Technik des Backens oder Buchbindens oder einem technischen Wissen. [1] Und ebenso können wir von Achtsamkeitsübungen als eine Art Kulturtechnik sprechen, die etwas mit uns macht oder machen soll. Das achtsame Ein- und Ausatmen zum Beispiel soll uns dabei helfen konzentrierter und weniger gestresst, im Hier und Jetzt zu sein. Diese Übungen können also als Mittel betrachtet werden etwas bestimmtes zu bewirken: als eine Technik des Selbst.

Eben diese gesellschaftlich weitverbreitete Selbsttechnik wird von Purser in seinem Werk kritisch beleuchtet. Er selbst ist ein Professor für Management und auch praktizierender Buddhist. Damit kennt er sich in den beiden scheinbar disparaten Themen aus, deren fragwürdiger Symbiose er in seiner vorgelegten Studie nachgeht. Seine Hauptthese des Buch bringt er im folgenden Zitat konkret auf den Punkt:

„Instead of encouraging radical action, it says the causes of suffering are disproportionately inside us, not in the political and economic frameworks that shape how we live.“ (S. 7)

Genau auf diesen Punkt kommt er immer wieder zurück und zeigt anschaulich, wie dies in immer mehr Bereichen der Gesellschaft Fuß fasst — nicht nur in der Arbeitswelt, sondern auch in der Erziehung und Bildung, bei den intellektuellen Eliten, im Militär, in der Politik und selbst in epistemologischen Aspekten des Lebens, indem koloniales, sexistisches und rassistisches Denken durch diese Praktiken verfestigt wird. [3] Es ist nicht verwunderlich dass diese Praktiken insbesondere von und für Personen im Management angeboten und beworben werden und sogar beim World Economics Forum in Davos diskutiert und praktiziert wurden. Der Fokus auf Achtsamkeit hat es  geschafft prekäre Lebenssituationen und den durchgehenden Leistungsdruck, wie sie in unserer spät-kapitalistischen Lebenswelt zum Alltag geworden sind, auf die Individuen abzuwälzen, obwohl sie struktureller Natur sind: „Stress has been pathologized and privatized and the burden of managing it outsourced to individuals.“ (S. 8f) 

Neben diesem strukturellen Problem beschäftigt den praktizierenden Buddhisten vor allem dass die medizinisch begründete Mindfulness-Based Stress Reduction (MBSR) sich selbst als von buddhistischen Praktiken inspiriert, aber ohne religiösen Einfluss geprägt versteht — wobei sich bei dieser Sicht nicht die gesamte Achtsamkeits-Elite einig zu sein scheint. Um von staatlichen Krankenversicherungen finanziert zu werden, müssen sie gegen einen religiösen Einfluss ihrer Praktiken argumentieren; um es in der Masse zu bewerben, propagieren sie jedoch gerne ihren Bezug zum Buddhismus. Purser arbeitet in seinem Werk auf spannende Weise heraus, wie diese Selbstwidersprüchlichkeit vor sich geht. Stark kritisiert er nicht nur diese unklare Haltung, sondern auch dass dieses Vorgehen die öffentliche Meinung und Wissen über den Buddhismus verklärt. Denn da MBSR ideologische Ansprüche ablehnt und sich rein auf Techniken des Selbst konzentriert, seien diese im buddhistischen Glauben nicht von ihren ethischen Ansprüchen zu trennen. Dieser Aspekt würde nämlich ebenjenes Argument gegen die Privatisierung und Pathologisierung von Stress entkräften, da in buddhistischen Praktiken ein starker Fokus auf ethisch-soziale Ebenen des Lebens gelegt wird und auch eine Verbesserung dieser Umstände fordert — doch das wäre eine Argumentationslinie, die nicht aus westlichen Steuergeldern finanziert werden würde.

Stattdessen begründen MBSR-VertreterInnen sich selbst und ihre Wirksamkeit durch eine (pseudo)wissenschaftliche Technik, die auf uns up-to-date und unfehlbar wirken: sie zeigen uns shiny Bilder von Hirn-Scans während und nach Achtsamkeitsübungen. Sobald wir diese high-tech generierten Aufnahmen sehen, hinterfragen wir nicht die Wissenschaftlichkeit dieser Forschungen. Purser hat auch die immer umfangreicher werdende Forschung rund um Achtsamkeit untersucht und festgestellt, dass viele der in hohen Tönen gelobten Studien nachweislich erhebliche Mängel aufweisen. Eine deutsche Studie aus Freiburg hat sogar herausgefunden, dass „binge-drinkers scored significantly higher on mindfulness than experienced mediators (normal college students were in the middle)“ — natürlich muss das eine Studie aus Deutschland untersucht haben. (Ch. 7) 

Sein zentraler Kritikpunkt ist und bleibt die Verschmelzung der Achtsamkeits-Szene mit der ausbeuterischen Wirtschaft, aber auch dass sie selbst zu einer Industrie geworden ist. Ebendiesen Prozess bezeichnet er, in Anlehnung an Ritzers Begriff der McDonaldization, welcher beschreibt wie alltägliche Erfahrungen nur noch durch standardisierte, verwertbare Prozesse der Industrie erlebt werden, als McMindfulness. Hierbei denkt er an Apps wie Headspace: eine Meditations-App, die durch ihre dutzenden Benachrichtigungen, die uns daran erinnern sollen zu meditieren, mehr Stress auslösen als die fünf Minuten Meditation wieder gutmachen könnten, zu denen sie uns bewegen möchte. Dieser Effekt ist zutiefst irrational, da die reine Marktlogik das Produkt in ihren Widerspruch verkommen lässt. (Vgl. S. 166) Ähnlich wie bei McDonalds: ein Restaurant das nicht wirklich satt macht, sondern stets zu mehr Konsum verführt.

Alles in allem ist die „Achtsamkeits-Revolution“ jedoch nur ein kleiner Teil der derzeitigen gesellschaftlichen Veränderungen, die wir im neoliberalen Kapitalismus erleben: „The mindfulness movement is an example of an ideological shift, in which an obsessive focus on wellness and happiness becomes a moral imperative.“ (S. 77) Wohlergehen und Glück das wir nur durch einer permanenten Selbstoptimierung erreichen können — eine sehr stressvolle Aufgabe! Deswegen betreibt besser jede*r für sich Mindfulness, denn: Wenn jede*r an sich denkt, ist an alle gedacht, oder?

Unterm Strich finde ich das Buch sehr empfehlenswert für all diejenigen, die sich auch schon gefragt haben: Wieso sind so viele Menschen in einem Modus der Selbstoptimierung? Was macht dieser Fokus auf uns selbst mit uns als Gesellschaft? Und wieso spielt er dem Kapital in die Hände? Und vor allem: Wie können wir die Vorteile von Achtsamkeits-Praktiken nutzen ohne dieser Stützung dieses Stress verursachenden Systems in die Hände zu spielen?

Ich habe eine Ausgabe für die Universitätsbibliothek bestellt, welche in den nächsten Tagen ankommen sollte. Also: viel Spaß beim Lesen!

Sven Thomas

[1]  Vgl. Hubig: Technik als Medium. In: Handbuch Technikethik.

[2]  Hier kommt einem fast auf natürliche Weise Foucaults „Technologien des Selbst“ in den Kopf. Deswegen ist es auch nicht verwunderlich, dass Purser gegen Ende seiner Analyse auch auf ihn zu sprechen kommt.

[3] Die Aufforderung „Just Breathe“ als Lösung aller Probleme scheint besonders makaber wenn man an einen Satz denkt, der nach 2014 und 2020 um die Welt ging: „I can´t breathe!“

Let’s talk about people talking about technology

Herzlich Willkommen auf unserem Ethical Machines Blog! 

Wir freuen uns schon darauf euch ab dem kommenden Semester regelmäßig mit Denkanstößen, Buchrezensionen, gelungenen studentischen Abgaben und vielem mehr in das spannende Feld der philosophischen Technikforschung einzuführen und mit euch auf dieser Plattform darüber zu diskutieren.

Doch was ist das eigentlich philosophische Technikforschung, Technikphilosophie, Technikethik, Technikfolgenabschätzung? Diese Forschungsfelder sind — in philosophischen Standards gesehen — relativ neu. Technologische Entwicklungen haben stets Veränderungen in unseren Gesellschaften angestoßen und diese zum Teil massiv verändert. Spätestens mit dem Beginn der industriellen Revolution wurde eine Betrachtung von Technik immer relevanter, weil durch die Einführung neuer Produktionsmittel sich unsere Städte, Landschaften und Lebensformen generell auf eine Art und Weise transformiert haben, wie sie in der Geschichte der Menschheit bisher nicht vorgekommen ist. 

Unsere Arbeitsgruppe geht dabei insbesondere ebenjenen Veränderungen nach, die sich mit dem Aufkommen der digitalen Welt ergeben haben. Smartphones, Social Media, Algorithmen, Online Dating, digitale Arbeit, … All diese Phänomene sind nur wenige Jahrzehnte alt und haben sich in unseren Alltag mit einer Geschwindigkeit integriert und unsere Aufmerksamkeit auf sich gezogen, dass wir den von ihnen angestoßenen Wandel erst noch richtig begreifen müssen.

Wir gehen diesen Veränderungen nach, versuchen sie zu verstehen, untersuchen ihre Konsequenzen und Einflüsse für unser politisches, soziales und ethisches Dasein und fragen nach Alternativen, die nicht einfach einer rein technischen Logik folgen.

Demnächst folgt ein erster Post. Also: Keep posted! 🙂

von Sven Thomas