Der Sprachautomat imitiert und optimiert die Potenzen des menschlichen Bewusstseins durch „Auslagerung“, aber er ersetzt nicht die Sprache der zwischenmenschlichen Erfahrung.

In einem Gastkommentar der NZZ (vom 1. April 2023) spricht Manfred Schneider von der „zermalmenden Macht des KI-Konformismus – Chat-GPT ist eine trojanische Bombe“. Künstlich gesteuerte Sprachautomaten sind „Maschinen, die mit zermalmender Macht die Wahrscheinlichkeit, die ihre Algorithmen steuern, als digital armierten Konformismus über uns verhängen“. Und Schneider kritisiert, dass keine Öffentlichkeit daran beteiligt ist, „die Programme auf Grundsätze der Wahrheit und der politischen Verantwortung zu verpflichten“.

Ich verstehe die Kritik Manfred Schneiders an den neuen Sprachautomaten so, dass sie die  schon seit langem praktizierte Massenpropaganda optimieren. Den Propagandisten kommt es auf die Wirkung an, nicht auf die Wahrheitssuche, um das Verhalten der Menschen gezielt ihren Absichten gemäß zu beeinflussen. Zwischen Wirkung und Wahrheit soll nicht mehr unterschieden werden – und so präsentiert der KI-Sprachautomat sich als „black box“, als, wie ich formuliere, anonymisierter Propagandist. Daher ist Aufklärung über Absicht und Wirkung, also eine ideologiekritische Analyse weiterhin notwendig. Aber was bedeutet in diesem Sinn, die Programme (dieser neuen Sprachautomaten) auf Grundsätze der Wahrheit und der politischen Verantwortung zu verpflichten?

In der Reproduktion konformistischer Sprache wird der Automat konsequenter sein als das menschliche Bewusstsein – in ideologischer Absicht mit Lüge und Vorurteil. Denn den Menschen soll die Fähigkeit, zwischen Lüge und Wahrheit zu unterscheiden, genommen werden. Die Menschen durch Propaganda zu verführen, ist keine Erfindung der KI, sondern eine missbräuchliche Leistung des menschlichen Bewusstseins. Meine Frage ist, wie können Missbrauch, Verführung und Lüge durchschaut und wirksam erkannt werden?

Ich beginne meine Antwort mit der kurzen Beschreibung zweier Gedankenexperimente:

(1) Ich stelle mir einen Sprachautomaten vor, der die Wirkung einer Rede Adolf Hitlers auf dem Reichsparteitag während der Naziherrschaft noch verbessern soll.

(2) Angesichts zunehmenden Pfarrermangels entwickeln die Kirchen „Predigtautomaten“; die Aussagen in der Form religiöser Sprachspiele werden „ausgelagert“: der Automat wiederholt nicht nur ein Glaubensbekenntnis, sondern versucht eine Interpretation. Auch diese Methode gibt es bereits im Ansatz (wenn auch mit Personen) im Rundfunk und im TV.

Zu (1) In der Kommunikation zwischen Menschen Argumentation durch Manipulation zu ersetzen, um das Denken und Handeln eines Menschen oder einer Gruppe bzw. der Mehrheit einer Gesellschaft im Eigeninteresse oder im Interesse einer Institution oder Ideologie zu beeinflussen, ist nicht neu und sowohl methodisch wie ideologiekritisch untersucht. Daher kann ein Sprachautomat mit dem Ziel der Manipulation programmiert werden.

Nun wissen wir aus der Analyse der Werbung, wie bedeutend der mediale Kontext ist, um eine bestimmte Wirkung zu erreichen. Sprache und Bild und die Einschätzung des Sprechers (Glaubwürdigkeit und  Vorurteil) mitsamt der jeweiligen Situation bestimmen die Wirkung. Auch lassen sich ein bestimmter Wortgebrauch auf zugehörige Vorstellungen und Ideologien zurückführen.

Aber da es die kritische Überprüfung und Offenlegung von Propaganda gibt, kann auch der imitierende Sprachcomputer mit einem kritischen Prüfprogramm programmiert werden, der die Propagandastrategien erkennt, offenlegt und gegebenenfalls blockiert. Die Frage ist, ob eine kritische Prüfung gewollt ist, denn auch sie ist mit zusätzlicher Arbeitszeit, mit weiterer Energie und damit mit hohen Kosten verbunden. Die Frage der Verantwortung (Gebrauch oder Missbrauch) muss vor der Installation von Sprachautomaten geklärt und programmatisch abgesichert werden.

Nun wird behauptet, eine kritische Prüfung entwickelter Sprachautomaten sei nicht mehr möglich. Das bezweifele ich. Aber die Entwicklung von Prüfungsprogrammen ist zeit-, energie- und kostenintensiv. Und sie muss verbindlich eingefordert werden; so wie wir von jeder Schülerin und jedem Schüler fordern, den Unterschied von Argumentation und Propaganda zu erlernen. Denn das ist eine Grundvoraussetzung für die Mündigkeit des homo sapiens (als homo praestans).

Die Behauptung, meine Voraussetzung sei ein moralisches Postulat und könne technisch/programmatisch nicht durchgesetzt werden, ist eine Schutzbehauptung derer, die den Missbrauch planen. Ich beginne die Erläuterung meiner Überzeugung mit einem Beispiel aus dem Alltag unserer Gesellschaft: dem Backautomaten. Schon heute ersetzen Backautomaten die Arbeit des Bäckers, wenn es um „Normal-Brot“ und Brötchen geht. In einer großen Brotfabrik beginnt die Herstellung eines Brotes (besser: einer Masse von Broten) mit der Planung der gewünschten Sorte, der Herstellung der gewünschten Teigmischung bis zum gebackenen Brot (wenn notwendig: mit Verpackung). Dieser Prozess läuft KI-gesteuert ab; dies schließt eine KI-gesteuerte Prüfung, um Fehler zu vermeiden, in jedem Abschnitt des Herstellungsprozesses ein. Wie präzise diese Fehlerprüfung ist, hängt von der technischen Komplexität der „Backstraße“ ab. So kann es ökonomisch günstiger sein, abschnittsweise einen Menschen (ehemaligen Bäcker) als Prüfer einzusetzen, oder – im Gegenteil – die einzelnen Fehlerprüfungen (und die jeweilige Korrektur) durch den Automaten selbst vornehmen zu lassen; bis zu dem hoffentlich seltenen Fall, dass die Backstraße gestoppt werden muss (und ein Mensch eingreifen bzw. der Entstehungsprozess neu beginnen muss).

Ich habe versucht zu verdeutlichen, dass die 100%ige Selbststeuerung des Backautomaten eine Frage von Konstruktion, Zeit, Energie und Kosten ist; die KI ist keineswegs überfordert, sondern ihr Einsatz optimiert den möglichen Eingriff eines Bäckers (besser: eines auf Backwaren geschulten Technikers, der sich mit KI auskennt).

Allgemeiner formuliert: bei der Herstellung von Produkten (hier für den Gebrauch/Konsum) ist eine vollständige automatisierte Problemlösung (von der Planung bis zum Vertrieb) mit optimierter Fehlerprüfung und Korrektur möglich (wenn gewünscht). Dieser Automat optimiert die beschränkten Fähigkeiten eines menschlichen Bewusstseins (selbst mit handwerklicher Qualifikation).

Natürlich setzt die Planung und Herstellung eines solchen Automaten (und auch die Wartung) fachliche Qualifikation voraus – und auch Missbrauch ist möglich; aber gelten diese Bedingungen bzw. Möglichkeiten nicht auch für entsprechend geplante und konstruierte Sprachautomaten?

Zu (2):  Bevor ich Unterscheidungskriterien (des menschlichen Bewusstseins) aufzeige, die auch einem Sprachautomaten ermöglichen, zwischen Argumentation und Manipulation zu unterscheiden und Propaganda-Texte wie sinnlose Wortreihungen zu erkennen und gegebenenfalls zu blockieren, diskutiere ich die Problematik eines Predigtautomaten, also eines Automaten, der religiöse Sprachspiele, inklusive moralischer Imperative, reproduziert.

Zwischendurch entkräfte ich eine zur Zeit in den Medien diskutierte Problematik des Verhältnisses von Eigentum, Kunstanspruch und Sprachspielereien; Stichwort: Dadaismus. Meine Position: die sinnlose Verknüpfung von Wörtern ist sowohl dem sprachmächtigen menschlichen Bewusstsein, wie dem so programmierten Sprachautomaten möglich. In beiden Fällen können die jeweils Verfügungsberechtigten (der dadaistische Schriftsteller oder der dadaistische Programmierer eines Sprachautomaten den Anspruch erheben, ein „Kunstwerk“ zu produzieren. Problematisch wird es erst für den Kunstkritiker: nicht weil wir unterschiedliche Akteure haben (Mensch bzw. Automat), sondern weil der Automat massenweise „Kunstwerke“ produzieren kann und damit den Kunstmarkt überschwemmt und die Kunstkritiker überfordert. Es sei denn, diese Kritiker unterstellen einen höchst problematischen Kunstbegriff: Kunst kann nur sein, wenn das Werk von einem Menschen hergestellt wurde. Damit werden aber die Kriterien der Ästhetik auf die Arbeit der jeweiligen Produzenten reduziert – und ergeben sich nicht aus der Wahrnehmung des Artefaktes. Übrigens ist dieses Missverständnis nicht neu; ich erinnere an die Frage, ob Menschenaffen Bilder malen können. Die Antwort ergibt sich erst aus dem gemalten Bild, nicht aus dem Maler. Zugegeben ist das Missverständnis im Alltag virulent: wer als „Künstler“ anerkannt ist (wie immer diese gesellschaftliche Anerkennung zustande kommt), produziert „Kunst“. (Da ich mich – für das Finanzamt bzw. für eine anonyme Öffentlichkeit als „Schriftsteller“ bezeichne, sind meine Texte/Erzählungen noch keine Kunst, auch wenn mir – und hoffentlich anderen –  das Ausdenken/Schreiben/Lesen dieser Texte Vergnügen bereitet. Übrigens veröffentliche ich zumeist „Sachtexte“ und dafür gibt es Kriterien – siehe den Anspruch der Argumentation, die mehr und anders ist als eine Meinung.)

Ich kehre zu meiner Argumentation bezüglich der Risiken von neuen KI-gesteuerten Sprachautomaten zurück und analysiere – als Gedankenexperiment – den Predigtautomaten.  Die Nutzlosigkeit wie auch der Missbrauch liegen auf der Hand. Der (angedachte) Predigtautomat reproduziert und optimiert das von mir so beschriebene und anderswo skizzierte „Gottesgeplapper“, aber er übersetzt und interpretiert das jeweilige religiöse Sprachspiel nicht – in sinnvolle Aussagen im anthropozentrischen Weltverständnis.

Die Frage ist: wie verhält sich der Predigtautomat mit den zahlreichen Oxymora in der religiösen Sprache? Entweder, so meine Antwort, er reproduziert und „verfeinert“ die logisch widersprüchlichen Aussagen, dann produziert er sinn-lose Predigten, oder er erkennt als algorithmisch geschulter Automat die (formalen) Fehler – und streikt. Es wäre die verantwortungsvolle Aufgabe der Programmierer, den Automaten so zu programmieren, dass er die Fehler auf- und anzeigt.

Wahrscheinlicher ist der Missbrauch, da auch religiöse Sprachspiele Wirkung zeigen, weil entweder am theozentrischen Weltbild festgehalten wird, bzw. die Struktur der Projektion (im Sinne der Religionskritik des aufgeklärten Denkens) nicht erkannt wird. Die Wirkung von Oxymora ist dann Manipulation (Konsequenz: naive Frömmigkeit – und Aberglaube -statt aufgeklärter Religiosität).

An anderer Stelle habe ich versucht aufzuzeigen, dass das menschliche Bewusstsein in der Form aenigmatischer Erkenntnis (inklusive bewussten Schweigens) Erlösung denken kann: als konkrete Utopie. Ich sehe keine Möglichkeit, wie ein Automat (Kurzform: KI) diese spezielle Denkform des menschlichen Bewusstseins übernehmen kann. Schon bei erzählenden Sprachspielen (Poesie) gerät der Sprachautomat an seine Grenze, auch wenn der Zuhörer oder die Leserin den Unterschied zwischen (geschickter) Imitation – verursacht durch eine entsprechende Programmierung – und menschlicher Erfahrung (ausgedrückt durch entsprechende „poetische“, zwischenmenschliche Sprachspiele) nicht mehr erkennt.

Meiner Überzeugung nach gehört es zu einer verantwortungsvollen Programmierung eines Sprachautomaten, dass er den Unterschied zwischen Imitation und zwischenmenschlicher Sprache aus konkreter Erfahrung den Hörerinnen und Lesern selbst und unverzüglich mitteilt. Ist der Automat dazu nicht in der Lage (obwohl er es kann), handelt der Programmierer (der programmierende Konzern) verantwortungslos und kriminell. Diese Unklarheit entbindet die Benutzer eines Sprachautomaten nicht vom kritischen Umgang – und die Gesellschaft nicht, möglichen Missbrauch offenzulegen und zu ahnden.

Anhand des Gedankenexperiementes eines Predigtautomaten  habe ich zu zeigen versucht, welche Konsequenzen sich aus dem Unterschied zwischen Imitation von Sprache und zwischenmenschlicher Kommunikation aus gemeinsamer Erfahrung (durch erzählende Sprachspiele) ergeben. Selbst zwischenmenschliche Erfahrungen und die konkrete Utopie der Erlösung sind erzählbar und aenigmatisch erkennbar. Sie überschreiten die Möglichkeiten eines Sprachautomaten, auch wenn das – auf den ersten Blick – nicht wahrnehmbar ist. Aber der Missbrauch kann und muss angezeigt werden.

Ich fasse zusammen: Der von mir ausgedachte KI-gesteuerte Predigtautomat produziert religiöse Sprachspiele durch programmierte Imitation, optimiert dieses „Gottesgeplapper“ und fördert den Aberglauben. Daher ist Aufklärung und verantwortlicher Umgang mit der Programmierung von Sprachautomaten auch im Christentum weiterhin dringend notwendig.

 

Literaturhinweise:

Jürgen Schmitter: Aufgeklärter Realismus. Ein Handwörterbuch als Gesprächsgrundlage für Atheisten und Christen, Münster 2020

Jürgen Schmitter: Nachdenken aus der Peripherie im Anthropozän, Münster 2023