Der Sprachautomat imitiert und optimiert die Potenzen des menschlichen Bewusstseins durch „Auslagerung“, aber er ersetzt nicht die Sprache der zwischenmenschlichen Erfahrung.

In einem Gastkommentar der NZZ (vom 1. April 2023) spricht Manfred Schneider von der „zermalmenden Macht des KI-Konformismus – Chat-GPT ist eine trojanische Bombe“. Künstlich gesteuerte Sprachautomaten sind „Maschinen, die mit zermalmender Macht die Wahrscheinlichkeit, die ihre Algorithmen steuern, als digital armierten Konformismus über uns verhängen“. Und Schneider kritisiert, dass keine Öffentlichkeit daran beteiligt ist, „die Programme auf Grundsätze der Wahrheit und der politischen Verantwortung zu verpflichten“.

Ich verstehe die Kritik Manfred Schneiders an den neuen Sprachautomaten so, dass sie die  schon seit langem praktizierte Massenpropaganda optimieren. Den Propagandisten kommt es auf die Wirkung an, nicht auf die Wahrheitssuche, um das Verhalten der Menschen gezielt ihren Absichten gemäß zu beeinflussen. Zwischen Wirkung und Wahrheit soll nicht mehr unterschieden werden – und so präsentiert der KI-Sprachautomat sich als „black box“, als, wie ich formuliere, anonymisierter Propagandist. Daher ist Aufklärung über Absicht und Wirkung, also eine ideologiekritische Analyse weiterhin notwendig. Aber was bedeutet in diesem Sinn, die Programme (dieser neuen Sprachautomaten) auf Grundsätze der Wahrheit und der politischen Verantwortung zu verpflichten?

In der Reproduktion konformistischer Sprache wird der Automat konsequenter sein als das menschliche Bewusstsein – in ideologischer Absicht mit Lüge und Vorurteil. Denn den Menschen soll die Fähigkeit, zwischen Lüge und Wahrheit zu unterscheiden, genommen werden. Die Menschen durch Propaganda zu verführen, ist keine Erfindung der KI, sondern eine missbräuchliche Leistung des menschlichen Bewusstseins. Meine Frage ist, wie können Missbrauch, Verführung und Lüge durchschaut und wirksam erkannt werden?

Ich beginne meine Antwort mit der kurzen Beschreibung zweier Gedankenexperimente:

(1) Ich stelle mir einen Sprachautomaten vor, der die Wirkung einer Rede Adolf Hitlers auf dem Reichsparteitag während der Naziherrschaft noch verbessern soll.

(2) Angesichts zunehmenden Pfarrermangels entwickeln die Kirchen „Predigtautomaten“; die Aussagen in der Form religiöser Sprachspiele werden „ausgelagert“: der Automat wiederholt nicht nur ein Glaubensbekenntnis, sondern versucht eine Interpretation. Auch diese Methode gibt es bereits im Ansatz (wenn auch mit Personen) im Rundfunk und im TV.

Zu (1) In der Kommunikation zwischen Menschen Argumentation durch Manipulation zu ersetzen, um das Denken und Handeln eines Menschen oder einer Gruppe bzw. der Mehrheit einer Gesellschaft im Eigeninteresse oder im Interesse einer Institution oder Ideologie zu beeinflussen, ist nicht neu und sowohl methodisch wie ideologiekritisch untersucht. Daher kann ein Sprachautomat mit dem Ziel der Manipulation programmiert werden.

Nun wissen wir aus der Analyse der Werbung, wie bedeutend der mediale Kontext ist, um eine bestimmte Wirkung zu erreichen. Sprache und Bild und die Einschätzung des Sprechers (Glaubwürdigkeit und  Vorurteil) mitsamt der jeweiligen Situation bestimmen die Wirkung. Auch lassen sich ein bestimmter Wortgebrauch auf zugehörige Vorstellungen und Ideologien zurückführen.

Aber da es die kritische Überprüfung und Offenlegung von Propaganda gibt, kann auch der imitierende Sprachcomputer mit einem kritischen Prüfprogramm programmiert werden, der die Propagandastrategien erkennt, offenlegt und gegebenenfalls blockiert. Die Frage ist, ob eine kritische Prüfung gewollt ist, denn auch sie ist mit zusätzlicher Arbeitszeit, mit weiterer Energie und damit mit hohen Kosten verbunden. Die Frage der Verantwortung (Gebrauch oder Missbrauch) muss vor der Installation von Sprachautomaten geklärt und programmatisch abgesichert werden.

Nun wird behauptet, eine kritische Prüfung entwickelter Sprachautomaten sei nicht mehr möglich. Das bezweifele ich. Aber die Entwicklung von Prüfungsprogrammen ist zeit-, energie- und kostenintensiv. Und sie muss verbindlich eingefordert werden; so wie wir von jeder Schülerin und jedem Schüler fordern, den Unterschied von Argumentation und Propaganda zu erlernen. Denn das ist eine Grundvoraussetzung für die Mündigkeit des homo sapiens (als homo praestans).

Die Behauptung, meine Voraussetzung sei ein moralisches Postulat und könne technisch/programmatisch nicht durchgesetzt werden, ist eine Schutzbehauptung derer, die den Missbrauch planen. Ich beginne die Erläuterung meiner Überzeugung mit einem Beispiel aus dem Alltag unserer Gesellschaft: dem Backautomaten. Schon heute ersetzen Backautomaten die Arbeit des Bäckers, wenn es um „Normal-Brot“ und Brötchen geht. In einer großen Brotfabrik beginnt die Herstellung eines Brotes (besser: einer Masse von Broten) mit der Planung der gewünschten Sorte, der Herstellung der gewünschten Teigmischung bis zum gebackenen Brot (wenn notwendig: mit Verpackung). Dieser Prozess läuft KI-gesteuert ab; dies schließt eine KI-gesteuerte Prüfung, um Fehler zu vermeiden, in jedem Abschnitt des Herstellungsprozesses ein. Wie präzise diese Fehlerprüfung ist, hängt von der technischen Komplexität der „Backstraße“ ab. So kann es ökonomisch günstiger sein, abschnittsweise einen Menschen (ehemaligen Bäcker) als Prüfer einzusetzen, oder – im Gegenteil – die einzelnen Fehlerprüfungen (und die jeweilige Korrektur) durch den Automaten selbst vornehmen zu lassen; bis zu dem hoffentlich seltenen Fall, dass die Backstraße gestoppt werden muss (und ein Mensch eingreifen bzw. der Entstehungsprozess neu beginnen muss).

Ich habe versucht zu verdeutlichen, dass die 100%ige Selbststeuerung des Backautomaten eine Frage von Konstruktion, Zeit, Energie und Kosten ist; die KI ist keineswegs überfordert, sondern ihr Einsatz optimiert den möglichen Eingriff eines Bäckers (besser: eines auf Backwaren geschulten Technikers, der sich mit KI auskennt).

Allgemeiner formuliert: bei der Herstellung von Produkten (hier für den Gebrauch/Konsum) ist eine vollständige automatisierte Problemlösung (von der Planung bis zum Vertrieb) mit optimierter Fehlerprüfung und Korrektur möglich (wenn gewünscht). Dieser Automat optimiert die beschränkten Fähigkeiten eines menschlichen Bewusstseins (selbst mit handwerklicher Qualifikation).

Natürlich setzt die Planung und Herstellung eines solchen Automaten (und auch die Wartung) fachliche Qualifikation voraus – und auch Missbrauch ist möglich; aber gelten diese Bedingungen bzw. Möglichkeiten nicht auch für entsprechend geplante und konstruierte Sprachautomaten?

Zu (2):  Bevor ich Unterscheidungskriterien (des menschlichen Bewusstseins) aufzeige, die auch einem Sprachautomaten ermöglichen, zwischen Argumentation und Manipulation zu unterscheiden und Propaganda-Texte wie sinnlose Wortreihungen zu erkennen und gegebenenfalls zu blockieren, diskutiere ich die Problematik eines Predigtautomaten, also eines Automaten, der religiöse Sprachspiele, inklusive moralischer Imperative, reproduziert.

Zwischendurch entkräfte ich eine zur Zeit in den Medien diskutierte Problematik des Verhältnisses von Eigentum, Kunstanspruch und Sprachspielereien; Stichwort: Dadaismus. Meine Position: die sinnlose Verknüpfung von Wörtern ist sowohl dem sprachmächtigen menschlichen Bewusstsein, wie dem so programmierten Sprachautomaten möglich. In beiden Fällen können die jeweils Verfügungsberechtigten (der dadaistische Schriftsteller oder der dadaistische Programmierer eines Sprachautomaten den Anspruch erheben, ein „Kunstwerk“ zu produzieren. Problematisch wird es erst für den Kunstkritiker: nicht weil wir unterschiedliche Akteure haben (Mensch bzw. Automat), sondern weil der Automat massenweise „Kunstwerke“ produzieren kann und damit den Kunstmarkt überschwemmt und die Kunstkritiker überfordert. Es sei denn, diese Kritiker unterstellen einen höchst problematischen Kunstbegriff: Kunst kann nur sein, wenn das Werk von einem Menschen hergestellt wurde. Damit werden aber die Kriterien der Ästhetik auf die Arbeit der jeweiligen Produzenten reduziert – und ergeben sich nicht aus der Wahrnehmung des Artefaktes. Übrigens ist dieses Missverständnis nicht neu; ich erinnere an die Frage, ob Menschenaffen Bilder malen können. Die Antwort ergibt sich erst aus dem gemalten Bild, nicht aus dem Maler. Zugegeben ist das Missverständnis im Alltag virulent: wer als „Künstler“ anerkannt ist (wie immer diese gesellschaftliche Anerkennung zustande kommt), produziert „Kunst“. (Da ich mich – für das Finanzamt bzw. für eine anonyme Öffentlichkeit als „Schriftsteller“ bezeichne, sind meine Texte/Erzählungen noch keine Kunst, auch wenn mir – und hoffentlich anderen –  das Ausdenken/Schreiben/Lesen dieser Texte Vergnügen bereitet. Übrigens veröffentliche ich zumeist „Sachtexte“ und dafür gibt es Kriterien – siehe den Anspruch der Argumentation, die mehr und anders ist als eine Meinung.)

Ich kehre zu meiner Argumentation bezüglich der Risiken von neuen KI-gesteuerten Sprachautomaten zurück und analysiere – als Gedankenexperiment – den Predigtautomaten.  Die Nutzlosigkeit wie auch der Missbrauch liegen auf der Hand. Der (angedachte) Predigtautomat reproduziert und optimiert das von mir so beschriebene und anderswo skizzierte „Gottesgeplapper“, aber er übersetzt und interpretiert das jeweilige religiöse Sprachspiel nicht – in sinnvolle Aussagen im anthropozentrischen Weltverständnis.

Die Frage ist: wie verhält sich der Predigtautomat mit den zahlreichen Oxymora in der religiösen Sprache? Entweder, so meine Antwort, er reproduziert und „verfeinert“ die logisch widersprüchlichen Aussagen, dann produziert er sinn-lose Predigten, oder er erkennt als algorithmisch geschulter Automat die (formalen) Fehler – und streikt. Es wäre die verantwortungsvolle Aufgabe der Programmierer, den Automaten so zu programmieren, dass er die Fehler auf- und anzeigt.

Wahrscheinlicher ist der Missbrauch, da auch religiöse Sprachspiele Wirkung zeigen, weil entweder am theozentrischen Weltbild festgehalten wird, bzw. die Struktur der Projektion (im Sinne der Religionskritik des aufgeklärten Denkens) nicht erkannt wird. Die Wirkung von Oxymora ist dann Manipulation (Konsequenz: naive Frömmigkeit – und Aberglaube -statt aufgeklärter Religiosität).

An anderer Stelle habe ich versucht aufzuzeigen, dass das menschliche Bewusstsein in der Form aenigmatischer Erkenntnis (inklusive bewussten Schweigens) Erlösung denken kann: als konkrete Utopie. Ich sehe keine Möglichkeit, wie ein Automat (Kurzform: KI) diese spezielle Denkform des menschlichen Bewusstseins übernehmen kann. Schon bei erzählenden Sprachspielen (Poesie) gerät der Sprachautomat an seine Grenze, auch wenn der Zuhörer oder die Leserin den Unterschied zwischen (geschickter) Imitation – verursacht durch eine entsprechende Programmierung – und menschlicher Erfahrung (ausgedrückt durch entsprechende „poetische“, zwischenmenschliche Sprachspiele) nicht mehr erkennt.

Meiner Überzeugung nach gehört es zu einer verantwortungsvollen Programmierung eines Sprachautomaten, dass er den Unterschied zwischen Imitation und zwischenmenschlicher Sprache aus konkreter Erfahrung den Hörerinnen und Lesern selbst und unverzüglich mitteilt. Ist der Automat dazu nicht in der Lage (obwohl er es kann), handelt der Programmierer (der programmierende Konzern) verantwortungslos und kriminell. Diese Unklarheit entbindet die Benutzer eines Sprachautomaten nicht vom kritischen Umgang – und die Gesellschaft nicht, möglichen Missbrauch offenzulegen und zu ahnden.

Anhand des Gedankenexperiementes eines Predigtautomaten  habe ich zu zeigen versucht, welche Konsequenzen sich aus dem Unterschied zwischen Imitation von Sprache und zwischenmenschlicher Kommunikation aus gemeinsamer Erfahrung (durch erzählende Sprachspiele) ergeben. Selbst zwischenmenschliche Erfahrungen und die konkrete Utopie der Erlösung sind erzählbar und aenigmatisch erkennbar. Sie überschreiten die Möglichkeiten eines Sprachautomaten, auch wenn das – auf den ersten Blick – nicht wahrnehmbar ist. Aber der Missbrauch kann und muss angezeigt werden.

Ich fasse zusammen: Der von mir ausgedachte KI-gesteuerte Predigtautomat produziert religiöse Sprachspiele durch programmierte Imitation, optimiert dieses „Gottesgeplapper“ und fördert den Aberglauben. Daher ist Aufklärung und verantwortlicher Umgang mit der Programmierung von Sprachautomaten auch im Christentum weiterhin dringend notwendig.

 

Literaturhinweise:

Jürgen Schmitter: Aufgeklärter Realismus. Ein Handwörterbuch als Gesprächsgrundlage für Atheisten und Christen, Münster 2020

Jürgen Schmitter: Nachdenken aus der Peripherie im Anthropozän, Münster 2023

Plädoyer für einen aufgeklärten Realismus

Aufforderung zur Zusammenarbeit von aufgeklärten Atheisten und aufgeklärten Christen

Ich nehme die aktuelle Lektüre der Bemerkungen von Marc Tribelhorn in der Neuen Zürcher Zeitung (nzz.ch, Digital) vom 3. Dezember 2022 zum Anlass, für einen aufgeklärten Realismus zu plädieren und Atheisten wie Christen zur Zusammenarbeit aufzufordern: Kehren Sie zu einem aufklärenden Denken zurück und handeln Sie im Sinne des Programmes der Aufklärung!

Aufklärendes Denken, nicht abgebrochen oder verschüttet, sondern konsequent zu Ende gedacht und handlungsrelevant umgesetzt – im Sinne von Hannah Arendt – öffnet Wege, um ideologische Irr- und Holzwege zu erkennen und realistische Problemlösungen in und für Gesellschaft und Wissenschaft zu finden und zu fördern.

Marc Tribelhorn stellt in seinem Text „Apocalypse now? oder: Die neue Angst vor der Zukunft“ fest, dass das heute vorherrschende „Gefühl“ der Menschen darin besteht, „dass wir in in zunehmend finsteren Zeiten leben. Doch Pessimismus ist keine Lösung“.

Weder gefühlter Pessimismus noch naiver Optimismus lösen die anstehenden Probleme in Gesellschaft und Wissenschaft. Daher fordert Tribelhorn zu Recht (in Rückgriff auf den Soziologen Reckwitz), „eine institutionelle Widerstandsfähigkeit aufzubauen“. Dies ist „ein Realismus in unsicheren Zeiten“. Und er zieht die Konsequenz: „Es kann in der Politik nicht nur darum gehen, mögliches Unheil zu verhindern, Risiken zu minimieren und Krisen auszuhalten. Liberale Gesellschaften brauchen Innovation und Wagnis, um vorwärtszukommen“.

Ich ersetze den Begriff „liberal“ durch „demokratisch“, denn Freiheit und geregelte Mitbestimmung gehören zusammen. Vor allem aber bedarf es der präzisen Analyse des „Fortschritts“ in Gesellschaft, Alltag und Wissenschaft. Diese Analyse schließt die Wirkung von Ideologien ein, die den jeweiligen Pessimismus oder Optimismus belegen sollen. Ich verweise auf drei ideologische Konstruktionen:

(1) Die folgenschwere Verwechslung von historischem Fortschritt – im Sinne der Geschichte der Menschheit – mit der biologischen Evolution. Diese Verwechslung führt oft zur Ideologie des Naturalismus und zu einer atheistischen Weltanschauung.

(2) Die Behauptung des Konstruktivismus, das Vorläufige sei das Endgültige – und alle Lösungen seien grundsätzlich relativ.

(3) Das menschliche Bewusstsein werde – früher oder später – durch künstliche Intelligenz (KI/AI) abgelöst; ideologisch vereinfacht durch (menschenähnliche) Roboter/Kobolde dargestellt.

Diesen ideologischen Vorstellungen gegenüber erkenne ich, dass sich das Bewusstsein der Menschen und der Menschheit am Ende des Anthropozän für vielfältige Wahrnehmung und Erfahrung öffnet und diese „Denkleistungen“, diese Erkenntnisse in jeweiligen Sprachen „verarbeitet“ und „ausdrückt“: in Bildern und Berichten, in Prognosen und Gesetzen, in Normen, aber auch Utopien, wie in Erzählungen.

Das menschliche Bewusstsein ist also vielfach strukturiert, lässt sich aber nicht auf Hautfarbe, Volkszugehörigkeit, Religion oder Besitz (sog. Eigentum) fixieren bzw. reduzieren. Zur Würde des Menschen gehört, dass sie für alle Menschen gilt. Programm und Projekt der Aufklärung sind ihrem Grund und Anspruch nach universal.

Die Geschichte des homo sapiens ist keine Naturgeschichte, sondern eine Bewusstseinsgeschichte: die Geschichte der Kulturbildung und des Kulturuntergangs, der Normenbildung und der Normenkritik, der Versklavung und Befreiung, der Entfremdung und der Aufklärung.

Die Geschichte der Befreiung ist nicht – im biologischen Sinn – evolutiv, sondern eine Geschichte der Wechselwirkung von Gleichheit und Knechtschaft, von Krieg und Frieden, von Hass und Diskriminierung bei beanspruchter Empathie.

Was bedeuten in diesem Kontext Gerechtigkeit, Freiheit, Gleichheit und Demokratie? Ziel der Menschengeschichte (des homo sapiens als homo praestans) ist nicht das Paradies, weder im Himmel, noch auf Erden (auch nicht die „klassenlose“ Gesellschaft), sondern die Durchsetzung von Freiheit, Gerechtigkeit und Demokratie. Grundlegende Imperative für diese durchzusetzende Praxis sind: Mündigkeit, Würde und Empathie.

Zur Zeit (Ende des Jahres 2022) leben ca. 8 Milliarden Menschen auf der Erde. Für das Jahr 2080 wird die Zahl der Menschen auf 10,4 Milliarden geschätzt. Von den 8 Milliarden Menschen leben zur Zeit nur 30% in demokratischen Staaten.

Für uns heutige Menschen bleibt – meiner Überzeugung nach – als Denk- und Arbeitsgrundlage nur das Programm des aufgeklärten Realismus unter dem dreifachen kategorialen Imperativ: Mündigkeit, Würde, Empathie.

Angesichts dieser Situation erkenne ich für alle Menschen in allen Lebensräumen – vom Geburtsort (1), Wohnort (2), von Region (3) und Staat (4), bis zur bewohnbaren Erde (5) – und dem unbewohnbaren Weltall – 24 Lebens- und Entwicklungschancen, die durchgesetzt werden müssen:

(1) 1. Menschenwürde
2. Überleben
3. Sympahtie, Empathie, Respekt
(2) 4.Ernährung
5. Gesundheit
6. Schutz vor Gefahren der Natur/der Gesellshcaften
7. Lernen, aktiv/passiv
8. Kommunikation, u.a. schreiben/lesen
9. Sozialbewusstsein
(3) 10. Selbständigkeit
11. Arbeitsfähigkeit/Qualifikation
(4) 12. Mündigkeit: Familienbildung/Autonomie
13. Beruf
14. Produktion: Wertschätzung und Mitbestimmung
15. Zivilisation/Sozialverhalten
16.Kultur/Bildung
17. Freizeitgestaltung
18. Verantwortung/Politisches Handeln/Engagement
19. Machtkontrolle/Demokratisierung/Wahlen
20. Kompromissfähigkeit
(5) 21. Gerechte Verteilung der produzierten Güter/Waren/Werte/Steuergerechtigkeit
22. Rechtsordnung
23. Reisefreiheit
24. Doppelter Naturschutz: Schutz vor Naturgefahren/Schutz der Natur (kurzfristig/langfristig)

Zur Sprache der Ethik (Wittgenstein-Korrektur)

Sprache (Sätze im Kontext, synsemantische Ausdrücke) kann – im Gegensatz zur Position Wittgensteins im Tractatus (TLP) – sehr wohl Werte ausdrücken, doch deren Sinn (oder Unsinn) läßt sich nicht aus einem absoluten Wert – außerhalb des In-der-Welt-Seins bestimmen oder ableiten. Denn meine sprachkritische Überlegung – im Bereich der Semantik – kennt nur deiktische Ausdrücke, synsemantische Ausdrücke unterschiedlicher Qualität und logische Partikel. Wert ist also der Inbegriff verschiedener Werte. Diese haben zwar eine hierarchische Verknüpfung (Basis sind die Grundwerte), aber sie sind vorläufig, d.h. Sie sind entwickelbar und notwendig reformierbar.

Ihre Legitimität ergibt sich einerseits aus der Autonomie des menschlichen Handelns – dem Selbstbewußtsein, der Verantwortlichkeit und der Unantastbarkeit der Würde des Menschen –, andererseits aus der gesetzten

Verbindlichkeit: den gesellschaftlich verbindlichen Normen. Auch die Grundwerte und die Menschenrechte müssen durchgesetzt und historisch rekonstruiert werden. Ethische Normen sind keine Naturgesetze, sondern für verbindlich erklärte Verhaltensweisen. Ein Verstoß gegen sie kann und muss gebrandmarkt werden. Für die gesellschaftlichen wie individuellen Verbrechen – als Verstöße gegen die Normen des Zusammenlebens und der Menschenwürde – sind die Menschen verantwortlich. Das sogenannte Böse fällt nicht vom Himmel, es ist und wirkt In-der-Welt. Der Kampf gegen das Verbrechen ist daher eine dauernde Aufgabe; wie auch die ständige Revision der Normen.

Alle Paradies-Vorstellungen – sowohl im Himmel wie auf der Erde – bedürfen der Aufklärung. Die Bedeutungen des „absolut Gerechten“ oder des „absolut Guten“ oder des „ewigen Friedens“ bedürfen einer speziellen Analyse als Grenzwert-Überlegung. Der absolute Wert ist nur als Utopie vorstellbar Das mag eine Problem-Lösung sein, aber keine Erlösung der endlichen Welt. Daher spreche ich von der Dynamik des Vorläufigen.