Der Sprachautomat imitiert und optimiert die Potenzen des menschlichen Bewusstseins durch „Auslagerung“, aber er ersetzt nicht die Sprache der zwischenmenschlichen Erfahrung.

In einem Gastkommentar der NZZ (vom 1. April 2023) spricht Manfred Schneider von der „zermalmenden Macht des KI-Konformismus – Chat-GPT ist eine trojanische Bombe“. Künstlich gesteuerte Sprachautomaten sind „Maschinen, die mit zermalmender Macht die Wahrscheinlichkeit, die ihre Algorithmen steuern, als digital armierten Konformismus über uns verhängen“. Und Schneider kritisiert, dass keine Öffentlichkeit daran beteiligt ist, „die Programme auf Grundsätze der Wahrheit und der politischen Verantwortung zu verpflichten“.

Ich verstehe die Kritik Manfred Schneiders an den neuen Sprachautomaten so, dass sie die  schon seit langem praktizierte Massenpropaganda optimieren. Den Propagandisten kommt es auf die Wirkung an, nicht auf die Wahrheitssuche, um das Verhalten der Menschen gezielt ihren Absichten gemäß zu beeinflussen. Zwischen Wirkung und Wahrheit soll nicht mehr unterschieden werden – und so präsentiert der KI-Sprachautomat sich als „black box“, als, wie ich formuliere, anonymisierter Propagandist. Daher ist Aufklärung über Absicht und Wirkung, also eine ideologiekritische Analyse weiterhin notwendig. Aber was bedeutet in diesem Sinn, die Programme (dieser neuen Sprachautomaten) auf Grundsätze der Wahrheit und der politischen Verantwortung zu verpflichten?

In der Reproduktion konformistischer Sprache wird der Automat konsequenter sein als das menschliche Bewusstsein – in ideologischer Absicht mit Lüge und Vorurteil. Denn den Menschen soll die Fähigkeit, zwischen Lüge und Wahrheit zu unterscheiden, genommen werden. Die Menschen durch Propaganda zu verführen, ist keine Erfindung der KI, sondern eine missbräuchliche Leistung des menschlichen Bewusstseins. Meine Frage ist, wie können Missbrauch, Verführung und Lüge durchschaut und wirksam erkannt werden?

Ich beginne meine Antwort mit der kurzen Beschreibung zweier Gedankenexperimente:

(1) Ich stelle mir einen Sprachautomaten vor, der die Wirkung einer Rede Adolf Hitlers auf dem Reichsparteitag während der Naziherrschaft noch verbessern soll.

(2) Angesichts zunehmenden Pfarrermangels entwickeln die Kirchen „Predigtautomaten“; die Aussagen in der Form religiöser Sprachspiele werden „ausgelagert“: der Automat wiederholt nicht nur ein Glaubensbekenntnis, sondern versucht eine Interpretation. Auch diese Methode gibt es bereits im Ansatz (wenn auch mit Personen) im Rundfunk und im TV.

Zu (1) In der Kommunikation zwischen Menschen Argumentation durch Manipulation zu ersetzen, um das Denken und Handeln eines Menschen oder einer Gruppe bzw. der Mehrheit einer Gesellschaft im Eigeninteresse oder im Interesse einer Institution oder Ideologie zu beeinflussen, ist nicht neu und sowohl methodisch wie ideologiekritisch untersucht. Daher kann ein Sprachautomat mit dem Ziel der Manipulation programmiert werden.

Nun wissen wir aus der Analyse der Werbung, wie bedeutend der mediale Kontext ist, um eine bestimmte Wirkung zu erreichen. Sprache und Bild und die Einschätzung des Sprechers (Glaubwürdigkeit und  Vorurteil) mitsamt der jeweiligen Situation bestimmen die Wirkung. Auch lassen sich ein bestimmter Wortgebrauch auf zugehörige Vorstellungen und Ideologien zurückführen.

Aber da es die kritische Überprüfung und Offenlegung von Propaganda gibt, kann auch der imitierende Sprachcomputer mit einem kritischen Prüfprogramm programmiert werden, der die Propagandastrategien erkennt, offenlegt und gegebenenfalls blockiert. Die Frage ist, ob eine kritische Prüfung gewollt ist, denn auch sie ist mit zusätzlicher Arbeitszeit, mit weiterer Energie und damit mit hohen Kosten verbunden. Die Frage der Verantwortung (Gebrauch oder Missbrauch) muss vor der Installation von Sprachautomaten geklärt und programmatisch abgesichert werden.

Nun wird behauptet, eine kritische Prüfung entwickelter Sprachautomaten sei nicht mehr möglich. Das bezweifele ich. Aber die Entwicklung von Prüfungsprogrammen ist zeit-, energie- und kostenintensiv. Und sie muss verbindlich eingefordert werden; so wie wir von jeder Schülerin und jedem Schüler fordern, den Unterschied von Argumentation und Propaganda zu erlernen. Denn das ist eine Grundvoraussetzung für die Mündigkeit des homo sapiens (als homo praestans).

Die Behauptung, meine Voraussetzung sei ein moralisches Postulat und könne technisch/programmatisch nicht durchgesetzt werden, ist eine Schutzbehauptung derer, die den Missbrauch planen. Ich beginne die Erläuterung meiner Überzeugung mit einem Beispiel aus dem Alltag unserer Gesellschaft: dem Backautomaten. Schon heute ersetzen Backautomaten die Arbeit des Bäckers, wenn es um „Normal-Brot“ und Brötchen geht. In einer großen Brotfabrik beginnt die Herstellung eines Brotes (besser: einer Masse von Broten) mit der Planung der gewünschten Sorte, der Herstellung der gewünschten Teigmischung bis zum gebackenen Brot (wenn notwendig: mit Verpackung). Dieser Prozess läuft KI-gesteuert ab; dies schließt eine KI-gesteuerte Prüfung, um Fehler zu vermeiden, in jedem Abschnitt des Herstellungsprozesses ein. Wie präzise diese Fehlerprüfung ist, hängt von der technischen Komplexität der „Backstraße“ ab. So kann es ökonomisch günstiger sein, abschnittsweise einen Menschen (ehemaligen Bäcker) als Prüfer einzusetzen, oder – im Gegenteil – die einzelnen Fehlerprüfungen (und die jeweilige Korrektur) durch den Automaten selbst vornehmen zu lassen; bis zu dem hoffentlich seltenen Fall, dass die Backstraße gestoppt werden muss (und ein Mensch eingreifen bzw. der Entstehungsprozess neu beginnen muss).

Ich habe versucht zu verdeutlichen, dass die 100%ige Selbststeuerung des Backautomaten eine Frage von Konstruktion, Zeit, Energie und Kosten ist; die KI ist keineswegs überfordert, sondern ihr Einsatz optimiert den möglichen Eingriff eines Bäckers (besser: eines auf Backwaren geschulten Technikers, der sich mit KI auskennt).

Allgemeiner formuliert: bei der Herstellung von Produkten (hier für den Gebrauch/Konsum) ist eine vollständige automatisierte Problemlösung (von der Planung bis zum Vertrieb) mit optimierter Fehlerprüfung und Korrektur möglich (wenn gewünscht). Dieser Automat optimiert die beschränkten Fähigkeiten eines menschlichen Bewusstseins (selbst mit handwerklicher Qualifikation).

Natürlich setzt die Planung und Herstellung eines solchen Automaten (und auch die Wartung) fachliche Qualifikation voraus – und auch Missbrauch ist möglich; aber gelten diese Bedingungen bzw. Möglichkeiten nicht auch für entsprechend geplante und konstruierte Sprachautomaten?

Zu (2):  Bevor ich Unterscheidungskriterien (des menschlichen Bewusstseins) aufzeige, die auch einem Sprachautomaten ermöglichen, zwischen Argumentation und Manipulation zu unterscheiden und Propaganda-Texte wie sinnlose Wortreihungen zu erkennen und gegebenenfalls zu blockieren, diskutiere ich die Problematik eines Predigtautomaten, also eines Automaten, der religiöse Sprachspiele, inklusive moralischer Imperative, reproduziert.

Zwischendurch entkräfte ich eine zur Zeit in den Medien diskutierte Problematik des Verhältnisses von Eigentum, Kunstanspruch und Sprachspielereien; Stichwort: Dadaismus. Meine Position: die sinnlose Verknüpfung von Wörtern ist sowohl dem sprachmächtigen menschlichen Bewusstsein, wie dem so programmierten Sprachautomaten möglich. In beiden Fällen können die jeweils Verfügungsberechtigten (der dadaistische Schriftsteller oder der dadaistische Programmierer eines Sprachautomaten den Anspruch erheben, ein „Kunstwerk“ zu produzieren. Problematisch wird es erst für den Kunstkritiker: nicht weil wir unterschiedliche Akteure haben (Mensch bzw. Automat), sondern weil der Automat massenweise „Kunstwerke“ produzieren kann und damit den Kunstmarkt überschwemmt und die Kunstkritiker überfordert. Es sei denn, diese Kritiker unterstellen einen höchst problematischen Kunstbegriff: Kunst kann nur sein, wenn das Werk von einem Menschen hergestellt wurde. Damit werden aber die Kriterien der Ästhetik auf die Arbeit der jeweiligen Produzenten reduziert – und ergeben sich nicht aus der Wahrnehmung des Artefaktes. Übrigens ist dieses Missverständnis nicht neu; ich erinnere an die Frage, ob Menschenaffen Bilder malen können. Die Antwort ergibt sich erst aus dem gemalten Bild, nicht aus dem Maler. Zugegeben ist das Missverständnis im Alltag virulent: wer als „Künstler“ anerkannt ist (wie immer diese gesellschaftliche Anerkennung zustande kommt), produziert „Kunst“. (Da ich mich – für das Finanzamt bzw. für eine anonyme Öffentlichkeit als „Schriftsteller“ bezeichne, sind meine Texte/Erzählungen noch keine Kunst, auch wenn mir – und hoffentlich anderen –  das Ausdenken/Schreiben/Lesen dieser Texte Vergnügen bereitet. Übrigens veröffentliche ich zumeist „Sachtexte“ und dafür gibt es Kriterien – siehe den Anspruch der Argumentation, die mehr und anders ist als eine Meinung.)

Ich kehre zu meiner Argumentation bezüglich der Risiken von neuen KI-gesteuerten Sprachautomaten zurück und analysiere – als Gedankenexperiment – den Predigtautomaten.  Die Nutzlosigkeit wie auch der Missbrauch liegen auf der Hand. Der (angedachte) Predigtautomat reproduziert und optimiert das von mir so beschriebene und anderswo skizzierte „Gottesgeplapper“, aber er übersetzt und interpretiert das jeweilige religiöse Sprachspiel nicht – in sinnvolle Aussagen im anthropozentrischen Weltverständnis.

Die Frage ist: wie verhält sich der Predigtautomat mit den zahlreichen Oxymora in der religiösen Sprache? Entweder, so meine Antwort, er reproduziert und „verfeinert“ die logisch widersprüchlichen Aussagen, dann produziert er sinn-lose Predigten, oder er erkennt als algorithmisch geschulter Automat die (formalen) Fehler – und streikt. Es wäre die verantwortungsvolle Aufgabe der Programmierer, den Automaten so zu programmieren, dass er die Fehler auf- und anzeigt.

Wahrscheinlicher ist der Missbrauch, da auch religiöse Sprachspiele Wirkung zeigen, weil entweder am theozentrischen Weltbild festgehalten wird, bzw. die Struktur der Projektion (im Sinne der Religionskritik des aufgeklärten Denkens) nicht erkannt wird. Die Wirkung von Oxymora ist dann Manipulation (Konsequenz: naive Frömmigkeit – und Aberglaube -statt aufgeklärter Religiosität).

An anderer Stelle habe ich versucht aufzuzeigen, dass das menschliche Bewusstsein in der Form aenigmatischer Erkenntnis (inklusive bewussten Schweigens) Erlösung denken kann: als konkrete Utopie. Ich sehe keine Möglichkeit, wie ein Automat (Kurzform: KI) diese spezielle Denkform des menschlichen Bewusstseins übernehmen kann. Schon bei erzählenden Sprachspielen (Poesie) gerät der Sprachautomat an seine Grenze, auch wenn der Zuhörer oder die Leserin den Unterschied zwischen (geschickter) Imitation – verursacht durch eine entsprechende Programmierung – und menschlicher Erfahrung (ausgedrückt durch entsprechende „poetische“, zwischenmenschliche Sprachspiele) nicht mehr erkennt.

Meiner Überzeugung nach gehört es zu einer verantwortungsvollen Programmierung eines Sprachautomaten, dass er den Unterschied zwischen Imitation und zwischenmenschlicher Sprache aus konkreter Erfahrung den Hörerinnen und Lesern selbst und unverzüglich mitteilt. Ist der Automat dazu nicht in der Lage (obwohl er es kann), handelt der Programmierer (der programmierende Konzern) verantwortungslos und kriminell. Diese Unklarheit entbindet die Benutzer eines Sprachautomaten nicht vom kritischen Umgang – und die Gesellschaft nicht, möglichen Missbrauch offenzulegen und zu ahnden.

Anhand des Gedankenexperiementes eines Predigtautomaten  habe ich zu zeigen versucht, welche Konsequenzen sich aus dem Unterschied zwischen Imitation von Sprache und zwischenmenschlicher Kommunikation aus gemeinsamer Erfahrung (durch erzählende Sprachspiele) ergeben. Selbst zwischenmenschliche Erfahrungen und die konkrete Utopie der Erlösung sind erzählbar und aenigmatisch erkennbar. Sie überschreiten die Möglichkeiten eines Sprachautomaten, auch wenn das – auf den ersten Blick – nicht wahrnehmbar ist. Aber der Missbrauch kann und muss angezeigt werden.

Ich fasse zusammen: Der von mir ausgedachte KI-gesteuerte Predigtautomat produziert religiöse Sprachspiele durch programmierte Imitation, optimiert dieses „Gottesgeplapper“ und fördert den Aberglauben. Daher ist Aufklärung und verantwortlicher Umgang mit der Programmierung von Sprachautomaten auch im Christentum weiterhin dringend notwendig.

 

Literaturhinweise:

Jürgen Schmitter: Aufgeklärter Realismus. Ein Handwörterbuch als Gesprächsgrundlage für Atheisten und Christen, Münster 2020

Jürgen Schmitter: Nachdenken aus der Peripherie im Anthropozän, Münster 2023

Missverhältnisse in der Einschätzung von Artifizieller Intelligenz (AI/KI)

In der aktuellen Medienlandschaft wird die neue Dimension der Herstellung und des Gebrauchs Künstlicher Intelligenz (KI/AI) als Kampf und Gefahr problematisiert. Ich verweise auf zwei Spiegel-Artikel: „Wie der Hype um KI einen globalen Machtkampf ausgelöst hat“ (Der Spiegel 10/2023) und „Diese sechs Dinge braucht man, um eine KI zu bauen“ (ebd. www.spiegel.de/netzwelt). Die Autoren sprechen in diesen Artikeln vom „Weltgeist aus der Maschine“ und ich zitiere: „Doch KI ist alles andere als Spielerei. Es geht um Macht und Milliarden. Ein globaler Kampf ist entbrannt.“

Es geht also (auch) um die Durchsetzung ökonomischer Interessen bei der Herstellung und beim Verkauf „handlicher“ Instrumente zum präzisen Erkennen und zur Kontrolle menschlichen Verhaltens. Wiedererkennungs-, Täuschungs-, Simulations- und Imitationsverfahren sind heute so präzise und zeitgleich, dass der einzelne Mensch – wie auch Institutionen – nicht mehr unterscheiden können, ob Bewusstseinsleistungen oder Computerleistungen vorliegen. Totale Kontrolle wie kaum überprüfbarer Missbrauch – bei hohem Energieverbrauch und Einsatz krimineller Energie – sind gegeben.

Das ist unstrittig. Dennoch frage ich mich, wieso ein als menschlicher Kopf modellierter Roboter, der seine Umwelt weit präziser wahrmimmt, als das die menschlichen Sinnesorgane je können, und der mit seiner Umwelt kommuniziert, solche Erregung und solchen Schrecken auslöst?

Ich vermute, weil wir Menschen vor der Wirkung eines Kleincomputers in der Gestalt eines menschlichen Kopfes (inklusive Gehirn) erschrecken. Diese Wirkung ist verständlich und lächerlich zugleich; verständlich, weil wir einen „homunculus“ erblicken – und die Wirkungsgeschichte des künstlich konstruierten Menschen wie auch des gestorbenen „Wiedergängers“ ist eine alte Geschichte, eine „Gruselgeschichte“; diese Wirkung ist zugleich lächerlich, weil ein Roboter ein auf menschliches Aussehen und Verhalten zugeschnittener Automat ist, der auf Basis wissenschatlicher Forschung und Erkenntnis bestimmte Möglichkeiten des menschlichen Bewusstseins – seiner Sinnesorgane und seiner Fähigkeit zu Sprache und Kommunikation – übertrifft. Über das Verhältnis von Automat (als intelligenter Maschine) und menschlichen Bewusstsein ist Endgültiges nicht ausgesagt, außer, dass einerseits Automaten bestimmte Möglichkeiten des Menschen (sein Erinnerungsvermögen, sein begreifendes und reprouzierbares Erkennen und Wissen) um ein Vielfaches präziser und – bei ausreichender Energiezufuhr – schneller kombinieren und reproduzieren können;und dass andererseits – unter den Bedingungen der KI im Anthropozän – der homo sapiens ein homo praestans ist; anders formuliert: am Ende des Anthropozän sind die Menschen für ihr Denken und Handeln allein verantwortlich. Dies schließt nicht aus, dass sie selbstverschuldet unmündig bleiben und schließt ein, dass sie. ihre Mündigkeit, ihre Verantwortung missbrauchen; also verantwortungslos, verbrecherisch denken und handeln.

Ich unterstelle dass die mediale Diskussion über künstliche Intelligenz anhand von Robotern im Sinne von homunculi eine ablenkende, auch Angst (oder Zuneigung) auslösende, wenn auch gefährliche Spielerei ist. Sie lenkt von den entscheidenden Leistungen wie Gefahren heutiger Problem-Lösungs-Automaten ab.

Heute, am Ende des Anthropozän, ist es möglich und vielfach realisiert, unterschiedliche Produkte von der Planung bis zum Endprodukt „fehlerfrei und automatisch“ herzustellen. Ich nenne als Beispiele den Backautomaten, den PKW oder Waffen aller Art. Die automatisierte Herstellung von Produkten aller Art stellt eine neue Form der industriellen Produktionsweise dar, die ohne den Gebrauch der Künstlichen Intelligenz nicht möglich wäre. Diese Produktionsweise übertrifft in Qualität, Fehlerkontrolle und Quantität alle bisherigen handwerklichen Arbeitsweisen. Sie stellt eine (in meinem Sprachgebrauch) gelungene „Auslagerung“ der Möglichkeiten (Potenzen) des menschlichen Bewusstseins dar.

Weiterhin stellt die Auslagerung der Erkenntnis- und Erinnerungsfähigkeit des menschlichen Bewusstseins einen entscheidenden Maßstab für den wissenschaftlichen Fortschritt der Menschheit dar. Dieser geschichtliche Prozess – nicht zu verwechseln mit der Naturgeschichte des homo sapiens – beginnt mit der Kommunikation (Sprache) und der Sicherung des Wissens durch das Buch und endet mit den Möglichkeiten des Rückgriffs und der Verarbeitung in weltweiten Informationssystemen. Der heutige wissenschaftliche Fortschritt ist ohne die Möglichkeiten der KI nicht mehr denkbar und praktisch umsetzbar (research & development). Die Menschheit hat gelernt – wenn auch in unterschiedlichem Maße in entstandenen wie vergangenen Gesellschaftsformationen und Produktionsweisen –, die Summe des erkannten Wissens zu reproduzieren und in Problemlösungen umzusetzen.

Diese Entwicklung entmachtet den Menschen nicht, wenn er seine Verantwortung und Kontrolle sachgemäß umsetzt. Das Problem der gelingenden Machtkontrolle – beim erfolgreichen Lösen von Problemen – ist bis heute nur unzureichend gelöst. Beispielhaft nenne ich, dass nur 30% der derzeitigen Weltbevölkerung in Demokratien leben, also zumindest durch freie Wahlen politische Machtkontrolle ausüben können.

Der homo sapiens im Anthropozän ist zum homo praestans geworden. Für mich ist diese Aussage eine notwendige Konsequenz aus dem in Europa im 18. Jahrhundert begonnenen Prozess der Aufklärung, der seine Wurzeln schon in der Renaissance und noch früher im jüdisch-christlichen Messianismus hat.

Der Prozess der Aufklärung ist – so mein heutiger Befund –, bedingt durch so unterschiedliche Bewegungen wie die Romantik, den Naturalismus und den „postmodernen“ Konstruktivismus abgebrochen worden. Hinzu kamen antiaufklärerische, dogmatische Positionen des römischen Katholizismus. Mein Vorschlag ist, unter den Bedingungen der anthropozentrischen Weltauffassung (im Sinne der Hannah Arendt, dass die Menschen die „sterblichen Schöpfer ihrer Umwelt“ sind), ausgehend von einer aufgeklärten, realistischen Wissenschaftstheorie, eine verbindliche, universale Ethik zu entwickeln, deren Grundkategorien Mündigkeit, Menschenwürde und Empathie sind.

Auf dieser kategorialen Grundlage können und müssen die Menschen für ihr Denken und Handeln „einstehen“ (homo praestans). Ihre, unsere Verantwortung ist universal, aber bleibt an ihre Natur als sterbliche Lebewesen auf dem Planeten Erde rückgebunden. Aus dieser Einsicht folgert Hannah Arendt, dass die Welt „im Sein gehalten“ werden muss; daher muss die Welt kontinuierlich „eingerenkt“ werden. Das ist keine apokalyptische Endzeitprognose, sondern eine realistische Verpflichtung. Die Menschen stehen vor der (grundsätzlichen, da kategorialen) Aufgabe, sich vor Verantwortungslosigkeit und Verbrechen gegen Mitmenschen und Umwelt zu schützen und eine mögliche Selbstzerstörung zu verhindern (denn eine „atomare“ oder „biologische“ Vernichtung der Menschheit ist möglich).

Ich kehre zu meiner Anfangsüberlegung zurück: angesichts des „radikalen Universalismus“ als Konsequenz eines weltweiten Aufklärungsprozesses (ich benutze einen Begriff von Omri Boehm aus seinem gleichnamigen Buch, Berlin 2022/Original auf Englisch) sind die Ängste oder die Bewunderung vor dem Homunkulus-Roboter eine lächerliche Spielerei, durch die die Notwendigkeit der Kontrolle der heutigen Computer-Systeme überdeckt, überspielt wird.

Was die Intelligenz eines Roboters bestenfalls und unstrittig dokumentiert, ist, dass die Wahrnehmung des menschlichen Bewusstseins (durch seine Sinnesorgane) und seine Steuerungsfunktion künstlich optimierbar werden. Aber die Frage, das Problem der Verantwortung wie auch die Umsetzung der Kreativität (der schöpferischen Kräfte) für Freiheit, Gerechtigkeit und Menschenwürde bleiben erhalten. Diese universale Verpflichtung spiegelt sich in der zeit- und ortlos erfahrbaren Utopie der Erlösung.