Vom Bewusstsein und der Überzeugung aufgeklärter Menschen am Ende des Anthropozän

Auf einem Kalenderblatt des Monats September fand ich den Spruch: „Gläubige brauchen keine Erklärung, Ungläubigen hilft keine Erklärung“. Diese Aussage, vom Kalender als „Sprichwort“ gekennzeichnet, ist doppelt unsinnig.

Ohne die Möglichkeit und Notwendigkeit zu erklären, werden aus Gläubigen Abergläubige, Wundergläubige oder Spinner; und aus Ungläubigen werden Ideologen, Weltanschauungsatheisten oder Kritiker aus Prinzip.

Wer überzeugt ist, zweifelt aus Einsicht, ohne zu verzweifeln. Überzeugend ist nur der, der seine Überzeugung erklären kann, auch wenn im Einzelfall seine Argumentation sprachlicher Oxymora bedarf.

Der alltägliche Gebrauch des deutschen Wortes „glauben“ ist mehrdeutig und mehr als missverständlich. Die Differenz von credere und putare im Lateinischen geht verloren oder der Gebrauch wird missbraucht.

Daher sind mir alltägliche wie verfremdete religiöse Sprachspiele höchst verdächtig, sofern sie nichts (er-)klären, sondern nur behaupten. Sie sind sinn-los. Nur wer argumentiert, kann überzeugen.

Daher weisen aufgeklärte Menschen, Christen, Muslime wie Atheisten, die Anfrage: Was glaubst Du? zurück und entgegnen mit der Rückfrage, was mit dem Wort „glauben“ gemeint sei: unerklärtes, ungeklärtes, unerklärbares „meinen“ oder eine argumentativ begründete Überzeugung, die den Zweifel einschließt.

Überzeugungen werden im Gespräch verstehbar: sie entsprechen dem „beredten Schweigen“ (Oxymoron), sie klären auf, indem sie zwischen chronologischen Vorstellungen und kairologischen Erfahrungen unterscheiden.

Wer die Kunst der Unterscheidung leugnet, bleibt im Labyrinth des Aberglaubens und der Magie gefangen. Wer zu unterscheiden weiss, wer zu argumentieren vermag, der weiss um die Dynamik des Vorläufigen – beim Wahrnehmen wie Erkennen.

Die Potenz des menschlichen Bewusstseins, (alltägliche wie wissenschaftliche) Probleme zu lösen, ist vorläufig (provisorisch) wie vorausschauend (antizipativ) zugleich.

Ich differenziere zwischen drei Möglichkeiten (Potenzen) des Bewusstseins zu denken: das begreifende Denken, das poetische Denken (auch erzählendes Denken) und das utopische Denken.

Dem entsprechen drei verschiedene Sprachspiele: das logische Sprachspiel (auch mathematisches Sprachspiel), die erzählende Sprache (Poesie) und das utopische Sprachspiel (kairologische Erfahrungen jenseits von Raum, Zeit und Vergänglichkeit – im Gegensatz zu chronologischer Wahrnehmung bzw. Erkenntnis).

Wahrnehmen und Erkennen des homo sapiens am Ende des Anthropozän

sind aenigmatisch strukturiert („videmus nunc per speculum in aenigmate“, Ad Cor.I, 13, Paulus aus Tarsus, jüdischer Schriftgelehrte und griechisch sprechender antiker christlicher Philosoph).

 

Dr. Jürgen Schmitter M.A. Metelen, am 21. November 2023

Was ist der menschliche Geist (mind)? – Was ist Aufklärung (enlightenment)?

Was ist der menschliche Geist (mind)?

Was ist Aufklärung (enlightenment)?

Auf diese Fragen antworte ich zum argumentativen Gebrauch als Philosoph: Gemeint ist die Fähigkeit des homo sapiens, durch sein Bewusstsein zu denken und sich zu denken (Entwicklung des Selbstbewusstseins).

Am Anfang der Bewusstseinsbildung des homo sapiens steht die Gesprächsfähigkeit, die Kommunikation. Die Möglichkeit des Gespräches schafft Verständigung. Die Verständigung in der Menschengruppe und die Entwicklung des individuellen Bewusstseins sind seit Beginn des Lernens des einzelnen Lebewesens, also seit seiner Entstehung, in einer dauernden Wechselwirkung.

Die Möglichkeiten und Leistungen des Bewusstseins bezüglich seiner Inhalte lassen sich als gemeinsame Schnittmenge von Natur und Norm (der Kulturbildung) beschreiben. Die Fähigkeit zu denken ist von Anfang an ein Prozess des Verstehens und der Verständigung. Daher entwickelt sich die Bildung des Bewusstseins in der Form des Gespräches; sei es zwischen Mutter und Kind (schon vor der Geburt) oder in der Wahrnehmung der Umwelt.

Das Bewusstsein des Menschen hat drei zu unterscheidende Denkmöglichkeiten; diese drei Möglichkeiten (Potenzen) sind (zunächst) an der Entwicklung der menschlichen Sprache abzulesen:

  1. Sprachspiele, die logisch aufgebaut und rekonstruierbar sind; Grundlage ist das begreifende Denken.
  2. Sprachspiele, die erzählend/poetisch aufgebaut sind und zwischenmenschliche Erfahrungen zum Ausdruck bringen; ich spreche vom poetischen Denken.
  3. Sprachspiele religiöser Art, die ein theozentrisches Weltbild zur Voraussetzung haben und – gemäß des Projektes der Aufklärung – der Übersetzung auf der Grundlage heutiger anthropozentrischer Weltdeutung bedürfen, um ihre (existenzielle) Bedeutung in aenigmatischer Form zu erkennen.

Entweder sind religiöse Aussagen (auf theozentrischer Basis) Projektionen und/oder steckt in ihnen eine (verborgene) Botschaft in Form einer Utopie. Ich spreche in diesem Fall vom utopischen Denken.

Religiöse Sprachspiele bedürfen der Übersetzung, da sie mehrdeutig oder sinn-los sind. Sinnlos ist ein Sprachspiel, wenn es nicht kommunikativ ist.

Das Bewusstsein projiziert seine Raumerfahrung in eine Mehrzahl von Räumen (z.B. Erde, Himmel, Unterwelt). Es projiziert seine Zeiterfahrung (im chronologischen Sinn) in ein verursachtes oder erwartetes Ende (im Sinne der Apokalypse).

Demgegenüber verweist das utopische Denken – und die entsprechenden Sprachspiele – auf menschliche Erfahrung ausserhalb von Zeit und Raum, aber innerhalb der Denkmöglichkeiten des menschlichen Bewusstseins. Ich spreche daher von kairologischer statt chronologischer Erfahrung. Wenn von „Augenblick“ oder „Ewigkeit“ gesprochen wird, wenn Oxymora benutzt werden (wie z.B „Menschwerdung Gottes“), kann die Utopie der Erlösung gemeint sein. Da die Menschen sterblich sind, kann  „Erlösung“ nur in utopischer Weise gedacht und gesprochen werden (jenseits von Raum und Zeit).

Wie können die Potenzen des sterblichen Bewusstseins einheitlich – ohne Hilfe metaphysischer Konstruktionen – zusammengefasst werden?

Die einheitliche Aktivität des Bewusstseins – bei unterschiedlichen Denkmöglichkeiten – besteht darin, Probleme zu lösen (erfolgreich und wiederholbar). Diese Lösungen sind vorläufig (im doppelten Sinn: provisorisch und antizipativ), da die Schöpferkraft des homo sapiens begrenzt, sterblich ist.

Daher spricht Hannah Arendt davon, dass die Menschen sterbliche Schöpfer sind (1958/2000) (– und keine Geschöpfe).

Erlösung ist die Hoffnung allen Problemlösens; diese Konsequenz kann als (konkrete) Utopie gedacht und bekannt werden (im Sinne von bekennen).

 

p.s.

Problemlösungen (im weiten Sinn) können erinnert, gesammelt und „ausgelagert“ werden (Schrift,Papyrus, Buch, Bibliothek, Internet – AI); das ändert nichts an ihrer Vorläufigkeit und der Verantwortung (der homo sapiens als homo praestans).

Die jüdisch/christliche Bibel  kennt zwei grundlegende Erzählungen: die messianische Perspektive der Erwartung der Erlösung (in der konkreten Utopie des Erlösers/Messias) und die rückblickende Schöpfungsperspektive (Schöpfungsmythen/Paradiesvorstellungen). Für die jüdische Täuferbewegung in der Konsequenz der Prophetenreden ist das messianische Denken (die Erwartung des Messias) primär; der Rückblick auf die Schöpfung der Welt und die Erschaffung des Menschen sind sekundär.

Der Rückblick auf den Anfang setzt ein theozentrisches Weltverständnis voraus; Gott als Schöpfer, der Mensch als Geschöpf. Dieses Verständnis drückt sich in religiösen Sprachspielen aus (religo = Rückbezug).

Die Messias-Erzählungen sind zukunftsorientiert (Utopie der Erlösung; konkret: Messias-Utopie). Das messianische Denken kann daher auch in das anthropozentrische Weltbild integriert und übersetzt werden. In diesem Weltverständnis wird „Gott“ zu einer aufzuhebenden „Arbeitshypothese“ (so Dietrich Bonhoeffer); dennoch kann Erlösung (als Utopie) gedacht werden.

Diese Überlegung erlaubt mir einerseits beim Lösen von Problemen einen „methodischen Atheismus“ zu unterstellen, andererseits „Erlösung“ als konkrete Utopie zu denken und zu bekennen. Daher folgere ich: ein aufgeklärter Mensch (am Ende des Anthropozän) kann ein methodischer Atheist und zugleich ein aufgeklärter Christ sein.

Dieses Resultat ergibt sich auch, wenn ich das Programm der Aufklärung konsequent zu Ende denke und nicht mit Immanuel Kant (Was ist Aufklärung? 1783) beginne, sondern mit Erasmus von Rotterdam und seiner Korrektur des Prologs des Johannes-Evangeliums in der Vulgata-Übersetzung des Hieronymus: logos = sermo, nicht verbum; im Anfang war das Gespräch, nicht das Wort (vor 1518). Übrigens: Martin Luther kannte diesen Übersetzungsvorschlag von Erasmus in einigen seiner lateinischen Varianten, hat ihn aber bei seiner Übersetzung ins Deutsche nicht berücksichtigt.

Ich nenne meine vier Grundaussagen des universalen Programms der Aufklärung:

  1. Im Anfang war das Gespräch, die Kommunikation, nicht das isolierte, dogmatische Wort. (Erasmus von Rotterdam)
  2. Habe den Mut, dich deines Verstandes zu bedienen! (Mündigkeit/Autonomie/Verantwortlichkeit; der homo sapiens als homo praestans) (Immanuel Kant)
  3. Die Menschen sind sterbliche Schöpfer (nicht Geschöpfe); deswegen sind sie für den Erhalt der Welt und die Lebensbedingungen der Menschen verantwortlich. (Hannah Arendt)
  4. Die Menschen können und müssen nicht nur Probleme lösen, sie können Erlösung denken (als Umkehr und Befreiung von Zwang, Kult und Tod – in Form der konkreten Utopie). (Paulus aus Tarsus)

Der Sprachautomat imitiert und optimiert die Potenzen des menschlichen Bewusstseins durch „Auslagerung“, aber er ersetzt nicht die Sprache der zwischenmenschlichen Erfahrung.

In einem Gastkommentar der NZZ (vom 1. April 2023) spricht Manfred Schneider von der „zermalmenden Macht des KI-Konformismus – Chat-GPT ist eine trojanische Bombe“. Künstlich gesteuerte Sprachautomaten sind „Maschinen, die mit zermalmender Macht die Wahrscheinlichkeit, die ihre Algorithmen steuern, als digital armierten Konformismus über uns verhängen“. Und Schneider kritisiert, dass keine Öffentlichkeit daran beteiligt ist, „die Programme auf Grundsätze der Wahrheit und der politischen Verantwortung zu verpflichten“.

Ich verstehe die Kritik Manfred Schneiders an den neuen Sprachautomaten so, dass sie die  schon seit langem praktizierte Massenpropaganda optimieren. Den Propagandisten kommt es auf die Wirkung an, nicht auf die Wahrheitssuche, um das Verhalten der Menschen gezielt ihren Absichten gemäß zu beeinflussen. Zwischen Wirkung und Wahrheit soll nicht mehr unterschieden werden – und so präsentiert der KI-Sprachautomat sich als „black box“, als, wie ich formuliere, anonymisierter Propagandist. Daher ist Aufklärung über Absicht und Wirkung, also eine ideologiekritische Analyse weiterhin notwendig. Aber was bedeutet in diesem Sinn, die Programme (dieser neuen Sprachautomaten) auf Grundsätze der Wahrheit und der politischen Verantwortung zu verpflichten?

In der Reproduktion konformistischer Sprache wird der Automat konsequenter sein als das menschliche Bewusstsein – in ideologischer Absicht mit Lüge und Vorurteil. Denn den Menschen soll die Fähigkeit, zwischen Lüge und Wahrheit zu unterscheiden, genommen werden. Die Menschen durch Propaganda zu verführen, ist keine Erfindung der KI, sondern eine missbräuchliche Leistung des menschlichen Bewusstseins. Meine Frage ist, wie können Missbrauch, Verführung und Lüge durchschaut und wirksam erkannt werden?

Ich beginne meine Antwort mit der kurzen Beschreibung zweier Gedankenexperimente:

(1) Ich stelle mir einen Sprachautomaten vor, der die Wirkung einer Rede Adolf Hitlers auf dem Reichsparteitag während der Naziherrschaft noch verbessern soll.

(2) Angesichts zunehmenden Pfarrermangels entwickeln die Kirchen „Predigtautomaten“; die Aussagen in der Form religiöser Sprachspiele werden „ausgelagert“: der Automat wiederholt nicht nur ein Glaubensbekenntnis, sondern versucht eine Interpretation. Auch diese Methode gibt es bereits im Ansatz (wenn auch mit Personen) im Rundfunk und im TV.

Zu (1) In der Kommunikation zwischen Menschen Argumentation durch Manipulation zu ersetzen, um das Denken und Handeln eines Menschen oder einer Gruppe bzw. der Mehrheit einer Gesellschaft im Eigeninteresse oder im Interesse einer Institution oder Ideologie zu beeinflussen, ist nicht neu und sowohl methodisch wie ideologiekritisch untersucht. Daher kann ein Sprachautomat mit dem Ziel der Manipulation programmiert werden.

Nun wissen wir aus der Analyse der Werbung, wie bedeutend der mediale Kontext ist, um eine bestimmte Wirkung zu erreichen. Sprache und Bild und die Einschätzung des Sprechers (Glaubwürdigkeit und  Vorurteil) mitsamt der jeweiligen Situation bestimmen die Wirkung. Auch lassen sich ein bestimmter Wortgebrauch auf zugehörige Vorstellungen und Ideologien zurückführen.

Aber da es die kritische Überprüfung und Offenlegung von Propaganda gibt, kann auch der imitierende Sprachcomputer mit einem kritischen Prüfprogramm programmiert werden, der die Propagandastrategien erkennt, offenlegt und gegebenenfalls blockiert. Die Frage ist, ob eine kritische Prüfung gewollt ist, denn auch sie ist mit zusätzlicher Arbeitszeit, mit weiterer Energie und damit mit hohen Kosten verbunden. Die Frage der Verantwortung (Gebrauch oder Missbrauch) muss vor der Installation von Sprachautomaten geklärt und programmatisch abgesichert werden.

Nun wird behauptet, eine kritische Prüfung entwickelter Sprachautomaten sei nicht mehr möglich. Das bezweifele ich. Aber die Entwicklung von Prüfungsprogrammen ist zeit-, energie- und kostenintensiv. Und sie muss verbindlich eingefordert werden; so wie wir von jeder Schülerin und jedem Schüler fordern, den Unterschied von Argumentation und Propaganda zu erlernen. Denn das ist eine Grundvoraussetzung für die Mündigkeit des homo sapiens (als homo praestans).

Die Behauptung, meine Voraussetzung sei ein moralisches Postulat und könne technisch/programmatisch nicht durchgesetzt werden, ist eine Schutzbehauptung derer, die den Missbrauch planen. Ich beginne die Erläuterung meiner Überzeugung mit einem Beispiel aus dem Alltag unserer Gesellschaft: dem Backautomaten. Schon heute ersetzen Backautomaten die Arbeit des Bäckers, wenn es um „Normal-Brot“ und Brötchen geht. In einer großen Brotfabrik beginnt die Herstellung eines Brotes (besser: einer Masse von Broten) mit der Planung der gewünschten Sorte, der Herstellung der gewünschten Teigmischung bis zum gebackenen Brot (wenn notwendig: mit Verpackung). Dieser Prozess läuft KI-gesteuert ab; dies schließt eine KI-gesteuerte Prüfung, um Fehler zu vermeiden, in jedem Abschnitt des Herstellungsprozesses ein. Wie präzise diese Fehlerprüfung ist, hängt von der technischen Komplexität der „Backstraße“ ab. So kann es ökonomisch günstiger sein, abschnittsweise einen Menschen (ehemaligen Bäcker) als Prüfer einzusetzen, oder – im Gegenteil – die einzelnen Fehlerprüfungen (und die jeweilige Korrektur) durch den Automaten selbst vornehmen zu lassen; bis zu dem hoffentlich seltenen Fall, dass die Backstraße gestoppt werden muss (und ein Mensch eingreifen bzw. der Entstehungsprozess neu beginnen muss).

Ich habe versucht zu verdeutlichen, dass die 100%ige Selbststeuerung des Backautomaten eine Frage von Konstruktion, Zeit, Energie und Kosten ist; die KI ist keineswegs überfordert, sondern ihr Einsatz optimiert den möglichen Eingriff eines Bäckers (besser: eines auf Backwaren geschulten Technikers, der sich mit KI auskennt).

Allgemeiner formuliert: bei der Herstellung von Produkten (hier für den Gebrauch/Konsum) ist eine vollständige automatisierte Problemlösung (von der Planung bis zum Vertrieb) mit optimierter Fehlerprüfung und Korrektur möglich (wenn gewünscht). Dieser Automat optimiert die beschränkten Fähigkeiten eines menschlichen Bewusstseins (selbst mit handwerklicher Qualifikation).

Natürlich setzt die Planung und Herstellung eines solchen Automaten (und auch die Wartung) fachliche Qualifikation voraus – und auch Missbrauch ist möglich; aber gelten diese Bedingungen bzw. Möglichkeiten nicht auch für entsprechend geplante und konstruierte Sprachautomaten?

Zu (2):  Bevor ich Unterscheidungskriterien (des menschlichen Bewusstseins) aufzeige, die auch einem Sprachautomaten ermöglichen, zwischen Argumentation und Manipulation zu unterscheiden und Propaganda-Texte wie sinnlose Wortreihungen zu erkennen und gegebenenfalls zu blockieren, diskutiere ich die Problematik eines Predigtautomaten, also eines Automaten, der religiöse Sprachspiele, inklusive moralischer Imperative, reproduziert.

Zwischendurch entkräfte ich eine zur Zeit in den Medien diskutierte Problematik des Verhältnisses von Eigentum, Kunstanspruch und Sprachspielereien; Stichwort: Dadaismus. Meine Position: die sinnlose Verknüpfung von Wörtern ist sowohl dem sprachmächtigen menschlichen Bewusstsein, wie dem so programmierten Sprachautomaten möglich. In beiden Fällen können die jeweils Verfügungsberechtigten (der dadaistische Schriftsteller oder der dadaistische Programmierer eines Sprachautomaten den Anspruch erheben, ein „Kunstwerk“ zu produzieren. Problematisch wird es erst für den Kunstkritiker: nicht weil wir unterschiedliche Akteure haben (Mensch bzw. Automat), sondern weil der Automat massenweise „Kunstwerke“ produzieren kann und damit den Kunstmarkt überschwemmt und die Kunstkritiker überfordert. Es sei denn, diese Kritiker unterstellen einen höchst problematischen Kunstbegriff: Kunst kann nur sein, wenn das Werk von einem Menschen hergestellt wurde. Damit werden aber die Kriterien der Ästhetik auf die Arbeit der jeweiligen Produzenten reduziert – und ergeben sich nicht aus der Wahrnehmung des Artefaktes. Übrigens ist dieses Missverständnis nicht neu; ich erinnere an die Frage, ob Menschenaffen Bilder malen können. Die Antwort ergibt sich erst aus dem gemalten Bild, nicht aus dem Maler. Zugegeben ist das Missverständnis im Alltag virulent: wer als „Künstler“ anerkannt ist (wie immer diese gesellschaftliche Anerkennung zustande kommt), produziert „Kunst“. (Da ich mich – für das Finanzamt bzw. für eine anonyme Öffentlichkeit als „Schriftsteller“ bezeichne, sind meine Texte/Erzählungen noch keine Kunst, auch wenn mir – und hoffentlich anderen –  das Ausdenken/Schreiben/Lesen dieser Texte Vergnügen bereitet. Übrigens veröffentliche ich zumeist „Sachtexte“ und dafür gibt es Kriterien – siehe den Anspruch der Argumentation, die mehr und anders ist als eine Meinung.)

Ich kehre zu meiner Argumentation bezüglich der Risiken von neuen KI-gesteuerten Sprachautomaten zurück und analysiere – als Gedankenexperiment – den Predigtautomaten.  Die Nutzlosigkeit wie auch der Missbrauch liegen auf der Hand. Der (angedachte) Predigtautomat reproduziert und optimiert das von mir so beschriebene und anderswo skizzierte „Gottesgeplapper“, aber er übersetzt und interpretiert das jeweilige religiöse Sprachspiel nicht – in sinnvolle Aussagen im anthropozentrischen Weltverständnis.

Die Frage ist: wie verhält sich der Predigtautomat mit den zahlreichen Oxymora in der religiösen Sprache? Entweder, so meine Antwort, er reproduziert und „verfeinert“ die logisch widersprüchlichen Aussagen, dann produziert er sinn-lose Predigten, oder er erkennt als algorithmisch geschulter Automat die (formalen) Fehler – und streikt. Es wäre die verantwortungsvolle Aufgabe der Programmierer, den Automaten so zu programmieren, dass er die Fehler auf- und anzeigt.

Wahrscheinlicher ist der Missbrauch, da auch religiöse Sprachspiele Wirkung zeigen, weil entweder am theozentrischen Weltbild festgehalten wird, bzw. die Struktur der Projektion (im Sinne der Religionskritik des aufgeklärten Denkens) nicht erkannt wird. Die Wirkung von Oxymora ist dann Manipulation (Konsequenz: naive Frömmigkeit – und Aberglaube -statt aufgeklärter Religiosität).

An anderer Stelle habe ich versucht aufzuzeigen, dass das menschliche Bewusstsein in der Form aenigmatischer Erkenntnis (inklusive bewussten Schweigens) Erlösung denken kann: als konkrete Utopie. Ich sehe keine Möglichkeit, wie ein Automat (Kurzform: KI) diese spezielle Denkform des menschlichen Bewusstseins übernehmen kann. Schon bei erzählenden Sprachspielen (Poesie) gerät der Sprachautomat an seine Grenze, auch wenn der Zuhörer oder die Leserin den Unterschied zwischen (geschickter) Imitation – verursacht durch eine entsprechende Programmierung – und menschlicher Erfahrung (ausgedrückt durch entsprechende „poetische“, zwischenmenschliche Sprachspiele) nicht mehr erkennt.

Meiner Überzeugung nach gehört es zu einer verantwortungsvollen Programmierung eines Sprachautomaten, dass er den Unterschied zwischen Imitation und zwischenmenschlicher Sprache aus konkreter Erfahrung den Hörerinnen und Lesern selbst und unverzüglich mitteilt. Ist der Automat dazu nicht in der Lage (obwohl er es kann), handelt der Programmierer (der programmierende Konzern) verantwortungslos und kriminell. Diese Unklarheit entbindet die Benutzer eines Sprachautomaten nicht vom kritischen Umgang – und die Gesellschaft nicht, möglichen Missbrauch offenzulegen und zu ahnden.

Anhand des Gedankenexperiementes eines Predigtautomaten  habe ich zu zeigen versucht, welche Konsequenzen sich aus dem Unterschied zwischen Imitation von Sprache und zwischenmenschlicher Kommunikation aus gemeinsamer Erfahrung (durch erzählende Sprachspiele) ergeben. Selbst zwischenmenschliche Erfahrungen und die konkrete Utopie der Erlösung sind erzählbar und aenigmatisch erkennbar. Sie überschreiten die Möglichkeiten eines Sprachautomaten, auch wenn das – auf den ersten Blick – nicht wahrnehmbar ist. Aber der Missbrauch kann und muss angezeigt werden.

Ich fasse zusammen: Der von mir ausgedachte KI-gesteuerte Predigtautomat produziert religiöse Sprachspiele durch programmierte Imitation, optimiert dieses „Gottesgeplapper“ und fördert den Aberglauben. Daher ist Aufklärung und verantwortlicher Umgang mit der Programmierung von Sprachautomaten auch im Christentum weiterhin dringend notwendig.

 

Literaturhinweise:

Jürgen Schmitter: Aufgeklärter Realismus. Ein Handwörterbuch als Gesprächsgrundlage für Atheisten und Christen, Münster 2020

Jürgen Schmitter: Nachdenken aus der Peripherie im Anthropozän, Münster 2023