Für ChatGPT ist es schon in Ordnung, wenn wir der Gebrauchstheorie Wittgensteins folgen. In § 43 in seinen PU’s (Philosophische Untersuchungen) sagt Wittgenstein:“ Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache“. Semantisch ist also klar, was Open AI mit dem Schauen auf eine Unmenge von Sprachgebräuchen (Big Data) da macht. Man hat Wittgenstein §43 PU im Kopf.
Und was die Relevanz (Erheblichkeit) anbetrifft, so bestimme ich, der Benutzer von ChatGPT, die Erheblichkeit durch die Wahl meines Themas, z. B. „Klimawandel“. Auch die Auslegung des mir gebotenen Textes ist meine Angelegenheit. Ich kann akzeptieren oder auch verwerfen. Ich kann auch weiter „chatten“, um noch mehr zu erfahren. Alle drei Relevanzen von Alfred Schütz sind erfüllt: Thematische Relevanz, Auslegungsrelevanz, Motivationsrelevanz.
Wo liegt also der Haken bei ChatGPT?
Wir unterscheiden eine materiale Wahrheit von einer formalen Wahrheit im Sinne Kants. Die materiale Wahrheit braucht zum Beweis ihrer Existenz die Lebenswelt. Die formale Wahrheit braucht die Lebenswelt nicht. Sie gilt schon kraft der Form, wie Kant sagt.
Nehmen wir z.B. den modus ponens, die Abtrennregel: A; wenn A dann B, so auch B. Lebenswelt ist nicht erforderlich.
Man tut bei ChatGPT so, als hätten wir es mit formalen Wahrheiten zu tun, oder eine „Gebrauchswahrheit“ ist wie eine formale Wahrheit zu sehen. Das ist aber grundsätzlich falsch. Oder möchten Sie einem Gerichtsurteil unterliegen, das Chat GPT erstellt hat. Keiner möchte das. Richter sind an die Lebenswelt gebunden.
Wie kann man ChatGPT an die Lebenswelt binden, damit nicht behauptet werden kann, ein Kreis sei eckig, was zum Beispiel Putin analog dazu politisch laufend tut. Man muss einen Dialog mit ChatGPT einführen und den Dialog muss ChatGPT gewinnen. Dialogische Logik ist wie das Gewinnen und Verlieren beim Spiel. Verliert ChatGPT, so wird sein Text in den Papierkorb befördert.
Ich habe mit ChatGPT einen interessanten Dialog zum Klimawandel geführt. ChatGPT führt konform zur gängigen Meinung als Ursache den Anstieg an CO2 an. Dieser Anstieg sei durch Menschen verursacht. Der Anstieg an CO2 korreliert mit der Erderwärmung seit dem Jahr 1750, diese Korrelation ist gut nachvollziehbar. Frage ist sie auch eine Implikation? Die Zunahme an Menschen seit 1750 korreliert ebenfalls mit dem Anstieg an CO2. Nach einigen Schritten erkennt ChatGPT, dass sich die Klimaerwärmung reduzieren ließe, wenn die Anzahl der Menschen wieder auf das Bevölkerungsniveau von 1750 zurückgeführt würde.
Es gibt also bereits einen „Führerschein“ für ChatGPT! Das ist eine dialogische Logik für alle, wie sie uns mit dem Buch „Rüdiger Inhetveen: Logik – Eine dialog-orientierte Einführung“ seit 2003 bereits vorliegt. Da gab es ChatGPT zwar theoretisch, aber praktisch noch nicht.
Gibt es schon:
ChatGPT für Dummies – Eine Dialog-orientierte Einführung? Herr Inhetveen könnte sein Buch in der Richtung leicht umschreiben. Und er hätte sogar ein generatives KI-System (Lehrer) als Basis, mit dem der Leser (Lernender) das Buch „dialogisch“ durcharbeiten könnte.
Denn: Das System ChatGPT ist auf ein Dialogisieren mit seinen Nutzern umzustellen!
Das sollte man auch seinen Erbauern ins Stammbuch schreiben. Wenn ChatGPT ein Dialogsystem wäre, dann wäre auch sein Gebrauch im Dialog Modus zu Implementieren.