ChatGPT und Propaganda

1) Propaganda

Wir leben in einer schematisierten Welt und benutzen schematisch unsere Sprache, nach Schema F sagt man im Alltag. Unsere Sprache besteht aus Wörtern und Sätzen. Es gibt grammatikalisch gesehen  eine Wort- und eine Satzlehre. Wenn ich nun in irgendeiner Sprachwelt Untersuchungen anstelle, welche  Wörter in Sätzen benutzt werden, dann kann ich relative Häufigkeiten und, bei einer sehr großen Masse an Material (big data), sogar Wahrscheinlichkeiten angeben und  ich kann vorhersagen, welches Wort als nächstes  höchstwahrscheinlich kommt, und  ich liege damit meistens richtig.

Da unsere Sprache von Millionen von Menschen fürchterlich  missbraucht wird, schlägt sich dieser Missbrauch auch in unserer Untersuchung nieder.  Auch wenn von Künstlicher Intelligenz gesprochen wird, gilt der alte Ausspruch von vor 50 Jahren  der  alten EDV  (Elektronische Datenverarbeitung): GIGO,  oder Garbage In Garbage Out (Müll rein, dann auch Müll raus). Wenn Ich viele schreckliche Texte als Müll eingebe, bekomme ich auch künstlich erzeugte Texte als Müll heraus. Politischer Müll, der uns täglich in großen Massen um die Ohren fliegt, nennt man Propaganda. Frau Sibylle Anderl sagt das auch in ihrem FAZ Artikel vom 18 .2. deutlich, wenn sie in ihrem Leitartikel „Noch mehr Desinformation“ ausführt, wenn  „Sprachsysteme,  die, lediglich Regeln folgend, Wörter aneinanderreihen, ohne deren Faktizität beurteilen zu können“   im  Müll oder in der   Propaganda münden. Das Problem in ChatGPT ist, wie man Propaganda (Müll)  verhindern kann. Wir erinnern uns: Der bedeutendste Propagandist aller Zeiten hieß Joseph Göbbels. Der war sogar Propagandaminister im 3. Reich. Ich  erinnere mich  an ihn, wenn ich Wladimir Putin  von seiner  militärischen Spezialoperation  in der Ukraine reden  höre.

 

2) Hilfen für ChatGPT durch ein materiales folgerichtiges Denken und durch Wikipedia.

Wie kann man verhindern, dass ChatGPT eine Propagandamaschine wird?  Man könnte auch allgemeiner fragen: „Wie kann eine unredlich Sprachverwendung für Chat GPT möglichst ausgeschlossen werden?“

Mit ChatGPT befinden wir uns vom Ansatz her in einer dialogischen Situation. Und deshalb können wir auf einen Fundus in Sachen Logik und Netzverbreitung  zurückgreifen. Es gibt eine Dialogische Logik und es gibt ein sehr erfolgreiche Netz-Enzyklopädie, Wikipedia genannt. An beiden interessiert uns nicht das Detail, sondern nur das methodische Vorgehen, das wir ChatGPT empfehlen, sich mal anzuschauen. In der Dialogischen Logik bricht man eine Gesamtaussage in Teilaussagen herunter, bis man diese material tatsächlich bewerten kann.  Ist eine Teilaussage gültig, dann kann sie übernommen werden, ist die Teilaussage ungültig, dann wird sie entfernt. Das Gültigerklären geschieht  in einer Diskussion unter beliebig vielen Diskutanten im Netz, wie das bei Wikepedia geschieht.  Wikipedia hat eine ganze Diskussionsseite eingeführt, um zu zeigen, wie das im Detail gehandhabt wird. Mit einem Reiterfeld „Diskussion“ kann man  den Verlauf einer jeden Diskussion nachverfolgen und sieht auch, weshalb ein Beitrag ausgeschieden wurde. Man ist bei Wikipedia natürlich nur an allgemeinem Wissen, an einem enzyklopädischen Wissen interessiert. Meinungen sollen der Konzeption nach  in einem besonderen  Beitrag „Meinungsbild“ festgehalten werden. Man muss bei einer Meinung erkennen, dass (frei nach Kant) subjektiv wie auch objektiv ein unzureichendes Fürwahrhalten vorliegt. Fakten oder Tatsachen  gründen sich auf material wahren Aussagen.  So etwas wie alternative Fakten, von denen man Im Politischen hört, kann es in dieser Welt nicht geben. Eins dürfte sicher sein: Ohne Eingangskontrolle wird ChatGPT im Sumpf des Internets untergehen.

3 Kommentare zu „ChatGPT und Propaganda

  1. Fürwahrhalten ist (frei nach Frege) Psychologie und keine (Sprach-)Logik. Damit ist Eingangskontrolle nur zum Teil automatisiert möglich. Das liegt auch am Unterschied zwischen Wörtern (Informationstechnologie) und Begriffen (Menschen).

  2. Wie man mit ChatGPT sinnvoll arbeitet

    Den fundamentalen Unterschied zwischen Wörtern und Begriffen darf man niemals aus den Augen verlieren. Ein ChatBot verfügt über Wörter, aber ein Mensch über Begriffe.

    Sprechen ist für den Menschen auch handeln, eben ein Sprachhandeln. J. A. Austin: How to do things with words (1962). ChatGPT handelt nicht, sondern berechnet über Algorithmen die Wahrscheinlichkeit von Wortfolgen.

    Wenn wir den fundamentalen Unterschied zwischen der Intension (bei Frege Sinn) und Extension (bei Frege Bedeutung) von Begriffswörtern hier zugrunde legen, kann folgendes festgestellt werden: Der Computer mit einem geladenen ChatGPT bewegt sich „extensional“, auf der Grundlage von Zeichenfolgen, Wörtern oder Daten. Der Mensch aber denkt und handelt „intensional“, auf der Grundlage der von seinen Begriffen im (natürlichen) Gehirn ausgelösten Gedanken.

    Nachdem diese KI-Software nun schon mal auf dem Markt ist, müssten schleunigst Anleitungen für das sinnvolle Arbeiten (z. B. für das sinnvolle Problemlöser, Modellieren oder einfach nur das sinnvolle Schreiben) mit ChatGPT geschrieben werden. Und das kann eben auch schon mit Hilfe von ChatGPT – aber mit einer menschlichen Eingabe- & Ausgabekontrolle – geschehen.

    1. Lieber Herr Ortner,

      Das ist ein neuer Gedanke: CHatGPT als Mittel zur Erziehung einsetzen oder den Menschen den Unterschied zwischen Extension (Umfang) und Intension (Inhalt) beibringen. Bisher sind die Versuche misslungen. Denn eine nicht-verstandene Abstraktionslehre steckt dahinter. Wie kommt man von Wörtern zu Begriffen? Das ist für viele Menschen noch ein Rätsel.

      Ihr
      H.Wedekind

Kommentare sind geschlossen.