Die Geburt der KI aus der Programmierung
Ich programmiere!
Was heißt das?
Das heißt: Ich übertrage meinen Willen, etwas zu tun, auf eine Maschine, das auch zu tun. Vor der Übertragung ist der Wille etwas rein Menschliches, nach dem Übertrag etwas Maschinelles, was wir dann auch etwas Künstliches nennen. Nicht-Menschlich ist das nicht, wegen des menschlichen Ursprungs. Man kann aber sagen, es liegt nunmehr ein künstlicher Wille vor.
Ich habe vor rund 50 Jahren, so um 1972 bei der IBM in San Jose als Gast an einem Kurs über Künstliche Intelligenz teilgenommen. Vortragender war Lotfi Zadeh, der für seine „Unscharfen Mengen“ und „Fuzzy Logic“ berühmt geworden ist. Künstliche Intelligenz (KI) wurde im Kurs als „Mechanical Reasoning“, als „Mechanisches Schließen“ behandelt. Es wurden jede Menge Logische Programme als KI entwickelt, vom Modus Ponens bis hin zur Kontraposition. Das war erstaunenswert und war eben damals das, was man unter KI verstand. Es war auf jeden Fall neu und eindrucksvoll für mich. Die Erkenntnis ist geblieben, dass eine KI praktisch gesehen aus der Programmierung entsteht. Das wurde dann auch durch die Programmiersprache PROLOG 1972 vom französischen Informatiker Alain Colmerauer (1941-2017) bestätigt. Theoretisch ist der Begriff „Künstliche Intelligenz“ auf Alan Turing (1912- 1954) zurückzuführen. Wenn ich nicht mehr erkennen kann, ob ein Computer oder ein Mensch, verdeckt hinter einer Wand, auf meine Frage antwortet, dann ist das KI. Das ist von Turing abstraktiv gedacht, nicht praktisch programmtechnisch. Gleichzeitig ist John McCarthy (1927- 2011) zu sehen, der mit seiner Progammiersprache LISP darstellte, dass KI programmtechnisch verstanden werden muss. McCarthy war Ehrendoktor der Uni Erlangen.
Und dann kamen so um 2006 die Künstlichen Neuronalen Netze (KNN) als Nachbildung des menschlichen Gehirns ins Rampenlicht. Das geschah mit einer solchen Wucht, dass so etwas wie eine Neuroinformatik entstand. Es etablierte sich eine neue Programmiersprache, die Python genannt wurde. Die Sprache ist heute aus der KI nicht mehr wegzudenken. Google hat extra einen Programmbibliothek in Python angelegt, die heftig genutzt wird. Ich habe mich mit dem Buch von Steinwendner und Schwaiger „Neuronale Netze programmieren mit Python“ in die Materie eingearbeitet und festgestellt, dass Python eine objektorientierte Sprache ist, also zum Normalmaß gehört und ohne Furcht erlernbar ist.
Den eigentlichen „ neuronalen“ Schlag aber tat es erst, als im November 2022 das System ChatGPT von Open AI, einer Tochter von Microsoft, auf den Markt kam. GPT heißt „Generative Pre-Trained Transformer“ und deutet darauf hin, dass aus einer Unmenge von vor- trainierbaren Daten mit statistischen Mitteln etwas erzeugt wird. Ob das etwas Neues ist, darüber kann man streiten. Denn, was uns aus der Empirie, aus der Erfahrung also oder aus antrainiertem Zeugs widerfährt, scheint für uns neu zu sein, weil wir es so noch nicht kennen, obwohl es ‚kalter Kaffee‘ ist. Das Antrainierte ist aber bereits in der Welt, also gar nicht neu. Es erscheint mir nur neu, ist aber nicht wirklich neu. Das ist der Ursprung des neuen Ärgers in Schule, Wissenschaft und vor Gericht, und somit ein gefundenes Fressen für die Jurisprudenz. Am besten man sagt immer sofort „Das Ding da, den Text hat ChatGPT produziert nicht ich. Ich habe bloß ‚geprompted‘ (fürchterliches Denglisch!) oder besser ‚Text veranlasst‘“. Noch besser: Man gibt das Thema vor. „Thema“ aus dem Griechischen heißt das Aufgestellte.
„Prompting“ ist im KI-Deutschen ein Modewort geworden. Die Jugend weiß aber sofort, was gemeint ist.
In unserer Politischen und Kultur-Geschichte haben wir ein riesiges Weltgeschehen gespeichert. Können wir aus der Geschichte etwas Neues lernen? Das ist zweifelhaft. Das ist aber eine Frage, die gleichbedeutend ist mit der Frage, ob aus Vortrainiertem in ChatGPT Neues entstehen kann.
ChatGPT war (2022) schon eine Sensation, und hat für viel Aufregung gesorgt, so dass heute noch (also 2024) die Presse mit KI-Themen vollgestopft ist. Das sind Merkmale eines Hypes, d.h., es wird voraussichtlich nicht so bleiben. Eine Ernüchterung (engl. disillusionment) wird folgen.
Die drei Wurzeln der KI
Wie konnte es soweit kommen? Zur KI gehört ja nicht nur die Programmierbarkeit in irgendeiner geeigneten Sprache. Wir brauchen auch die technischen Voraussetzungen für die Behandlung riesiger Datenmengen. Man nennt das Problem Big Data, ein Hardware/ Softwareproblem. Unsere Datenbanken, mit denen wir uns früher befassten, sind gegenüber heutigen Big Data-Anforderungen nur Winzlinge. Stromfresser sind das aber auch. Aber das ist ein eigenes Problem, weil von den großen KI-Firmen Kernkraftwerke auf den Markt gerufen werden.
Drei Wurzeln sind es, über die sich KI entwickelt hat: Programmiertechnik, Big Data und dann Mustererkennung (pattern recognition). Der Begriff „Muster“ oder „Schema“ ist in der Informatik zentral. Die Mustererkennung ist zuständig für die Perzeption oder Wahrnehmung nicht nur der natürlichen, sondern auch der künstlichen Intelligenz. Man kann sagen, dass die Entwicklung der KI in den letzten Jahren durch die rasante Entwicklung der Mustererkennung bestimmt wurde. Ein Muster, das wir wahrnehmen, besitzt Merkmale. Die Merkmale charakterisieren die Zugehörigkeit zu einer Klasse. Wunderbar ist es, wenn die Klasse nur aus einem Element besteht und wir eine sogenannte Einsklasse haben. Dann haben wir den Gegenstand über ein Muster identifizert. Kriminologen freuen sich in diesem Falle bei der Mustererkennung von Fingerabdrücken. Kernpunkte und Neigungswinkel der Linien sind dann eindeutig einer Person zuzuschreiben. Mustererkennung als Zentrum eines DNA-Tests ist heute ein unerlässliches Instrument in der Biologie. Es zeigt uns, dass Mustererkennung universal ist, wenn wir unsere Umwelt als Muster mit seinen Merkmalen begreifen können. Gesichtserkennung ist heute zu einem Politikum geworden. Merkmalbestimmung eines Musters heißt Englisch so schön „ to single out properties“. Eine wichtige technische Anwendung der Mustererkennung findet man heute auch in der Robotik. Wer z.B. Verfahrwege von Robotern programmieren will, muss sehen lassen können, um seine Sensoren und Aktoren richtig zu betätigen. In der Öffentlichkeit wird das alles der Künstlichen Intelligenz zugeschlagen, ein magische Wort mittlerweile.
Zu meiner Zeit hatten wir in Erlangen unter Professor Niemann einen großen, bedeutenden Lehrstuhl für Mustererkennung, aus dem auch unser Präsident, Prof. Joachim Hornegger hervorgegangen ist.
Bemerkenswert ist, dass der diesjährige Nobelpreis 2024 für Physik zwei KI-lern zuerkannt wurde. Es sind der Amerikaner John Hopfield und der Kanadier Geoffrey Hinton . Kafkaesk, d.h. bedrohlich äußerte sich Geoffrey Hinton in einem Vortrag in Oxford als er hervorhob, dass die „Revolution KI“ die Menschheit auslöschen könne. „Die Dinger“, er meint damit ChatBots à la ChatGPT, werden bald wirklich verstehen können und somit den Menschen überflüssig machen (in: FAS vom 13. 10. 2024 „Die Sorgen des KI-Paten“). Um das Verstehen aber kümmern sich eigentlich die Philosophen, nicht die Physiker. Die kümmern sich doch um tote Körper (Somatologie). Künstliche Intelligenz sollte sich doch eigentlich um geistige Dinge kümmern. Aber von den toten Körpern bis dahin ist ein weiter Weg. Der tote Körper muss in der Biologie erst Leben „eingehaucht“ bekommen. Und dann muss in der Psychologie noch eine Seele gefunden werden. Der belebte und beseelte Körper kann dann in der Noologie mit Geist und Intelligenz versehen werden. Hinton hat offensichtlich auch einen klassischen Homunkulus im Sinn, eine künstlich geschaffenen Menschen, der auch schon in Goethes Faust II auftritt. Homunkulus ist so gesehen eine poetische Gestalt.
Das Schlimme an KI-lern ist, sie müssen immer übertreiben. Das ist ein Geschäft. Verstehen, lieber Nobelpreisträger, heißt doch Textverstehen und auch Handlungsverstehen. Wie soll das künstlich gelingen, was doch schon natürlich die größten Schwierigkeiten macht?