Die Algorithmen sind überall. Und sie mischen sich überall ein. Wenn ich mir bei Amazon heute ein Kochbuch anschaue, schickt mir der Amazon-Algorithmus morgen eine ganze Liste mit noch mehr Kochbüchern. Das finde ich gut. Wenn ich einen Kredit möchte, dann sagt der Schufa-Algorithmus, ob ich ihn kriege. Das finde ich schon weniger gut.
Denn menschliche Gefühle von Verständnis für die aktuelle Situation, in der ich einen Kredit brauche, Empathie und Mitgefühl hat der Algorithmus sicher nicht – aber dafür jeder anständige Kundenberater in einer Bank. Ich sage nicht, dass diese menschlichen Gefühle über den Kredit entscheiden würden oder sollten. Aber sie verhindern, dass der Algorithmus Amok läuft.
Es heißt zwar immer werbebroschürenhaft, dass Algorithmen und Künstliche Intelligenzen objektiv seien. Aber das ist Unfug. Wenn ein Mensch einen Algorithmus programmiert, dann programmiert er auch seine Weltanschauung mit hinein. Wenn jemand, sagen wir, nicht gut auf eine bestimmte gesellschaftliche Randgruppe zu sprechen ist, dann programmiert und gewichtet er die programmierten Parameter sicher anders als ein Mitglied dieser Randgruppe. Außerdem ist bereits das Werbe-Argument falsch.
Wenn für KI und Algorithmen geworben (und in Medien gedankenlos nachgeplappert) wird, dass sie „objektiv“ seien, wird dabei unterstellt, dass „subjektiv“ automatisch falsch oder nicht gut sei. Rein logisch betrachtet ist das Unfug. Nicht alles, was subjektiv ist, ist falsch. Ich mag Reiswaffeln und Sie nicht – beides ist rein subjektiv, aber was daran soll falsch sein? Es ist genau das Gegenteil: Für Sie und für mich genau richtig und gut.
Algorithmen können keine Argumente gegeneinander abwägen – nur Daten. Sie können keine kulanten Kompromisse finden auf eine Art und Weise, wie zwei vernünftige Menschen sie finden können. Künstliche Intelligenzen können sich das, wofür sie gebraucht werden, inzwischen selbst beibringen. Aber sie können sich Moral nicht selbst beibringen. Welcher Sachbearbeiter soll Ihre Anträge bearbeiten? Einer mit oder einer ohne Moral? Eine rhetorische Frage. Und trotzdem gibt es schon heute kaum noch Branchen, in denen die Algorithmen uns nicht das Heft aus der Hand nehmen. Auch wenn sie Fehler machen. Das geht?
Künstliche Intelligenzen machen Fehler? Und wie! Microsoft hat einen Chatbot namens Tay entwickelt, der sich selber in Twitter einlernen und dann tweeten sollte. Der Bot lernte schnell und twitterte munter mit. Schon nach wenigen Stunden hat diese „Künstliche Intelligenz“ den Holocaust geleugnet und Minderheiten beschimpft. Weil sie das bei Twitter so gelernt hatte: von uns. Wie Fox Mulder in der einschlägigen Folge der X-Akten sagt: „Wir müssen bessere Lehrer werden.“ Nach nur 24 Stunden mussten die Entwickler die Künstliche Intelligenz wieder abschalten.
In der US-Hauptstadt Washington hat vor einiger Zeit die Schulbehörde einen anderen Algorithmus etabliert. Er soll Lehrerinnen und Lehrer bewerten. Anhand der Noten ihrer Schüler: Werden sie im Vergleich zum Vorjahr besser oder schlechter? Als Konsequenz aus den ersten Ergebnissen wurde eine Lehrerin gefeuert, die sehr beliebt war. Bei KollegInnen, Eltern und Schülern gleichermaßen. Aber: Die Noten ihrer SchülerInnen waren eben schlechter geworden im Vergleich zum Vorjahr. Warum?
Weil die Schüler schlechter geworden waren? Nein. Weil der Lehrer des Vorjahres viel zu gute Noten vergeben hatte, um einen Bonus zu kassieren. Die gekündigte Lehrerin hatte keine schlechteren, sondern lediglich realistische, leistungsgerechte Noten vergeben. Das durchschaute und verstand der Algorithmus nicht und zerstörte damit eine berufliche Existenz. Das ist Job-Mord. Dem Algorithmus ist das egal. Das verbindet ihn mit Psychopathen: kein Gewissen, keine Moral, keine Ehre, kein Anstand.
2016 erklärte ein Algorithmus zwei Millionen Facebook-Nutzer für tot. Einfach so. Bei Facebook läuft das dann folgendermaßen: Automatisch wird aus deiner Seite dann praktisch eine Kondolenz-Seite, auf der dir nahestehende Menschen und Freunde kondolieren können. Wie Familienangehörige der Schrecken in die Glieder fuhr, als sie vom plötzlichen, unerwarteten Ableben ihrer Liebsten lesen mussten! Darunter übrigens auch Facebook-Gründer Mark Zuckerberg. Auch den eigenen Gründer erklärte sein eigener Algorithmus für tot. Superpeinlich – und potenziell katastrophal.
Als nämlich ein anderer Algorithmus auch den damaligen US-Präsidenten Obama für tot erklärte, explodierten die Aktienkurse in alle Richtungen gleichzeitig: Stell dir vor, die nächste Weltfinanzkrise wird von einem KI, einem Künstlichen Idioten ausgelöst.
Und weil alle IT-Firmen gerade KI basteln, hat auch Facebook einen Chatbot entwickelt, der Verhandlungen führen sollte. Er hat sich das selber beigebracht und dann mit einer anderen KI zu verhandeln begonnen. Dabei merkten die beiden Verhandlungskünstler, dass Englisch fürs Verhandeln (unter Robotern) nicht so geeignet ist. Kurzerhand entwickelten sie eine eigene Verhandlungssprache. Das Experiment wurde abgebrochen, weil die Entwickler ihre eigenen Geschöpfe nicht mehr verstanden. Man hatte „vergessen“ ihnen beizubringen, dass sie für Menschen verständlich bleiben sollten. Außerdem hatten die beiden künstlichen Verhandler auch angefangen, zu lügen, zu täuschen und zu tricksen. Fast so wie schlechte menschliche Verhandler.
Die erwähnte Lehrerin in Washington, die wegen eines zweifelhaften Algorithmus ihren Job verloren hatte, legte übrigens Beschwerde ein und wies nach, dass der Algorithmus mit manipulierten Daten gerechnet hatte. Sie bekam trotzdem nicht Recht und bekam ihren Job nicht wieder. Man befand, dass der Algorithmus im Großen und Ganzen mehr Nutzen als Schaden bringe. So weit sind wir also schon: Die Maschinen übernehmen nicht mit blutiger Revolte die Herrschaft. Wir unterwerfen uns freiwillig. Hier in der EU sind wir wenigstens ein bisschen schlauer.
Denn die größte Gefahr der großspurig so benannten Künstlichen Intelligenz liegt darin, dass keiner mehr weiß, welche und wie viele Daten sie sammelt und wie sie zu den Schlussfolgerungen kommt, die sie daraus zieht. Deshalb schreibt die demnächst in Kraft tretende neue Datenschutz-Grundverordnung der EU vor, dass Firmen stärker als bisher über ihre gespeicherten Daten Auskunft geben müssen. Wenigstens das.