Handys haben jetzt eine Künstliche Intelligenz (KI), Autos fahren dank KI autonom, Hotlines beschäftigen künstlich intelligente Kundenbetreuer. Die KI soll unser Leben angenehmer machen, uns Arbeit abnehmen, soll mit und für uns denken, uns Entscheidungen erleichtern oder sogar abnehmen. Aber was passiert, wenn die Künstliche Intelligenz das alte Sprichwort „Irren ist menschlich“ auf den Kopf stellt und sich die Maschine irrt?
Können Maschinen irren?
Aber hallo! In vielen gut dokumentierten Fällen. Einer der makabersten: Vor einem Jahr starben bei einem Amoklauf in Las Vegas 58 Menschen, 851 weitere wurden verletzt. Noch während des Tathergangs suchten die KI’s von Google und Facebook die im Netz kursierenden neuesten Meldungen zusammen und veröffentlichten sie schlagzeilenträchtig und wie sich später herausstellte systematisch falsch.
Denn viele Menschen, die mit der Tat nichts zu tun hatten oder sich schlicht irrten, stellten Spekulationen über Täter, Opfer und Geschehen ins Netz – und die KI’s konnten nicht zwischen Spekulation und Information unterscheiden, sondern veröffentlichten munter beides bunt gemischt. Dadurch sank die hoch gelobte künstliche Intelligenz auf das Niveau von Internet-Trollen herab, deren markantestes Charakteristikum ist, nicht zwischen Wahn und Realität unterscheiden zu können oder zu wollen. Bei überraschend auftretenden Ereignissen passiert das den etablierten KI’s gerne und oft, weshalb Menschen im Hintergrund bei Google und Facebook dann korrigierend eingreifen können. Warum können Menschen das? Und warum nicht die vorgeblich überlegene künstliche Intelligenz?
Weil es für komplexe Entscheidungen eine Vielzahl von Entscheidungskriterien gibt, an die ein Mensch sich problemlos und meist unbewusst erinnert, während die künstliche Intelligenz keine Ahnung davon hat – wenn man ihr nicht jedes der vielen Kriterien vorher eingetrichtert hat. So weiß zum Beispiel jeder normale Mensch, dass Berichte von Augenzeugen traumatischer Ereignisse oft dramatisch voneinander abweichen können – und er glaubt im Zweifel nicht alles, was er hört oder liest. Kennt eine KI diese Regel nicht, tappt sie in die Falle und blamiert sich, was folgenlos bleibt, da KI’s keine Scham empfinden. Ich wünschte, sie könnten es.
Schlagzeilen machte auch der Schönheitswettbewerb „Beauty.AI“ – der erste Schönheitswettbewerb mit einer „Roboter-Jury“. Forscher hatten „objektive Schönheitsmerkmale“ in die Algorithmen einer KI codiert. Damit sollte sichergestellt werden, dass der/die objektiv Schönste gekürt wird. Peinliche Berühmtheit erlangte der Wettbewerb dadurch, da (von Menschen) zu spät erkannt wurde, dass die Maschinen-Jury nur Weiße als schön betrachtete: übler Rassismus.
Wenn Menschen rassistisch werden, wissen wir, was dabei herauskommen kann. Wie schlimm auf der Terminator-Skala von „Jagd auf Menschen“ bis „Skynet-Apokalypse“ wird es erst, wenn Maschinen sich rassistisch austoben würden? Wobei die Maschinen nichts dafür können: Sie sind nur so klug, wie die Menschen, die sie anlernen. Künstliche Intelligenz muss programmiert und dann angelernt werden. Das erklärt auch, warum eine bestimmte Künstliche Intelligenz in einigen Ländern funktioniert und in anderen Ländern Entscheidungen von grober moralischer Fehlerhaftigkeit trifft.
Denn Moral ist von Land zu Land, von Kultur zu Kultur verschieden. Die verbale Direktheit („Nehmen Sie mal Ihren Aktenkoffer hier weg!“) hierzulande würde zum Beispiel in vielen Ländern Asiens („Könnten Sie bitte, wenn es Ihnen nichts ausmacht …?“) als grobe Verletzung des Anstands gewertet werden. Deshalb gibt man KI’s – kein Witz – Kinderbücher der betreffenden Kultur zu lesen. Wenn Kinder auf diese Weise die Moral ihres Kulturkreises lernen, warum nicht auch Künstliche Intelligenzen? Eine KI ist auch nur ein Kind, dem alles erst beigebracht werden muss. Wenn viele Menschenkinder nicht besonders gut erzogen durch unseren Alltag laufen, dann sollten wir damit rechnen, dass uns bald auch viele schlecht erzogene KI’s auf die Nerven gehen – wenn nicht Schlimmeres.
Schlimmeres könnte uns zum Beispiel im autonomen Auto widerfahren. Das autonome Auto hat eine KI, die entscheiden muss, wie sie sich zum Beispiel im Falle eines drohenden Unfalls verhalten soll: Tötet sie lieber Passanten oder Insassen? Wenn ein Unfall zum Beispiel nicht mehr vermieden werden kann: Steuert sie das Auto in eine Mauer und tötet damit eventuell die Insassen, verschont dabei aber die bedrohten Passanten? Das ist eine extreme ethisch-moralische Entscheidung, die wir da einer Maschine abverlangen. Wie programmiert man die Maschine? Wen soll sie im Extremfall töten?
Wenn im Auto zwei Leute sitzen und am Straßenrand drei Kinder spielen – entscheidet dann das Wohl der größten Zahl? Das wäre moralisch. Und tödlich für die Insassen, von denen einer immerhin das Auto gekauft und die KI bezahlt hat: KI tötet eigenen Käufer. Auf der ganzen Welt beschäftigen sich derzeit Wissenschaftler, Forscher und Unternehmen mit diesen Extremen der Maschinen-Moral. Würde die KI tatsächlich nach der Maxime des größten Wohls der größten Zahl entscheiden, brauchen wir keine KI, um uns auszurechnen, dass die Zahl der Verkehrstoten drastisch gesenkt werden könnte (und nicht nur, weil KI’s weniger alkoholbedingte Unfälle verursachen). Das wäre gut. Die Sache hat bloß einen Haken.
Wer kauft ein Auto, von dem er weiß, dass dessen KI ihn oder sie im Zweifelsfall zwar moralisch einwandfrei gerechtfertigt, aber auf Basis eines kalten Kalküls opfern, töten würde? So ein Auto wäre sicher kein Verkaufsschlager. Doch auch außerhalb des Straßenverkehrs wirft die Künstliche Intelligenz moralische Fragen auf.
Auch in Krankenhäusern und Arztpraxen könnte die ärztliche Diagnostik vielerorts von einer KI unterstützt werden. Die KI könnte Diagnose und Therapie vorschlagen – und wenn sie sich irrt? Nun ja, auch Ärzte können irren. Das mag sein, doch dann haftet der Arzt (zumindest de jure). Wer aber haftet für Diagnose- und Behandlungsfehler einer KI? Der Arzt, dem sie assistierte? Das Krankenhaus? Der KI-Hersteller? Der Staat?
Auf der anderen Seite: Wenn Maschinen entscheiden, dann können wir sicher sein, dass knappe Blutreserven, Organspenden, OP-Zeit oder andere Ressourcen im Notfall oder im Krankenhaus nicht nach Nasenfaktor, Sympathie, Versicherung oder Vermögen des Patienten vergeben werden, sondern nach medizinischer Notwendigkeit und objektiven Heilungsaussichten. Lebensrettende Entscheidungen würden dann mit mathematischer Präzision und Zuverlässigkeit getroffen – aber ohne Menschlichkeit und Barmherzigkeit?
Die Moral der Maschinen ist nicht mehr eine Frage von Science Fiction. Sondern die Frage: Mit welcher Moral soll in schon naher Zukunft mit und über uns entschieden werden?