Kennen Sie Go? Ein 2.500 Jahre altes chinesisches strategisches Brettspiel. Experten halten es für wesentlich komplexer und anspruchsvoller als Schach. Die Zahl der spielbaren Varianten übersteigt jene beim Schachspiel um Größenordnungen.
Es war immer schon das Ziel der KI-Konstrukteure, der Konstrukteure von Künstlicher Intelligenz, eine KI zu entwerfen, die wie ein Mensch immer besser wird, je mehr Go-Partien sie spielt: Lernen aus Erfahrung. Wie der Mensch (und andere Primaten). Mit „AlphaGo“ gelang den Konstrukteuren das.
Diese KI ist so gut, dass sie den Go-Europameister und sogar den Weltmeister geschlagen hat – und letzteren sogar klar und eindeutig mit 4:1. AlphaGo ist eine KI von Google DeepMind. Wie wurde sie so gut?
Der Mensch hat sie trainiert. Er fütterte sie mit Partien von Menschen, von Meisterspielern. Die KI lernte daraus. Sie lernte aber auch, indem sie immer und immer wieder gegen sich selbst spielte. Dann hat die KI eine Tochter bekommen: AlphaGo Master.
Wie der Name schon verrät und wie es bei Töchtern oftmals der Fall ist: Sie übertrifft sogar ihre kluge Mutter. Sie schlug die besten Go-Spieler der Welt in 60 Partien. Raten Sie mal? Ja: 60 zu null. Sie ließ den besten (Menschen) der Welt schlicht nicht den Hauch einer Chance. Und auch sie wurde inzwischen überflügelt.
Von AlphaGo Zero. Diese KI wurde nicht so klug, weil sie wie die anderen aus Erfahrung lernte. Niemand „fütterte“ sie mit Musterpartien. Nein, sie erhielt lediglich die Spielregeln von Go und spielte dann innerhalb von drei Tagen fünf Millionen Partien gegen sich selbst: So lernte sie. Und gewann 89:11 bei hundert Spielen gegen seinen Vorgänger AlphaGo Master. Was soll man davon halten?
Der aktuelle Go-Weltmeister Ke Ji verlor 2016 gegen AlphaGo Master und meinte angesichts des Erfolges von AlphaGo Zero, dass die Master-KI noch wie ein Mensch gespielt habe, Zero dagegen wie ein Gott: Weil sie keine Lehrmeister mehr brauchte. Sie hat sich alles selbst beigebracht durch Versuch und Irrtum und intelligente Schlussfolgerungen. Was bedeutet das?
Für Go-Spieler? Für uns? Für die Wirtschaft? Die Logistik?
Wenn wir Entscheidungen treffen wollen, dann fragen wir jemanden, der sich damit auskennt. Wenn wir zum Beispiel die Kosten in unserem Auslieferungslager senken und die Auslieferungszeit verkürzen wollen, fragen wir den Lagerchef, seine Mitarbeiter und die Gabelstaplerfahrer, wo es Engpässe gibt, wo Verbesserungspotenziale, wo zu wenig Ressourcen. Wir fragen ihre Erfahrung ab. Dann füttern wir den Computer damit und kommen zu einer computerunterstützten Entscheidung. So machen wir das in Logistik und Wirtschaft heute noch.
Nach dem letzten Quantensprung in der KI-Entwicklung brauchen wir das nicht mehr. Wir brauchen die Erfahrung nicht mehr. Wir füttern die KI einfach mit den „Spielregeln“, also den Restriktionen, Variablen und Zielvorgaben – und schwups entwirft sie eine Lösung, die alles schlägt, was uns eingefallen wäre. Aber – klar, dass jetzt ein Aber kommen muss: Wir verstehen die Lösung möglicherweise nicht mehr.
Natürlich verstehen wir, was die KI uns vorschlägt. Aber wir verstehen nicht mehr, wie die KI auf diese Lösung kam und warum das jetzt die allerbeste Lösung ist.
Solange wir ein Problem exakt beschreiben können, kann eine KI der neuesten Entwicklungsstufe eine Lösung entwerfen, die der Mensch nicht mehr nachvollziehen kann. Science Fiction? Nein, das ist in vielen Bereichen schon heute Science Fact. Zum Beispiel bei Bilderkennung, Krebsdiagnose oder bei der Medikamentenforschung. Da liefern Künstliche Intelligenzen heute schon überragende Lösungen und Ergebnisse, die uns Menschen teilweise überfordern. Die KI hinter der Gesichtserkennung zum Beispiel pickt aus Tausenden Menschen an einer Tramstation in der City zuverlässig Terroristen heraus – das könnte kein Mensch mit bloßem Auge. Bei dieser Anwendung wissen wir, wie die KI das macht. Bei vielen anderen Lösungen wissen wir dagegen nicht (genau), wie die KI zu ihren Resultaten kommt. Die KI ist sozusagen eine Black Box.
Sie funktioniert – wir wissen bloß nicht, wie. Weil wir nicht in die Black Box reinschauen können. Daraus ergibt sich ein Problem; ein Vertrauensproblem. Wie sollen wir einer Lösung vertrauen, die wir nicht mehr nachvollziehen können? Wie geht man mit dieser Vertrauensfrage um?
Wir wissen es nicht. Dafür ist die neueste KI-Entwicklung viel zu neu. Doch wenn die KI die menschliche Erfahrung nicht mehr braucht und nicht mehr vom Menschen lernen muss, um hoch intelligent zu werden – vielleicht können wir dann von der KI lernen? Denn möglicherweise „weiß“ die KI etwas über die Welt, das wir nicht wissen oder nicht ernst genug nehmen: Sie kennt die „Spielregeln“ des wirklichen Lebens, die wir nicht kennen oder falsch bewerten und interpretieren. Sie weiß Dinge, die wir nicht wissen – lasst uns von ihr lernen.
Die KI ist so klug geworden, dass sie keine menschliche Erfahrung mehr braucht. Sie braucht uns nicht mehr. Sie braucht ihren Schöpfer nicht mehr. Wohin soll das bloß führen? Wir wissen es nicht. Aber wir werden es erleben.
„Sie weiß Dinge, die wir nicht wissen – lasst uns von ihr lernen.“
Statt ständig wissen zu wollen, was andere zu wissen glauben, habe ich vor einiger Zeit angefangen, auch mal wieder selbständig zu denken. Fühlt sich gar nicht so schlecht an. Die Axt im Haus erspart auch heute noch den Zimmermann.
Freundliche Grüße, Martin Karmann
Hallo Martin, exzellente Ergänzung! Vor allem angesichts des offensichtlichen Defizits beim selbstständigen Denken in Teilen unserer Gesellschaft. Einverstanden, dass man beides braucht? Von anderen lernen und selber denken.
Da gab es mal so eine wirklich intelligente amerikanisch-kanadische Fernsehserie zum Thema, Battlestar Galactica (2004-2009), die einen dazu verleiten kann, sich viele konkrete und philosophische Gedanken zum Thema zu machen.
Natürlich enthält die Serie Warnungen vor KI :-)
Treffende Bemerkung, gut beobachtet. Nebenbei gesagt: Fernsehen bildet doch! Ich finde übrigens, dass einige der philosophischen Überlegungen der Serie noch etwas stärker in der Prequel-Serie ‚Caprica‘ zum Ausdruck kommen. Was gestern Science Fiction war, ist heute Science Fact. Wir kriegen mit den Nachteilen der KI dann aber sicher auch deren Vorteile ab.
Ja, da war ich selber auch überrascht, über den vorbildlich, beglückend ausgeführten TV-Bildungsauftrag :-)
In „Caprica“ steht KI besonders im Mittelpunkt, stimmt – einer der vielen „Denkwege“ dieser Serie(n), den man gedanklich begehen kann, ist die Frage, inwiefern die Zylonen (filmisch) zu sehr anthropomorphisiert sind – eventuell erschaffen wir KI-Wesen, die uns nicht so sehr ähneln, weil kein Bedarf nach bestimmten Eigenschaften besteht? Auf jeden Fall wären aber KI-Wesen als Gegner, die uns als „Eltern“ verabscheuen (müssen), eine harte Sache :-)
Wobei der Bildungsauftrag einen Nachschlag bekommen könnte. Wie es aussieht, planen die Produzenten der Serie jetzt auch einen Kino-Film. Aktuell werden Regisseur und Drehbuchautor gesucht. Damit auch das Kino etwas zur Bildung beitragen kann …
:-)