Themenüberblick

Simple Regeln, viele Möglichkeiten

Die Regeln des asiatischen Brettspiels Go sind einfach, doch die vielen Möglichkeiten machen das Strategiespiel nicht nur für Menschen hoch kompliziert. Auch deshalb ist es eine besondere Herausforderung für einen Computer, auf eine menschliche Topspielerin zu treffen. In Südkorea fordert die Google-Software AlphaGo seit Mittwoch den Champion Lee Sedol heraus.

Dieser Artikel ist älter als ein Jahr.

„Ich werde mein Bestes geben, um 5:0 zu gewinnen, doch Menschen machen Fehler. Sollte ich Fehler machen, könnte ich verlieren“, hatte der 33-jähre Lee noch am Dienstag gesagt - am Mittwoch verlor er bereits das erste der fünf geplanten Matches.

Die „Schönheit des Go“

Neben dem Kräftevergleich zwischen Mensch und Maschine geht es auch um ein Preisgeld von einer Million Dollar - das bisher höchste in der Geschichte des Go-Spiels. Gewinnt der Computer, wird das Geld gespendet.

Menschen spielen Go

ORF.at/Lukas Krummholz

Go, eines der anspruchsvollsten Spiele der Welt

Vor Kurzem hatte sich Lee, der zu den drei besten Go-Spielern der Welt zählt, noch sehr zuversichtlich geäußert, AlphaGo ohne Niederlage schlagen zu können. Es sei unvermeidlich, dass Computer eines Tages die menschlichen Spielerinnen besiegten, sagte Lee jetzt - seit ihm die Firma hinter AlphaGo die Software erklärt hätten, denke er, dass Maschinen die „menschliche Intuition nachahmen können“. Doch Computer könnten nicht die „Schönheit des Go“ verstehen. Diese werde weiterhin bestehen.

Für Computer besonders herausfordernd

Für Computer ist das 2.500 Jahre alte Spiel durch die unzähligen Kombinationsmöglichkeiten besonders herausfordernd. Die Regeln sind simpel: Ziel für die beiden Spielerinnen ist es, durch geschicktes Platzieren der weißen und schwarzen Steine möglichst viele Felder auf dem Spielbrett mit 18 mal 18 Feldern zu besetzen. Doch bei einem durchschnittlich 150 Spielzüge dauernden Spiel gibt es laut „Nature“ zehn hoch 170 unterschiedliche Konfigurationen - das sind mehr Atome als im Universum.

Die übliche Vorgehensweise, mit Hilfe von Algorithmen den nächsten bestmöglichen Zug zu suchen, ist für Computer bei Go eine unlösbare Aufgabe. Auch beim weniger komplexen Schachspiel gibt es zu viele mögliche Züge, um den besten Zug alleine mittels Brute Force zu berechnen, daher betrachten die Computer einige Züge im Voraus und rechnen sich aus, welche Spielerin die Oberhand gewinnt. Das ist bei Go nicht so einfach möglich, da die Steine alle gleich bewertet sind, schreibt „Nature“.

Maschine ahmt Menschen nach

Die britische Entwicklerfirma DeepMind, die vor zwei Jahren von Google aufgekauft wurde, versucht erst gar nicht, alle Möglichkeiten auszuwerten. Stattdessen ahmt die Software den Menschen nach und setzt auf echtes Lernen mittels neuronaler Netzwerke. Das hat es der Software schon ermöglicht, den europäischen Meister Fan Hui 5:0 in echten Wettbewerbssituationen zu besiegen. Schon dass die Software Fan besiegt hat, wurde von Expertinnen als großer Erfolg gewertet.

Lee Se-Dol

APA/AFP

Lee Sedol hat mittlerweile einigen Respekt vor seinem Computergegner

In AlphaGo wurden zunächst 30 Millionen ausgesuchte Spielzüge eingespeist. Danach habe die Software den nächsten Zug des Menschen in 57 Prozent der Fälle vorhersagen können, so Google. Später spielte AlphaGo auf Dutzenden Computern gegen sich selbst, um besser zu werden. Das Programm habe dabei selbst Dinge gelernt, „sodass es erstaunlich ist, zu sehen, welche Fähigkeiten es sich angeeignet hat“, sagte DeepMind-Mitgründer Demis Hassabis gegenüber dem Magazin „Nature“. Laut Google hat die Software mittels dezidierter Lernstrategien auch eigene Strategien entwickelt.

Computer spiele wie „echte Person“

AlphaGo spiele auf menschliche Art und Weise, meinte auch Fan: „Wenn ich es nicht wüsste, würde ich vielleicht meinen, der Spieler ist etwas komisch, aber ein starker Spieler, eine echte Person.“ AlphaGo besiegte nicht nur Fan, sondern auch jede andere auf dem Markt befindliche Go-Software: 99,8 Prozent der Matches gegen die aktuell beste Go-Software konnte AlphaGo für sich entscheiden. Laut Google nutzt die Software zwölf verschiedene Netzwerkschichten mit Millionen neuronenähnlicher Verbindungen. Eine Schicht entscheide etwa, welcher Zug der nächste sein soll, eine andere sagt voraus, welche Spielerin gewinnt.

Intelligenz bleibt noch beschränkt

Der IBM-Schachcomputer Deep Blue, der 1997 den damaligen Schachweltmeister Garri Kasparow besiegt hatte, wurde eigens darauf hinprogrammiert, Kasparow zu schlagen. Das ist bei AlphaGo laut Angaben der Entwicklerfirma nicht der Fall: Die Software wendet denselben allgemeinen Algorithmus an, um die Muster des Spiels zu erkennen, mit dem es auch bereits 49 verschiedene Videospiele gelernt hat.

DeepMind-Mitgründer Hassabis geht davon aus, dass seine Software auch für andere Zwecke eingesetzt werden kann, etwa für medizinische Diagnosen. Allerdings bleibe der Einsatz vorerst noch auf spezialisierte und eigens erlernte Bereiche beschränkt, eine „allgemeine Intelligenz“, die nahtlos auch auf andere Bereiche angewendet werden kann, sei noch nicht möglich. „Wir haben noch keine Ahnung, wie wir das realisieren können“, so Hassabis gegenüber „Nature“. „Noch nicht.“

Links: