Lee Sedol rettet unser Vorstellung vom 'Da ist doch noch was'
Ich habe früher mal versucht, Go zu spielen. Doch irgendwie packte es mich nicht richtig. So wusste ich nur, dass es viel komplexer als Schach und wohl auch viel älter ist. Doch jetzt habe ich - mir völlig unverständlich - doch tatsächlich alle bisherigen vier Matches des besten lebenden Go-Spielers gegen einen Computer, AlphaGo, im Live-Stream angeschaut. Was nur ging, weil der Michael Redmond das alles kommentierte.
Was der da erzählte, verstand ich zwar nicht, aber lernen konnte ich schon was: Gegenüber früher habe ich erkannt, was Go so unendlich viel komplexer macht als Schach. So entwickelte sich nun ein Gefühl für Go - dank Michael Redmond. Er transportierte das, was ich erfassen wollte. Das Spiel mit realisierbaren Möglichkeiten, die weder gut noch schlecht sind.
So wurde mir klar, dass Go ein Spiel mit unrealisierten Dingen ist. Im Schach muss der König dran glauben, es gibt da keine unrealisierten Situationen, denn eine Figur geschlagen, ist ein Verlust an Einfluss - wird schliesslich der König unbeweglich, war's das. Kein Wunder konnte Deep Blue schon 1997 den Kasparov schlagen. Man muss ja nur etwas eliminieren, was da ist. Da ufert also nichts in die Unendlichkeit aus ...
In Go jedoch ist ja schon der Zielanspruch anders: Es geht eben grad nicht darum, abzuräumen, sondern hinzustellen, aber eben nur das Nötigste, denn das Potential zur Realisierung ist das Wichtige.
Wenn Michael also nach einem Move sagte, das sei nicht gut, so akzeptierte ich diese Aussage, aber hatte natürlich keine Ahnung, was er damit konkret meinte. Gegen Ende des Spieles wurde dann ja schon mehr hingestellt, es zeigte sich dann, was die Spieler halt schon wussten aufgrund ihrer Erfahrung: Nach den Regeln von Go wird's dann eben so oder so rauskommen. Und da verstellte Punkte ja gar nicht zählen, sondern nur freie Punkte, wurde mir immer klarer, was die Leistung dieser Topspieler ist.
In ihren Vorstellungen hantieren sie mit Entwicklungen, die sie aber nicht anstossen dürfen, sondern nur andenken ... um sie mit einem gezielten Move dem anderen doch anzudeuten, bzw. dessen Andeutungen mit eigenen Andeutungen zu antworten. Und weil beide Spielpartner das bestens können, klappt das ja dann auch - man versteht sich.
Dass dem menschlichen Spieler Lee Sedol aber ein verteiltes Computersystem mit ein paar Hundert Grafikkartenchips auf einigen Dutzen CPU-Kernen als Hardware gegenüber stand, ist das neue. Das "verstehe" Go, wie viele Leute anmerkten. Also ein uninspirierter Siliziumhaufen - ach ja, auch nicht wesentlich anders als ein Haufen Kohlenstoffverbindungen. Also doch Intelligenz?
Nun, ich sehe das anders. Ich habe mich früher ganz kurz mal mit neuronalen Netzwerken (NN) beschäftigt. Dabei faszinierte mich ein Faktum, das wohl auch heute noch immer in den NNs drin steckt. Man weiss zwar, wie sie funktionieren, aber man weiss nicht genau, warum ein Neuron nun feuert oder nicht. Diese Selbstorganisation war schon faszinierend, dennoch ist ein Computer-Neuron eine Formel, also Mathematik. Und man muss die schon richtig gezielt füttern, dass die was rausbringen.
Gut, Google sind ja grad die Richtigen, die haben Milliarden von Daten, die sie geeignet vorkauen und dann einem NN vorwerfen können. Denn ein NN muss trainiert werden, und es muss vor allem eine gute Kontrolle haben. Dieses Feedback ist ja das Faszinierende, dass man genau deswegen und aufgrund der grossen Trainingsmenge eben nicht voraussagen kann, was das NN eigentlich gelernt hat, bzw. wie die einzelnen Neuronen bei welcher Eingangslage genau feuern.
Drum ist es ja auch recht faszinierend, wenn man die Bilder anschaut, die ebenfalls von Google kommen. Bilder, die in den NNs der Bildersuche zeigen, woran das NN eine Katze oder einen Menschen wirklich erkennt. Als ich damals etwas experimentierte mit Ziffernerkennung, konnte ich irgendwann sehen, woran dieses simple NN eigentlich bestimmte Ziffern unterschied ... es waren nicht dieselben Charakteristiken, die ich hatte, es war ein ganz bestimmter Pixel, der ihm offenbar als sehr aussagekräftig erschien. Das erstaunte mich. Wie auch AlphaGo die Profis erstaunte.
Wie dem auch sei. Ist AlphaGo nun intelligent? Ist es uns ebenbürtig? Hat der Mensch noch was zu bestellen? Natürlich. AlphaGo ist nur klever, schnell und hat ein paar Tricks drauf, die ein Mensch so nicht kann. Und wer hat's erfunden? Andere Menschen. Wenn schon, ist AlphaGo also einfach eine sehr klever geplante Maschine, aber immer noch nur eine Maschine. Was sie aber bewiesen hat, ist die Möglichkeit, durch klevere Kombination von Techniken die Menge der zu prüfenden Spielstände zu reduzieren und dadurch halbwegs zu dem zu machen, was Computer eben können: Sauschnell Daten abgrasen.
Doch wenn die Datenmenge zu gross ist, die innert einer bestimmten Zeit zu bewältigen ist, so zeigt das eben, dass Computer nicht wirklich was können, sondern nur abrattern. Wir alle wissen das, schliesslich haben wir überall Verschlüsselungen am Start. Denen wir ja sehr trauen - oder wie ist das mit dem Zugang übers Internet aufs Bankkonto? Wieso tun wir das? Weil Mathematiker sagen, dass heutige Computer gewisse Matheprobleme eben nicht lösen können, auch nicht alle Möglichkeiten abgrasen. Und doch wissen wir auch: Schlüssel wie PGP müssen alle paar Dekaden verlängert werden. Weil die mathematischen Probleme zwar viele Möglichkeiten bieten, diese eben nicht unendlich viele. Und wenn die Computer immer schneller werden, so können sie immer mehr von diesen Möglichkeiten durchforsten. Zum Glück kann man mit Schlüsselverlängerung halt auch den Raum der Möglichkeiten vergrössern, so dass der Abstand zwischen Gejagten und Verfolgern mehr oder weniger kontant bleibt. Ob diese diskrete Annahme immer noch stimmt angesichts von Quantencomputern ... man weiss es (noch) nicht. Wie gross ist also der Raum der abzugrasenden Möglichkeiten beim Go?
Go wird ja gespielt auf einem 19x19 Punkte Brett, also 361 Punkten. Es gibt also 361! mögliche Züge. Der Windows-Taschenrechner meint, das sei dann eine Zahl mit 768 Stellen. Astronomen schätzen, dass es im Universum etwa 10^90 Atome gibt. Gültige Go-Stellungen gebe es 2x10^170, also unendlich viele mehr.
Es ist also das Spiel des Ausschlusses von möglichen Realitäten, oder des Herbeiführens gewollter Realitäten, das die Spieler im Geiste spielen. Das Gehirn habe etwa 86 x 10^9 Nervenzellen. Mickrig, und sie sind nicht mal soooo schnell. Doch sie sind verknüpft, über Synapsen. Davon habe ein Gehirn so etwa 10^14, immer noch himmelweit von irgendwas anderem weg.
Und doch: Mit so einem Umsetzungssystem kommt das Wesen Lee Sedol dazu, die unendlichen Realitäten anzudeuten, eine aus dem Ringen von Zug und Gegenzug immer genauer zu realisieren.
Das ist im wesentlichen genau dasselbe wie AlphaGo macht: Denn dieser Computer hat von seinen Schöpfern eine Idee eingehaucht bekommen, nämlich die, wie man Gewünschtes realisiert. Es muss eine Vorstellung her. Offenbar schafft das ein Mensch leicht, eine Maschine eben gar nicht.
AlphaGo ist klever programmiert, aber nicht schlau. Es hat den "göttlichen" Funken nicht. Es wurde mit Millionen von Partien trainiert - anhand der Bewertungsfunktion zu lernen, welche Wege zur besten Bewertung kommen. Und bei Go ist die Bewertung ja erst am Schluss der Partie machtbar. Es spielt ja nicht mal der Punkte-Unterschied eine Rolle. Man kann also nicht wie bei Schach in etwa abwägen, wie der eventuelle Materialunterschied sich wohl auswirken würde.
Also macht AlphaGo wiedereinmal das aus, dass klevere Ideen die schiere Unendlichkeit an Spielzügen reduzieren und damit für Computer handhabbar machen. Die klevere Idee kam von Menschen.
Macht das nun also Künstliche Intelligenz aus? Ich nenne AlphaGo immer noch einfach ein Expertensystem. Und diese sind schon lange kleverer als Experten, aber eben auch nur, weil sie einfach mehr wissen über ein Thema als der Laie.
Ist Googles Websuche intelligent, nur weil sie Abermilliarden von Daten kennt, meine Charakteristiken, mein Verhalten im Internet ebenso? Weil schlaue Programmierer ihre Computer so füttern, dass die mit den Daten auch was anfangen können? Ich sage dem noch nicht intelligent. Auf der anderen Seite, wenn ich mit Googles Bildersuche ein Bild finde, dann ist es schon schön, sind die Algorithmen so, dass Google aus den Billionen von Fotos im Internet was in der Art findet, was ich möchte.
Ist Intelligenz also vielleicht nicht mehr als nur das Spielen mit Unendlichkeiten? AlphaGo und auch Lee Sedol können ja nicht die geschätzten 200 Züge in dieser Vielfalt durchspielen. Sie müssen sich auf etwas konzentrieren, sie müssen ein Ziel haben.
Ein Ziel haben: Ist es das, was Menschen ausmacht? Dass sie ein Ziel haben können, und dieses aus der Unendlichkeit der Möglichkeiten realisieren können? Kann das ein Computer jemals? Sich ohne äussere Beeinflussung ein Ziel geben und dieses dann auch verfolgen? AlphaGo kann das nicht. Die Programmierer konnten es und sie realisierten die Möglichkeit namens AlphaGo.
Da gibt es noch diese hinduistische Sicht: Mit jedem Atemzug von Brahma entsteht und vergeht ein ganzes Universum. Also unter anderem wir. Und so ein Universum ist schon gross ... eben schon fast unendliche Möglichkeiten, dennoch eben nur ein Universum, das beim Ausatmen verschwindet. Und wieviele Male atmet Brahma wohl? Ist der nicht sogar unsterblich? Tja, da kommt was zusammen, ob es grad soviele Universen werden wie Go-Stellungen? Vielleicht ... und dann könnte es doch Brahma mal passieren, dass er ein Déjà-Vu hat ... nach dem Motto "da war doch mal was für einen Atemzug" ...
Dies sind einfach ein paar Ideen. Ein normales Gehirn schafft es, ein wesentlich leistungsfähigeres System zu schlagen. Denn Lee Sedol gewann die vierte Partie. Also, ein Gehirn alleine kann das nicht ... :-)