Schrift:
Ansicht Home:
DER SPIEGEL
Ausgabe
2/2018

DeepMind und Co.

Was künstliche Intelligenz schon leisten kann - und was nicht

Lernende Maschinen erkennen Gesichter und bringen sich selbst das Schachspielen bei. Warum zeigen sie trotzdem keinen Funken Verstand?

AFP
Von
Montag, 08.01.2018   15:57 Uhr

Diese Maschinen brauchen uns anscheinend nicht mehr. Sie lernen von allein und rasend schnell. Kurz vor dem Jahreswechsel berichteten Medien begeistert von einer wahren Sturzgeburt "übermenschlicher" Intelligenz.

Titelbild

Aus dem SPIEGEL

Heft 2/2018
Frauen, Männer und alles andere
Geschlechterrollen und Sexualität 2018

Was war geschehen?

Eine lernende Software namens AlphaZero hatte sich das Schachspielen beigebracht - einfach nur durch Ausprobieren, in zahllosen Blitzpartien gegen sich selbst.

Binnen weniger Stunden war die Maschine so gut, dass sie das bislang weltbeste Schachprogramm schlug (menschliche Spieler halten da ohnehin schon lange nicht mehr mit).

Was also könnte dieses Supertalent sich als Nächstes vornehmen? Die Weltmeisterschaft im Pokern? Danach, zur Entspannung, ein Studium der Jurisprudenz in zwei Wochen?

Nichts dergleichen.

Die Laufbahn des Schachtitanen, entwickelt von der Google-Tochter DeepMind, ist schon wieder beendet. Er ist - und bleibt - eine Null auf allen Gebieten außer Schach.

Selbst eine Partie "Mensch ärgere dich nicht!" würde ihn überfordern.

Schlimmer noch: Die famose Lernmaschine ist unfähig, ihr einmal erworbenes Können auf benachbarte Fächer zu erweitern. Nicht einmal eine Fortbildung in "Mensch ärgere dich nicht!" wäre möglich. Auf dieses Spiel müsste die Firma ein neues Lernprogramm ansetzen - das hätte dann wiederum nicht die mindeste Ahnung von Schach.

Die Vision einer sich selbst beflügelnden Computerintelligenz scheint also arg verfrüht. In Wahrheit ist die Branche in eine Sackgasse geraten. Denn allmählich wird klar: Wir bestaunen da lauter Mirakel beschränktester Fachidiotie.

Zuvor schon hatte DeepMind die lernfähige Software AlphaGo geschaffen, welche die besten menschlichen Spieler im Go spektakulär bezwang. Dieses Brettspiel hat 19 mal 19 Felder. Aber man müsste nur eine Reihe entfernen, und AlphaGo verlöre komplett die Orientierung. Auf einem Brett mit 18 mal 18 Feldern wäre das Programm hilflos.

Andere Intelligenzen haben gelernt, klassische Videospiele wie "Space Invaders" zu meistern. Doch wenn in der pixeligen Spielwelt auch nur eine Farbe durch eine andere ersetzt wird, kennt die Maschine sich nicht mehr aus.

Menschlichen Spielern machen solche nebensächlichen Abwandlungen wenig Mühe. Sie haben das Prinzip verstanden und passen sich an. Einen Farbwechsel in der Kulisse würden sie im Eifer des Spiels vielleicht nicht einmal bemerken.

Die lernfähigen Programme aber sind Spezialisten für Aufgaben extrem verknappten Zuschnitts. Oft genügt ein befremdliches Detail, und der Computer gibt den Geist auf. Kein Wunder: Er versteht nichts von dem, was er tut.

Für viele Aufgaben ist das zum Glück auch nicht nötig. Darauf beruht der ganze Zauber der lernenden Maschinen. Man gebe dem Computer ein paar Tausend Fotos von Regenschirmen oder Kaffeetassen, korrekt beschriftet - und nach einigem Training wird er diese Objekte auch von allein passabel auseinanderhalten.

Anfangs macht die Lernmaschine noch schauerliche Fehler. Aber sie registriert bei jedem Anlauf, wie weit sie danebenlag - und korrigiert entsprechend die vorhergehenden Schritte. Beim nächsten Mal geht es meist schon ein wenig besser. Und mit der Zeit wird der Computer meist erstaunlich treffsicher: Er erkennt auch Schirme, die er noch nie gesehen hat.

Der Aufwand für solche Programme, auch neuronale Netze genannt, ist freilich enorm. Einem Treffer gehen oft Millionen miteinander verknüpfte Berechnungen voraus; jede Korrektur justiert deren Resultate neu. Und steht der Schirm zufällig auf dem Kopf, ist er der Maschine mitunter schon wieder fremd.

Ein Mensch erkennt einen Schirm in jeder Lage, aufgespannt und geschlossen; denn ihm bedeutet dieses Ding etwas. Ein Computer registriert nur eine gleichgültige Ansammlung von Helligkeits- und Farbwerten, die er nach irgendwie typischen Mustern abrastert. Dann kramt er in seinem Vorrat an Etiketten nach demjenigen, das am wahrscheinlichsten auf dieses Muster passt. Kurz: Ein Algorithmus ordnet ein Bild, das er nicht versteht, einer Beschreibung zu, die ihm nichts sagt.

Entsprechend krass sind die Fehler, die dabei unterlaufen. Der Computer ist imstande, eine Zahnbürste mit einer Baseballmütze zu verwechseln.

Amerikanischen Forschern gelang es vor Kurzem, eine mächtige Bilderkennung von Google zu foppen: Sie nahmen ein Foto von Maschinengewehren und veränderten unmerklich eine Anzahl von Bildpunkten. Für einen Menschen war es immer noch das gleiche Foto. Der Computer aber war plötzlich überzeugt, einen Helikopter zu sehen. Die Forscher konnten ihm beliebige Wahnbilder unterschieben. Ebenso selbstgewiss hätte er in den Waffen eine Antilope erkannt.

Solange es um private Fotos geht, ist eine ulkige Halluzination ab und zu kein Problem - Onkel Hans dürfte es verkraften, wenn er auf dem Schnappschuss von der Silvesterfete als Knallfrosch identifiziert würde. Aber eines Tages könnten lernende Systeme an den Flughafenschleusen das Gepäck durchleuchten. Dann sollten sie nicht ein Sprengstoffpaket für einen Teddybären halten.

Wenn Menschen sich vertun, liegen sie meist nur knapp daneben. Ein Kind verwechselt vielleicht mal ein Meerschweinchen mit einem Hamster - aber bei den vierbeinigen Felltieren liegt es schon ganz richtig. Jemand erklärt ihm die Eigenheiten des Meerschweinchens, und wieder hat es was gelernt. Solche Fehler sind konstruktiv, auf ihnen lässt sich aufbauen, das gehört zum Lernen dazu. Die Fehler der Maschine dagegen offenbaren einen Abgrund des Unverstands. An ihnen gibt es nichts zu verbessern, sie sind auf hoffnungslose Weise falsch.

Die Maschine ist, wie sich zeigt, nicht viel schlauer als ein Sieb. Auch so ein Sieb ist ja zu durchaus intelligenter Arbeit imstande: Kippt der Mensch einen Eimer Sand hinein, sucht das Sieb automatisch nach Körnchen bis zu einer Maximalgröße. Stets gibt es den korrekten Output aus. Aber hat das Sieb deshalb die Körnchen "erkannt"? Weiß es, was Sand ist? Natürlich nicht, es ist alles nur eine Frage der passenden Maschenweite: Die gewünschten Körnchen fallen von selbst durch.

Nicht minder unbeteiligt erkennt der Computer seine Objekte. Oben schüttet der Mensch unsortierte Bilder hinein, unten fallen die erkannten Gesichter heraus.

Das ist stark vergröbert, zugegeben. Eine Lernmaschine gleicht eher einem komplizierten Ungetüm, bestehend aus mehrstöckigen Sieben mit verstellbarer Maschenweite - je nach gesuchtem Objekt. Aber das ändert nichts am Prinzip: Nirgendwo in diesem Apparat ist echte, eigenständig agierende Intelligenz versteckt.

Warum aber wird dann dem lernfähigen Computer inzwischen alles Mögliche zugetraut? Der Hype konnte nur entstehen, weil das große Wort vom Lernen falsche Vorstellungen weckt.

Wenn Menschen lernen, tun sich neue Welten auf. Ein kleines Kind, das erstmals ein bemaltes Ei sieht, weiß in der Regel bereits, dass das Innere mit Salz gut schmeckt, das Ei vom Huhn kommt und das Geschwisterchen heulen wird, wenn es so ein Objekt an den Kopf kriegt. Nun ist das Kind bereit für die Lektion, was bunte Eier mit dem Osterfest zu tun haben.

In einer lernenden Maschine, so vermuten wir, gehe Ähnliches vor. Ein Computer, der auf Aufnahmen von Muttermalen fachmännisch die Fälle von Krebsverdacht heraussortiert - muss der nicht auch irgendwie wissen, was für eine Krankheit das ist? Könnte er nicht eines Tages sogar, mit Glück und Rechenschmalz, neue Therapien aushecken?

Wir denken automatisch, die Maschine lerne wie wir. Ein Lernen, das blind für die Welt ist und nicht das Mindeste begreift, widerstrebt zutiefst der menschlichen Vorstellungsgabe.

Doch das maschinelle Lernen ist tatsächlich ganz anders. Es funktioniert nur, wo es reichlich Daten zum Trainieren gibt. Dem Kind genügt ein einziges Osterei für ein Aha-Erlebnis, die Maschine braucht womöglich Hunderttausende Bilder davon - und zahllose Trainingsdurchgänge.

Zudem beginnt das Lernen nicht einfach von allein. Vorher müssen die Forscher die gesammelten Bilddaten bereinigen und aufbereiten - eine zumeist langwierige und undankbare Arbeit. Auch das Einrichten der Lernmaschinen selbst kann sich hinziehen. Vielköpfige Teams sind oft Monate, manchmal Jahre damit beschäftigt. Viele Stellschrauben wollen gedreht werden, bis der Apparat brauchbare Ergebnisse liefert.

Nicht zufällig gelangen die größten Triumphe des maschinellen Lernens in überschaubaren Spielwelten wie Go oder Schach. Die neuronalen Netze lernen, indem sie Millionen Partien gegen sich selbst austragen. Jeden Zug bewerten sie danach, inwieweit er zu Sieg oder Niederlage beiträgt. Beim nächsten Mal wissen sie es dann schon ein wenig besser.

Die Mathematik, die darin steckt, ist höchst ausgeklügelt. Sie führt aber nur zum Erfolg, weil im Brettspiel Felder und Regeln fixiert sind. Hier geschieht, anders als im Leben, nichts Unvermutetes. Beim Schach ziehen die Figuren auf ewig von A4 nach C6 oder von B1 nach B7. Nie wird ein Bauer zum Gegner überlaufen, nie der Turm seinen Zug verschlafen oder die Dame mit dem Springer durchbrennen.

Im Leben dagegen ist bekanntlich alles offen. Deshalb ist maschinelles Lernen dort auch nur beschränkt anwendbar. Nützlich ist die Technik vor allem, wo es riesige Datenmassen nach Mustern zu durchforsten gilt. Dabei leistet sie allerdings Erstaunliches.

Der Computer kann nicht nur immer besser Bilder oder gesprochene Worte erkennen. Er liest inzwischen auch Sprechern von den Lippen ab - das hat er anhand von Videos gelernt, die bereits mit Untertiteln versehen waren.

In der Wirtschaft gibt es für lernfähige Systeme schon viel zu tun. Bei PayPal sieben sie verdächtige Transaktionen aus, die nach Betrug aussehen. Bei Amazon empfehlen sie Kunden Produkte, die zum bisherigen Kaufverhalten passen. Bei Google verbessern neuronale Netze die Treffsicherheit der Suche - und sie helfen beim Stromsparen in den Rechenzentren.

Auch in der Medizin tun sich neue Einsatzfelder auf. Bei der Diagnose von Hautkrebs anhand von Bildern schnitt ein lernendes Programm ebenso gut wie Fachärzte ab. Ein anderes überwachte die EKG-Werte von Herzpatienten auf Rhythmusstörungen; dabei zeigte es sich sogar treffsicherer als erfahrene Kardiologen.

Nichts davon wird einen Arzt ersetzen. Aber es entlastet ihn, wenn der Computer den automatisierbaren Teil der Arbeit übernimmt - unschlagbar schnell und ohne je zu ermüden.

Lernende Maschinen werden gewiss noch weitere Aufgaben finden; auf den menschlichen Erfindergeist ist da Verlass. Das Problem ist nur: Die Werkzeuge selbst werden davon nicht schlauer.

Ihnen fehlt jegliche Möglichkeit, das Gelernte in ein größeres Ganzes einzufügen - so wie Menschen das unentwegt und fast mühelos tun. Was wir lernen, wird Teil unseres Weltwissens. Es baut auf früheren Erkenntnissen auf, es verknüpft sich mit bereits Verstandenem. So wird die natürliche Intelligenz immer reicher.

Für die künstliche führt kein Weg dorthin; da kann die Maschine trainieren, solange sie will. Das neuronale Netz perfektioniert sich stets nur für eine einzige, eng umgrenzte Aufgabe. Für die nächste beginnt es wieder von vorn, bei null.

Die Lernmaschine erobert, mit einem Wort, nur eine Sackgasse nach der anderen. Viele Forscher sehen das Problem, sie suchen nach neuen Ansätzen, näher am menschlichen Lernen.

Die Technik nach heutigem Stand ist im Grunde von gestern. Sie beruht auf Ideen, die seit gut drei Jahrzehnten bekannt sind.

Den entscheidenden Aufsatz veröffentlichte der britische Informatiker Geoffrey Hinton im Jahr 1986. Nur waren damals die Computer nicht annähernd schnell genug für derart aufwendige Rechenarbeit. Und erst heute sind genügend Bilder, Sprachaufnahmen und andere Daten fürs Training verfügbar.

Aber sogar Hinton selbst, der große alte Mann des maschinellen Lernens, ist von seiner Schöpfung inzwischen abgerückt. Er glaubt, dass die Zukunft woanders liegt.

Undenkbar ist es nicht, dass einstmals eine Maschine durch Lernen klüger wird. Aber noch hat niemand auch nur eine plausible Idee, wie das anzustellen wäre.

Das bedeutet: Voraussagen jeglicher Art über ein Heraufdämmern menschenähnlicher Intelligenz sind bis auf Weiteres sinnlos.

Artikel

© DER SPIEGEL 2/2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH
TOP