Metalernen. Es verleiht Computern mehr Flexibilität. »Diese
Methode wird wahrscheinlich der Schlüssel zu einer neu-
artigen KI sein, die mit der menschlichen Intelligenz konkur-
riert«, meint Jane Wang, Forscherin bei DeepMind in
London. Im Umkehrschluss glaubt sie, dass Neurowissen-
schaftler durch Metalernen besser verstehen könnten, was
im menschlichen Gehirn passiert.
Das Lernen lernen
Die Idee des Metalernens ist nicht neu. In den 1980er
Jahren nutzten Computerwissenschaftler die Evolution als
Vorbild, um ihre Software für das Lernen zu optimieren.
Schließlich ist der evolutionäre Prozess unter anderem ein
Metalernen-Algorithmus: Die verschiedenen Tierarten
haben in der Natur Lernfähigkeit entwickelt, statt sich bloß
auf ihre Instinkte zu verlassen. Die Evolu tion ist allerdings
vom Zufall getrieben, so dass daran angelehnte Algorith-
men häufig in Sackgassen münden und daher nicht wirklich
effizient sind. In den frühen 2000er Jahren entwickelten
Forscher deshalb andere Ansätze für das Metalernen,
wodurch die Programme wesentlich schneller wurden.
Chelsea Finn von der University of California in Berkeley
und ihr Team schafften 2017 einen Durchbruch auf dem
Gebiet des Metalernens. Indem sie ein neuronales Netz
immer wieder vor neue Aufgaben stellen, können sie die
optimale Startkonfiguration des Programms berechnen. In
dieser Konfiguration lernt es eine neue Aufgabe dann an
Hand von bloß wenigen Beispielen zu bewältigen, anstatt
dafür zehntausende Daten zu benötigen.
Es ist meist sehr schwierig, die Kriterien zu ermitteln, nach
denen ein solcher Algorithmus seine Entscheidung fällt.
Doch in einem sind sich die Forscher inzwischen einig: Es
ist wichtig, einem Programm während des Trainings kleine-
re Fehler durchgehen zu lassen (siehe Ȇberempfindliche
Computer«, links). Sonst hängen die Ergebnisse zu stark
von den konkreten Beispieldaten ab, anstatt sich auf die
wesentlichen Merkmale der gezeigten Objekte zu stützen.
Die Algorithmen könnten ihre Urteile dann auf untypische
Eigenschaften stützen, was verheerende Folgen haben
kann (siehe »Falscher Fokus«, oben).
Neuronale Netze wären allerdings nicht besonders
nützlich, wenn sie bloß Aufgaben erledigen könnten, deren
auch Menschen Herr werden. Weil die Netzwerke ihre
Verbindungen zwischen den künstlichen Neuronen aber
selbst formen, sind sie in der Lage, Probleme zu meistern,
für die Menschen noch keine Lösung gefunden haben –
etwa, wie man neuronale Netze weiter verbessert. Wis-
senschaftler haben nun damit begonnen, KIs auf eine
ihrer größten Schwächen anzusetzen: die riesigen Daten-
mengen, die sie benötigen, um neue Aufgaben zu bewäl-
tigen.
Dabei sollen neuronale Netze lernen, wie ein neuronales
Netz lernt. Das klingt zunächst kompliziert, doch im Prinzip
ist es nichts anderes, als würde man einem Programm
beibringen, Bilder zu erkennen: Man muss es mit vielen
Beispielen füttern. In diesem Fall zeigt man ihm aber keine
Bilder, sondern ein anderes Netzwerk, das etwas Neues
lernt. Das Verfahren nennen Computerwissenschaftler
Falscher Fokus
Falls sich eine KI auf falsche Merk-
male stützt, kann das fatale Folgen
haben. Ein Beispiel dafür, das
glücklicherweise glimpflich aus-
ging, ereignete sich in den 1990er
Jahren: Eine Forschungsgruppe der
Carnegie Mellon University in
Pennsylvania versuchte damals,
einen Algorithmus zu entwickeln,
der ein Auto steuern kann.
Sie trainierte ihr Programm,
indem sie lange Autofahrten unter-
nahm und alles filmte, was sie
dabei tat. Um ihren Algorithmus zu
testen, setzten sich einige der
beteiligten Wissenschaftler in ein
Fahrzeug, das die KI steuerte. Zu
Beginn schien alles wunderbar zu
funktionieren. Doch als sie eine
Brücke erreichten, geriet das Auto
ins Schlingern, und einer der For-
scher musste ins Lenkrad greifen,
um einen Unfall zu verhindern.
Wie sich nach wochenlangen
Untersuchungen herausstellte,
waren die Straßen bei allen Probe-
fahrten von Gras umgeben gewe-
sen. Der Algorithmus hatte deshalb
fälschlicherweise angenommen,
dass man nur dort fahren darf, wo
an der Seite Gras wächst. Bei der
Brücke wusste die KI nicht mehr,
was sie tun sollte.
Dieser Fokus auf irreführende
Details macht Algorithmen angreif-
bar. Hat man etwa ein Programm
darauf trainiert, verschiedene
Motive auf Bildern zu identifizieren,
kann man es recht einfach aus-
tricksen: Fügt man einem Bild
gezielt ein extrem schwaches
Rauschmuster hinzu (wobei die
Pixel ihren Wert nur so leicht
ändern, dass es für das menschli-
che Auge nicht sichtbar ist – wie
oben rechts), wird die KI etwa statt
einer Katze mit 99-prozentiger
Sicherheit plötzlich Avocadocreme
erkennen.
An diesen Problemen arbeiten
Forscher derzeit auf Hochtouren.
Denn gerade Bilderkennungssoft-
ware kann in etlichen Bereichen
sinnvoll verwendet werden, zum
Beispiel um in medizinischen Scans
Anomalien zu identifizieren. Damit
man ihrem Urteil vertrauen kann,
müssen die Systeme jedoch zuver-
lässig funktionieren.
schwaches
Rauschmuster
Katze Avocadocreme
ANISH ATHALYE, NICHOLAS CARLINI UND DAVID WAGNER; MIT FRDL. GEN. VON ANISH ATHALYE, MIT