Hunde erworben hat, und wechseln zu Katzen: Sie zeigen
dem Lerner ein Beispiel jeder Rasse, füttern ihn wieder mit
jeweils einem Testbild und übergeben dann die optimierte
Konfiguration des Netzwerks an den Metalerner. Das Ganze
wiederholt man für Autos, Hüte und so weiter. Der Meta-
lerner ermittelt danach, welche Anfangskonfiguration des
Lerners am besten geeignet ist, um verschiedene Objekte
in fünf Kategorien einzuteilen. Zeigt man einem solchen
optimierten Programm schließlich fünf Vogelarten, wird es
schneller lernen, Vogelbilder einzuordnen, als mit einer
zufälligen Anfangskonfiguration.
Das Besondere an dieser Methode ist, dass die Netzwer-
ke dabei nicht darauf trainiert werden, eine bestimmte
Aufgabe zu meistern. Stattdessen konzentrieren sie sich auf
die Gemeinsamkeiten der verschiedenen Probleme. Im
Beispiel zuvor haben sich die Verbindungen zwischen den
künstlichen Neuronen des Netzwerks so eingestellt, dass
dieses für Eingangsdaten in Form eines Bilds extrem gut
geeignet ist. »Wenn ein Algorithmus darauf vorbereitet ist,
Formen, Farben und Texturen von Objekten herauszufiltern,
dann kann es ein neues Objekt ziemlich schnell erkennen«,
erklärt Chelsea Finn.
Inzwischen hat die Forscherin zusammen mit ihren
Kollegen das Metalernen ins Labor gebracht: Sie konfron-
tierten einen Roboter mit verschiedenen Aufgaben, die alle
damit zu tun hatten, möglichst schnell zu einer bestimmten
Angenommen, man möchte einem neuronalen Netz
beibringen, Bilder in eine von fünf Kategorien einzuteilen,
wie Hunde- und Katzenrassen, Automarken, Hutfarben
oder Ähnliches. Beim gewöhnlichen maschinellen Lernen
(ohne »Meta«) füttert man das Programm zuerst mit Tau-
senden von Hundebildern und optimiert die Verbindungen
im Netzwerk so lange, bis es die Bilder richtig sortiert.
Würde man wollen, dass dieses Netzwerk hingegen Kat-
zenbilder kategorisiert, müsste man von vorn anfangen und
alles überschreiben, was es über Hunde gelernt hat.
Beim Metalernen geht man einen anderen Weg. Man
versucht die Verbindungen zwischen den künstlichen
Neuronen so einzustellen, dass das Netzwerk nur wenige
Beispiele braucht, um Dinge in fünf Kategorien einzuteilen.
Dazu benötigen die Forscher zwei neuronale Netze:
einen übergeordneten Metalerner und einen gewöhnlichen
Lerner. Im ersten Schritt zeigen sie dem Lerner fünf Hunde-
bilder, eines von jeder Rasse. Danach übergeben sie ihm ein
Testbild, das er einer der fünf Rassen zuordnet – nach bloß
fünf Beispielen wird das nicht sehr gut gelingen. Dennoch
wird das Lerner-Netzwerk versuchen, die Verbindungen
zwischen den künstlichen Neuronen so zu verändern, dass
es beim nächsten Mal besser klappt. Diese neue Konfigura-
tion liest der Metalerner aus.
Im zweiten Schritt löschen die Wissenschaftler das
bescheidene Wissen, welches das Lerner-Netzwerk über
Metalernen
Um die Menge der Trainingsdaten zu reduzieren,
bereiten Forscher die Netzwerke auf ihre
Aufgabe vor, indem sie ihnen ähnliche Probleme
vorsetzen. Dadurch wird der optimale Anfangs-
zustand des neuronalen Netzes gesucht, durch
den es am schnellsten eine gewisse Art von
Aufgabe lernt.
Neuronale
Netze
Um Bilder zu klassifi-
zieren, verarbeitet ein
Netzwerk die eingege-
benen Pixel in mehre-
ren Stufen und gibt
am Schluss ein Ergeb-
nis aus, etwa eine
Bezeichnung des
Bildinhalts. Dieser
Prozess erfordert in
der Regel ein Training
mit Tausenden von
Beispielbildern. Wie
genau das Programm
zu seinen Resultaten
kommt, geht meist im
Gewirr der Verknüp-
fungen innerhalb des
Netzwerks verloren.
Training
Input: tausende
Katzenbilder
Jede Schicht des Netzwerks lernt,
schrittweise immer komplexere
Merkmale zu erkennen.
Ergebnis:
Fähigkeit, Katzen zu erkennen
Output: Bildbezeichnung
Katze
Vorbereitung
Input: verschiede-
ne Objektgruppen
Training
Input: wenige Katzen-
bilder
Ergebnis:
Fähigkeit, Katzen schneller zu erkennen
Katze
Herunter-
brechen der
Bilder in
Pixelwerte
BROWN BIRD DESIGN / SCIENTIFIC AMERICAN MAI 2019