waren die Algorithmen daher gezwungen, zusammenzu-
arbeiten. Doch dafür mussten sie sich untereinander aus-
tauschen.
Programme, die sich das Kommunizieren selbst beibrin-
gen, eröffnen völlig neue Anwendungsmöglichkeiten.
»Unsere Hoffnung ist, dass eine Gruppe von Netzwerken
eine gemeinsame Sprache entwickelt, um sich ihre jeweili-
gen Fähigkeiten gegenseitig beizubringen«, erklärt Gutten-
berg. Sollten KIs irgendwann wirklich so weit sein, dann
könnten sie sich eventuell auch Menschen gegenüber auf
verständliche Weise erklären, hoffen die Wissenschaftler.
Bis es so weit ist, wird allerdings noch viel Zeit vergehen.
Momentan mühen sich Forscher mit viel grundlegenderen
Problemen ab. Denn selbst wenn KIs in vielen Fällen extrem
gut darin sind, Bilder zu klassifizieren, unterlaufen ihnen
manchmal immer noch peinliche Fehler: So kann es vor-
kommen, dass ein Programm einen Straußenvogel mit
einem Schulbus verwechselt. Die Muster, die KIs erkennen,
haben häufig nichts mit den physischen Elementen einer
Szene zu tun. »Den Maschinen fehlt ein Objekt verständnis,
das selbst Tiere wie Ratten besitzen«, meint Irina Higgins,
eine KI-Forscherin bei DeepMind.
Damit neuronale Netze ihre Umgebung wirklich verste-
hen, müsste jede ihrer Variablen einem Freiheitsgrad der
untersuchten Welt entsprechen, äußerte Yoshua Bengio
von der Université de Montréal 2009. Wenn es beispiels-
weise um die Analyse von Filmen geht, sollte eine Variable
stets die Position eines Objekts im Bild symbolisieren.
Bewegt sich bloß das Objekt, dann ändert sich nur diese
Variable – auch wenn sich dabei Hunderte oder Tausende
von Pixeln verschieben.
Sieben Jahre nach Bengios Idee gelang es Higgins und
ihren Kollegen endlich, sie umzusetzen. Dafür nutzten sie
die Tatsache, dass Bilder lauter überschüssige Informatio-
nen enthalten, die sich aus relativ wenigen Variablen erzeu-
gen lassen. »Die Welt steckt voller Redundanzen – genau
diese komprimiert und verwertet unser Gehirn«, erklärt
Higgins. Damit sich auch die Algorithmen auf die wichtigs-
ten Faktoren eines Bilds konzentrieren, schränkt die For-
scherin sozusagen deren »Sichtfeld« ein. Die Wissenschaft-
ler setzen dazu zwei Netzwerke ein: Eines komprimiert die
Eingangsdaten, das andere dekomprimiert sie wieder.
Dadurch filtert das Programm die wesentlichen Informatio-
nen einer Szene heraus. Nach und nach heben die Forscher
dann die Einschränkungen auf, wodurch die Algorithmen
immer mehr Details miteinbeziehen.
Um die Methode zu testen, erzeugten Higgins und ihr
Team eine einfache »Welt«, die bloß aus Herzen, Quadraten
und Ovalen auf einem zweidimensionalen Gitter besteht.
Jede dieser Formen kann in sechs Größen vorkommen und
um einen von 20 möglichen Winkeln verkippt sein. Die
Informatiker präsentierten einem neuronalen Netz alle Ver-
sionen einer solchen Welt. Das Programm sollte daraufhin
die fünf Freiheitsgrade identifizieren: Position entlang der
beiden Achsen, Form, Orientierung und Größe der Objekte.
Das Netzwerk erkannte die Position als wichtigsten Faktor –
die anderen Variablen lassen sich danach einfacher auf die
Strukturen anwenden. Schritt für Schritt spürte das Pro-
gramm dann auch die anderen Freiheitsgrade auf.
Das ist ein bedeutender Schritt in Richtung einer KI, die
ihre Umgebung versteht. Dennoch liegt das Ziel noch in
weiter Ferne. Immerhin kannten die Forscher die Regeln
ihrer künstlich geschaffenen Welt schon im Voraus und
konnten daher das Ergebnis des Programms genau überprü-
fen. Bei komplexen Problemen aus dem wirklichen Leben
überblicken selbst Menschen nicht immer die gesamte
Situation. Da aber eine Person die Leistung eines solchen
Algorithmus beurteilen muss, hängen die Ergebnisse auch
stark von dieser subjektiven Einschätzung ab.
Maschinelle Argumentation
Trotzdem eröffnet Higgins’ Ansatz viel versprechende Anwen-
dungen. Der Hauptgrund dafür ist, dass KIs so nachvollziehba-
rer werden: Man kann ihrer Argumentation direkt folgen –
schließlich ähnelt sie menschlichen Schlussfolgerungen.
Außerdem lassen sich durch Higgins’ Methode Netzwerke
entwickeln, die neue Aufgaben bewältigen, ohne ihr zuvor
gesammeltes Wissen zu vergessen. Angenommen, man zeigt
einem Programm Hundebilder, die es nach Rassen sortieren
soll. Das Netzwerk wird das Hauptaugenmerk auf spezifische
Merkmale der jeweiligen Rasse legen. Übergibt man ihm
plötzlich Katzenbilder, wird es die Änderung bemerken. »Wir
können tatsächlich sehen, wie die Neurone reagieren. Ihr
atypisches Verhalten deutet darauf hin, dass die KI etwas
über einen neuen Datensatz lernt«, erklärt Higgins. Wenn das
passiert, könnte man dem Programm beibringen, zusätzliche
Neurone zu erzeugen. Dadurch würde es neue Informationen
speichern, ohne altes Wissen zu überschreiben.
Die aktuellen Fortschritte auf dem Gebiet des maschinel-
len Lernens verleihen Computern immer mehr menschliche
Talente (siehe »Computer mit Zahlenverständnis«, links).
Die Zukunft wird zeigen, ob die neuen Ansätze wirklich
irgendwann zu Programmen führen werden, deren Intelli-
genz mit der menschlichen vergleichbar ist – oder ob Kritiker
Recht behalten und völlig neue Methoden hermüssen, um
den Bereich wirklich voranzutreiben. So oder so: Es bleibt
spannend.
QUELLEN
Finn, C. et al.: Model-agnostic meta-learning for fast application
of deep newtorks. ArXiv 1703.03400, 2017
Goodfellow, I. et al.: Generative adversarial networks. ArXiv
1406.2661, 2014
Higgings, I. et al.: -VAE: Learning basic visual concepts with a
constrained variational framework. International conference on
learning representations 5, 2017
Mehr Wissen auf
Spektrum.de
Unser Online-Dossier zum Thema
finden Sie unter
spektrum.de/t/kuenstliche-intelligenz
ISTOCK / ADVENTTR