Umso bemerkenswerter ist es, was Computerwissen-
schaftler in den letzten Jahren allein durch kleine Modifika-
tionen erreicht haben. Eine schnelle Anpassung an neue
Probleme, ein Verständnis der eigenen Umgebung und
sogar Fantasie: Über solche menschlichen Attribute verfü-
gen nun – zumindest in begrenztem Maß – auch Maschinen.
Um das zu erreichen, mussten Wissenschaftler die vielen
verschiedenen Möglichkeiten ausschöpfen, mit denen sich
eine KI trainieren lässt.
Diese Möglichkeiten hängen aber davon ab, welche Art
von KI man benutzt. Tatsächlich gibt es diverse Programm-
typen, die man als KI bezeichnet: Entscheidungsbäume,
Nächste-Nachbarn-Klassifikationen, Kernel-Methoden,
neuronale Netze und so weiter. Über die Jahre wechselten
sich die unterschiedlichen Ansätze in ihrer Beliebtheit ab. Zu
den derzeitigen Favoriten zählen die neuronalen Netze, die
dem Aufbau und der Funktion unseres Gehirns nachempfun-
den sind. Ein solches Netzwerk besteht aus etlichen Rechen-
einheiten, so genannten Neuronen, die typischerweise in
mehreren Schichten angeordnet sind. Um ein derartiges
Programm auf eine Aufgabe zu trainieren, etwa jene, Bilder
zu erkennen, übergibt man der ersten Schicht die Beispielda-
ten, also die Pixel eines Bilds. Die innen liegenden, »ver-
steckten« Schichten verarbeiten diese Daten durch arithme-
tische Operationen, so dass die letzte Schicht eine Ausgabe
erzeugt, etwa eine Beschreibung des Bildinhalts.
Dem Gehirn nachempfunden
Auch neuronale Netze können sich in ihrer Struktur und
ihrem Aufbau voneinander unterscheiden. Je nachdem,
welches Problem man lösen möchte, eignet sich das eine
oder andere Netzwerk besser. Für veränderlichen Input
(Eingabe) wie Spracherkennung erweisen sich Netze, die
Schleifen enthalten, als extrem nützlich. Die Schleifen
verbinden die innen liegenden Neuronenschichten wieder
mit der Eingabe, so dass die Berechnungen nicht nur
starr von vorn nach hinten verlaufen. Zudem gibt es »tiefe«
neuronale Netze, die Dutzende oder gar Hunderte ver-
steckter Schichten enthalten. Sie bestehen somit aus Tau-
senden Neuronen mit Millionen Verbindungen zwischen
ihnen, wodurch man schnell den Überblick verliert. Beson-
ders gut eignen sie sich bei Problemen, die selbst keinen
festen Regeln folgen, wie es bei der Mustererkennung der
Fall ist.
Der entscheidende Punkt bei allen neuronalen Netzen ist,
dass die Verbindungen zwischen den Neuronen zunächst
nicht fixiert sind, sondern sich mit der Zeit anpassen. Möch-
te man etwa einem Programm beibringen, Hunde von Kat-
zen zu unterscheiden, übergibt man ihm Bilder beider Arten
und lässt es die Bezeichnung erraten. Das Ergebnis wird
nicht besser ausfallen als bei einem Münzwurf, also fifty-fif-
ty. Wenn das Netzwerk falschliegt, verändert es die Stärke
der Verbindungen, die zu dem fehlerhaften Resultat beigetra-
gen haben. Dann wiederholt man den Vorgang immer und
immer wieder. Nach zirka 10 000 Beispielbildern schneidet
das Programm in etwa so gut ab wie ein Mensch.
Bemerkenswert ist, dass das Netzwerk dabei auch lernt,
Bilder zu sortieren, die es nie zuvor gesehen hat. Informatiker
verstehen immer noch nicht ganz, wie es das genau macht.
Die enormen Ressourcen sind nicht das einzige Problem
gegenwärtiger KIs. Inzwischen werden solche Algorithmen
im Bank- und Rechtswesen eingesetzt, um Kredite zu
bewilligen oder Gefängnisstrafen festzulegen. Die Program-
me sind allerdings eine Art Blackbox: Sie spucken ein
Ergebnis aus, begründen es aber nicht. Gerade angesichts
der aktuellen gesetzlichen Festlegungen wird eine nachvoll-
ziehbare Argumentation von Maschinen immer wichtiger:
Mit der Datenschutz-Grundverordnung von 2018 gewährte
die Europäische Union ihren Bürgern unter anderem das
Recht, für jede automatisierte Entscheidungsfindung – sei
es bei der Auswahl von Bewerbern für einen Job oder bei
einem Gerichtsurteil – »aussagekräftige Informationen über
die involvierte Logik« zu erhalten.
Diese Schwierigkeiten beschäftigen momentan etliche
Forscher, die schon vielfältige mögliche Lösungsansätze
entwickelt haben. Einige sind jedoch der Meinung, dass ein
radikaler Umbruch nötig sei, um wirkliche Fortschritte zu
erzielen (siehe Spektrum November 2018, S. 77).
Überempfindliche Computer
Beim maschinellen Lernen muss man aufpassen,
dass ein Computer die Daten nicht zu ernst nimmt.
Soll eine KI etwa Hunde- (rot) und Katzenbilder
(blau) voneinander unterscheiden, wird sie die
Beispieldaten nach selbst gewählten Parametern
einteilen. Die beiden Kurven stehen dann für zwei
mögliche Modelle, um Katzen und Hunde zu
differenzieren. Das grüne Modell folgt den Daten
gut, doch es ist extrem kompliziert und hängt stark
von den gewählten Beispielen ab. Die Wahrschein-
lichkeit, dass der Algorithmus einen neuen Daten-
punkt falsch einordnet, ist daher hoch. Dieses
Phänomen wird als Überanpassung (»overfitting«)
bezeichnet. Die schwarze Kurve entspricht dage-
gen einem sinnvollen Modell, selbst wenn es ein
paar Daten falsch zuordnet.
SPEKTRUM DER WISSENSCHAFT / MANON BISCHOFF