Spektrum der Wissenschaft - 05.2019

(Sean Pound) #1

D


ie Erfolge der künstlichen Intelligenz (KI) sind
atemberaubend: Neuronale Netze können lernen,
Sprachmuster zu erkennen, Objekte vom Hinter­
grund zu unterscheiden, Apparate durch unüber­
sichtliches Gelände zu steuern, experimentelle Daten zu
analysieren und Menschen beim Pokern zu schlagen.
Das erstaunt umso mehr, als die KI vorläufig nur die
primitivsten Anleihen bei der Informationsverarbeitung
des Gehirns nimmt. Künstliche neuronale Netze beste­
hen aus einigen wenigen Schichten, in denen Daten­
kanäle mit variabler Signalstärke in Knoten zusammen­
laufen. Obwohl derartige Systeme damit bloß stark
vereinfachte Modelle von natürlichen Nervenzellen und
Synapsen darstellen, sind sie zu jenen Leistungen fähig,
die ihnen schon heutzutage den Anschein von einiger­
maßen intelligentem Verhalten verleihen.
Strukturell lassen sich die künstlichen Netze noch
am ehesten mit den primären Verarbeitungsebenen
eines tierischen Sehsystems vergleichen. Ihre Komple­
xität wird von höheren, zu kognitiven Leistungen
fähigen Hirnarealen weit in den Schatten gestellt. Das
betrifft vor allem den Grad der Vernetzung: Natürliche
Nervenzellen einer bestimmten Verarbeitungsebene
stehen nicht bloß auf­ und abwärts mit den nächst­
höheren und ­tieferen Niveaus in Verbindung, sondern
sind zudem horizontal, das heißt auf der eigenen Ebene
vielfach verknüpft – anders als die meisten künstlichen
Netze. Außerdem reichen die vertikalen Kontakte bei
höheren Tieren weit über die nächstliegenden Organi­
sationsebenen hinaus. In unserem Gehirn erstrecken
sich die Nervenbahnen, die mit bewusstem Wahrneh­
men oder Sprache assoziiert sind, über ganze Areale.
Was würden artifizielle Netze leisten, wenn sie sich
derart reichhaltige Hirnstrukturen zum Vorbild nähmen?
Könnten sie dann auf die Frage nach dem Inhalt eines
Bilds umgangssprachlich antworten? Würden sie den
Doppelsinn von Witzen und sarkastischen Bemerkun­
gen verstehen?

Das Ziel solcher Überlegungen hat schon einen
Namen: artificial general intelligence (AGI). Einen
interessanten, geradezu philosophischen Aspekt disku­
tiert der israelische Informatiker und Kognitionsforscher
Shimon Ullman vom Weizmann Institute of Science in
Rehovot (Science 363, S. 692–693, 2019).
Philosophen fragen seit jeher, ob unser Erkenntnis­
apparat eher einem leeren Blatt gleicht, auf dem sich
Erfahrungen ansammeln, oder ob der menschliche
Verstand bereits mit einer Vorprägung zur Welt kommt.
Dieser alte Streit zwischen Empiristen und Rationalis­
ten wurde wieder aktuell, als der Linguist Noam
Chomsky behauptete, ein Kind könne unmöglich die
komplexe Struktur seiner Muttersprache aus Beispiel­
sätzen erlernen; der Spracherwerb setze eine angebo­
rene »Tiefengrammatik« voraus.

W


ie Ullman hervorhebt, entspricht die KI
derzeit einem rein empiristischen Modell:
Das neuronale Netz ist eine Tabula rasa,
die erst durch den Dateninput konditioniert
wird. Hingegen funktioniert unser Wahrnehmungsap­
parat offensichtlich nicht voraussetzungslos. Er bedient
sich anscheinend angeborener »Proto­Konzepte«, um
beispielsweise aus dem Zusammenspiel von Auge und
Hand auf die Eigenschaften von Objekten zu schließen.
Ullman spekuliert nun, dass eine künftige künstliche
allgemeine Intelligenz, die den Namen wirklich ver­
dient, auf passend vorgeformten Netzen beruhen sollte.
Deren Binnenstrukturen könnten autonom entstehen,
indem Netze das einmal Gelernte an andere Netzgene­
rationen weiterreichen, so wie Kinder mit Hilfe eines
durch Evolution und kulturelle Vererbung geprägten
Denk apparats flink ihre Erfahrungen sammeln. In den
Grundzügen klingt das viel versprechend – falls sich
das Design eines solchen Systems in den Details nicht
als ebenso verzwickt entpuppen wird wie der Versuch,
unser Gehirn in seinen Einzelheiten zu verstehen.

SPRINGERS EINWÜRFE


DIE ALLZU KÜNSTLICHE


INTELLIGENZ


Maschinelles Lernen verbucht verblüffende Resultate.
Doch um weiterzukommen, müssen die neuronalen
Netze noch einmal bei unserem Gehirn in die Lehre gehen.

Michael Springer ist Schriftsteller und Wissenschaftspublizist. Eine
neue Sammlung seiner Einwürfe ist 2019 als Buch unter dem Titel
»Lauter Überraschungen. Was die Wissenschaft weitertreibt« erschienen.
 spektrum.de/artikel/1634778
Free download pdf