D
ie Erfolge der künstlichen Intelligenz (KI) sind
atemberaubend: Neuronale Netze können lernen,
Sprachmuster zu erkennen, Objekte vom Hinter
grund zu unterscheiden, Apparate durch unüber
sichtliches Gelände zu steuern, experimentelle Daten zu
analysieren und Menschen beim Pokern zu schlagen.
Das erstaunt umso mehr, als die KI vorläufig nur die
primitivsten Anleihen bei der Informationsverarbeitung
des Gehirns nimmt. Künstliche neuronale Netze beste
hen aus einigen wenigen Schichten, in denen Daten
kanäle mit variabler Signalstärke in Knoten zusammen
laufen. Obwohl derartige Systeme damit bloß stark
vereinfachte Modelle von natürlichen Nervenzellen und
Synapsen darstellen, sind sie zu jenen Leistungen fähig,
die ihnen schon heutzutage den Anschein von einiger
maßen intelligentem Verhalten verleihen.
Strukturell lassen sich die künstlichen Netze noch
am ehesten mit den primären Verarbeitungsebenen
eines tierischen Sehsystems vergleichen. Ihre Komple
xität wird von höheren, zu kognitiven Leistungen
fähigen Hirnarealen weit in den Schatten gestellt. Das
betrifft vor allem den Grad der Vernetzung: Natürliche
Nervenzellen einer bestimmten Verarbeitungsebene
stehen nicht bloß auf und abwärts mit den nächst
höheren und tieferen Niveaus in Verbindung, sondern
sind zudem horizontal, das heißt auf der eigenen Ebene
vielfach verknüpft – anders als die meisten künstlichen
Netze. Außerdem reichen die vertikalen Kontakte bei
höheren Tieren weit über die nächstliegenden Organi
sationsebenen hinaus. In unserem Gehirn erstrecken
sich die Nervenbahnen, die mit bewusstem Wahrneh
men oder Sprache assoziiert sind, über ganze Areale.
Was würden artifizielle Netze leisten, wenn sie sich
derart reichhaltige Hirnstrukturen zum Vorbild nähmen?
Könnten sie dann auf die Frage nach dem Inhalt eines
Bilds umgangssprachlich antworten? Würden sie den
Doppelsinn von Witzen und sarkastischen Bemerkun
gen verstehen?
Das Ziel solcher Überlegungen hat schon einen
Namen: artificial general intelligence (AGI). Einen
interessanten, geradezu philosophischen Aspekt disku
tiert der israelische Informatiker und Kognitionsforscher
Shimon Ullman vom Weizmann Institute of Science in
Rehovot (Science 363, S. 692–693, 2019).
Philosophen fragen seit jeher, ob unser Erkenntnis
apparat eher einem leeren Blatt gleicht, auf dem sich
Erfahrungen ansammeln, oder ob der menschliche
Verstand bereits mit einer Vorprägung zur Welt kommt.
Dieser alte Streit zwischen Empiristen und Rationalis
ten wurde wieder aktuell, als der Linguist Noam
Chomsky behauptete, ein Kind könne unmöglich die
komplexe Struktur seiner Muttersprache aus Beispiel
sätzen erlernen; der Spracherwerb setze eine angebo
rene »Tiefengrammatik« voraus.
W
ie Ullman hervorhebt, entspricht die KI
derzeit einem rein empiristischen Modell:
Das neuronale Netz ist eine Tabula rasa,
die erst durch den Dateninput konditioniert
wird. Hingegen funktioniert unser Wahrnehmungsap
parat offensichtlich nicht voraussetzungslos. Er bedient
sich anscheinend angeborener »ProtoKonzepte«, um
beispielsweise aus dem Zusammenspiel von Auge und
Hand auf die Eigenschaften von Objekten zu schließen.
Ullman spekuliert nun, dass eine künftige künstliche
allgemeine Intelligenz, die den Namen wirklich ver
dient, auf passend vorgeformten Netzen beruhen sollte.
Deren Binnenstrukturen könnten autonom entstehen,
indem Netze das einmal Gelernte an andere Netzgene
rationen weiterreichen, so wie Kinder mit Hilfe eines
durch Evolution und kulturelle Vererbung geprägten
Denk apparats flink ihre Erfahrungen sammeln. In den
Grundzügen klingt das viel versprechend – falls sich
das Design eines solchen Systems in den Details nicht
als ebenso verzwickt entpuppen wird wie der Versuch,
unser Gehirn in seinen Einzelheiten zu verstehen.
SPRINGERS EINWÜRFE
DIE ALLZU KÜNSTLICHE
INTELLIGENZ
Maschinelles Lernen verbucht verblüffende Resultate.
Doch um weiterzukommen, müssen die neuronalen
Netze noch einmal bei unserem Gehirn in die Lehre gehen.
Michael Springer ist Schriftsteller und Wissenschaftspublizist. Eine
neue Sammlung seiner Einwürfe ist 2019 als Buch unter dem Titel
»Lauter Überraschungen. Was die Wissenschaft weitertreibt« erschienen.
spektrum.de/artikel/1634778