S
chach und Go, das hat sich erledigt.
Bei solchen logischen Denkspielen
ist der Mensch inzwischen chan -
cenlos gegen den Computer. Zum Glück
gab es ja bisher noch das Pokern. Dieser
chaotische Mix aus Spekulation, Glück
und Dreistigkeit schien viel zu wirr zu
sein, als dass künstliche Intelligenz (KI)
darin je gut sein könnte.
Aus, vorbei. Ein KI-System namens
Pluribus hat nicht nur einen oder zwei der
besten Pokerspieler geschlagen, sondern
gleich mehr als ein Dutzend von ihnen
auf einen Streich. Der Online-Showdown
zog sich über zwölf Tage und 10 000
»Hände«. Dann musste sich Homo sa-
piens auch beim Pokern geschlagen ge-
ben, wie die Wissenschaftszeitschrift
»Science« vorigen Monat vermeldete.
Ein besiegter Spieler beschrieb den KI-
Pokerspieler so: »ein Monsterbluffer, ein
viel besserer Bluffer als die meisten
Menschen«.
Aus Spiel wird Ernst, wenn Ma-
schinen irgendwann alles besser kön-
nen als Menschen; dann könnten sie
ihn weitgehend ersetzen und über-
nehmen die Macht, warnen Kritiker
schon länger vor einer ungezügelten
KI. So fantasiert der schwedisch-
amerikanische MIT-Physiker Max
Tegmark ein Szenario zusammen,
in dem eine künstliche Intelligenz
namens Prometheus irgendwann in
einer nicht allzu fernen Zukunft die
Welt regieren könnte wie eine Art
aufgeklärter Alleinherrscher.
Doch derlei Fantasien von über-
menschlicher Maschinenintelligenz
sind nicht sonderlich plausibel,
wenn man genauer hinschaut, wie
die KI-Systeme wirklich funktio -
nieren. Was also geht in einem
Computerprogramm vor, wenn es
Poker spielt oder ein fahrerloses
Auto navigiert? Und ist dieser
Blick ins geheimnisvolle Innenle -
ben eines lernenden Systems über-
haupt möglich?
Genau das versucht der Informa-
tiker Klaus-Robert Müller, er befasst
sich damit, die Arbeitsweise »intel-
ligenter« Maschinen zu erforschen.
»Natürlich können wir die eingesetz-
ten Strategien durchschauen«, sagt
Müller, der Leiter der Arbeitsgruppe
für Maschinelles Lernen an der TU
Berlin. »Explainable AI« wird dieser An-
satz genannt: das Funktionieren der künst-
lichen Intelligenz logisch nachvollziehbar
zu erklären.
Viele KI-Systeme hat sein Team bereits
auf den Prüfstand gestellt und Schritt für
Schritt beobachtet, was die Software je-
weils macht. Wie, beispielsweise, sucht sie
aus einer Masse von Fotos diejenigen he-
raus, die Pferde zeigen?
Für eine Software ist eine solche Bild-
analyse, die schon jedes kleine Kind spie-
lend beherrscht, ein komplexer Prozess.
Müller verfolgte, welche Teile der Bilder
die Software genauer inspiziert, und pro-
tokollierte das Vorgehen der Algorithmen
akribisch.
»Ein gutes künstliches neuronales Netz
sucht zum Beispiel nach typischen Bildele-
menten wie dem Pferdepopo oder nach
einem Reiter, um dann zu schlussfolgern:
Aha, das ist ein Pferd«, sagt Müller. Sein
Analyseprotokoll hat nun aber ergeben,
dass manche KI-Programme gleichsam
schummeln.
Sie erkennen weder Ross noch Reiter,
dafür aber ein scheinbar abwegiges De-
tail – etwa einen Quellennachweis wie
»pferdefotoarchiv.de«. Die Software kommt
auf diese Weise zwar auch zum richtigen
Ergebnis – aber aus falschen Gründen
(siehe Grafik).
Rund die Hälfte der KI-Modelle, schätzt
Müller, arbeite wahrscheinlich mit sol-
chen oder anderen fehlerhaften Metho-
den. Und oft genug fallen die Ergebnisse
zunächst scheinbar zufriedenstellend aus
- bis dann doch etwas schiefgeht. Will
man derlei Mogelsoftware sein Leben
anvertrauen, wenn es um eine automati -
sierte medizinische Diagnose geht? Oder
ist einem selbstfahrenden Auto zu trauen,
das mit fragwürdigen Bilderkennungs-
tricks über die Straße laufende Fußgänger
identifizieren soll?
Informatiker Müller ist kein Technik-
feind – im Gegenteil. Seit Jahrzehnten ver-
wendet er selbst maschinelle Lernsysteme,
um Alltagsprobleme zu lösen. Genau des-
wegen aber will er die Algorithmen der
KI-Programme transparenter und damit
zuverlässiger machen.
Kürzlich hat sein Team mehreren
KI-Programmen die Aufgabe ge-
stellt, einen virtuellen Flipperauto-
maten zu steuern. Es ist eine Art In-
telligenztest, um zu ergründen, was
in den Verästelungen der Maschi-
nenhirne vor sich geht. Manche KI-
Systeme schafften es nach einer Wei-
le, die Kugel mit beiden »Hebeln«
am Rollen zu halten. Andere KI-Pro-
gramme dagegen behelfen sich mit
einem Trick: Sie finden heraus, wie
sich der virtuelle Flippertisch hin-
und herruckeln lässt, um die Kugel
geschickt zu bewegen. Vom Ergeb-
nis her waren beide Methoden er-
folgreich; die Schummel-KI hatte
zwar nicht die Regeln gelernt, aber
trotzdem ein gutes Resultat geliefert.
»Clever Hans« werden derlei Stra-
tegien genannt. »Kluger Hans« hieß
jenes berühmte Pferd, das um 1900
herum das kaiserliche Berlin in Auf-
regung versetzte. Wenn man dem
Gaul eine Rechenaufgabe stellte,
zum Beispiel zwei plus zwei, dann
stampfte das Tier viermal mit dem
Huf auf den Boden. Potzblitz!
Doch dann zeigte sich: Wenn der
Pferdehalter nicht dabeistand, schei-
terte die Mathe-Mähre kläglich. An-
scheinend hatte das Tier so lange mit
dem Huf geklopft, bis Herrchen bei
der korrekten Zahl vielleicht auf -
atmete und die Körperhaltung fast
unmerklich veränderte.
100
Schummelnde Rechner
ComputerKünstliche Intelligenz ist oft weniger schlau,
als es den Anschein hat. Insbesondere Programme zur Bilderkennung
lassen sich leicht austricksen – ein Sicherheitsrisiko.
Wissenschaft
JOAN CROS GARCIA / GETTY IMAGES
Humanoider Roboter »Pepper«
Die Erben des Mathe-Pferdes