er Spiegel - 10. August 2019

(John Hannent) #1

S


chach und Go, das hat sich erledigt.
Bei solchen logischen Denkspielen
ist der Mensch inzwischen chan -
cenlos gegen den Computer. Zum Glück
gab es ja bisher noch das Pokern. Dieser
chaotische Mix aus Spekulation, Glück
und Dreistigkeit schien viel zu wirr zu
sein, als dass künstliche Intelligenz (KI)
darin je gut sein könnte.
Aus, vorbei. Ein KI-System namens
Pluribus hat nicht nur einen oder zwei der
besten Pokerspieler geschlagen, sondern
gleich mehr als ein Dutzend von ihnen
auf einen Streich. Der Online-Showdown
zog sich über zwölf Tage und 10 000
»Hände«. Dann musste sich Homo sa-
piens auch beim Pokern geschlagen ge-
ben, wie die Wissenschaftszeitschrift
»Science« vorigen Monat vermeldete.
Ein besiegter Spieler beschrieb den KI-
Pokerspieler so: »ein Monsterbluffer, ein
viel besserer Bluffer als die meisten
Menschen«.
Aus Spiel wird Ernst, wenn Ma-
schinen irgendwann alles besser kön-
nen als Menschen; dann könnten sie
ihn weitgehend ersetzen und über-
nehmen die Macht, warnen Kritiker
schon länger vor einer ungezügelten
KI. So fantasiert der schwedisch-
amerikanische MIT-Physiker Max
Tegmark ein Szenario zusammen,
in dem eine künstliche Intelligenz
namens Prometheus irgendwann in
einer nicht allzu fernen Zukunft die
Welt regieren könnte wie eine Art
aufgeklärter Alleinherrscher.
Doch derlei Fantasien von über-
menschlicher Maschinenintelligenz
sind nicht sonderlich plausibel,
wenn man genauer hinschaut, wie
die KI-Systeme wirklich funktio -
nieren. Was also geht in einem
Computerprogramm vor, wenn es
Poker spielt oder ein fahrerloses
Auto navigiert? Und ist dieser
Blick ins geheimnisvolle Innenle -
ben eines lernenden Systems über-
haupt möglich?
Genau das versucht der Informa-
tiker Klaus-Robert Müller, er befasst
sich damit, die Arbeitsweise »intel-
ligenter« Maschinen zu erforschen.
»Natürlich können wir die eingesetz-
ten Strategien durchschauen«, sagt
Müller, der Leiter der Arbeitsgruppe
für Maschinelles Lernen an der TU


Berlin. »Explainable AI« wird dieser An-
satz genannt: das Funktionieren der künst-
lichen Intelligenz logisch nachvollziehbar
zu erklären.
Viele KI-Systeme hat sein Team bereits
auf den Prüfstand gestellt und Schritt für
Schritt beobachtet, was die Software je-
weils macht. Wie, beispielsweise, sucht sie
aus einer Masse von Fotos diejenigen he-
raus, die Pferde zeigen?
Für eine Software ist eine solche Bild-
analyse, die schon jedes kleine Kind spie-
lend beherrscht, ein komplexer Prozess.
Müller verfolgte, welche Teile der Bilder
die Software genauer inspiziert, und pro-
tokollierte das Vorgehen der Algorithmen
akribisch.
»Ein gutes künstliches neuronales Netz
sucht zum Beispiel nach typischen Bildele-
menten wie dem Pferdepopo oder nach
einem Reiter, um dann zu schlussfolgern:

Aha, das ist ein Pferd«, sagt Müller. Sein
Analyseprotokoll hat nun aber ergeben,
dass manche KI-Programme gleichsam
schummeln.
Sie erkennen weder Ross noch Reiter,
dafür aber ein scheinbar abwegiges De-
tail – etwa einen Quellennachweis wie
»pferdefotoarchiv.de«. Die Software kommt
auf diese Weise zwar auch zum richtigen
Ergebnis – aber aus falschen Gründen
(siehe Grafik).
Rund die Hälfte der KI-Modelle, schätzt
Müller, arbeite wahrscheinlich mit sol-
chen oder anderen fehlerhaften Metho-
den. Und oft genug fallen die Ergebnisse
zunächst scheinbar zufriedenstellend aus


  • bis dann doch etwas schiefgeht. Will
    man derlei Mogelsoftware sein Leben
    anvertrauen, wenn es um eine automati -
    sierte medizinische Diagnose geht? Oder
    ist einem selbstfahrenden Auto zu trauen,
    das mit fragwürdigen Bilderkennungs-
    tricks über die Straße laufende Fußgänger
    identifizieren soll?
    Informatiker Müller ist kein Technik-
    feind – im Gegenteil. Seit Jahrzehnten ver-
    wendet er selbst maschinelle Lernsysteme,
    um Alltagsprobleme zu lösen. Genau des-
    wegen aber will er die Algorithmen der
    KI-Programme transparenter und damit
    zuverlässiger machen.
    Kürzlich hat sein Team mehreren
    KI-Programmen die Aufgabe ge-
    stellt, einen virtuellen Flipperauto-
    maten zu steuern. Es ist eine Art In-
    telligenztest, um zu ergründen, was
    in den Verästelungen der Maschi-
    nenhirne vor sich geht. Manche KI-
    Systeme schafften es nach einer Wei-
    le, die Kugel mit beiden »Hebeln«
    am Rollen zu halten. Andere KI-Pro-
    gramme dagegen behelfen sich mit
    einem Trick: Sie finden heraus, wie
    sich der virtuelle Flippertisch hin-
    und herruckeln lässt, um die Kugel
    geschickt zu bewegen. Vom Ergeb-
    nis her waren beide Methoden er-
    folgreich; die Schummel-KI hatte
    zwar nicht die Regeln gelernt, aber
    trotzdem ein gutes Resultat geliefert.
    »Clever Hans« werden derlei Stra-
    tegien genannt. »Kluger Hans« hieß
    jenes berühmte Pferd, das um 1900
    herum das kaiserliche Berlin in Auf-
    regung versetzte. Wenn man dem
    Gaul eine Rechenaufgabe stellte,
    zum Beispiel zwei plus zwei, dann
    stampfte das Tier viermal mit dem
    Huf auf den Boden. Potzblitz!
    Doch dann zeigte sich: Wenn der
    Pferdehalter nicht dabeistand, schei-
    terte die Mathe-Mähre kläglich. An-
    scheinend hatte das Tier so lange mit
    dem Huf geklopft, bis Herrchen bei
    der korrekten Zahl vielleicht auf -
    atmete und die Körperhaltung fast
    unmerklich veränderte.


100

Schummelnde Rechner


ComputerKünstliche Intelligenz ist oft weniger schlau,
als es den Anschein hat. Insbesondere Programme zur Bilderkennung
lassen sich leicht austricksen – ein Sicherheitsrisiko.

Wissenschaft

JOAN CROS GARCIA / GETTY IMAGES
Humanoider Roboter »Pepper«
Die Erben des Mathe-Pferdes
Free download pdf