Beispiel für jene künstliche Intelligenz (KI),
die dabei ist, in jeden Lebensbereich vor
zudringen – unheimliche digitale Helferlein,
denen wir Menschen das selbständige Lernen
beigebracht haben.
Das Prinzip ist gar nicht so kompliziert: Der
Computer sucht in einer riesigen Datenmenge
Muster, aus denen er Verallgemeinerungen
ableitet. Daraus berechnet er, mit welcher
Wahrscheinlichkeit ein bestimmtes Ereignis
eintritt. Und aus jedem Ergebnis lernt er, die
Trefferquote zu verbessern. Netflix zum Bei
spiel lernt so, was wir als Nächstes anschauen
wollen. Und die Bildverwaltung auf unserem
Handy erkennt, ob auf einem Bild unser Hund
oder der Nachbar zu sehen ist.
«Was banal klingt, macht es heute möglich,
sehr anspruchsvolle Aufgaben an Maschinen
zu delegieren, die so schneller und oft besser
gelöst werden», sagt Thilo Stadel mann, Pro
fessor für künstliche Intelligenz
und maschinelles Lernen an der
ZHAW in Winterthur.
«Wird nie müde.» Zum Beispiel
passende Bewerber finden. Intel
ligente Software sichtet Lebens
läufe, sucht im Netz nach Kandi
daten oder gibt wie Precire sogar
ein Urteil ab, was für ein Mensch
jemand ist. «Menschen lassen
sich blenden, Maschinen nicht»,
sagt Stephan Siegfried, dessen
Firma 1 Prozent die KISoftware
Precire in der Schweiz vertreibt.
Die Software erkenne das Poten
zial einer Person, und all fällige
Titel seien für sie ohne Bedeutung.
So steige die Wahrscheinlich
keit einer optimalen Besetzung.
«Bewerbende mit einem unkonventionellen
Lebenslauf werden gleich behandelt.» Das
Programm sehe mehr, werde nie müde, kenne
keine Vorurteile und habe keine Tagesform.
Auch wenn der Computer korrekt arbeitet,
entscheidet er aber nicht immer richtig. Das
musste Amazon lernen. Vor fünf Jahren hatte
der Onlinehändler eine Software entwickelt,
die in den Daten erfolgreicher Mitarbeiter nach
Gemeinsamkeiten suchte. Daraus erstellte
die Software 50 000 Schlüsselbegriffe, nach
denen sie Lebensläufe, SocialMediaProfile
und alle verfügbaren Daten von Jobbewerbern
absuchte. Wer die meisten Treffer hatte, erhielt
die höchste Bewertung. Auch hier war der
Gedanke: Die Maschine sieht mehr als der
Mensch und urteilt ohne Emotionen.
Die AmazonPersonalabteilung stellte aber
mit der Zeit etwas Erschreckendes fest: Es
wurden nie Frauen für Kaderjobs ausgewählt.
Der Algorithmus hatte sie systematisch aus
sortiert. Erst nach langem Suchen fanden die
Programmierer die Erklärung. Amazon hatte
in der Vergangenheit hauptsächlich Männer
eingestellt. Daraus schloss das Programm,
dass die Eigenschaft, ein Mann zu sein, und
alles, was darauf hinwies, gut ist – und alles
Weibliche schlecht.
Die Erkenntnis ist bedeutsam für jede
künstliche Intelligenz. Wenn Daten Diskrimi
nierungen enthalten, reproduzieren selbst
lernende Maschinen sie und können sie sogar
noch verstärken.
Nicht farbenblind. Diskriminierung zu erken
nen und zu eliminieren, ist nicht einfach.
Selbst die Entwickler wissen oft nicht, wie ihre
Algorithmen genau arbeiten. Amerikanische
Informatiker versuchten, aus Datensätzen
alles zu entfernen, was auf die Hautfarbe einer
Person schliessen lässt – dem Computer ge
lang es trotzdem. Ebenso wenig schafften es
die Entwickler des AmazonAlgorithmus, ih
rem Programm eine geschlechts
neutrale Bewertung beizubrin
gen. Sie stellten das Projekt
schliesslich ein.
Auch an Precire gibt es Kritik.
«Sprache und Persönlichkeit
hängen zwar zusammen, die
nachgewiesenen Zusammen
hänge sind aber extrem gering»,
sagt Uwe Kanning, Professor für
Wirtschaftspsychologie an der
Hochschule Osnabrück. Aus den
Mustern, die Precire in Wortwahl
und Ausdrucks weise erkennt, las
se sich nicht ableiten, wie leis
tungsfähig jemand im Beruf sei.
In der Schweiz suchen erst
wenige Firmen mit Hilfe von
künstlicher Intelligenz Per sonal
aus. Gemäss einer Umfrage der
Uni St. Gallen sind es nur ein gutes Dutzend
von 160 Un ter nehmen, die meisten aus dem
Finanz und Kommunikationsbereich.
Der Weltkonzern Unilever etwa setzt in den
USA das Programm Hirevue ein und wertet Mi
mik, Wortwahl und Antwortgeschwindigkeiten
von Kandidaten aus. In der Schweiz verzichtet
er darauf. «Die Zielgruppe steht solchen Ver
fahren hierzulande noch skeptisch gegenüber.»
Firmen müssen zwar nicht begründen,
warum sie Bewerbern absagen. Das Daten
schutzgesetz verlangt aber auch von Privaten,
dass sie Daten rechtmässig, verhältnismässig
und transparent bearbeiten. Daher müssen
Firmen auf Anfrage mitteilen, wenn eine Soft
ware entschieden hat. «Wer aber dagegen ver
stösst, hat in der Schweiz wenig zu befürchten»,
sagt Kurt Pärli, Arbeitsrechtler an der Uni Basel.
Es gebe zwar viel Missbrauch, doch nur sehr
wenige Fälle kämen vor Gericht – auch weil im
Gesetz griffige Sanktionen fehlen. Anders in der
EU: «Wenn sich Firmen nicht an die Regeln hal
ten, drohen dort Bussen in Millionenhöhe.»
Sie möchten noch mehr
über Chancen und Per
spektiven von künstlicher
Intelligenz und der Digi
talisierung erfahren? Am
Dienstag, 3. September,
findet der dritte nationale
Digitaltag statt – mit mehr
als 300 kostenlosen Vor
trägen, Debatten, Bühnen
shows, Ausstellungen und
Kursen an zwölf Standorten
in der ganzen Schweiz.
Dieses Jahr steht der
Aktionstag im Zeichen des
Themas «lifelong learning».
Das BeobachterMutterhaus
Ringier ist einer von
sechs Hauptpartnern des
Digitaltags.
Mehr dazu unter
http://www.digitaltag.swiss
«Menschen
lassen sich
blenden,
Maschinen
nicht.»
Stephan Siegfried,
Anbieter von
Bewerbungssoftware
FOTO: PD