Beobachter - 30.08.2019

(Jeff_L) #1

Beispiel für jene künstliche Intelligenz (KI),
die dabei ist, in jeden Lebensbereich vor­
zudringen – unheimliche digitale Helferlein,
denen wir Menschen das selbständige Lernen
beigebracht haben.
Das Prinzip ist gar nicht so kompliziert: Der
Computer sucht in einer riesigen Datenmenge
Muster, aus denen er Verallgemeinerungen
ableitet. Daraus berechnet er, mit welcher
Wahrscheinlichkeit ein bestimmtes Ereignis
eintritt. Und aus jedem Ergebnis lernt er, die
Trefferquote zu verbessern. Netflix zum Bei­
spiel lernt so, was wir als Nächstes anschauen
wollen. Und die Bildverwaltung auf unserem
Handy erkennt, ob auf einem Bild unser Hund
oder der Nachbar zu sehen ist.
«Was banal klingt, macht es heute möglich,
sehr anspruchsvolle Aufgaben an Maschinen
zu delegieren, die so schneller und oft besser
gelöst werden», sagt Thilo Stadel mann, Pro­
fessor für künstliche Intelligenz
und maschinelles Lernen an der
ZHAW in Winterthur.


«Wird nie müde.» Zum Beispiel
passende Bewerber finden. Intel­
ligente Software sichtet Lebens­
läufe, sucht im Netz nach Kandi­
daten oder gibt wie Precire sogar
ein Urteil ab, was für ein Mensch
jemand ist. «Menschen lassen
sich blenden, Maschinen nicht»,
sagt Stephan Siegfried, dessen
Firma 1 ­Prozent die KI­Software
Precire in der Schweiz vertreibt.
Die Software erkenne das Poten­
zial einer Person, und all fällige
Titel seien für sie ohne Bedeutung.
So steige die Wahrscheinlich­
keit einer optimalen Besetzung.
«Bewerbende mit einem unkonventionellen
Lebenslauf werden gleich behandelt.» Das
Programm sehe mehr, werde nie müde, kenne
keine Vorurteile und habe keine Tagesform.
Auch wenn der Computer korrekt arbeitet,
entscheidet er aber nicht immer richtig. Das
musste Amazon lernen. Vor fünf Jahren hatte
der Onlinehändler eine Software entwickelt,
die in den Daten erfolgreicher Mitarbeiter nach
Gemeinsamkeiten suchte. Daraus erstellte
die Software 50 000 Schlüsselbegriffe, nach
denen sie Lebensläufe, Social­Media­Profile
und alle verfügbaren Daten von Jobbewerbern
absuchte. Wer die meisten Treffer hatte, erhielt
die höchste Bewertung. Auch hier war der
Gedanke: Die Maschine sieht mehr als der
Mensch und urteilt ohne Emotionen. 
Die Amazon­Personalabteilung stellte aber
mit der Zeit etwas Erschreckendes fest: Es
wurden nie Frauen für Kaderjobs ausgewählt.
Der Algorithmus hatte sie systematisch aus­
sortiert. Erst nach langem Suchen fanden die
Programmierer die Erklärung. Amazon hatte


in der Vergangenheit hauptsächlich Männer
eingestellt. Daraus schloss das Programm,
dass die Eigenschaft, ein Mann zu sein, und
alles, was darauf hinwies, gut ist – und alles
Weibliche schlecht. 
Die Erkenntnis ist bedeutsam für jede
künstliche Intelligenz. Wenn Daten Diskrimi­
nierungen enthalten, reproduzieren selbst­
lernende Maschinen sie und können sie sogar
noch verstärken. 

Nicht farbenblind. Diskriminierung zu erken­
nen und zu eliminieren, ist nicht einfach.
Selbst die Entwickler wissen oft nicht, wie ihre
Algorithmen genau arbeiten. Amerikanische
Informatiker versuchten, aus Datensätzen
alles zu entfernen, was auf die Hautfarbe einer
Person schliessen lässt – dem Computer ge­
lang es trotzdem. Ebenso wenig schafften es
die Entwickler des Amazon­Algorithmus, ih­
rem Programm eine geschlechts­
neutrale Bewertung beizubrin­
gen. Sie stellten das Projekt
schliesslich ein.
Auch an Precire gibt es Kritik.
«Sprache und Persönlichkeit
hängen zwar zusammen, die
nachgewiesenen Zusammen­
hänge sind aber extrem gering»,
sagt Uwe Kanning, Professor für
Wirtschaftspsychologie an der
Hochschule Osnabrück. Aus den
Mustern, die Precire in Wortwahl
und Ausdrucks weise erkennt, las­
se sich nicht ableiten, wie leis­
tungsfähig jemand im Beruf sei.
In der Schweiz suchen erst
wenige Firmen mit Hilfe von
künstlicher Intelligenz Per sonal
aus. Gemäss einer Umfrage der
Uni St. Gallen sind es nur ein gutes Dutzend
von 160 Un ter nehmen, die meisten aus dem
Finanz­ und Kommunikationsbereich.
Der Weltkonzern Unilever etwa setzt in den
USA das Programm Hirevue ein und wertet Mi­
mik, Wortwahl und Antwortgeschwindigkeiten
von Kandidaten aus. In der Schweiz verzichtet
er darauf. «Die Zielgruppe steht solchen Ver­
fahren hierzulande noch skeptisch gegenüber.»
Firmen müssen zwar nicht begründen,
warum sie Bewerbern absagen. Das Daten­
schutzgesetz verlangt aber auch von Privaten,
dass sie Daten rechtmässig, verhältnismässig
und transparent bearbeiten. Daher müssen
Firmen auf Anfrage mitteilen, wenn eine Soft­
ware entschieden hat. «Wer aber dagegen ver­
stösst, hat in der Schweiz wenig zu befürchten»,
sagt Kurt Pärli, Arbeitsrechtler an der Uni Basel.
Es gebe zwar viel Missbrauch, doch nur sehr
wenige Fälle kämen vor Gericht – auch weil im
Gesetz griffige Sanktionen fehlen. Anders in der
EU: «Wenn sich Firmen nicht an die Regeln hal­
ten, drohen dort Bussen in Millionenhöhe.»

Sie möchten noch mehr
über Chancen und Per­
spektiven von künstlicher
Intelligenz und der Digi­
talisierung erfahren? Am
Dienstag, 3. September,
findet der dritte nationale
Digitaltag statt – mit mehr
als 300 kostenlosen Vor­
trägen, Debatten, Bühnen­
shows, Ausstellungen und
Kursen an zwölf Standorten
in der ganzen Schweiz.
Dieses Jahr steht der
Aktionstag im Zeichen des
Themas «lifelong learning».
Das Beobachter­Mutterhaus
Ringier ist einer von
sechs Hauptpartnern des
Digitaltags.
Mehr dazu unter
http://www.digitaltag.swiss

«Menschen
lassen sich
blenden,
Maschinen
nicht.»
Stephan Siegfried,
Anbieter von
Bewerbungssoftware

FOTO: PD
Free download pdf