Roman Tyborski Düsseldorf
A
ls Darnell Gates aus dem Gefängnis
kam, wusste er nicht, dass von jetzt
an ein Computer maßgeblich über
sein Leben entscheiden würde. Ob
bei der Vereinbarung von Gesprä-
chen mit dem Bewährungshelfer oder der Geneh-
migung für ein paar Tage Urlaub: Im Hintergrund
bewertete ein System mit Künstlicher Intelligenz
permanent das Rückfallrisiko des 30-jährigen Afro-
amerikaners aus Philadelphia – und machte den
Beamten strenge Vorschläge.
Auch Mohamed Bouchkhachakhe aus Rotterdam
geriet in die Räder einer solchen Maschinerie. Die
niederländische Stadt experimentierte mit einem
Programm, um automatisch Bürger zu identifizie-
ren, die zu Sozialhilfe- und Steuerbetrügern wer-
den könnten. Die Behörde schrieb sie anschlie-
ßend in einen „Risikobericht“.
Die beiden Männer, über die die „New York
Times“ im Februar berichtet hat, mögen sehr un-
terschiedlich sein, eines haben sie jedoch miteinan-
der gemeinsam: Beide sind Opfer von Systemen ge-
worden, die mit Künstlicher Intelligenz (KI) auto-
matisch Vorhersagen über ihr künftiges Verhalten
getroffen haben.
Das Problem: Die Algorithmen, die das ermögli-
chen sollen, werden mit Daten aus der Vergangen-
heit trainiert. Sie spiegeln somit eine Gesellschaft
wider, die Menschen wie Gates und Bouchkhachak-
he diskriminiert. Doch im Gegensatz zu einem
Menschen, dessen Motive sich zumindest erahnen
lassen, liefert die Maschine keine Antwort darauf,
warum sie in Gates einen rückfallgefährdeten Straf-
täter und in Bouchkhachakhe einen potenziellen
Sozialbetrüger sieht. Die KI gleicht einer Blackbox.
Einige Forscher glauben, einen Ansatz gefunden
zu haben, um das zu ändern. Sandra Wachter, KI-
Forscherin an der Universität Oxford, ist eine von
ihnen. Sie will die Entscheidungen von Algorith-
men erklärbar machen und so Licht in die Black-
box bringen. „Erklärbare KI ist ein lebhaftes For-
schungsfeld, auf dem ständig Fortschritte gemacht
werden“, sagt Wachter dem Handelsblatt. „So
könnten die Methoden der erklärbaren KI in Zu-
kunft der neue Standard in der KI-Forschung und
in der Unternehmenswelt werden.“
Denn die bisherige Technologie hat ein Vertrau-
ensproblem. Egal, ob es um den Einfluss auf Wah-
len durch Facebook geht, um die Gesichtserken-
nungssoftware von Amazon oder die Suchergebnis-
se von Google – es steht der Vorwurf im Raum,
dass KI menschliche Vorurteile verstärkt und so die
Welt rassistischer, homophober und aggressiver
macht. Sie gefährdet zudem die Freiheit des Men-
schen, nicht nur im Überwachungsstaat China.
Seit Anfang des Jahres nutzt zum Beispiel die
Londoner Polizei KI für die Echtzeitgesichtserken-
nung, in Schweden setzen immer mehr Städte bei
der Verwaltung ihrer Sozialleistungen Algorithmen
ein, und in der französischen Stadt Roubaix ver-
wendet die Polizei eine Verhaltenserkennung, die
mit über 100 Kameras in der Stadt verknüpft ist,
um Bußgelder aus der Ferne verhängen zu können.
Mitte Februar hat die Europäische Kommission
deswegen in ihrem „Weißbuch“ zur Künstlichen In-
telligenz gefordert, dass selbstlernende Systeme
vom Menschen überprüfbar sein müssen. Vera Jou-
rova, Vizepräsidentin der Kommission, sprach sich
dafür aus, „Blackbox-Algorithmen“ für Behörden
zugänglich zu machen. Auch bei Unternehmen wie
Bosch hat sich diese Erkenntnis durchgesetzt. In ei-
nem Gastbeitrag im Handelsblatt erklärte Bosch-
Chef Volkmar Denner kürzlich, dass man beides
entwickeln müsse, KI, aber auch Vertrauen in die
KI. „Das eine wird sich nur mit dem anderen
durchsetzen“, schreibt Denner.
Transparenter Lernprozess
In ihrer Funktionsweise unterscheiden sich beide
KI-Formen kaum voneinander. Beide werden zu-
nächst mit Daten versorgt, aus denen sie nach ei-
nem maschinellen Lernprozess Schlüsse ziehen
und Entscheidungen formen. Doch im Gegensatz
zu einer „herkömmlichen“ KI, bei der dieser Lern-
prozess für Menschen von außen kaum einsehbar
und oft nicht verständlich ist, liefert eine „explaina-
ble artificial intelligence“, im Fachjargon zur AI
auch XAI genannt, eine Erklärung ihrer Entschei-
dung mit. Der abgeschirmte maschinelle Lernpro-
zess wird dadurch transparent.
„Es gibt unterschiedliche Möglichkeiten, zu einer
erklärbaren KI zu kommen“, sagt Andreas Mielke,
Managing Director bei Deloitte und Gründer des
XAI-Start-ups Trufa. Im medizinischen Umfeld zum
Beispiel könne eine KI, die darauf trainiert werde,
auf Röntgenaufnahmen Auffälligkeiten zu erken-
nen, erweitert werden. Dafür müsse lediglich die
Erklärung für den Befund in die Trainingsdaten mit
aufgenommen werden.
Dieser Ansatz hat sich noch nicht in der Breite
durchgesetzt. Mielke zufolge liegt das unter ande-
rem an den Entwicklungskosten: „Standard-KI
wurde bereits lange und intensiv erforscht, hier
gibt es preisgünstige Standardsoftware“, sagt er.
Zudem dauert die Entwicklung erklärbarer KI län-
ger, weil diese auf eine saubere und besonders zeit-
intensive Datenauswahl angewiesen ist.
Was schiefgehen kann, wenn Unternehmen oder
Behörden auf erklärbare KI-Modelle verzichten,
zeigt das Beispiel Darnell Gates. Der Algorithmus
hatte ihn als Risikoperson eingestuft, ohne dass er
davon wusste. Mehr noch: Niemand konnte ihm er-
klären, warum. Entworfen wurde das System von
Richard Berk, Professor für Kriminologie und Sta-
tistik an der University of Pennsylvania. Der For-
scher gab gegenüber der „New York Times“ zwar
zu, dass Laien Probleme haben könnten, den Algo-
rithmus zu verstehen. Das treffe aber auf mensch-
liche Entscheidungen zu. Auch das menschliche
Gehirn sei letztlich eine Blackbox.
Richter in den Niederlanden sahen das anders.
Nachdem bekannt geworden war, dass die städti-
schen Behörden in Rotterdam ein KI-gesteuertes
Künstliche Intelligenz
Computer in Erklärungsnot
Künstliche Intelligenz nimmt immer größeren Einfluss auf unser Leben.
Doch selbst Experten verstehen oft kaum, wie die Systeme zu Schlussfolgerungen
kommen. Forscher arbeiten daran, in die Blackbox zu schauen.
Jede
Nutzergruppe
benötigt eine
eigene
Erklärung.
Ein Ingenieur
ist auf eine
andere
Erklärung
angewiesen als
ein Jurist.
Corina Apachite
Leiterin KI-Abteilung
Continental
Digitale Revolution
MITTWOCH, 11. MÄRZ 2020, NR. 50
18