Kant
für
den
Bot
Dies ist die Geschichte von HiCo. Der Chatbot
wurde entwickelt von zehn Wissenschaftler*in-
nen des Unternehmens US Hightech. Um das Pro-
gramm im Vertrieb einzusetzen, fütterten sie ihn
mit Daten aus echten Gesprächen zwischen
Kund*innen und Handelsvertreter*innen. Feld-
versuche liefen erfolgreich, die Abteilung für For-
schung und Entwicklung erteilte die Freigabe zur
Marktreife. Auf einer Innovationsmesse stellte
der HiCo-Chef die Innovation im März der Öffent-
lichkeit vor, wenige Wochen später setzte ihn das
Unternehmen auf seinen Vertriebsplattformen
ein. Die Verkaufszahlen entwickelten sich zu-
nächst erstaunlich, die Kundenzufriedenheit
auch. Doch dann ging etwas schief.
Zwei Wochen nach dem Start stellten die Wis-
senschaftler*innen fest, dass sich der Bot zu -
nehmend unberechenbar verhielt. Als sei er Teil
einer Drückerkolonne, verschickte er immer
aggressivere E-Mails an die Kund*innen. Stunden-
lang arbeiteten die Forscher*innen an der Korrek-
tur der KI-Maschine, erst nach drei Tagen waren
sie erfolgreich.
Hier endet die Geschichte von HiCo, den Bot
gibt es nicht wirklich. Er ist Teil einer fiktiven
Fallstudie, die die Deutsche Telekom und die
Stanford-Universität erstellt haben, um den
Studierenden die Grundlagen ethischen Han-
delns im Umgang mit künstlicher Intelligenz bei-
zubringen. Und doch ist das Beispiel so relevant
wie nie zuvor.
Die KI-Zukunft ist schon in der Gegenwart an -
gekommen, die Moral allerdings noch nicht. Über-
wachungskameras mit Gesichtserkennung scan-
nen die Bevölkerung von Peking bis Boston, ob-
wohl die Technologie noch nicht ausgereift ist.
Künstliche Intelligenz soll in Deutschland Polizei-
behörden bei der Prognose helfen, an welchen
Orten Einbrüche besonders wahrscheinlich sind –
der Öffentlichkeit bleibt der zugrunde liegende
Algorithmus verborgen.
Und selbst beim Schuhkauf im Netz stellen sich
Experten immer dringender die Frage, was noch
angemessen ist, wenn Algorithmen die Kunden
auf Basis von vermeintlich objektiven Daten in
immer feinere Kategorien einordnen. Wenn das
Verhalten von jeder und jedem bis aufs Granulars-
te vermessen werden kann, wird Ethik zur Grund-
satzfrage für den Einsatz von künstlicher Intelli-
genz. Bloß: Wie kommt die Moral in die Maschine?
Text
Astrid Maier
Illustrationen
Matthias Seifarth
3
+DQGHOVEODWW0HGLDURXSPE+ &R.*$OOH5HFKWHYRUEHKDOWHQ=XP(UZHUEZHLWHUJHKHQGHU5HFKWHZHQGHQ6LHVLFKELWWHQXW]XQJVUHFKWH#KDQGHOVEODWWJURXSFRP