Mit dieser Frage haben sich bisher vor allem US-
Technologiekonzerne wie IBM, Microsoft oder
Google auseinandergesetzt. Doch inzwischen
haben auch deutsche Unternehmen das Dilemma
erkannt: Die Telekom und der HiCo-Bot sind Teil
einer größeren Bewegung, die sich gerade von
Bonn bis Wolfsburg aufmacht, künstlicher Intelli-
genz Moral einzuhauchen.
Ethik soll das neue, bindende Glied der KI-Wert-
schöpfungsketten sein und sie im Idealfall sogar
von der Konkurrenz absetzen. „Das Interesse an
dem Thema ist groß und steigt“, sagt denn auch
Christoph Lütge, Professor an der Technischen
Universität München. Aber lässt sich Moral in
Code übersetzen – und wenn ja, wie?
An einem heißen Tag im Juni sitzt Manuela Ma-
ckert am Besprechungstisch ihres abgedunkelten
Büros in der Bonner Telekom-Zentrale, vor sich ei-
nen Stapel Papiere und Studien. Sie ist seit dem
Jahr 2010 Chief Compliance Officer des Konzerns
und unter anderem zuständig für das Thema der
digitalen Ethik. Sie und ihr Team haben sich den
HiCo-Bot ausgedacht. Gesetzliche Grundlagen
vermisst sie weiterhin: „Deshalb müssen wir
selbst gestalten“, sagt Mackert. Und bisweilen
auch Entwicklungen nicht weiterverfolgen. Zu-
mindest derzeit würde ein Bot wie der HiCo bei
der Telekom abgeschaltet – weil unklar ist, warum
er sich willkürlich benimmt.
So steht es in neun Leitlinien, die sich das
Unternehmen zum Umgang mit künstlicher Intel-
ligenz selbst auferlegt hat. Demnach müssen
seine KI-Systeme immer transparent, nachvoll-
ziehbar und lückenlos dokumentiert sein. So will
die Telekom „Black Boxes“ verhindern – jenes
Phänomen, wenn selbst Programmierer*innen
nicht mehr nachvollziehen können, warum selbst
lernende Algorithmen zu bestimmten Ergebnis-
sen kommen.
Der Notfall-Knopf
Adidas lernte das neulich auf die harte Tour. Ein
KI-Service des Sportartikelherstellers in Groß -
britannien hatte auf Twitter unter dem Hashtag
#DareToCreate antisemitische Tweets an 800 000
Follower gesendet. Die Entwickler*innen hatten
offenbar keinen Notfall-Mechanismus parat, der
das System sofort abschalten konnte, sobald bös-
willige Nutzer*innen es kapern.
»Der Mensch muss
zu jeder Zeit die
Oberhand über die
Technik behalten«
Claudia Nemat, Telekom-Vorständin
ADA & DAS JETZT
3
+DQGHOVEODWW0HGLDURXSPE+ &R.*$OOH5HFKWHYRUEHKDOWHQ=XP(UZHUEZHLWHUJHKHQGHU5HFKWHZHQGHQ6LHVLFKELWWHQXW]XQJVUHFKWH#KDQGHOVEODWWJURXSFRP