Um für die Telekom die richtige Ethikstrategie
zu finden, begab sich Mackert auf eine Art KI-
Bildungsreise. Die führte sie unter anderem zu
Sam Altman, dem Chef des einflussreichen
Silicon-Valley-Start-up-Zentrums Y Combinator.
Mit ihm sprach sie in Palo Alto darüber, ob Maschi-
nen Menschen Geborgenheit geben können; mit
dem renommierten Informatik-Professor Oren Et-
zioni vom Allen Institute in Seattle diskutierte sie
eine Art hippokratischen Eid für KI-Anwendungen.
Zurück in Deutschland, rät Mackert anderen
Unternehmen nun vor allem zu pragmatischen
Schritten. Sie müssten zuerst prüfen, wo künstli-
che Intelligenz im Unternehmen schon im Einsatz
ist – und sich an praxisrelevanten Beispielen ori-
entieren, um daraus Anweisungen abzuleiten.
TUM-Professor Lütge baut gerade in München ein
Institut zum Thema künstliche Intelligenz und
Ethik auf, es soll das erste seiner Art sein. Er rät,
für das Thema möglichst früh den Vorstand zu
sensibilisieren.
Bei der Telekom engagiert sich Innovations-
und Technik-Vorständin Claudia Nemat auf dem
Gebiet. Sie hält es für möglich, dass Unternehmen
ihre Aktionär*innen in Zukunft über die morali-
sche Unbedenklichkeit ihrer KI-Anwendungen im
Jahresbericht informieren, ähnlich wie über ihre
gesellschaftliche Verantwortung. Dafür müsse
aber zunächst das verbindende Grundmotiv ver-
mittelt werden, sagt Nemat: Der Mensch müsse zu
jeder Zeit die Oberhand über die Technik behal-
ten. So lautet ein anderes Prinzip der Telekom-
Leitlinien.
Der kleinste Nenner
Die Maxime „Mensch über Maschine“ gilt auch
unter Philosophen als kleinster gemeinsamer
Nenner für den verantwortungsvollen Umgang
mit künstlicher Intelligenz. „Man kann die Verant-
wortung nicht an Code delegieren“, sagt Luciano
Floridi, Philosophieprofessor am Oxford Internet
Institute. Um die Botschaft von der menschlichen
Verantwortung in die Telekom zu tragen, gibt es
bei dem Konzern nun regelmäßige KI-Präsentatio-
nen und Workshops. Rund 70 Expert*innen betei-
ligen sich in wechselnder Zusammensetzung an
der internen Taskforce. Und neue KI-Anwendun-
gen sollen vor der Marktreife zuerst ein Prüfver-
fahren durchlaufen, ähnlich einem Test in puncto
Cybersicherheit. Von Designer*innen über Tech-
nolog*innen und Ethikexpert*innen sind dabei
verschiedene Fachrichtungen involviert.
Die Telekom will Vorbild sein, lückenlos arbeitet
das KI-Ethik-System aber auch hier noch nicht.
Wer genau den Aus-Knopf drücken muss, wenn ei-
ne künstliche Intelligenz querschießen würde wie
der HiCo – der Prozess dafür wurde noch nicht da-
für auf gesetzt. „Solche Szenarien sind bislang
Theorie. Dennoch wollen wir vorbereitet sein. Das
muss ein geübt und trainiert werden“, sagt Mackert.
Ethik und künstliche Intelligenz – das Thema ist
so alt wie die Computerdisziplin selbst. Schon in
den Sechzigerjahren schrieben der Vater der
Kybernetik, Norbert Wiener, und der Mitbegrün-
der des Maschinellen Lernens, Arthur Samuel, da-
rüber wissenschaftliche Abhandlungen. Luciano
Floridi vergleicht die Situation mit der Debatte um
den Klimawandel. Auch dort hätten Experten jahr-
zehntelang diskutiert, ohne dass die Allgemein-
heit ein Problem bemerkt hätte: „Ähnlich ist es
nun bei der KI-Ethik.“
Die Technologie sei längst in Fahrassistenten
im Auto oder in Spracherkennungssoftware auf
dem Handy installiert. Versicherungen könnten
die Daten nutzen, um Kranken oder Übergewichti-
gen unterschiedliche Tarife anzubieten. Ohne mo-
ralische Kontrolle könnte irgendwann das Solidar-
system wanken. „Wie beim Klimaschutz wird es
für die Gesellschaft auch in der Infosphäre viel
teurer, später aufzuräumen als vorher die ethi-
schen Regeln zu klären“, sagt Floridi.
Für manche Unternehmen ist Abwarten ohne-
hin keine Option – weil es bei ihnen um Leben und
+DQGHOVEODWW0HGLDURXSPE+ &R.*$OOH5HFKWHYRUEHKDOWHQ=XP(UZHUEZHLWHUJHKHQGHU5HFKWHZHQGHQ6LHVLFKELWWHQXW]XQJVUHFKWH#KDQGHOVEODWWJURXSFRP