Tod geht. So wie bei Steven Hildemann. Der Chief
Bioethical Officer leitet die globale Arzneimittelsi-
cherheit von Merck. Der Pharmakonzern hat mit
dem US-Unternehmen Palantir ein Joint Venture
gegründet, das den Datenaustausch und die -ana-
lyse in der Krebsforschung beschleunigen soll.
Bald schon würden so viele Daten im Gesund-
heitswesen generiert, dass sie selbst „für den bes-
ten Arzt der Welt nicht mehr beherrschbar sind“,
sagt Hildemann. Die Hoffnung der Branche seien
deshalb KI-Assistenzsysteme, die alles durchfors-
ten und Ärzt*innen bessere Therapien vorschla-
gen, individuell zugeschnitten auf die Bedürfnisse
einzelner Patient*innen.
Palantir aus Palo Alto gilt als Vorreiter im Ge-
schäft mit der Datenauslese. Und Merck aus
Darmstadt hat einen Plan, wie der Konzern ethi-
sche Fehltritte bei neuen digitalen Geschäfts -
modellen ausschließen will: Der Konzern möchte
im Voraus bestimmen, wofür künstliche Intelli-
genz zunächst nicht eingesetzt werden soll.
Mit dieser Methode kennt sich Merck aus. Das
Unternehmen ist führend im Geschäft mit Gen-
Editierungs-Werkzeugen, es hat dafür eigens ein
externes Beratergremium aufgebaut. Medizi-
ner*innen, Philosoph*innen, Bioethiker*innen, Ju-
rist*innen und Molekularbiolog*innen geben dort
Empfehlungen zu bioethischen Fragen. Zwei
Grenzen: Das Klonen von Menschen und Tieren
und der Eingriff in die Keimbahn des menschli-
chen Erbguts sind tabu. Nach diesem Vorbild bau-
en Hildemann und sein Team nun einen Beirat für
KI-Anwendungen auf. Er soll bis Ende des Jahres
die Arbeit aufnehmen.
Digitale Geschäftsmodelle entwickelten sich
aber so schnell, dass ständig neue Herausforde-
rungen dazukämen, sagt Hildemann: „Gerade im
Gesundheitswesen müssen KI-Systeme auf einer
möglichst diversen Basis fußen.“ Algorithmen, die
auf die Früherkennung von Brustkrebs bei weiß-
häutigen Frauen trainiert sind, helfen bei dunkler
Haut oft nicht weiter. Deshalb irren Gesichtser-
kennungsanwendungen in den USA derzeit öfter
bei Afroamerikaner*innen oder bei Frauen. Auch
die Datenbanken brauchen Diversität.
Der KI-TÜV
Aber kann Ethik programmiert werden? Oder
neigt der Mensch nun mal zu Vorurteilen, die sich
in seinen Maschinen widerspiegeln? Oxford-Philo-
soph Floridi sieht das so: Strikte Grenzen lassen
sich auch in Code programmieren, aber in Grau -
zonen zu entscheiden, das sei eine zutiefst
menschliche Fähigkeit, die man auf absehbare
Zeit nicht in Handlungsanweisungen für eine
Maschine wird übersetzen können.
Telekom-Managerin Manuela Mackert findet,
deutsche Unternehmen könnten sich mit einer KI-
Ethik made in Germany Wettbewerbsvorteile ver-
schaffen. Ihr Arbeitgeber arbeitet mit Partnern an
einer Art KI-TÜV. Volkswagen verfolgt ähnliche,
aber eigene Pläne. „KI-Initiativen haben bisher nur
philosophische Abhandlungen, aber keine konkre-
ten Ergebnisse geliefert“, sagt Patrick van der
Smagt, der die KI-Grundlagenforschung bei VW
verantwortet. Der Autobauer ruft gerade eine KI-
Ethik-Dachorganisation für die Wirtschaft zusam-
men. Sie soll Richtlinien erlassen, deren Einhal-
tung überwachen und Mitglieder zertifizieren. „Es
könnte wie das Biosiegel auf dem Ökoei im Super-
markt funktionieren“, sagt van der Smagt.
Konsortien, Siegel, Zertifizierung – ganz auf sich
gestellt werden die Unternehmen nicht bleiben.
Auch Staaten haben die Notwendigkeit erkannt,
ethische Regeln für künstliche Intelligenz zu defi-
nieren. Zuletzt überzeugte die Organisation für
wirtschaftliche Zusammenarbeit und Entwick-
lung (OECD) 42 Länder, sich zu fünf Grundprinzi-
pien für den Einsatz von künstlicher Intelligenz zu
bekennen – darunter auch Deutschland.
Und wessen Ethik gelangt am Ende in solche
Leitlinien und Prinzipien? TUM-Professor Lütge
war Mitglied der Ethikkommission in Deutsch-
land, die 2017 die weltweit ersten Leitlinien für au-
tomatisierte Fahrzeuge definierte. Die einen, sagt
er, hätten dort mit Immanuel Kant argumentiert:
Man dürfe kein Leben gegen ein anderes auf -
wiegen. Den anderen sei es darum gegangen, die
Gesamtfolgen abzuschätzen zu können. Am Ende
einigte man sich auf einen Kompromiss: Es kann
zulässig sein, abzuwägen – aber nicht, Mensch ge-
gen Mensch aufzurechnen. Das muss im Extrem-
fall dann auch der Bot verstehen. n
Die Herausforderung
Der Austausch zwischen der KI-
Forschung und den Sozialwissen-
schaften nimmt ab, hat Morgan
Frank vom Massachusetts Insti tute
of Technology herausgefunden.
Demnach nehmen KI-Expert*innen
seit den Sechzigerjahren in
Ver öffentlichungen immer seltener
Bezug auf Ergebnisse aus
Psychologie oder Philosophie.
Umgekehrt zitieren Geistes -
wissenschaftler*innen weniger
KI-Forschung. Der Grund: Früher
wurden KI-Studien von Univer -
sitäten finanziert, heute eher von
Microsoft oder Google – und das
hemmt die Kooperation.
ADA & DAS JETZT
3
+DQGHOVEODWW0HGLDURXSPE+ &R.*$OOH5HFKWHYRUEHKDOWHQ=XP(UZHUEZHLWHUJHKHQGHU5HFKWHZHQGHQ6LHVLFKELWWHQXW]XQJVUHFKWH#KDQGHOVEODWWJURXSFRP