Handelsblatt - 27.11.2019

(Barré) #1

I


ntelligente Algorithmen, die Handlungs-
und Entscheidungsstrukturen des Men-
schen nachbilden, gehören längst zum
Alltag. Sie bewerten die Kreditwürdigkeit
von Kunden, messen die Qualität von

Jobbewerbungen, diagnostizieren Krankheiten


oder lassen Autos autonom fahren. Die Auswir-


kungen solcher „Künstlicher Intelligenz“ (KI) auf


unsere Gesellschaft werden immer weitreichen-


der. Wer aber kontrolliert algorithmisch vorbe-


reitete oder getroffene Entscheidungen?


Verbraucherzentralen, Wissenschaftler und


Politiker fordern immer wieder einen „Algorith-


men-Tüv“. Solch eine Institution soll für Trans-


parenz von Algorithmen sorgen, die Sicherheit


von KI-gesteuerten Prozessen gewährleisten und


Datensubjekte vor Diskriminierung schützen.


Auch in der Bevölkerung spiegelt sich dieser


Wunsch wider. Eine Forsa-Umfrage im Auftrag


des Tüv-Verbands kam zu dem Ergebnis, dass


sich 83 Prozent der Bundesbürger eine unabhän-


gige Prüfung von KI-Anwendungen wünschen.


Das ist keine Überraschung, schließlich würde


auch niemand in ein Flugzeug einsteigen, dessen


Sicherheit vorher nicht intensiv geprüft wurde.


Algorithmen, die selbstständig lernen und auf


dieser Basis Entscheidungen über Leben und Tod


treffen, können jedoch kein statisches Prüfverfah-


ren durchlaufen, wie wir es aus der „alten“ mecha-


nisch-elektrotechnischen Welt gewohnt sind. KI-


Software ist dynamisch und entwickelt sich ständig


weiter. Die Steuerungssoftware eines selbstfahren-


den Autos wird über große Datenmengen trainiert,


deren Volumen für den Menschen kaum vorstell-


bar ist. Sie lernt aus der eigenen Praxiserfahrung


stetig dazu und erfährt über das Funknetz Updates
der Hersteller, die das ursprüngliche System und
damit auch den Ausgang von Systementscheidun-
gen verändern. Produkt- und Prozessprüfungen in
Medizintechnik, Robotik und insbesondere die
Typzulassung vernetzter Fahrzeuge müssen mit
dieser Entwicklung Schritt halten. Prüforganisatio-
nen, die große Erfahrung mit Hard- und Software
und deren Zertifizierung haben, müssen die bishe-
rigen ausschließlich statischen Zertifikate durch
dynamische Verfahren ersetzen, die zu jedem Zeit-
punkt eine Aussage über die Funktionalität und Si-
cherheit des Systems ermöglichen.
Zunächst liegt die Herausforderung darin, die
Kriterien für diese Sicherheitsprüfungen zu defi-
nieren. So arbeiten die deutschen Tüv-Unterneh-
men bereits intensiv an geeigneten Prüfungs-
werkzeugen, welche drei Fokuskriterien erfüllen
müssen: zunächst Transparenz. Es muss nach-
vollziehbar sein, wie ein KI-Algorithmus entwi-
ckelt und trainiert wurde, wie er Entscheidungen
ableitet und welche Lern- und Trainingsmuster
angewendet wurden. Dann die Eignung. Der ein-
gesetzte KI-Algorithmus muss anhand von defi-
nierten Kriterien nachweislich für sein Einsatzge-
biet geeignet sein. Entscheidend hierfür ist auch
die Qualität der Trainingsdaten. Für sie müssen
definierte Anforderungen gelten, denn sie ent-
scheiden letztlich über den Ausgang von System-
entscheidungen. So wird derzeit ein „Führer-
schein für Algorithmen“ für das autonome Fah-
ren entwickelt, der das Entscheidungsverhalten
des Systems in unterschiedlichsten Verkehrssi-
tuationen überprüfen soll. Drittens Manipulier-
barkeit. Cyberangriffe dürfen die Systemsicher-

heit von KI-Systemen nicht kompromittieren. Für
eine sichere KI-Funktionalität werden Angriffs-
szenarien digital simuliert oder mittels „guter
Hacker“ verprobt.
KI-Technologien entwickeln sich rasant weiter.
In Ermangelung einheitlicher Vorgaben setzen
viele KI-Entwickler derzeit noch eigene Maßstäbe
für Funktionalität, Sicherheit oder Ethik von Al-
gorithmen. Es ist höchste Zeit, dass wir unter
Einbindung von Herstellern, Anwendern sowie
von neutralen Prüforganisationen wie den Tüv-
Unternehmen konkrete Standards für transpa-
rente und sichere KI-Systeme definieren. Dazu
muss den Prüfern auch der Zugang zu den Quell-
codes der Systeme zugänglich gemacht werden.
Schon heute besitzen etablierte Tech-Unter-
nehmen die Marktmacht, De-facto-Standards für
algorithmische Entscheidungsfindungen zu set-
zen. Ein „Algorithmen-Tüv“ würde die europäi-
schen Institutionen unterstützen, diese Macht
demokratisch und wettbewerbsrechtlich kon-
form zu kontrollieren, die digitale Souveränität
des Bürgers zu erhalten und Innovationen in der
Breite zu fördern. Seitens der EU und der KI-En-
quete-Kommission der Bundesregierung gibt es
hierzu gute Ansätze. Auf dieser Grundlage sollten
Stakeholder in Deutschland die Führung über-
nehmen und eine Roadmap für KI-Sicherheit in
Europa entwickeln. Ein Konsens darüber, dass
Algorithmen überprüfbar sein müssen, wäre auf
diesem Weg ein erster, wichtiger Schritt.

Ein Tüv für


Algorithmen


Standards für sichere KI-Systeme fordern


Dirk Stenkamp und Isabel Skierka.


Dirk Stenkamp ist Vorstandschef des Tüv
Nord. Isabel Skierka ist Analystin beim Digital
Society Institute in Berlin.

TÜV NORD GROUP, ESMT Berlin [M]

Ein Konsens


darüber, dass


Algorithmen


überprüfbar


sein müssen,


wäre ein erster,


wichtiger


Schritt.


#    !! $! %! 



 
   


Gastkommentar
MITTWOCH, 27. NOVEMBER 2019, NR. 229

48


Anzeige

Free download pdf