Neue Zürcher Zeitung - 03.11.2019

(Barré) #1

28 WIRTSCHAFT Donnerstag, 3. Oktober 2019


Der Computer muss erklären, was er tut

Künstliche Intelligenz statt Kundenberater – immer öfter entscheiden Algorithmen in Finanzfragen, etwa über die Versich erung


BENJAMIN TRIEBE, LONDON


Von einem Menschen abgewiesen zu
werden, ist nicht schön.Wenn ein Com-
puter das tut,kann es noch unange-
nehmer sein. Doch genau das passiert
immer öfter,weil Computer dank künst-
licher Intelligenz(KI) Entscheide tref-
fen, für die früherKundenberater und
andere Mitarbeiterzuständig waren.
Das gilt auch in derFinanzbranche, zum
Beispiel in Grossbritannien. Dort zeigt
das Versicherungsportal GoCompare,
wie KI und maschinelles Lernen nicht
nur bestimmen,welche Offerten einAn-
tragsteller bekommt, sondern auch, ob
er als Betrüger eingestuft und deswegen
blockiert wird.


DerAlgorithmus ist skeptisch


GoCompare ist ein führendes briti-
schesVergleichsportal,bei dem Nut-
zer Angebote fürAuto-, Hausrat- und
alle möglichen anderenVersicherungen
einholenkönnen.Rund 5Mio.Besu-
che verzeichnet dieWebsite im Monat.
Wenn die Nutzer ihreDaten eingeben,
«denkt» der Computer im Hintergrund


immer mit: Ein lange und intensiv trai-
niertes KI-System versucht zu erkennen,
ob jemand falscheAngaben macht, um
seine Prämien zu senken. Es «überlegt»
bei jeder Eingabe, ob es diese Art von
Kunden schon einmal gesehenhat und
welche Entscheidungsregeln in diesem
Fall gelten. «DieKundendaten werden
in Echtzeit überwacht, um verdächtiges
Verhalten zu erkennen»,erläutert Fleur
Lewis, Chefin der Betrugsüberwachung
von GoCompare.
Kommt die künstliche Intelligenz
zum Schluss, dass ein Betrugsversuch
vorliegt,erhält der Nutzerkeine Offerte,
sondern eine Fehlermeldung: Leider
sei es nicht möglich gewesen, für diese
Angaben einVersicherungsangebot zu
ge nerieren, heisst es dann.Das ist nicht
gelogen:Das System vergleicht das Ri-
sikopotenzial, das es bei einemKun-
den erkennt, mit der Risikotoleranz der
Versicherungsanbieter.Manche Ver-
sicherer sind bereit, «riskantere»Kun-
den zu akzeptieren,und gehen dasWag-
nis eines Betrugsversuchs ein.In diesem
Fall erhält der Nutzer von diesem An-
bieter eine teurere Offerte, als wenn ihn
das System als unbedenklich einstufen

würde. Dass die KI diesen Entscheid ge-
troffen hat, sieht derKunde nicht – er
sieht nur den Preis.Ist das Risiko jedoch
zu hoch, beisstkein Versicherer an.

Jeder Klick wirdüberwacht


«Im Kampf gegen Betrug helfen wir der
Branche,das Kundenverhalten zu ver-
stehen», sagt Lewis. 75% allerAutover-
sicherungen würden überVergleichs-
portale im Internet abgeschlossen. Der
Verlust durchVersicherungsbetrug gehe
in die Milliarden,so Lewis. Deshalb ver-
sucht dasSystem zu erkennen, ob je-
mand zum Beispiel bei Beruf,Wohn-
ort oderVorstrafen lügt. Oder subtiler:
Wenn etwa ein jungerAutolenker bei
der Autohaftpflicht der Eltern mitversi-
chert werdensoll, die Eltern dann aber
bei der Angabe des Hauptfahrers des
Autos zögern,fällt das der KI auf. Natür-
lich seien solcheFalschangaben manch-
mal schwer zu beweisen,räumt Lewis
ein.Aber wenn möglich, wolle man den
Versicherer alarmieren.
Wenn die KI vonGoCompare skep-
tisch wird, erhält der Nutzer entweder
eine teurereOfferte oder garkeine.

Dass der Computer in ihm ein Risiko
erkannte, wird dem Klienten nicht dar-
gelegt. Hat er eine Nachfrage, muss er
sich an denKundendienst wenden.Da-
mit umgeht dieFirma ein grosses Pro-
blem in derAnwendung von künstlicher
In telligenz:Wie erklärt man Entscheide,
die Algorithmen getroff en haben?
Theoretisch sind die KI-Anwendungs-
möglichkeiten imFinanzsektor gross.
Vieles spielt sich hinter denKulissen ab,
etwa bei derAnalyse von Zahlungsströ-
men. Doch was, wenn die Entscheide
dem Klienten präsentiert werden und
kein Mitarbeiter involviert ist?

Einfachheit als Nachteil


«Die schnelle Entwicklung von KI wirft
Fragen auf, auf die wir nochkeine Ant-
worten haben – zuoberst nachTrans-
parenz und Erklärbarkeit», sagt Chris-
topherWoolard, Direktor für Strate-
gie undWettbewerb bei der britischen
Finanzaufsicht FCA. In einerRede wies
er im Sommer auf dieWechselwirkun-
gen zwischen einem guten Algorith-
mus und einer guten Erklärbarkeit hin:
Wenn man für einenFinanzentscheid
einen Algorithmus verwende, der leich-
ter nachzuvollziehen und damit leich-
ter erklärbar sei,könne dieseVereinfa-
chung seineVoraussagekraft einschrän-
ken.«Was hatVorrang, die Präzision der
Vorhersage oder dieFähigkeit, dieVor-
hersage zu erklären?», fragteWoolard.
Diese Herausforderungen sind aus
Sicht desFinanzaufsehers ein Grund,
warumdie Branche sich nichteupho-
risch auf künstliche Intelligenz stürzt.
Die Folgen der globalenFinanzkrise
spielten in denKöpfen noch eineRolle,
so Woolard: «Zu vielVertrauen wurde
damals in Produkte und Instrumente ge-
steckt, die man nichtkorrekt verstand.»
So erklärt sich die FCA, dass grosse
Finanzdienstleister, zum Beispiel eta-
blierteBanken,bei derAnwendung von
KI zögerlicher sind als jungeFirmen.

Nicht alles istBet rug


GoCompare wurde 2006 a ufgebaut,darf
noch als jung gelten und suchte sich
Ende 2018 einen noch jüngerenPartner,
um das alte Überwachungssystem zu
ersetzen:Featurespace , gegründet von
Forschern der Universität Cambridge,
hat sich auf dieVerhaltensforschung
mittels künstlicher Intelligenz speziali-
siert.Die so entwickelte Plattform über-
wachtKonsumentendaten in Echtzeit,
um verdächtige Entwicklungen zu ent-
decken und zu blockieren,ohne ehrliche
Kunden auszuschliessen. Das ist wichtig,

denn manche GoCompare-Nutzer spie-
len nur mit unterschiedlichen Angaben,
um zu sehen, wie sich die Prämien ver-
ändern – zum Beispiel, wenn sie aus In-
teresse einen anderen Beruf eintippen,
am Ende aber bei derWahrheit bleiben.
AndereFirmen zögern.Nur 39% der
britischenFinanzdienstleister setzen KI
im Umgang mit Klienten ein, zeigte im
Frühjahr die erste systematische Unter-
suchung dieser Art, veranstaltet von der
Bank of England (BoE) und der FCA.
Allerdings wird die Computerintelligenz
schon von mehr als der Hälfte derFir-
men für das interne Risikomanagement
angewandt. Grundsätzlich halten viele
Finanzdienstleister dasThema für stra-
tegisch wichtig, bleiben aber vorsich-
tig. Einige Anbieter nannten die Ge-
fahr, dass der fehlerhafte Einsatz von KI
ganz neue undkomplexe Risiken schaf-
fen könne.

Am Ende hängt es am Menschen


James Proudman, BoE-Aufsichtsdirek-
tor für Retail-Banken, hat drei Pro-
bleme identifiziert. Erstens sei jedes
KI-Modellnur so gut wie dieDaten,

mit denen es gefüttert werde, sagte er
bei einemVortrag imJuni. Zweitens
spielten auch bei künstlicher Intelli-
genz die Irrtümer von Menschen eine
grosseRolle, denn es seien Menschen,
welche die Programme schrieben, mit
denen die Maschinen lernten und ent-
schieden.Ausserdem werde mit zuneh-
menderKomplexität der Modelle die
Suche nach den Ursachen vonFehlern
erschwert, und das nehme drittens das
Management, das die KI-Anwendung
überwachen müsse, sehr stark in die
Pflicht. Fleur Lewis von GoCompare ist
aber optimistisch: Die Erfahrungen mit
dem KI-Einsatz seien sehr positiv und
die Branche zufrieden.

Weramanderen Endedie Anfragen entgegennimmt–obMenschoder Maschine–spieltbald keineRolle mehr. S. DAWSON / BLOOMBERG Die Plattform


überwacht Konsumen-
tendaten in Echtzeit,
um verdächtige
Entwicklungen
zu entdecken
und zu blockieren,
ohne ehrliche Kunden
auszuschliessen.

Jedes Schmuckstück wirdaus Edelstahlfedern produziert und zeichnet sich durchsei-
ne Kreativitätaus. Die drei L in La Mollla erinnern dabei an diedynamischeFeder
Bewegung.Passend zum 50-jährigenJubiläum der Mondlandung wurde unserSorti-
ment um dasSautoir «Lune» und das gleichnamige dreiteilige Bracelet erweitert.Das
Collierkann einfachoder doppeltgetragenwerden.Weitere Schmuckstückevon la
mollla finden Sie untershop.nzz.ch

LuneSautoirCollier
Fr. 210.–/Fr.200.–*

LuneBracelet
Fr. 155.–/Fr.145.–*

SCHMUCK& DESIGN


Einzigartiger Schmuck aus einzelnen Edelstahlfedern


Jetztbestellen: shop.nzz.ch 0442581383


Kleiderhakenset: Hell

Kleiderhakenset: Dunkel

*Sonderpr eise
für

Abonnenten LuneSautoirCollier LuneBracelet
Free download pdf