Die Welt Kompakt - 01.08.2019

(Brent) #1
Künstliche Intelligenz

darstellerinnen gedrehten Fil-
me montiert. Bewegung und
Mimik der Köpfe und Lippen
werden dabei von der KI so per-
fekt angepasst, dass es täu-
schend echt aussieht.
Doch nicht nur VIPs können
Opfer solcher Fakes werden.
Als die Australierin Noelle Mar-
tin nach eigenen Bildern im In-
ternet suchte, stieß sie auch auf
Pornofilme, in die ihr Gesicht
eingefügt worden war. Der Fall
sorgte für einiges Aufsehen und
führte dazu, dass es seit 2018 in
Australien ein Gesetz gibt, dass
den Urhebern derartiger Fakes
mehrjährige Haftstrafen an-
droht. Doch der heute 24-jähri-
gen Jurastudentin Martin ist
das noch nicht genug. Sie setzt
sich für eine globale Initiative
auf UN-Ebene gegen diese
Form der Menschenrechtsver-
letzung ein. Die Pornografie hat
bereits bei manchen Technolo-
gien, von der VHS-Kassette
über die DVD bis hin zur virtu-
ellen Realität mit sogenannten
VR-Brillen – eine Vorreiterrolle
gespielt. Deep-Fake-Videos
werden ohne jeden Zweifel
noch in vielen anderen Berei-
chen eine Rolle spielen. So war-
nen etwa Shruti Agarwal und
Hany Farid von der University
of California in Berkeley davor,
dass Staatsoberhäupter in Fake-
Videos Dinge sagen oder tun

E

inBild sagt bekannt-
lich mehr als tausend
WWWorte. Und bewegteorte. Und bewegte
Bilder, also Videos,
gelten noch immer als untrüg-
licher Beweis dafür, dass sich
etwas genau so abgespielt hat,
wie es im Film zu sehen ist. Mit
dieser Gewissheit ist es jetzt
allerdings vorbei. Leistungsfä-
hige Verfahren der künstlichen
Intelligenz (KI) erlauben mitt-
lerweile die Herstellung von so
perfekten Fälschungen, dass
mit bloßem Auge nicht mehr
zu erkennen ist, ob ein Video
echt oder manipuliert ist. In
sogenannten Deep-Fake-Vi-
deos sagen oder tun Personen
Dinge, die sie niemals sagen
oder tun würden..

VON NORBERT LOSSAU

Das Kunstwort Deep Fake ist
entstanden aus dem Zusam-
menziehen des Begriffs „Deep
Learning“, einer speziellen KI-
Technik, und eben dem Fake,
also der Fälschung.
Einige Kostproben derartiger
Fälschungen lassen sich im Web
bestaunen. Da erklärt beispiels-
weise Facebook-Chef Mark
Zuckerberg in einem YouTube-
Video, dass derjenige, „der die
Daten der Menschen kontrol-
liert, die Zukunft kontrollieren
wird“. Und die Influencerin
Kim Kardashian gibt zu, dass
sie gezielt Menschen manipu-
liert, nur um selbst reich zu
werden. Natürlich haben die
beiden dies nicht gesagt. Diese
letztlich offensichtlichen Fäl-
schungen haben Künstler pro-
duziert, um auf die Mächtigkeit
und die Gefahren der neuen
Techniken hinzuweisen.
Bislang wurde die Deep-Fa-
ke-Technik in erster Linie zur
Produktion von Pornofilmen
genutzt. Da werden die Gesich-
ter von prominenten Schau-
spielerinnen wie Scarlett Jo-
hansson oder Emma Watson
nachträglich in die mit Porno-

könnten, die zu schweren poli-
tischen Verwerfungen, ja
Staatskrisen führen könnten.
Und militärischen Führern
könnten provozierende Aussa-
gen untergeschoben werden,
die im schlimmsten Fall sogar
einen Krieg auslösen. Auch Bör-
senmanipulationen oder geziel-
te Attacken gegen Unterneh-
men sind vorstellbar. „Von
Deep Fakes geht eine signifi-
kante Bedrohung für die Demo-
kratie, die nationale Sicherheit
und die Gesellschaft insgesamt
aus“, stellen Agarwal und Farid
fest. Viele andere Experten se-
hen das ebenso. Deep Fakes
sind also eine gewaltige Her-
ausforderung.
Dass es bislang noch nicht zu
einer großen Deep-Fake-Kata-
strophe gekommen ist, hängt
wohl auch damit zusammen,
dass die Technologie für wirk-
lich perfekte Fälschungen noch
immer sehr viel Rechenleistung
und große Datenmengen erfor-
dert, damit ein künstliches neu-
ronales Netzwerk exzellente
Ergebnisse liefern kann. Das
begrenzt vorerst den Anwen-
derkreis. Beispielsweise kann es
sich Hollywood leisten, bereits
verstorbene Schauspieler in
neuen Filmen wieder zum Le-
ben zu erwecken. Eine solche
Anwendung ist sicher unbe-
denklich. Doch es gibt viele un-
lautere Motive für das Erstellen
von Fake-Videos. „Bereits heute
kann jeder Laie beispielsweise
mit dem kostenlos erhältlichen
Programm ,DeepFaceLab‘
selbst gefälschte Videos auf sei-
nem PC herstellen“, sagt Pro-
fessor Oliver Bendel, der als In-
formations- und Maschinen-
ethiker an der Hochschule für
Wirtschaft FHNW lehrt. Für
die Produktion eines typischer-
weise 30 Sekunden langen Vi-
deos würden dabei allerdings
Rechenzeiten von bis zu mehre-
ren Tagen benötigt. Das allein
ist für Entschlossene sicher
kein Hinderungsgrund. Doch

die so erstellten Deep Fakes las-
sen sich von speziellen Pro-
grammen, die ebenfalls KI-
Techniken nutzen, im Prinzip
enttarnen. Eines dieser Pro-
gramme namens „FaceForen-
sics“ hat Professor Matthias
Nießner an der Technischen
Universität München entwic-
kelt. „Fake-Videos als solche zu
erkennen, erweist sich beson-
ders in den sozialen Medien als
schwierig, da diese dort meist
komprimiert und schlecht auf-
gelöst hochgeladen werden“,
beschreibt Nießner eine zentra-
le Herausforderung. „FaceFo-
rensics“ kann diese indes be-
reits besser bewältigen als rou-
tinierte Experten. Eine von
Nießner veröffentlichte Studie
zeigt, dass Menschen Fake-Vi-
deos nur in wenig mehr als 50
Prozent als solche erkennen.
Das Programm bringt es hinge-
gen auf eine Trefferquote von
immerhin 78 Prozent.
Doch die Algorithmen der
Fälscher dürften in den kom-
menden Jahren immer besser
werden. Experten gehen davon
aus, dass in zwei bis drei Jahren
jedermann Deep Fakes mit sehr
guter Qualität produzieren
kann. Hier zeichnet sich also
ein Wettlauf ab, so ähnlich wie
beim Hacken und dessen Ab-
wehr: Immer realistischere Fa-
ke-Videos werden die Entwick-
lung von immer leistungsfähi-
geren Programmen zur Enttar-
nen stimulieren. Doch kann
dieses Wettrennen überhaupt
zum Guten gewonnen werden,
wenn erst einmal manipulierte
Videos das Internet und die so-
zialen Medien massenhaft flu-
ten? Bereits für textbasierte Fa-
kes konnte eine im Jahr 2018 im
Fachjournal „Science“ veröf-
fentlichte Studie nachweisen,
dass sich Lügen und Fälschun-
gen in sozialen Netzen deutlich
schneller und weiter verbreiten
als Wahrheiten. Das dürfte bei
Video-Fakes nicht anders sein.
Wird man schließlich noch ir-

gendetwas im digitalen Nach-
richtenkosmos glauben kön-
nen? Noelle Martin spricht
wohl für viele, wenn sie sagt,
dass sie in einer Welt leben
möchte, in der man Medien
und Nachrichten konsumieren
und daran glauben darf, dass
sie wahr sind.
„Das Schlimmste wäre je-
doch, wenn die Menschen ange-
sichts der sich abzeichnenden
Entwicklungen das Interesse an
der Wahrheit verlieren“, sagt
Bendel.
Die befürchtete Welle an
Deep Fakes könnte gerade für
die klassischen Medien eine
Chance bedeuten, meinen eini-
ge Medienexperten wie Chri-
stian Stöcker, Professor für Di-
gitale Kommunikation an der
HAW Hamburg. Der Einzelne
hat bei der zu erwartenden Flut
von Fake-Videos gar nicht die
Chance, in jedem einzelnen
Fall selbst zu prüfen, was echt
oder möglicherweise gefälscht
ist. Dies könnte aber eine zen-
trale Dienstleistung der klassi-
schen Medien sein, die mit dem
notwendigen technischen und
personellen Aufwand garantie-
ren würden, dass ausschließlich
echte Videos verbreitet wer-
den. Glaubwürdigkeit hat einen
Marktwert.
Damit wäre aber noch nicht
das Problem der ganz großen
Gefahren auf der Ebene von
Staat und Militär gelöst. Dazu
wird in der nächsten Zeit ge-
wiss noch viel geforscht und in
Thinktanks gegrübelt werden.
Shruti Agarwal und Hany Farid
wollen jedenfalls in Kürze ein
Paper mit dem Titel „Protec-
ting World Leaders Against
Deep Fakes“ veröffentlichen.
Da wird es dann die ersten Vor-
schläge geben, wie führende
Politiker dieser Herausforde-
rung begegnen können.
Bei allen Risiken, die von
Deep Fakes ausgehen, sollte
man indes auch nicht verges-
sen, dass es eine ganze Reihe
von sinnvollen Anwendungen
gibt. So weisen etwa Bobby
Chesney von der University of
Texas und Danielle Citron von
der University of Maryland dar-
auf hin, dass in mit KI-Technik
produzierten Filmen histori-
sche Personen auftreten und
beispielsweise direkt zu Schü-
lern und Studenten sprechen
könnten. Eine realistische Vor-
lesung von Albert Einstein für
Physikstudenten? Das wäre
doch was.
Auch Oliver Bendel wünscht
sich, dass Deep Fakes in der
Wissenschaft und Kunst einen
Platz finden, weil sie einen
„neuen, interessanten, lustvol-
len und verspielten Umgang“
mit diversen Themen ermögli-
chen. Immerhin waren es zwei
Künstler, Bill Posters und Da-
niel Howe, die mit ihrem Pro-
jekt „Spectre“ dazu beigetra-
gen haben, dass viele Menschen
auf das Thema Deep Fake auf-
merksam geworden sind. Die
beiden haben das besagte Fake-
Video mit Mark Zuckerberg
produziert.

Was ist


schlimmer als


Fake news?


Gefälschte


Videos. Die gibt


es für Pornos


und lustige


Promivideos, nun


warnen Forscher


vor Gefahren


könnte

Kriege

auslösen

Sieht man Mark Zuckerberg in diesem
Deep-Fake-Video, geht man automatisch
davon aus, dass man auch seine echte
Stimme dazu hört – was nicht der Fall ist

FACEBOOK

DIE WELIE WELIE WELTKOMPAKTTKOMPAKT DONNERSTAG,1.AUGUST2019 WISSEN 27


РЕЛ


ИЗП

ОД
Дter von prominenten Schau-ter von prominenten Schau-ter von prominenten Schau-ter von prominenten Schau-ter von prominenten Schau-ter von prominenten Schau-ГГООТ

genutzt. Da werden die Gesich-
Т

genutzt. Da werden die Gesich-
ter von prominenten Schau-ter von prominenten Schau-Т

genutzt. Da werden die Gesich-genutzt. Da werden die Gesich-genutzt. Da werden die Gesich-genutzt. Da werden die Gesich-genutzt. Da werden die Gesich-genutzt. Da werden die Gesich-ООВИ
genutzt. Da werden die Gesich-genutzt. Da werden die Gesich-genutzt. Da werden die Gesich-genutzt. Da werden die Gesich-ЛЛАА

Produktion von PornofilmenProduktion von PornofilmenProduktion von PornofilmenProduktion von PornofilmenProduktion von PornofilmenProduktion von PornofilmenГГРУУ
Produktion von PornofilmenProduktion von PornofilmenППП

ke-Technik in erster Linie zurke-Technik in erster Linie zurke-Technik in erster Linie zurke-Technik in erster Linie zurПАА

"What's

ter von prominenten Schau-
"What's

ter von prominenten Schau-
spielerinnen wie Scarlett Jo-spielerinnen wie Scarlett Jo-"What's

News"

genutzt. Da werden die Gesich-
News"

genutzt. Da werden die Gesich-
ter von prominenten Schau-ter von prominenten Schau-News"

VK.COM/WSNWS

genutzt. Da werden die Gesich-

VK.COM/WSNWS

genutzt. Da werden die Gesich-
ter von prominenten Schau-

VK.COM/WSNWS

ter von prominenten Schau-
spielerinnen wie Scarlett Jo-
VK.COM/WSNWS

spielerinnen wie Scarlett Jo-
hansson oder Emma Watsonhansson oder Emma WatsonVK.COM/WSNWS
Free download pdf