Handelsblatt - 18.09.2019

(Sean Pound) #1

Kontrolle faselt. Oder eines von Nico-
las Cage, dessen Gesicht in Blockbus-
tern wie „Indiana Jones“ und „James
Bond 007“ auftaucht.
Noch sieht man den Unterschied
zwischen Original und Fälschung:
Die Akteure in Deepfake-Videos wir-
ken zumeist künstlich, der Mund ist
seltsam geöffnet, die Kopfbewegun-
gen sind steif. Intuitiv erkennen viele
Menschen, dass etwas nicht stimmt.
Doch das ist eine Momentaufnahme.
„In der nahen Zukunft werden Men-
schen nicht mehr in der Lage sein,
ein echtes von einem gefälschten
Bild zu unterscheiden“, ist Shen
überzeugt. „Vermutlich werden wir
den Kampf gegen die Technologie
verlieren.“
Für solche Systeme gibt es legiti-
me Anwendungen, wie Forscher in
ihren Veröffentlichungen stets beto-
nen. Ein Beispiel ist die Medien-
branche: Spezialeffekte werden
noch realistischer, Studios und TV-
Sender können die Gesichtsausdrü-
cke von echten Schauspielern auf
digitale Avatare übertragen. Oder
Fehler bei den Dreharbeiten ausbes-
sern, ohne dass es auffällt. Auch an-
dere Bereiche profitieren von der Si-
mulation. „Wir können mit der
Technologie realistische Szenarien
erschaffen, in denen autonome
Fahrzeuge virtuell trainieren“, er-
läutert Shen. Das System lerne, mit
unerwarteten Situationen umzuge-
hen, ohne Menschenleben auf der
Straße zu riskieren. Auch in der Me-
dizin gibt es potenzielle Anwendun-
gen: „Wir können simulieren, wie
sich seltene Krebsarten entwickeln,
und so die Diagnose und Behand-
lung verbessern“, erklärt der Inge-
nieur.
Dabei bleibt es aber nicht. „Es han-
delt sich um eine großartige Techno-


logie“, sagt Shen. Das Problem sei,
dass sie zum Missbrauch einlade
„und die Regierungen noch nichts
dagegen tun“. Besonders die USA
sind für die Gefahr sensibilisiert – die
russische Einmischung in den Präsi-
dentschaftswahlkampf 2016 beschäf-
tigt die amerikanische Politik noch
immer. Die Gegner von US-Präsident
Donald Trump fürchten, dass Russ-
land 2020 erneut in den Wahlkampf
eingreifen könnte – und dieses Mal
nicht mit verhältnismäßig primitiven
Facebook- und Twitter-Botschaften,
sondern dem Versuch, mit Deepfakes
die Wahl zu Trumps Gunsten zu ent-
scheiden.
Wie anfällig politische Debatten
für visuelle Manipulation sind, zeigte
sich im Mai dieses Jahres, als auf On-
lineplattformen ein Video von Nancy
Pelosi kursierte, das so verlangsamt
war, dass es den Anschein hatte, die
demokratische Spitzenpolitikerin ha-
be ein Alkoholproblem. An sich war
die Fälschung leicht zu erkennen –
und doch wurde das Video millio-
nenfach geteilt. Menschen glauben,
was sie glauben wollen, vor allem in
einer aufgeheizten Atmosphäre.

Wahrheit oder Täuschung?
In Deutschland ist der Fall Varoufakis
in Erinnerung geblieben. Vier Jahre
ist es her, dass ein Video einen Sturm
der Entrüstung auslöste, auf dem der
damalige griechische Finanzminister
der Bundesrepublik den Mittelfinger
zu zeigen schien. Inmitten der Aufre-
gung behauptete der Satiriker Jan
Böhmermann, er habe das Video ei-
genhändig gefälscht. Interessant war
dabei, dass zunächst unklar war, ob
die Aufnahme tatsächlich manipu-
liert wurde – oder die behauptete Fäl-
schung Satire war. Wahrheit und Täu-
schung waren nicht mehr zu unter-
scheiden. Mit Deepfakes droht das
zur Norm zu werden.
Barack Obama hat eine düstere
Vorahnung von dem, was kommen
könnte: „Es wird schwer, den Markt-
platz der Ideen zu bearbeiten, wenn
wir kein gemeinsames Grundver-
ständnis darüber mehr haben, was
wahr ist und was nicht“, sagte er,
als er kürzlich in Kanada über das
Deepfake-Risiko sprach. Demokratie
und Marktwirtschaft steht ein
Stresstest bevor. Lässt sich der Bör-
senhandel gegen das fast perfekte
Finanzverbrechen verteidigen, bei
dem Kriminelle auf fallende Kurse
wetten und Konzernchefs frei erfun-
dene Horrormeldungen in den
Mund legen? Kann Willensbildung
funktionieren, wenn alles in Zweifel
gezogen werden kann, weil sich
prinzipiell alles fälschen lässt? Kön-
nen offene Gesellschaften überle-
ben, wenn Misstrauen zur Grund-
haltung wird?
Selbst Kriege könnten durch
Deepfakes ausgelöst werden, warnt
der Rechtswissenschaftler Robert
Chesney im Fachjournal „Foreign
Affairs“. Die unterschiedlichsten
Szenarien sind denkbar: ein Video,
in dem ein KI-generierter US-Gene-
ral den Koran verbrennt; eine Au-
dioaufzeichnung, in der iranische
Revolutionsgardisten mit Angriffen
auf saudische Ölraffinerien prahlen.
Desinformation ist nicht neu – neu
sind ihre praktisch unbegrenzten
Möglichkeiten. Deepfakes könnten,
so Chesney, das Propagandage-
schäft so stark verändern, wie die
Erfindung des Schwarzpulvers die
Kriegsführung verändert hat.
Dabei kommt Manipulatoren der
Bedeutungsverlust der etablierten
Medien zugute. Zeitungen und Fern-
sehsender haben Qualitätsstandards,
sie prüfen die Echtheit von Informa-

imago/ITAR-TASS

zustellen. Das Ziel: einen Software-
detektor für digitale Fälschungen zu
entwickeln.
Ein Ansatz besteht darin, nach
dem Ausgangsmaterial zu suchen –
die Videos, mit denen die Künstliche
Intelligenz lernt, stammen häufig von
Youtube oder anderen Quellen im In-
ternet. Auch eine Analyse von Details
ist aufschlussreich, etwa der Beleuch-
tung: Diese lässt sich nicht so einfach
realitätsgetreu nachahmen. Forensi-
sche Software kann die Unterschiede
herausarbeiten.
Das ist indes nur eine Momentauf-
nahme. „Wir erleben ein Wettrüsten
zwischen Fälschern und Forensi-
kern“, sagt DGAP-Experte Sahin.
„Das Problem ist, dass die Fälscher
eindeutig in der Mehrheit sind.“

Wir


erleben ein


Wett rüsten


zwischen


Fälschern


und


Forensikern.


Und die


Fälscher sind


eindeutig in


der Mehrheit.


Kaan Sahin
Deutsche Gesellschaft
für Auswärtige Politik

tionen, die sie veröffentlichen. Inter-
netplattformen wie Facebook und
Twitter haben das nicht – und zu-
gleich eine noch größere Reichweite.
Noch nie konnten sich Fälschungen
so schnell verbreiten wie heute. Die
US-Geheimdienste warnen, dass „un-
sere Feinde und strategische Rivalen
wahrscheinlich versuchen werden,
Deepfakes oder vergleichbare Tech-
nologien des maschinellen Lernens
einzusetzen, um überzeugende, aber
gefälschte Bilder, Audio- und Video-
daten zu kreieren, um Einflusskam-
pagnen gegen die Vereinigten Staaten
und unsere Alliierten und Partner zu
verstärken“.
Den Onlinenetzwerken dämmert
langsam, wie groß die Gefahren der
neuen Technologie sind. Facebook
investiert zehn Millionen Dollar, um
gemeinsam mit Microsoft die Ent-
wicklung zur Enttarnung von Deep-
fakes voranzutreiben. Die „Deep -
fake Detection Challenge“ soll einen
Ideenwettbewerb unter unabhängi-
gen Wissenschaftlern in Gang brin-
gen. Auch Darpa, der Forschungs-
arm des Pentagons, hat angekün-
digt, sich der Bedrohung durch
„groß angelegte, automatisierte
Desinformationsattacken“ entgegen-

Diese Woche
beschäftigen wir uns
mit dem Thema
Deepfakes.
Die weiteren Beiträge
finden Sie unter:
http://www.handelsblatt.com/
digitalerevolution

DIGITALE
REVOLUTION

&+&


#&&" &
! ( $''%

 



   



   


% 
$
*" (,
 

  +")"
  

"  " 


 

" " 
&&"  

 




" "" 
&

 



Anzeige

Digitale Revolution


1


MITTWOCH, 18. SEPTEMBER 2019, NR. 180
23

Free download pdf