Nun ist das Wirken des Algorithmus im Falle
ungeklärter Urheberschaft vergleichsweise harm-
los. Wie mächtig die Technologie mittlerweile
allerdings schon ist und warum das selbst den Er-
findern bisweilen zu weit geht, zeigt das Beispiel
von OpenAI. Im Februar verkündete die Non-Pro-
fit-Organisation aus San Francisco, dass ihre neue
Software GPT-2 zusammenhängende und schlüs-
sige Texte erstellen könne – darunter fiktive Kurz-
geschichten über die Entdeckung von Einhörnern
in den Anden, Nachrichten über einen gestohle-
nen Zug mit Nuklearmaterial oder einen Hausauf-
gabentext über den amerikanischen Bürgerkrieg.
Zwar stieß der Algorithmus hier und da noch
an seine Grenzen. Mal schrieb er von „Feuer unter
Wasser“, mal von „Einhörnern mit
vier Hörnern“, mal wiederholten sich
ganze Textpassagen. Dennoch war
dem Entwicklerteam um Alec Red-
ford die Software so unheimlich,
dass sie letztlich nur eine abgespeck-
te Ver sion veröffentlichten – denn
sie befürchten, dass ihr Programm
für die Erstellung von Fake News
missbraucht werden könnte. Offen-
bar trauen sie den Menschen noch
nicht zu, verantwortungsvoll damit
um zugehen.
Gefahr der Verwirrung
Zu einem ähnlich verblüffenden Re-
sultat kamen neulich zwei Wissen-
schaftler von United Nations Global
Pulse, der Big-Data-Initiative der Ver-
einten Nationen. Joseph Bullock und
Miguel Luengo-Oroz wollten in ihrer
Studie zeigen, wie einfach und güns-
tig es ist, „Falschinformationen zu
streuen sowie aufrührerische oder
hasserfüllte Reden zu schreiben“.
Deshalb fütterten sie einen Algorith-
mus zunächst mit einem Datensatz
von Wikipedia-Texten und anschließend mit
Reden von Staatslenkern bei den UN-General -
versammlungen von 1970 bis 2015. Alles in allem
kostete das die Wissenschaftler nur 13 Stunden
sowie 7,80 Dollar für Speicherdienste.
Hetzerische Äußerungen bekam der Algorith-
mus zwar nicht überzeugend hin – aber vor allem
deshalb, weil er dafür zu wenig Trainingsdaten
hatte. Ging es hingegen um allgemeine Themen
wie den Klimawandel, waren die generierten Texte
aber schon nahe am Stil der realen UN-Reden. Für
Joseph Bullock ist das kein Grund zum Jubeln,
sondern eher Anlass zur Sorge: „Wenn Online -
nutzer einen Text nur überfliegen, könnten sie
durchaus verwirrt werden.“
Dass es in Zukunft aber nur noch digitale Auto-
ren gibt, halten selbst Experten für unwahr-
scheinlich. „Ein Computer hat nicht den intrinsi-
schen Antrieb, etwas ausdrücken zu wollen“, sagt
Andreas Hotho, Informatikprofessor an der Uni-
versität Würzburg. Der Mensch verstehe außer-
dem die Zusammenhänge meist intuitiv, weil
er Allgemeinwissen gesammelt und Erfahrungen
gemacht habe.
Sebastian Golly von Retresco sieht die Software
seines Unternehmens daher eher als Hilfsmittel.
Sie könne Texte übernehmen, die Autoren ohne-
hin lästig seien, etwa wenn viele Daten ausgewer-
tet werden müssen und wenig Kreativität nötig
sei. „Auch Gesetzestexte will man nicht der Ma-
schine überlassen“, sagt Iryna Gurevych, Compu-
terlinguistin an der Technischen Universität
Darmstadt, „es wird immer der Mensch sein, der
die letzte Verantwortung trägt.“ n
▲ Musik als
mathematische
Gleichung:
Eine KI erkennt
den Urheber von
Beatles-Liedern
Foto Getty Images/Premium Archive/1966 Shinko Music
»Ein Computer hat keinen
intrinsischen Antrieb, etwas
ausdrücken zu wollen.
Außerdem verstehen Menschen
Zusammenhänge meist intuitiv«
Andreas Hotho, Informatikprofessor an der Universität Würzburg
+DQGHOVEODWW0HGLDURXSPE+ &R.*$OOH5HFKWHYRUEHKDOWHQ=XP(UZHUEZHLWHUJHKHQGHU5HFKWHZHQGHQ6LHVLFKELWWHQXW]XQJVUHFKWH#KDQGHOVEODWWJURXSFRP