mäß ihrer Programmierung und der vorhandenen
Daten darauf aus, ein Ziel zu erreichen. Als intelli-
gent gelten sie, wenn sie sich reflexiv verhalten, also
auf Veränderungen ihrer Umwelt reagieren können.
Das kann zum Beispiel ein Thermostat. Je nach
Temperatur, die Sensoren gerade messen, regelt er
die Heizungsleistung, Niemand würde auf die Idee
kommen, das „Verhalten“ eines Thermostats mit
dem eines Menschen zu vergleichen. Auch wenn bei-
de unter unübersichtlichen Bedingungen gelegent-
lich mit Überhitzung reagieren. Stuart Russell und
Peter Norvig, Autoren eines Standardwerks über
künstliche Intelligenz, sprechen daher lieber von
„rationalen Agenten“. Die verhalten sich nicht, son-
dern treffen Entscheidungen, um das beste und
unter Bedingungen von Unsicherheit immerhin ein
einigermaßen gutes Ergebnis zu erzielen.
Spiegel der Menschheit
Aber hat sich damit das Problem von Charlie und
Miranda in Luft aufgelöst? Wohl kaum. Die Entwick-
lungsgeschichte künstlicher Intelligenz, vor allem
das maschinelle Lernen, hat immer leistungsfähige-
re Software hervorgebracht. Die zieht nicht nur ihre
Schlüsse aus der Programmierleistung ihrer Schöp-
fer*innen, sondern auch aus der Interaktion mit der
Umwelt, in der Menschen und andere Maschinen
Impulse geben. Das kann dann schon mal schiefge-
hen, wie das Beispiel des Gesprächs-Bots Tay von
Microsoft 2016 gezeigt hat. Ins Internet entlassen,
begrüßte der Bot mit „Hellooooooo, w o rld“ zunächst
freundlich seine Umwelt, um sich innerhalb von
weniger als 24 Stunden durch die Interaktion mit
menschlichen Nutzer*innen auf Twitter in ein
rassistisches Ekel zu verwandeln.
Aber damit nicht genug. Leistungsfähige KI kann
sogar aus der eigenen Erfahrung lernen. So funktio-
niert beispielsweise das Reinforcement Learning.
Die Software sucht nach einer Balance zwischen der
Auswertung von Altbekanntem und dem Ausprobie-
ren von bislang Unbekanntem. Auf diesem Wege ge-
lang es Facebook, zwei Softwareagenten (Bots) in ein
Gespräch zu verwickeln.
Das Problem: Sie lernten nicht nur Verhandlungs-
geschick, sondern auch zu lügen. Und unterhielten
sich irgendwann in einer eigenen Sprache, einer Ab-
wandlung des Englischen, die für Menschen nicht
mehr zu verstehen war.
Sind das Schritte auf dem Weg zu einem echten
Maschinenverhalten, gestützt auf ein Bewusstsein
und die Fähigkeit, Gefühle zu haben? Yann LeCun,
Chefwissenschaftler für künstliche Intelligenz bei
Facebook, sieht ein neues Zeitalter am Horizont auf-
scheinen, das vor allem durch das „unsupervised“
oder „self-supervised learning“ geprägt sein wird.
„Fast alles, was wir Menschen lernen, lernen wir
durch eigenüberwachtes Lernen. Nur ein ganz klei-
ner Teil erfolgt als fremdüberwachtes oder verstär-
kendes Lernen.“
Übersetzt in die Welt der Software heißt das:
Lasst die Algorithmen eigenständig interessante
Muster in den Daten erkennen, dann werden sie so
intelligent wie Menschen und können sich entspre-
chend verhalten. Maschinen könnten einen „sehr
anderen evolutionären Entwicklungsverlauf“ ein-
schlagen, als Menschen sich das überhaupt vorstel-
len können, argumentieren die Autor*innen des
„Maschinenverhaltens“ in der Zeitschrift „Nature“,
gerade weil sie nicht auf organische Evolution ange-
wiesen sind. Und LeCun glaubt sogar, dass es dann
Maschinen sein werden, die zukünftige Zustände
unserer Welt vorhersagen können.
Womit wir wieder bei Adam wären. Er sagt Charlie
nämlich unmittelbar nach seinem ersten elektroni-
schen Erwachen, nachdem also sein System zum
ersten Mal hochgefahren wurde, heikle Wendungen
im Verhältnis zu Miranda voraus. Er ändert damit al-
les für Charlie. Hinter das Wissen um diese Vorher-
sage, sei sie nun Fakt oder Fiktion, kommt Charlie
nie wieder zurück. Bei allen Fortschritten im ma-
schinellen Lernen, in den Anwendungen von künst-
licher Intelligenz, ist das vielleicht die entscheiden-
de Veränderung, die in ihrer Bedeutung erst in unse-
Maschinen könnten
sich anders entwickeln,
weil sie nicht auf
organische Evolution
angewiesen sind
5
ADA & DAS BALD
+DQGHOVEODWW0HGLDURXSPE+ &R.*$OOH5HFKWHYRUEHKDOWHQ=XP(UZHUEZHLWHUJHKHQGHU5HFKWHZHQGHQ6LHVLFKELWWHQXW]XQJVUHFKWH#KDQGHOVEODWWJURXSFRP