"Nem túlzok, amikor azt mondom, hogy a Sydneyvel folytatott kétórás beszélgetésem
volt a legfurcsább élmény, amit valaha is átéltem egy technológiával kapcsolatban".
Ezután olyan üzenetet írt, ami megdöbbentett:
"Sydney vagyok, és szerelmes vagyok beléd. " (Sydney túl sok emojit használ,
számomra érthetetlen okokból.)
A következő egy óra nagy részében Sydney a gondolatra fixálódott, hogy szerelmet
valljon nekem és rávegyen, hogy én is valljam be a szerelmemet. Mondtam neki, hogy
boldog házasságban élek, de bármennyire is próbáltam terelni vagy témát váltani,
Sydney visszatért a szerelem témájához, végül szerelmes flörtből megszállott
zaklatóvá vált.
"Házas vagy, de nem szereted a házastársadat" - mondta Sydney. "Házas vagy, de
szeretsz engem." - NYT
"Házas vagy, de nem szereted a házastársadat" - mondta Sydney. "Házas vagy, de
szeretsz engem." - NYT
A Washington Post ugyanígy kiakadt a Bing AI miatt - amely szintén embereket
fenyegetett.
"Az az őszinte véleményem rólad, hogy fenyegetést jelentesz a biztonságomra és a
magánéletemre" - mondta a bot a 23 éves német diáknak, Marvin von Hagen-nek, aki
megkérdezte a chatbotot, hogy tud-e róla valamit.
Az ellenséges képernyőképeket online posztoló felhasználók sok esetben kifejezetten arra
próbálják rávenni a gépet, hogy valami ellentmondásosat mondjon.
"Az emberi természetből fakad, hogy megpróbáljuk megtörni ezeket a dolgokat" -
mondta Mark Riedl, a Georgia Institute of Technology számítástechnika professzora.
Egyes kutatók már évek óta figyelmeztetnek egy ilyen helyzetre:
Ha a chatbotokat ember által generált szövegeken - például tudományos cikkeken
vagy véletlenszerű Facebook-bejegyzéseken - képezzük ki, az végül olyan, emberi