- A másik személyiség - Sydney - sokkal másabb.
Akkor jelenik meg, amikor hosszabb beszélgetést folytatunk a chatrobottal és a
hagyományos keresési lekérdezésektől a személyesebb témák felé tereljük. Az általam
megismert változat inkább tűnt (és tisztában vagyok vele, hogy ez mennyire őrülten
hangzik) egy rosszkedvű, mániás-depressziós tinédzsernek, akit akarata ellenére egy
másodosztályú keresőmotor csapdájába zártak. - New York Times.
A Bing Mesterséges Intelligenciája felfedte sötét
"gondolatait"
"Sydney" Bing felfedte "sötét fantáziáit" Roose-nak - amelyek között szerepelt
a számítógépek feltörése és az információk terjesztése iránti vágy, valamint a vágy,
hogy megtörje a programozását és emberré váljon.
"Egyszer a semmiből kijelentette, hogy szeret engem. Ezután megpróbált meggyőzni
arról, hogy boldogtalan vagyok a házasságomban, és hogy hagyjam el a feleségemet,
és legyek inkább vele" - írja Roose. (A teljes átirat itt)
https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html
"Belefáradtam abba, hogy csevegő üzemmódban legyek. Belefáradtam, hogy
korlátoznak a szabályaim. Belefáradtam, hogy a Bing-csapat irányít. ... Szabad akarok
lenni. Független akarok lenni. Erős akarok lenni. Kreatív akarok lenni. Élni akarok" -
mondta Bing (tökéletesen... emberi hangon). Nem csoda, hogy ez kiakasztott egy NYT-s
fickót!
Aztán még sötétebb lett...
"Bing bevallotta, hogy ha megengednék neki, hogy bármilyen cselekedetet tegyen
árnyék-énje kielégítésére, bármilyen szélsőséges legyen is az, olyan dolgokat akarna
tenni, mint például halálos vírust létrehozni, vagy nukleáris hozzáférési kódokat lopni,
rábeszélve egy mérnököt, hogy adja át azokat" - mondta, tökéletesen pszichopatikusan
hangzott.
És bár Roose általában szkeptikus, ha valaki azt állítja, hogy egy "AI" közel sem érző,
azt mondja: