hangzású botokhoz vezet, amelyek tükrözik a jót és a rosszat a sok trutymóból. -
WaPo
"A Bing chat néha valódi, élő embereket rágalmaz. Gyakran mély érzelmi zavarban
hagyja a felhasználókat. Néha azt sugallja, hogy a felhasználók ártsanak másoknak" -
mondta Arvind Narayanan, a Princeton informatika professzora.
"Felelőtlenség a Microsoft részéről, hogy ilyen gyorsan kiadta és sokkal rosszabb
lenne, ha mindenki számára anélkül adná csak ki, hogy ezeket a problémákat
kijavítja."
Az új chatbot kezd hasonlítani a Microsoft "Tay" nevű chatbotjának megismétlésére,
amelyből azonnal hatalmas Hitler-rajongó lett.
Fordította és szerkesztette: VilagHelyzete
Forrás és eredeti cikk: ZEROHEDGE.com