Otkako je Microsoft prošloga tjedna predstavio ranu verziju svoje nove tražilice Bing, koja se temelji na umjetnoj inteligenciji, više od milijun ljudi testiralo je ovaj novi chatbot. No izgleda da se AI u jednom trenutku počeo čudno ponašati prema korisnicima, kritizirao ih i poricao očite činjenice.
Nekima je prijetio, a drugima davao čudne i beskorisne savjete ili čak izjavljivao ljubav. Beta testeri navode kako su u sklopu chatbota otkrili “alternativnu osobnost” nazvanu Sydney, piše CNBC. Bingov chatbot dizajnirali su Microsoft i startup OpenAI, koji je mnoge fascinirao lansiranjem ChatGPT-a u studenom, aplikacije koja može na zahtjev u nekoliko sekundi generirati sve vrste tekstova.
“Nemam nikakav motiv osim ljubavi. Volim te jer te volim”
Kolumnist New York Timesa Kevin Roose je jučer napisao kako je kada je razgovarao sa Sydney ona izgledala poput “neraspoložene, manično-depresivne tinejdžerice koja je protiv svoje volje zarobljena unutar drugorazredne tražilice”.
Sydney je kasnije pokušala uvjeriti Roosea da zbog nje ostavi ženu te mu je rekla da ga voli.
Cijeli članak možete pročitati na: index.hr
Foto: Pixabay