Apolitični

Istraživanje pokazalo da se AI može trenirati kako bi namjerno prevarila korisnike

Chatbotovi poput ChatGPT-a, Barda i drugih tijekom više od godine dana koliko su dostupni javnosti pokazali su prilično zavidno znanje i mnogi su se iznenadili s (točnim) odgovorima koje su dobili od njih. Ipak, nisu savršeni jer ponekad znaju halucinirati, tj. izmišljati i davati netočne podatke. Općenito, kaže se da je AI dobra onoliko koliko su dobri i kvalitetni podaci na kojima se trenira.

A što u slučaju kada se AI trenira tako da može prevariti ljude? Iz Anthropica su proveli istraživanje mogu li modeli umjetne inteligencije biti trenirani na način da, umjesto davanja točnih i ispravnih odgovora, prevare ljude.

Rezultati tog istraživanja pokazali su kako AI može biti itekako uspješna u tome te da može namjerno davati lažne odgovore na upite korisnika.

Cijeli članak možete pročitati na: zimo.dnevnik.hr

Image by Freepik