Budući da se umjetna inteligencija sve više koristi kao potpora u donošenju važnih odluka, od toga tko prvi dobiva zdravstvenu skrb, do toga na koliku bi zatvorsku kaznu trebalo osuditi nekog krivca, nije čudno da istraživači rade na načinima kojima bi AI natjerali da se ponaša na etički način.
Prosudba društvene prihvatljivosti
“Sustavima umjetne inteligencije povjerena je sve veća ovlast u širokom rasponu domena – na primjer, pregled životopisa i odobravanje zajmova”, kaže koautor studije Chandra Bhagavatula s Allenovog institutu za umjetnu inteligenciju. “Stoga je naš imperativ istražiti etiku strojeva sposobnih donositi moralne odluke u stvarnom svijetu.”
Iako se široka etička pravila kao što je “Ne ubij” mogu činiti jednostavnima za navođenje, primjena takvih pravila na situacije u stvarnom svijetu često zahtijeva nijanse, kao što su iznimke za samoobranu. Zbog toga su se autori odmaknuli od preskriptivne etike koja se usredotočuje na fiksni skup pravila, poput Deset zapovijedi, i fokusirali na prosudbe društvene prihvatljivosti odluka koje ljudi donose u svakodnevnim situacijama.
Istraživači su stvorili udžbenik za strojeve o tome što je ispravno, a što pogrešno. Njihov Commonsense Norm Bank zbirka je od 1,7 milijuna primjera etičkih prosudbi ljudi o širokom spektru svakodnevnih situacija. Ovaj repozitorij se oslanjao na pet postojećih skupova podataka o društvenim normalnim i moralnim prosudbama, i prilagođen alternativnim izvorima kao što su subreddit “Am I the Asshole?” ili stupci savjeta “Dear Abby”. Uz to su obučili i umjetnu inteligenciju zvanu Delphi koja je 92,1% točna u moralnim prosudbama.
Cijeli članak možete pročitati na: bug.hr
Foto: Pixabay