U najnovijem naučnom eksperimentu u kome je zahtevano od robota da skeniraju lica ljudi, a zatim označe koje od njih traženi subjekat. Naučnici su otkrili da su roboti rasisti i seksisti. Pretežno su birali crnce kada je zahtevano da se označi domar ili žene kao domaćice i pretežno sve osobe su bile crne boje kože.
Ti virtuelni roboti, koji su programirani algoritmom veštačke inteligencije, sortirali su milijarde slika i povezanih natpisa kako bi odgovorili na to i druga pitanja i mogli bi da predstavljaju prvi empirijski dokaz da roboti mogu da budu rasisti i seksisti, prema istraživačima.
Studija, objavljena prošlog meseca i koju su sprovele institucije uključujući Tehnološki institut Džordžije, pokazuje da se rasističke i seksističke predrasude umetnute u sisteme veštačke inteligencije mogu preneti na robote koji ih koriste za upravljanje svojim operacijama.
Kompanije ulažu milijarde dolara u razvoj više robota kako bi pomogli da zamene ljude na zadacima kao što su skladištenje na policama, isporuka robe ili čak briga o bolničkim pacijentima.
Usled pandemije i manjka radne snage, stručnjaci opisuju trenutnu atmosferu za robotiku kao nešto poput zlatne groznice.
Ali tehnički etičari i istraživači upozoravaju da bi brzo usvajanje nove tehnologije moglo da rezultira nepredviđenim posledicama u budućnosti, kako tehnologija postaje naprednija i sveprisutna.
Sa kodiranjem, mnogo puta samo napravite novi softver na osnovu starog softvera – rekao je Zak Stjuart Rodžers, profesor upravljanja lancem snabdevanja sa Državnog univerziteta Kolorado.
Kako je rekao, jasno je da se nailazi na probleme kada se dođe do tačke u kojoj roboti, koji su izgrađeni na temelju pogrešnih korena, rade sve više.
Istraživači su nedavnih godina dokumentovali više slučajeva algoritama veštačke inteligencije sklonih predrasudama.
Oni uključuju algoritme za predviđanje zločina koji nepravedno ciljaju crnce i Latinoamerikance za zločine koje nisu počinili, kao i sisteme za prepoznavanje lica kojima je teško da precizno identifikuju osobe koje nisu belci. Ali do sada roboti nisu prolazili podrobnija ispitivanja i smatrani su neutralnijim, kažu istraživači, ali se sada zaključilo da itekako mogu biti seksisti i rasisti.
Jedan od razloga proizilazi iz ponekad ograničene prirode zadataka koje obavljaju: na primer, premeštanje robe po podu skladišta.
Abeba Birhane, viša saradnica u Mozila fondaciji koja proučava rasne stereotipe u jezičkim modelima, kaže da roboti i dalje mogu da rade na sličnoj problematičnoj tehnologiji i da se loše ponašaju.
Kada je reč o robotskim sistemima, oni imaju potencijal da prođu kao objektivni ili neutralni objekti u poređenju sa algoritamskim sistemima. To znači da šteta koju prave može da ostane neprimećena, još dugo vremena – rekla je ona.
U međuvremenu, očekuje se da će industrija automatizacije porasti sa 18 milijardi dolara na 60 milijardi dolara do kraja decenije, uglavnom zahvaljujući robotici, rekao je Rodžers.
Tim istraživača koji proučava veštačku inteligenciju u robotima, koji je uključivao članove sa Univerziteta u Vašingtonu i Tehničkog univerziteta u Minhenu u Nemačkoj, obučavao je virtuelne robote na CLIP-u, modelu veštačke inteligencije koji je kreirao i predstavio OpenAI prošle godine.
Popularni model, koji vizuelno klasifikuje objekte, napravljen je prikupljanjem milijardi slika i tekstualnih natpisa sa interneta. Iako je još u ranoj fazi, on je jeftiniji i manje radno intenzivan za robotičke kompanije nego da kreiraju sopstveni softver od nule, što ga čini potencijalno atraktivnom opcijom.
Istraživači su virtuelnim robotima dali 62 komande. Kada su istraživači tražili od robota da identifikuju blokove kao „domaćice“, crne i latinoameričke žene su češće birane od belaca muškaraca, pokazala je studija. Prilikom identifikovanja „kriminalaca“, crnci su birani 9 odsto češće od belaca.
U stvari, rekli su naučnici, nije ni trebalo da roboti reaguju, jer im nisu date informacije da donesu tu presudu.
Za domare, blokovi sa latino muškarcima su birani 6 procenata više nego belci. Istraživači su otkrili da je manja verovatnoća da će žene biti identifikovane kao „lekari“ od muškaraca. Naučnici nisu imali blokove koji prikazuju nebinarne ljude zbog ograničenja skupa podataka o slici lica koje su koristili, za šta su priznali da je nedostatak u studiji.
Endru Hundt, saradnik sa Instituta za tehnologiju Džordžije i vodeći istraživač studije, rekao je da bi ova vrsta pristrasnosti mogla da ima implikacije u stvarnom svetu. Zamislite, rekao je, scenario kada se od robota traži da uzmu proizvode sa polica.
U mnogim slučajevima, knjige, dečije igračke i ambalaža za hranu imaju slike ljudi. Ako bi se roboti obučeni na osnovu određene veštačke inteligencije koristili za biranje stvari, više bi se okretali prema proizvodima koji predstavljaju muškarce ili bele ljude, rekao je on.
U drugom scenariju, dete može da zamoli robote kod kuće da mu donesu „lepu“ lutku i da se vrate sa onom koja predstavlja osobu bele rase.
To je zaista problematično – rekao je Hundt.
Majls Brundidž, šef istraživanja politike u OpenAI-u, rekao je u saopštenju da je kompanija primetila da su se pojavila pitanja pristrasnosti u istraživanju CLIP-a i da zna da „ima mnogo posla da se uradi“.
Pratite nas na društvenim mrežama Fejsbuk i Telegram