Sve češće korištenje umjetne inteligencije kao pomoćnog alata u radu činjenica je s kojom smo dobro upoznati. Neke od čestih kritika takvih pothvata odnose se na mogućnosti samih alata, koje iako sve veće i impresivnije, nikako nisu savršene.
Jedna od nesavršenosti alata umjetne inteligencije odnosi se na njihove štetne pristranosti.
Naime, prema nekim istraživanjima, 90% najvećih tvrtki koristi se alatima umjetne inteligencije kako bi olakšali i ubrzali procese zapošljavanja. Kada te iste tvrtke treniraju alate na svojoj dotadašnjoj praksi zapošljavanja, neupitno kreiraju pristrane alate.
Ovu tezu na vrlo jednostavnom primjeru objasnila je autorica knjige The Algorithm, Hilke Schellmann:
„U jednom slučaju, alat za filtriranje životopisa bio je obučen na životopisima ljudi koji su radili u tvrtki. Alat je proučavao statističke obrasce i otkrio da su ljudi koji su u svom životopisu imali riječi “bejzbol” i “košarka” bili uspješni, pa su dobili nekoliko dodatnih bodova. Ljudi koji su u svom životopisu imali riječ “softball” bili su potom degradirani. Očito je da su u SAD-u ljudi s “bejzbol” u svom životopisu obično muškarci, a ljudi sa “softball” obično žene.“.
Odgovarajući na prijetnju diskriminacije pri zapošljavanju, zakonodavci grada New Yorka donijeli su Zakon o alatima za automatizirano zapošljavanje prošle godine, zahtijevajući da tvrtke koje koriste umjetnu inteligenciju za donošenje odluka o zapošljavanju prođu revizije koje procjenjuju pristranosti u “spolu, rasi, etničkoj pripadnosti i međusektorskim kategorijama”. Međutim, ovaj zakon znatno zaostaje u uspostavljanju potrebne zaštite.
Uz nedostatak mjera provedbe i standarda kontrole kvalitete, ovim zakonom ključno se izostavio invaliditet- jedna od najčešće prijavljenih vrsta diskriminacije pri zapošljavanju.
Dok diskriminacija osoba s invaliditetom putem umjetne inteligencije nije predviđena ovim zakonom, rigidnost ovih alata dovodi do velikih šteta – počinjenih na veliki broj ljudi.
Primjer nam nudi The Hill : „Na primjer, AI analiza videosnimki kandidata može utvrditi da netko s mucanjem, govornom manom ili teškoćama u govoru zbog gubitka sluha “loše govori” ili mu “nedostaje komunikacijskih vještina”. Drugima pak može biti teško održati kontakt očima s kamerom, zbog čega ih AI doživljava kao “nefokusirane”.“
I dok bi jedna osoba, a da je pritom sama pristrana i diskriminatorna, mogla provesti nekoliko intervjua u danu, ovakvi alati sposobni su profiltrirati na tisuće prijava dnevno – čineći predrasude i diskriminaciju pri zapošljavanju još raširenijom pojavom.
Imate dodatnih pitanja o ovoj temi? Stručnjaci Centra za sigurniji Internet vam stoje na raspolaganju za sva pitanja i nedoumice na besplatnoj i anonimnoj liniji Centra dostupnoj na broju 0800 606 606, svaki radni dan od 08:00 do 16:00 sati.
Powered by A1 Hrvatska.