Mislili smo da će čovjek odlučivati o sudbini robota, no vidimo kako robot sve više odlučuje o sudbini čovjeka. U prošlom broju govorili smo općenito o Algoritamskom menadžmentu, a sad ćemo pažnju posvetiti Algoritmima za regrutiranje kadrova prilikom zapošljavanja.
Jedno od najbrže rastućih područja algoritamskog upravljanja u svim zemljama i sektorima gospodarstva je upravo u području regrutiranja kadrova. Postoji nekoliko različitih vrsta algoritama koji se koriste u različitim fazama zapošljavanja:
- Algoritmi tekstualne analize, korišteni u dizajniranju formulacija oglasa za posao.
- Marketinški algoritmi, korišteni u ciljano postavljanje oglasa za posao u digitalne medije.
- „Chatbot“ algoritmi, koji se koriste za vođenje kandidata kroz prijave za posao.
- Algoritmi pregleda životopisa kandidata, koji skeniraju prijave za posao analizirajući ključne riječi i tako filtriraju prvu fazu odabira kandidata koji će uopće biti pozvani na razgovor te ulaze u daljnje provjere i odabir.
- Algoritmi testiranja, koji koriste testove temeljene na kompetencijama ili psihometrijske testove za pružanje daljnjeg filtra za provjeru kandidata.
- Razne vrste automatiziranih sustava razgovora, koji mogu postaviti kandidatima unaprijed snimljena pitanja bez potrebe za ljudskim ispitivačem i/ili pokušati procijeniti kandidate na temelju analize njihovih izraza lica, glasa ili odgovora koje oni daju.
- Automatizirane provjere životopisa odnosno prošlosti potencijalnih zaposlenika, koji čak provjeravaju kandidate ili skeniraju njihove povijesti društvenih medija kako bi tražili problematične pokazatelje.
Algoritmi pregleda životopisa
Algoritam pregleda životopisa je najrasprostranjeniji. Mnoge velike tvrtke već sada automatski odbijaju većinu životopisa u fazi automatskog pregleda, prije nego što preostale kandidate uopće kontaktiraju i provjere ljudi koji aktivno sudjeluju u procesu zapošljavanja.
Rastuća popularnost ovih alata je razumljiva. Ogroman opseg i brzina računalnih mogućnosti aplikacija s jedne strane, te s druge strane bezbroj ponuda i podataka koje mnoge velike tvrtke dobivaju od sve globaliziranije radne snage. Tvrtke međutim moraju voditi računa da poštuju sve relevantne zakonske zahtjeve za transparentnošću i mogućnosti žalbe na automatizirano donošenje odluka pri zapošljavanju, a posebno članak 22. stavak 1. Opće uredbe o zaštiti podataka (GDPR) koji zabranjuje „podložnost odlukama koje se temelje isključivo na automatiziranoj obradi, u cijeloj Europskoj uniji.“
Najveća zabrinutost izražena u vezi s automatiziranim pregledom životopisa tiče se pitanja pristranosti. Neke tvrtke koje su eksperimentirale s ovom tehnologijom uvidjele su da njihovi algoritmi negativno pristrani prema ženama, etničkim manjinama ili drugim zaštićenim skupinama. Najistaknutiji slučaj bio je u Amazonu 2014.-2017., gdje je tvrtka obučila algoritam za provjeru životopisa na temelju profila uspješnosti njihove postojeće radne snage. Nažalost, algoritam je primijetio da su većina zaposlenika u trenutnim podacima o radnoj snazi muškarci i naučio se stoga preferirati muške kandidate za posao.
Ključna lekcija, međutim, nije da su algoritmi diskriminatorni, rasistički, seksistički ili na bilo koji drugi način pristrani, već da ljudi jesu. Razlog zašto su ovi primjeri pošli po zlu je taj što su algoritmi dobivali podatke iz stvarnog svijeta koji su već bili zaprljani pristranošću od strane ljudi. Ljudi su savršeno sposobni pokazati užasne pristranosti (bilo svjesne ili nesvjesne) vlastitim odlukama o zapošljavanju. U jednom eksperimentu iz 2004. godine, u kojem je korišteno ljudsko zapošljavanje u SAD-u, istraživači su otkrili da su testni životopisi poslani s anglosaksonskim zvučnim imenima na vrhu dobili 50 posto više ponuda za intervjue od identičnih životopisa s imenima koja zvuče „crno“.
Ako se odgovorno koristi, algoritamski pristup odlučivanju koje će kandidate provesti na intervju zapravo može pomoći u smanjenju ukupne pristranosti i pružiti kandidatima iz nepovoljnog okruženja veće šanse za pošteno saslušanje. Međutim, da bi to postigle, tvrtke trebaju biti izuzetno oprezne pri razvoju ili kupnji novih algoritamskih alata te ključnim varijablama za njihov rad. Minimiziranje svih ovih pristranosti svakako je poželjno, ali matematički je dokazano nemoguće donositi odluke za većinu stvarnih karakteristika koje su podjednako „poštene“ prema svim definicijama. Tvrtke moraju voditi otvorene rasprave o tome kako će procijeniti pravednost odluka svojih algoritama, uključujući radnike i predstavnike njihovih sindikata u tim raspravama.
Algoritmi testiranja osobnosti
Rizik od diskriminacije možda je još teže prevladati kada je riječ o korištenju testiranja osobnosti (ponekad opisanog kao psihometrijsko testiranje). To je još jedan trend u zapošljavanju koji je sve popularniji. U ponudi su razne vrste testova osobnosti, koji tvrde da pomažu tvrtkama da pronađu „dobar par“ s njihovom korporativnom kulturom.
Iako se na prvi pogled čini razumnim da tvrtke žele dati prioritet kandidatima koji se čine savjesnima, organiziranima ili smirenima pod pritiskom, ovakve procjene mogu ozbiljno naštetiti izgledima za zapošljavanje ljudi, na primjer s određenim vrstama mentalnog zdravlja kojih se bore položiti testove ličnosti. To je potencijalno nezakoniti oblik diskriminacije zbog invalidnosti u nekim zemljama.
Ove vrste testova također će vjerojatno biti kulturno neosjetljive, potencijalno diskriminirajući podnositelje zahtjeva iz različitih pozadina od onih koji su napisali softver. Ovo je općeniti problem mnogih vrsta algoritama za upravljanje – ako su dizajnirani i testirani na grupi homogene rase, kulture, dobi ili spola, vjerojatno neće funkcionirati kako je predviđeno kada se primjenjuju na raznolikiju populaciju.
Algoritmi procjene na igranju uloga
Neke tvrtke također koriste ono što opisuju kao „procjenu temeljenu na igrama uloga“ koja navodno testira vještine rješavanja problema. Iako bi to moglo biti u vezi s prikladnošću kandidata za određene poslove, postoje rizici da tvrtke požuruju prihvatiti te alate za uloge u kojima ove vrste testova često zapravo nisu relevantne i služe samo za diskriminaciju onih koji bi se mogli boriti s određenim formatom testa.
Još jedna mana ove vrste algoritamskog pristupa u probiranju životopisa koja postaje sve raširenija i iskrivljuje postupak prijave u korist onih podnositelja zahtjeva koji mogu „izigrati sustav“. Usluge profesionalnog podučavanja i pisanja životopisa pomažu kandidatima da postave istaknute ključne riječi koje algoritmi vjerojatno traže. Neki čak koriste još sumnjivije trikove poput umetanja dodatnih vještina i ključnih riječi u bijeli tekst koji je nevidljiv oku za čitatelje, ali ih uzimaju u obzir algoritamski alati i u skladu s tim ocjenjuju životopis.
Algoritmi provjere prošlosti kandidata
Posljednjih nekoliko godina također su započeli komercijalni algoritmi za provođenje provjere prošlosti kandidata u nekim industrijama. Kao i kod većine algoritamskog upravljanja, aplikacije poput Checkra sada se rutinski koriste za pružanje osnovnih provjera za vozače Ubera i Lyfta. Druge tvrtke poput Fame nude automatizirane provjere prošlosti povijesti društvenih medija kandidata za posao za širok raspon tvrtki, od financija do maloprodaje do tehnologije. Očito je da bi se ova vrsta skeniranja povijesti društvenih medija ljudi nekima mogla činiti neugodno nametljivom.
Algoritmi automatiziranih intervjua
Od svih algoritama zapošljavanja, njihovo uvođenje i u fazi razgovora s kandidatom vjerojatno je najproblematičnije. Iako se algoritmi još uvijek rijetko koriste kao donositelji odluka u završnoj fazi zapošljavanja, neke velike tvrtke kreću se prema automatiziranom prvom intervjuu, a tek zatim se pristupa drugim intervjuima koje vode ljudi ovlašteni za konačan odabir s kandidatima koji uđu u uži izbor.
To je područje najveće kontroverze, gdje su mnogi stručnjaci skeptični te upozoravaju da su rizici od pristranosti i diskriminacije ovdje najveći. Softver HireView koji koriste velike tvrtke kao što su Unilever, Vodafone, PwC i Hilton koristi se za olakšavanje automatiziranih razgovora za posao i uključuje značajke skeniranja lica koje se mogu koristiti za ocjenjivanje kandidata na temelju algoritamske procjene njihovih izraza lica. Ove su vrste proizvoda kao i softver za prepoznavanje glasa AC Global Risk podvrgnuti značajnim kritikama. Na primjer, polje prepoznavanja lica suočeno je s pitanjima rasne diskriminacije zbog odsutnosti „nebijelih lica“ u većini podataka o treningu u algoritmu.
Postoje i pozitivne strane
Algoritmi nemaju samo negativnih strana. S druge strane, upotreba algoritama u ranoj fazi procesa zapošljavanja nudi značajne mogućnosti za poboljšanje pravednosti i iskustva u zapošljavanju kandidata. Softver za tekstualnu analizu tvrtki poput Textio ili čak besplatne web stranice Gender Decoder tvrtke Kat Matfieldxi može skenirati oglase za posao za potencijalno kodirane riječi koje bi mogle biti neugodne za kandidate određenog spola, dobi ili drugih karakteristika. Ovakav pristup, koristeći algoritme za proaktivno traženje i pomoć u uklanjanju diskriminacije, jedna je od najpozitivnijih primjena tehnologije na zapošljavanje.
Na kraju, program nema osjećaje i osobnosti te algoritmi često mogu biti jamac i veće transparentnosti, nego kad iste podatke obrađuje čovjek. Dobro znamo što pri zapošljavanju u našoj sredini može značiti „ljudski faktor“. Ono što je presudno jest da algoritmi koji obrađuju podatke već u startu moraju biti postavljeni ispravno, pošteno i pravedno.
Ključne točke za predstavnike radnika
- Algoritmi korišteni rano u procesu zapošljavanja, posebno u pomaganju pisanja i oglašavanja poslova te vođenja kandidata kroz postupak, najvjerojatnije će poboljšati iskustvo kandidata za posao.
- Upotreba algoritama za pregled životopisa može biti korisna kada je velik broj prijava. Kada se to dobro koristi može se i smanjiti pristranost, ali neoprezna uporaba može umjesto toga povećati pristranost.
- Tamo gdje se algoritmi strojnog učenja koriste u zapošljavanju, mora se imati na umu – ako su podaci o obuci rezultat pristranih ljudskih prosudbi tada će i algoritam naučiti prikazivati iste pristranosti.
- Internetski testovi trebaju biti usmjereni kompetencijama i vještinama relevantnim za predmetni posao. Osobni i psihometrijski testovi u osnovi su subjektivni i diskriminiraju.
- Sindikati bi trebali osporiti i odbiti upotrebu softvera koji tvrdi da se pouzdanost ili kvaliteta kandidata može procijeniti skeniranjem lica ili analizom glasa.
- I za kandidate za posao i za sindikate trebala bi postojati transparentnost u pogledu toga gdje se koriste algoritmi za zapošljavanje. Sindikati bi također trebali imati pristup informacijama o kriterijima koji se koriste za ocjenu kandidata i korištenim izvorima podataka.
- Podaci kandidata za posao trebaju se prikupljati samo ukoliko su relevantni za prijavu. Te podatke treba sigurno čuvati i obrađivati, te brisati nakon donošenja konačne odluke.
- Automatsko odbijanje kandidata putem algoritamskog zaslona analize životopisa može biti u suprotnosti s GDPR-om u EU-u, te uz to i dalje treba biti pod nadzorom ljudskih menadžera.
- Ljudski menadžeri trebaju biti uključeni, nadzirati i moći intervenirati u bilo kojoj fazi postupka prijave. Sve konačne odluke o prihvaćanju kandidata uvijek treba donositi čovjek.