Tema sempre più dibattuto oggi è quello della diversità: le imprese e soprattutto gli HR Manager sono chiamati a fare i conti con l’inclusione e la diversificazione all’interno delle loro risorse aziendali e dei loro processi di selezione.
Ma come procedere nel miglior modo possibile quando noi umani, per definizione, siamo tutti inclini ad avere pregiudizi? E cosa fare se questi pregiudizi si riflettono inevitabilmente sui sistemi di Intelligenza Artificiale ormai diffusi?
Il pregiudizio, anche detto bias, è un comportamento fisiologico: come una lente distorsiva, tende a influenzare le nostre decisioni e a plasmare il modo in cui percepiamo il mondo e gli altri, impedendoci di valutare obiettivamente le situazioni.
Avere dei bias è comune e inevitabile: come possiamo affrontarli, arginarli ed evitare che ci conducano a decisioni affrettate ed assunzioni superficiali?
Nei prossimi paragrafi ci addentreremo nel complesso ma affascinante mondo dei pregiudizi spiegando quali tipi di bias esistono, come l’Intelligenza Artificiale può venirci in aiuto e quali invece sono i suoi limiti:
Gli aspetti legali e regolatori dell’utilizzo dell’AI nella valutazione dei candidati sono al centro di un dibattito oggi molto caldo.
L'intelligenza artificiale ha avuto e ha tutt’ora un ruolo fondamentale nell’evoluzione del recruiting: grazie all’analisi di ingenti volumi di dati, ha portato ad automatizzare e gestire i processi, individuando verticalmente candidati qualificati in modo sempre più rapido e preciso.
Tuttavia le leggi riguardanti le valutazioni basate sull'Intelligenza Artificiale sono ancora estremamente vaghe e il fatto che la tecnologia sia in gran parte non regolamentata è un tema molto discusso.
Se infatti da un lato l’AI rappresenta una grande opportunità, dall’altro, quando non è adeguatamente controllata, può essere influenzata da una problematica estremamente insidiosa: il pregiudizio umano che si riflette inevitabilmente sugli algoritmi automatici, come vedremo.
Diventa quindi necessario per gli HR Manager essere a conoscenza degli strumenti di cui si possono avvalere e padroneggiarli con consapevolezza.
Secondo la Ricerca 2021 dell'Osservatorio HR Innovation Practice, in Italia il 15% delle Direzioni HR utilizza almeno uno strumento di Intelligenza Artificiale, ma la carenza di competenze analitiche è una delle principali cause della mancata valorizzazione dei dati.
Ad Aprile 2021 la Commissione Europea ha pubblicato la bozza ufficiale del Regolamento sull'approccio europeo per l'Intelligenza Artificiale, una normativa resasi necessaria dopo la rapida evoluzione che la tecnologia ha subito negli ultimi anni, soprattutto a seguito della pandemia.
Secondo il regolamento, alcuni sistemi di AI legati al mondo HR sono da definirsi ad “Alto Rischio”: in questa categoria rientrano i sistemi ritenuti a impatto potenzialmente negativo sulla sicurezza delle persone o sui loro diritti fondamentali.
In particolar modo sono considerati ad “Alto Rischio”:
- i sistemi di AI per lo screening dei candidati
- la formulazione di classifiche e graduatorie
- i sistemi di matching
- i sistemi che supportano la valutazione del candidato nel corso di colloqui o test.
Per l’HR Manager di oggi è fondamentale identificare quali sistemi di Intelligenza Artificiale vengano usati nel processo di selezione, come funzionino e in quali rischi si può incorrere con il loro utilizzo.
Ma soprattutto deve essere consapevole di che cosa sia realmente un bias e di come influenzi i sistemi automatici e la potenziale diversità all’interno delle risorse aziendali.
La tecnologia può migliorare la selezione anche attraverso il feedback di candidati e collaboratori.
Come? Ecco alcuni suggerimenti:
Facciamo un passo indietro.
Diversità, equità e inclusione sono termini che stanno acquisendo sempre più popolarità nel settore delle Risorse Umane.
In uno scenario come quello odierno, in cui temi come razzismo, discriminazione e gender gap sono al centro dell'attenzione, le imprese stanno esplorando nuove soluzioni di recruiting: l'intenzione è mostrare non solo ai propri collaboratori, ma anche ai loro potenziali candidati, che sono seriamente intenzionate a rendere inclusivo e diversificato il loro assetto aziendale.
Uno studio pubblicato sulla Harvard Business Review ha però messo in luce come ad oggi ci siano ancora bias molto radicati all'interno delle aziende e questo compromette la propensione alla diversità delle risorse.
Lo studio si è posto l’obiettivo di analizzare le realtà aziendali più strutturate e prestigiose, per valutare quanto inclusione e diversità siano realmente parte integrante della loro politica di recruiting.
Il metodo ideato è quello della "valutazione del curriculum incentivata": i reparti HR aziendali sono stati invitati a esaminare curricula ipotetici, in cui a ogni candidato erano state assegnate casualmente formazione, competenze e un nome che ne indicasse etnia e genere.
A questo punto è stato chiesto alle aziende di valutare, su una scala da 1 a 10, quanto fossero interessate ad assumere ciascun potenziale candidato.
I risultati hanno evidenziato almeno due tipi di bias:
E’ emerso che la tendenza a escludere queste categorie si accentua durante una fase avanzata dello screening dei cv, quando la stanchezza sopraggiunge portando a distrazione e superficialità: in quel momento i recruiter tendono inconsapevolmente a escludere candidati donne e di particolari etnie.
Quello di cui stiamo parlando è un fenomeno molto comune ed è quello dei bias inconsci.
Ma entriamo più nel dettaglio.
Esistono essenzialmente 2 tipi di bias: i pregiudizi consci e i pregiudizi inconsci. E se il pregiudizio conscio può essere in qualche modo gestito, al contrario arginare quello inconscio risulta molto complesso.
Del resto, come possiamo tenere sotto controllo qualcosa di cui non siamo nemmeno consapevoli?
Numerosi studi condotti in tutto il mondo confermano la difficoltà a monitorare e controllare questo secondo tipo di bias: secoli di storia e contesti culturali discriminanti che fanno parte del nostro tessuto sociale, hanno portato inevitabilmente a diffusi pregiudizi sistemici che, in determinate situazioni, possono dare origine a bias involontari.
E’ stato dimostrato che le informazioni personali quali genere, razza ed età possono influenzare l’esito di selezioni e colloqui e che i gruppi di minoranza tendono a essere sistematicamente trascurati.
Anche sentire il nome di qualcuno per la prima volta può innescare risposte emotive nel nostro cervello e generare un’opinione irrazionale su un determinato candidato.
Come visto nello studio analizzato precedentemente, uno dei fattori determinanti nel creare bias inconsci può essere la stanchezza: con l’avanzare dello screening dei curricula, il recruiter è meno propenso a valutare obiettivamente i candidati e più incline a scartare a priori quelli con nomi indicanti minoranze etniche o genere femminile.
A influenzare il giudizio sono anche, ovviamente, le esperienze pregresse di ciascun recruiter: ricordiamoci sempre che il processo di selezione avviene a opera di persone che, in quanto tali, seguono inconsce logiche umane.
Siamo tutti inclini a formulare opinioni su chi ci troviamo di fronte in base al nostro background e alle esperienze passate.
Se per esempio il candidato ha frequentato la stessa scuola del selezionatore, se ha la sua stessa età o caratteristiche caratteriali in comune, istintivamente scaturirà una connessione che porterà ad una valutazione positiva del curriculum.
Viceversa, può presentarsi il caso in cui il nome del candidato provochi inconsciamente antipatia nel recruiter, oppure qualche errore di battitura nel curriculum può indurlo a pensare che anche sul lavoro il candidato sia una persona superficiale e poco precisa.
Queste due situazioni ci offrono l’esempio di due bias opposti, gli affinity bias e gli horn effect bias, che sono solo alcuni dei più comuni pregiudizi non intenzionali presenti nel processo di recruiting.
E’ semplice immaginare quanti altri ne esistano e quanto facilmente possano insinuarsi, a nostra insaputa, nei processi decisionali che mettiamo in atto quotidianamente.
Esplorare e scoprire questi meccanismi può quindi migliorare notevolmente le nostre capacità di assumere i candidati più qualificati.
Se i pregiudizi inconsci sono così sistematicamente radicati nella società, in che modo è possibile ridurli?
E’ qui che entra in gioco l’Intelligenza Artificiale.
Abbiamo visto come le aziende oggi utilizzano software per mappare i dati di selezione e assunzione, al fine di monitorare la situazione nel modo più esaustivo e oggettivo possibile.
L’AI è in grado di riportare esattamente la percentuale delle assunzioni maschili e femminili, l’età dei collaboratori, la loro provenienza, la loro nazionalità. E questi sono solo alcuni dei dati oggettivi a cui si può accedere grazie alla tecnologia per tenere costantemente sotto controllo la curva di andamento delle assunzioni.
Una soluzione molto usata per ridurre i bias inconsci è lo screening anonimo dei cv, anche detto blind recruitment.
In pratica l'algoritmo AI permette di anonimizzare i cv ricevuti oscurando i dati personali del candidato quali nome, cognome, età, genere, provenienza e nazionalità e inserendo solo le competenze.
Questa modalità si rivela utile durante le fasi preliminari del processo di selezione, perché permette di eliminare le opinioni iniziali e soggettive dei recruiter. Inoltre le hard skills e le soft skills del candidato vengono poste così in massimo risalto, acquistando il giusto valore.
Tuttavia anche lo screening anonimo presenta dei limiti.
L’algoritmo AI non è infatti in grado di rimuovere totalmente i pregiudizi, ma solo di posticiparli a fasi più avanzate del processo di selezione.
Anche se le informazioni sul curriculum sono oscurate, arriverà il momento di incontrare in presenza il candidato e in sede di colloquio, consapevolmente o meno, si potranno creare dei bias.
Lo stesso discorso si può fare riguardo alle competenze: per quanto nome, etnia e genere risultino ignoti, i pregiudizi potranno formarsi in base all’istruzione e all’esperienza della persona in esame.
L’AI quindi, può essere molto vantaggiosa per raggiungere sempre una maggiore precisione e obiettività delle valutazioni: avere accesso a dati analitici e informazioni oggettive aiuta notevolmente a mettere a fuoco qualunque evidenza di discriminazione all’interno del processo di selezione.
Tuttavia, per quanto l’Intelligenza Artificiale presenti indubbi aspetti positivi, non potrà mai sostituire del tutto il lavoro umano, com’è giusto che sia.
Come abbiamo visto, anche ricorrendo all’aiuto dell’AI la rimozione dei pregiudizi può avvenire solo parzialmente.
Se ci pensiamo, i software, per quanto possano essere artificialmente intelligenti, vengono comunque programmati da esseri umani e risentono quindi delle dinamiche giudicanti dei loro stessi programmatori.
La presenza di bias nei recruiter, sia consci che inconsci, potrà riflettersi sui sistemi automatizzati e influenzare inevitabilmente le loro analisi.
I dati inseriti quotidianamente nei software rimangono memorizzati all’interno del programma e questo non è da sottovalutare: se non vengono eliminati, le analisi predittive future risulteranno fallaci e non corrette perché influenzate da dati non aggiornati.
E’ questo il noto caso di Amazon.
Il famoso colosso statunitense aveva sviluppato un programma sperimentale di talent finding automatizzato con lo scopo di valutare i candidati secondo una scala di punteggio graduale.
Tuttavia per i ruoli IT il sistema non selezionava le candidature in modo neutrale rispetto al genere: le figure femminili venivano escluse automaticamente.
Com'è possibile che si sia verificata una situazione così imparziale pur ricorrendo all’AI?
Perchè il software si basava su dati raccolti negli ultimi 10 anni e la maggior parte delle risorse assunte recentemente in ambito tech erano di genere maschile.
Gli algoritmi hanno quindi individuato e messo in luce i pregiudizi dei loro stessi creatori, dimostrando così che l'addestramento dei sistemi automatizzati su dati imparziali porta a future decisioni non neutrali.
Il caso di Amazon offre un interessante spunto di riflessione sui limiti dell’apprendimento dell’Intelligenza Artificiale e su quanto i bias umani possano riflettersi sui sistemi automatici, condizionandone gli algoritmi.
Per evitare disequilibri nei dati, è necessario effettuare una pulizia analitica del sistema e utilizzare solo le informazioni aggiornate e necessarie.
In conclusione, la valutazione totalmente obiettiva dei talenti da assumere è un sogno che ogni recruiter ed HR Manager insegue, ma purtroppo nasconde delle insidie anche quando ci si avvale di mezzi tecnologici.
I sistemi di AI possono supportare il lavoro umano ma non sostituirlo del tutto, come abbiamo dimostrato: le decisioni prese da un sistema non saranno mai completamente autonome e inoltre le risorse umane per definizione dovranno sempre avvalersi dell’aspetto umano.
Nelle fasi più avanzate del processo di selezione, i colloqui saranno di persona e ci sarà bisogno di personale qualificato che sappia discernere hard skills e soft skills dei candidati.
La tecnologia non è sufficiente e la componente umana non può essere rimpiazzata. Per fortuna.
Assumere un essere umano è un processo che per natura prevede interazioni umane e le interazioni umane coinvolgono obbligatoriamente le emozioni.
È fisiologico seguire il proprio istinto e formulare opinioni in base ad esso: nella vita quotidiana i bias sono all’ordine del giorno, nessuno ne è immune, e sarebbe inutile e forzato cercare di eliminarli totalmente.
Quello che si può fare però è acquisire consapevolezza: solo riconoscendo il pregiudizio si può arginarlo e controllarlo.
Con le nostre forze e quelle della tecnologia regolamentata e usata scientemente, è possibile condurre il processo di selezione nel migliore dei modi.
Un’azienda consapevole sarà sempre più propensa alla diversità e all’inclusività delle proprie risorse, tanto nelle intenzioni quanto nella pratica.
Senza togliere quel tocco di umanità ed empatia che è il punto cardine del nostro lavoro.
La tecnologia può migliorare la selezione anche attraverso il feedback di candidati e collaboratori.
Come? Ecco alcuni suggerimenti: