Etica e AI: perché l'HR deve prendere il controllo dell'Intelligenza Artificiale in azienda (prima che sia troppo tardi)

    L'entusiasmo per l'Intelligenza Artificiale ha contagiato ogni livello aziendale. I CEO ne tessono le lodi nelle earnings call, i CFO ne calcolano ossessivamente il ritorno sull'investimento, i CTO moltiplicano i proof of concept. Eppure, in questa corsa verso l'automazione, c'è una domanda che troppo spesso rimane sospesa: chi sta davvero valutando l'impatto etico dell’AI?

    Dato che la questione dell'etica e AI è diventata centrale, la risposta dovrebbe essere scontata: l'HR. Ma la realtà che osserviamo racconta una storia diversa. Troppo spesso, l'implementazione dell'AI non vede coinvolti attivamente gli HR, nei processi People avviene in modo top-down, la funzione Risorse Umane rimane relegata al ruolo di spettatrice o, peggio, di mera esecutrice di decisioni prese altrove.

    Non è solo una questione di governance interna. Con l'AI Act europeo ormai in vigore e sanzioni che possono arrivare fino al 7% del fatturato globale, ignorare la dimensione etica dell'AI non è più un'opzione. È un rischio aziendale di primissimo piano.

    Questo articolo esplora perché l'HR deve assumere un ruolo di leadership nell'implementazione dell'AI aziendale in modo etico, quali sono i rischi concreti di un approccio tecnologicamente entusiasta ma eticamente miope, e come costruire un framework che bilanci innovazione e responsabilità. 

     

    Indice

    1. Etica e AI: la questione insita nell'introduzione dell'Intelligenza Artificiale
    2. I rischi concreti nel recruiting e nella valutazione delle performance
    3. Il quadro normativo: dall'EU AI Act al GDPR, cosa cambia davvero
    4. Il framework etico che ogni azienda dovrebbe adottare
    5. Il ruolo strategico dell'HR: da guardiano etico a innovation partner
    6. Conclusioni: come tutto ciò impatta sulla Talent Attration

     

     

    1. Etica e AI: la questione insita nell'introduzione dell'Intelligenza Artificiale

    Il dibattito su etica e AI non è solo teorico: mentre i C-level celebrano i risparmi di costo e l'efficienza operativa, sul campo si moltiplicano le evidenze di un problema etico di dimensioni considerevoli. E l'HR se non è parte attiva del processo decisionale si trova a gestire le conseguenze di decisioni prese altrove.

     

    1.1. L'illusione della neutralità algoritmica

    C'è un'idea seducente che aleggia nelle sale riunioni aziendali: l'Intelligenza Artificiale sarebbe finalmente lo strumento neutro, oggettivo, libero dai pregiudizi che da sempre inficiano le decisioni umane. Un algoritmo – si pensa – non ha simpatie personali, non subisce l'influenza di un curriculum particolarmente elegante, non si lascia condizionare dall'empatia o dall'antipatia istintiva durante un colloquio.

    Peccato che questa visione sia tanto rassicurante quanto fallace.

    La verità è che gli algoritmi non nascono neutrali: riflettono i dati con cui vengono addestrati e, inevitabilmente, assorbono i bias presenti in quei dati come spugne. Se il dataset storico di un'azienda riflette vent'anni di assunzioni prevalentemente maschili in ruoli tecnici, l'algoritmo "imparerà" che il genere maschile è un predittore di successo. Non perché sia vero, ma perché è ciò che i dati gli hanno insegnato.

    Un algoritmo può addirittura perpetuare e amplificare pregiudizi esistenti, creando una spirale negativa: utilizza i risultati delle proprie previsioni per migliorare la propria accuratezza, rimanendo così intrappolato in un pattern discriminatorio. È il classico circolo vizioso: garbage in, garbage out, come recita il principio informatico.

    Ma c'è di più. Il bias non nasce solo dai dati, ma anche dalle scelte dei progettisti che selezionano quali caratteristiche e variabili l'algoritmo dovrebbe considerare prioritarie. Decidere cosa è rilevante e cosa non lo è implica già un giudizio di valore, tutt'altro che neutro.

     

    1.2. I numeri che non tornano: quando l'AI amplifica i bias

    I dati sull'impatto discriminatorio dell'AI nel recruiting sono tutt'altro che rassicuranti. Uno studio dell'Università di Washington ha rivelato che nei processi di screening dei CV assistiti da AI, applicati a 500 candidature per nove professioni diverse, la tecnologia ha favorito nomi associati a persone bianche nell'85,1% dei casi e nomi femminili solo nell'11,1% dei casi. In alcuni contesti, i candidati neri di sesso maschile sono stati svantaggiati rispetto ai loro omologhi bianchi fino al 100% delle volte.

    Non stiamo parlando di percentuali marginali o di errori statistici. Stiamo parlando di discriminazione sistematica, amplificata dalla velocità e dalla scala con cui l'AI opera.

    Le previsioni indicano che nel breve termine il 70% dei dipendenti interagirà quotidianamente con strumenti basati su AI, e che il 70% delle organizzazioni utilizzerà l'AI per personalizzare i benefit aziendali. Un'adozione massiva che, senza adeguate salvaguardie, rischia di trasformare l'efficienza promessa in una macchina di riproduzione delle disuguaglianze.

    Non a caso, il 41% dei professionisti HR cita il bias algoritmico come principale preoccupazione nell'adozione dell'AI, e il 29% delle aziende ha dovuto sospendere o ristrutturare i propri tool di recruiting basati su AI dopo aver scoperto problemi di discriminazione.

     

     

    2. I rischi concreti nel recruiting e nella valutazione delle performance

    2.1. Selezione automatizzata: il caso Amazon e altri disastri annunciati

    Se c'è un caso che dovrebbe essere studiato in ogni business school e in ogni dipartimento HR, è quello dello strumento di recruiting basato su AI che Amazon ha dovuto abbandonare nel 2018. La vicenda merita di essere raccontata nei dettagli, perché è paradigmatica di come anche le aziende più tecnologicamente avanzate possano cadere nelle trappole dell'AI non governata.

    Amazon aveva iniziato nel 2014 a sviluppare un sistema di machine learning per automatizzare lo screening dei CV, con l'obiettivo di creare quello che internamente chiamavano "il Santo Graal": uno strumento capace di ricevere 100 CV e restituire i migliori cinque candidati da assumere.

    Il sistema attribuiva ai candidati un punteggio da una a cinque stelle, esattamente come i clienti valutano i prodotti su Amazon. Ma nel 2015, l'azienda si rese conto che il sistema non stava valutando i candidati per posizioni di sviluppatore software e altri ruoli tecnici in modo neutrale rispetto al genere.

    Il problema? L'algoritmo era stato addestrato su dieci anni di CV ricevuti dall'azienda, la maggior parte dei quali proveniva da uomini. Il sistema "imparò" che il genere maschile era un indicatore di successo, e iniziò a penalizzare sistematicamente i CV che contenevano la parola "women's" (come in "capitana del women's chess club") o che indicavano la frequenza di college femminili.

    Nonostante Amazon abbia apportato modifiche per rendere questi termini neutrali, l'azienda ha perso fiducia nel fatto che il programma fosse davvero neutrale rispetto al genere in tutte le altre aree, e ha quindi abbandonato il progetto.

    La lezione è chiara: anche con le migliori intenzioni e risorse praticamente illimitate, costruire un sistema di AI veramente equo è estremamente complesso. E Amazon non è stata l'unica. Nel 2025, un'azione legale collettiva contro Workday ha accusato la piattaforma di gestione del personale di rifiutare candidati per lavori in base a razza, età e disabilità.

    Nella nostra esperienza di Headhunting, assistiamo quotidianamente alle conseguenze di questi sistemi mal configurati: talenti eccezionali che non superano il primo screening automatizzato perché il loro percorso non corrisponde ai pattern "vincenti" identificati dall'algoritmo. Il risultato? Le aziende perdono diversità (che sappiamo essere un fattore che amplifica le potenzialità di un’azienda), le candidature si uniformano, e il pool di talenti si restringe invece di allargarsi.

     

    2.2. Performance management algoritmico: sorveglianza o sviluppo?

    Se l'AI nel recruiting solleva questioni etiche evidenti, il suo utilizzo nella valutazione delle performance apre scenari ancora più inquietanti. L'AI Act europeo considera ad alto rischio i sistemi che monitorano e valutano il comportamento e le prestazioni dei lavoratori, e per buone ragioni.

    Immagina un software che analizza ogni tua email, cronometra la durata delle tue chiamate, monitora il tempo che passi davanti al computer, valuta il tono della tua voce durante le riunioni. Sembra distopico? È già realtà in molte aziende.

    Gli algoritmi possono valutare la scelta delle parole, i cambiamenti di tono e le espressioni facciali (utilizzando il riconoscimento facciale) per determinare la "personalità" di candidati e dipendenti e l'allineamento con la cultura aziendale. Il problema è che questi sistemi non solo sono invasivi, ma spesso si basano su pseudoscienza e correlazioni spurie.

    C'è poi la questione della sorveglianza costante. Un conto è avere obiettivi trimestrali e feedback periodici dal proprio responsabile, un altro è sapere che ogni tua azione viene tracciata, analizzata e contribuisce a un punteggio algoritmico che potrebbe determinare la tua carriera.


     

    3. Il quadro normativo: dall’EU AI Act al GDPR, cosa cambia davvero

     

    3.1. Le quattro categorie di rischio e il ruolo dell’HR

    Dal 1° agosto 2024 è entrato in vigore l’AI Act europeo, il primo regolamento al mondo che disciplina l’Intelligenza Artificiale sulla base del rischio. Il framework suddivide i sistemi in quattro categorie:

    • Sistemi vietati, considerati inaccettabili (es. social scoring generalizzato).
    • Sistemi ad alto rischio, soggetti a requisiti molto stringenti.
    • Sistemi con requisiti di trasparenza specifici (es. chatbot o generatori di contenuti).
    • Modelli di AI per scopi generali (GPAI), con obblighi propri.

    Accanto a queste categorie, restano fuori regolamentazione i sistemi a rischio minimo o nullo, come i filtri antispam.

    Per chi lavora nell’HR la questione è chiara: gli strumenti di AI utilizzati per reclutamento, selezione, promozioni, licenziamenti, valutazione delle performance e monitoraggio del comportamento rientrano tra i sistemi ad alto rischio

    Tradotto: quasi tutte le applicazioni rilevanti in ambito People Management saranno soggette alla normativa più severa.

    Il regolamento prevede un’entrata graduale: dal 2 febbraio 2025 sono operative le disposizioni sui sistemi vietati e sull’alfabetizzazione all’AI; dal 2 agosto 2025 sono entrati in vigore gli obblighi specifici per i modelli GPAI; la gran parte delle regole per i sistemi ad alto rischio e per i requisiti di trasparenza sarà applicabile dal 2 agosto 2026.

     

    3.2. Obblighi di trasparenza e diritto alla spiegazione

    Gli obblighi previsti per i sistemi ad alto rischio non sono “cosmetici”. I datori di lavoro che li implementano devono:

    • informare candidati e dipendenti dell’uso di un sistema AI in fase di selezione o gestione del personale;
    • spiegare in modo comprensibile il funzionamento del sistema e il ruolo che ha avuto nel processo decisionale;
    • garantire il diritto alla spiegazione, ossia la possibilità di chiedere chiarimenti sugli elementi principali che hanno portato alla decisione.

    L'Articolo 50 dell'AI Act stabilisce che le aziende debbano rendere chiaro quando utilizzano l'AI in determinati contesti. L'obbligo di etichettatura si applica principalmente ai deepfake (contenuti audio, video o immagini che sembrano reali ma sono generati dall'AI) e ai testi pubblicati per informare il pubblico su questioni di interesse pubblico. Invece, l'obbligo non si applica quando l'AI svolge una funzione di assistenza per editing standard o non altera sostanzialmente il contenuto, né quando c'è revisione editoriale umana con assunzione di responsabilità. Per i processi HR, l'obbligo più rilevante riguarda la trasparenza nell'utilizzo di chatbot e sistemi di preselezione automatizzata: i candidati devono sapere se stanno interagendo con un'AI o se i loro CV vengono analizzati da algoritmi. 

    A questo si aggiungono requisiti di data governance: le aziende devono garantire che i dati di addestramento siano rilevanti, rappresentativi e privi di bias, oltre a documentare i processi, mantenere registri (logging) e svolgere valutazioni periodiche del rischio.

    Qui il legame con il GDPR è diretto: l’AI Act disciplina il funzionamento dei sistemi, ma la protezione dei dati personali resta regolata dal GDPR, con tutti i suoi obblighi su consenso, minimizzazione, conservazione e diritto all’oblio. HR e IT dovranno lavorare insieme per rispettare entrambi i livelli normativi.

    Uno studio Workday del 2024 mostra bene la tensione tra fiducia e diffidenza: il 75% dei dipendenti considera l’AI un valido supporto, ma solo il 30% si sente a proprio agio se l’AI assume un ruolo diretto nelle decisioni sul loro impiego. La supervisione umana rimane quindi un pilastro irrinunciabile.

     

    3.3. Le sanzioni

    Veniamo al punto che tende a catturare l'attenzione dei C-level più velocemente di qualsiasi argomento etico: le sanzioni. In caso di violazione grave, le multe possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo globale, a seconda di quale cifra sia più alta. 

    Per contestualizzare: per un'azienda con un miliardo di euro di fatturato, stiamo parlando di una potenziale multa di 70 milioni di euro. Non esattamente una cifra che passa inosservata nel bilancio trimestrale.

    Dal febbraio 2025, inoltre, le organizzazioni devono assicurarsi attivamente che i propri dipendenti comprendano come l'AI influenzi il loro lavoro e siano in grado di lavorare efficacemente con queste tecnologie. Per ora, non sono previste sanzioni immediate per la mancata alfabetizzazione, ma l’intento del legislatore è chiaro: costruire competenze diffuse e prevenire abusi o incomprensioni, motivando i datori di lavoro a dare priorità all'alfabetizzazione AI.

    Oltre all’aspetto economico, c’è quello reputazionale: un caso di discriminazione algoritmica portato alla luce può compromettere in modo irreversibile l’immagine aziendale, in un contesto in cui candidati e dipendenti chiedono con forza equità e inclusione.

     

     

    4. Il framework etico che ogni azienda dovrebbe adottare

    È chiaro: non tutte le organizzazioni hanno le risorse per creare comitati etici dedicati e tool proprietari di audit algoritmico. Una PMI con 50 dipendenti non può (e non deve) replicare le strutture di governance di una multinazionale. Ma questo non significa arrendersi: anche con budget limitati, è possibile e doveroso implementare salvaguardie proporzionate alle proprie dimensioni. 

    La differenza tra un'adozione cieca dell'AI e una consapevole non sta necessariamente nel budget, ma nella capacità di porsi le domande giuste e di agire con trasparenza. Quello che conta è essere consci dei rischi, fare quello che si può con le risorse disponibili, e soprattutto non nascondersi dietro l'ignoranza o la complessità tecnica per evitare le proprie responsabilità etiche.

    Fatta questa premessa, addentriamoci in quello che possiamo fare per gestire al meglio questo nuovo mondo.

     

    4.1. Governance: chi decide cosa (e perché l'HR deve sedere al tavolo)

    Stabilire un meccanismo di governance è la strategia migliore per le organizzazioni che costruiscono pratiche di AI responsabili ed etiche. Un meccanismo di governance tende a essere più prezioso di un semplice framework AI. Questi organismi di governance possono assumere forme diverse: un comitato tecnico, un consiglio, o persino una singola persona profondamente coinvolta nel processo. Ma qualunque sia la forma, deve "avere dei denti": deve esserci una conseguenza concreta per chi non rispetta le policy. I framework senza enforcement tendono a rimanere eleganti documenti in PowerPoint che nessuno segue davvero.

    Chi deve far parte di questo comitato di governance? L'HR deve assolutamente esserci, e non come semplice partecipante ma come co-decisore. Le decisioni su come l'AI viene utilizzata nei processi People non possono essere prese solo dal CTO o dal CFO. Servono al tavolo:

    • HR Leadership: per garantire che l'impatto umano venga valutato in ogni decisione.
    • Legal/Compliance: per navigare il complesso panorama normativo.
    • IT/Data Science: per la competenza tecnica necessaria a comprendere cosa l'AI può e non può fare.
    • Diversity & Inclusion: per assicurare che l'equità non sia un pensiero secondario.
    • Rappresentanti dei dipendenti: perché chi “subisce” l'impatto delle decisioni deve avere voce.

     

    4.2. Audit algoritmici: come verificare che l'AI non discrimini

    Ma non basta ancora. Non è sufficiente implementare policy: serve verificare costantemente che l'AI funzioni come dovrebbe. Il 36% delle organizzazioni ora sottopone regolarmente i propri modelli AI ad audit per verificare equità e trasparenza, e il 29% delle aziende ha dovuto sospendere o ristrutturare i tool di recruiting AI dopo aver scoperto problemi di bias.

    Un audit algoritmico efficace deve includere alcuni aspetti. Senza pretesa di esaustività proviamo a darti una guida per nuotare in questo complesso mare:

    Analisi dei dati di training: prima ancora di addestrare un modello, è necessario esaminare criticamente il dataset. Ci sono squilibri demografici evidenti? I dati storici riflettono pratiche discriminatorie del passato? Le organizzazioni dovrebbero garantire che l'AI sia addestrata utilizzando dataset diversificati e condurre audit regolari per rilevare e correggere bias non intenzionali.

    Test di disparate impact: analizzare sistematicamente se l'algoritmo produce risultati significativamente diversi per gruppi protetti. Se il 70% dei candidati maschi passa il primo screening automatico ma solo il 30% delle candidate femmine, potrebbe esserci un problema.

    Monitoraggio continuo: i datori di lavoro che utilizzano sistemi AI ad alto rischio nel reclutamento e nell'impiego devono monitorare continuamente il funzionamento di tali sistemi seguendo le istruzioni fornite dal fornitore del sistema AI, e identificare qualsiasi rischio. Un audit non deve essere un evento una tantum: è un processo continuo.

    Coinvolgimento di auditor indipendenti: in alcuni casi, un lavoro accurato da parte di auditor esterni può scoprire bias nascosti. L'oggettività di soggetti terzi è preziosa, specialmente quando si tratta di valutare sistemi sviluppati internamente.

     

    4.3. Trasparenza verso i dipendenti: comunicare senza spaventare

    Una comunicazione forte e continua rappresenta un investimento utile quando si introducono strumenti delicati come l’AI nei processi HR. Crea spazi e momenti in cui evidenziare i vantaggi dell'AI affrontando al contempo le ansie in modo trasparente e cercando input da tutta la forza lavoro da incorporare nelle scelte di design. Sottolinea che l'AI assiste piuttosto che sostituire le capacità umane.

    La comunicazione sulla trasparenza deve bilanciare due obiettivi apparentemente contraddittori: essere onesti sui rischi senza alimentare panico ingiustificato, ed essere entusiasti sulle opportunità senza apparire ingenuamente tecnofili.

    Alcuni principi pratici che possono tornarti utili:

    • Comunicare proattivamente, non reattivamente: non aspettare che i dipendenti scoprano da soli che l'AI viene utilizzata. Anticipa la comunicazione, spiega cosa viene fatto, perché e con quali salvaguardie.
    • Usare un linguaggio accessibile: evita il gergo tecnico che crea distanza. Invece di "il nostro sistema di machine learning utilizza reti neurali convolutive per l'analisi semantica dei CV", spiega semplicemente che "usiamo un software che legge i curriculum cercando competenze rilevanti, ma la decisione finale è sempre presa da un essere umano".
    • Fornire canali per sollevare preoccupazioni: entro la fine del 2025, il 70% dei dipendenti richiederà trasparenza nelle decisioni HR guidate dall'AI. Crea meccanismi chiari attraverso cui le persone possano chiedere chiarimenti, contestare decisioni o segnalare possibili problemi.
    • Dimostrare, non solo dichiarare: le parole contano poco se non sono supportate da azioni concrete. Pubblica report periodici su come l'AI viene utilizzata, mostra dati aggregati sui risultati, condividi gli esiti degli audit.

     

    5. Il ruolo strategico dell'HR: da guardiano etico a innovation partner

    5.1. Le competenze che l'HR deve sviluppare (urgentemente)

    Attualmente, il 43% delle organizzazioni utilizza l'AI nelle attività HR, in crescita dal 26% nel 2024. L'adozione accelera, ma le competenze non tengono il passo. Due terzi degli intervistati (67%) affermano di non essere d'accordo o fortemente in disaccordo sul fatto che la loro organizzazione sia stata proattiva nel formare e/o riqualificare i dipendenti per lavorare insieme alle tecnologie AI.

    Per i professionisti HR, questo gap è particolarmente critico. Non è più sufficiente essere esperti di dinamiche organizzative e gestione del talento: serve una nuova alfabetizzazione digitale.

    Le competenze tecniche fondamentali includono:

    • Comprensione base di come funziona il machine learning (non serve saper programmare, ma capire i principi fondamentali).
    • Capacità di leggere e interpretare metriche di performance algoritmica.
    • Conoscenza delle principali fonti di bias nei sistemi AI.
    • Familiarità con i concetti di data quality e rappresentatività dei dataset.

    Le competenze normative sono altrettanto cruciali:

    • Padronanza dell'AI Act europeo e delle sue implicazioni pratiche per l'HR.
    • Comprensione di come GDPR e AI Act si intersecano.
    • Conoscenza delle normative locali specifiche.

    Ma soprattutto, servono competenze critiche:

    • Capacità di fare le domande giuste ai fornitori di tecnologia AI.
    • Abilità di valutare criticamente le promesse dei vendor.
    • Coraggio di sollevare dubbi etici anche quando c'è pressione per "andare avanti velocemente".

     

    5.2. Come collaborare con IT e Legal senza perdere il focus umano

    Una delle sfide più sottili nell'implementazione dell'AI in HR è mantenere il focus sulle persone mentre si collabora con funzioni che hanno priorità diverse. IT vuole efficienza e scalabilità. Legal vuole compliance e mitigazione del rischio. HR deve volere entrambe, ma senza mai perdere di vista l'impatto umano.

    Alcuni principi per una collaborazione efficace:

    Stabilire un linguaggio comune: IT parla di "accuracy rate" e "false positives". HR deve tradurre: un "false positive" in un sistema di screening non è un errore statistico, è un talento eccellente che viene scartato ingiustamente. Rendere tangibile l'impatto umano delle metriche tecniche.

    Insistere su test pilota con feedback umano: non lasciare che l'IT implementi un sistema e poi chieda all'HR di usarlo. Pretendi piloti controllati, con campioni rappresentativi, con raccolta sistematica di feedback, con analisi qualitativa e non solo quantitativa dei risultati.

    Creare checkpoint decisionali congiunti: le organizzazioni dovrebbero collaborare con team interfunzionali e leader di vari dipartimenti, inclusi HR, IT, Legal e team esecutivi, per sviluppare policy AI complete che affrontino prospettive e preoccupazioni diverse.

    Non accettare "black box" come risposta: quando IT dice "l'algoritmo è proprietario, non possiamo spiegare come funziona", questa non è una risposta accettabile per l'HR. La trasparenza è essenziale per stabilire la fiducia tra organizzazioni e candidati. I team HR devono capire chiaramente come i dati vengono raccolti, elaborati e utilizzati.

    La relazione con Legal è altrettanto delicata. La responsabilità principale è garantire che le applicazioni AI siano conformi a tutte le leggi pertinenti in materia di occupazione e privacy. Questo include le leggi sulle pari opportunità di impiego, la legge sulle persone con disabilità e le normative sulla protezione dei dati.

    Ma attenzione: compliance non significa etica. Si può essere perfettamente in regola con la legge e comunque creare un ambiente di lavoro tossico, discriminatorio o disumanizzante. L'HR deve essere il guardiano di quella linea sottile.


     

    6. Conclusioni: come tutto ciò impatta sulla Talent Attration

    Eccoci giunti alla fine di questo complesso viaggio. Il punto chiave del dibattito su etica e AI è chiaro: l'Intelligenza Artificiale non è né buona né cattiva. È uno strumento, potentissimo, che amplifica le intenzioni di chi lo utilizza. Se lo usiamo per perpetuare bias e automatizzare discriminazioni, l'AI sarà discriminatoria. Se lo usiamo con consapevolezza, trasparenza e una solida governance etica, può effettivamente migliorare l'equità e l'efficienza dei processi HR.

    Ma questa scelta non è tecnica: è profondamente umana. E spetta all'HR guidarla.

    Per riepilogare tutto ciò che cambierà nella quotidianità lavorativa di ogni HR, ecco tutto quello che si troverà a fare:

    • Sedere al tavolo dove si decidono gli investimenti in AI, non limitarsi a eseguire
    • Sviluppare competenze tecniche e normative, senza perdere il focus umano
    • Stabilire governance concrete, non solo policy di facciata
    • Pretendere trasparenza dai fornitori e audit indipendenti
    • Comunicare costantemente su questi temi con dipendenti e candidati
    • Avere il coraggio di bloccare implementazioni eticamente problematiche

    Nel nostro lavoro di Head Hunter, vediamo quotidianamente il meglio e il peggio delle pratiche HR aziendali. E vi possiamo garantire che le aziende che attirano i migliori talenti oggi non sono quelle con gli algoritmi più sofisticati, ma quelle in cui le persone sentono di essere trattate con rispetto, trasparenza e equità. L'AI può supportare questo obiettivo, ma solo se l'HR mantiene saldamente il controllo del timone.


    Reverse è una realtà in continua evoluzione: come un gruppo di scienziati e ricercatori che giorno dopo giorno creano qualcosa di nuovo per migliorare e semplificare il mondo dell’Head Hunting e l’attività di chi si occupa di HR.
    Alessandro Raguseo, CEO