Corporate - Il giornale delle imprese
Federmanager: presentati i risultati della ricerca sull’IA nel recruiting tra innovazione e rischio di bias
Quercioli (Federmanager): "Perché il potenziale dell'IA si realizzi, è fondamentale che i manager guidino l’innovazione, integrando responsabilmente queste tecnologie"

Federmanager: presentata la ricerca sull’IA nella selezione del personale tra innovazione, inclusione e rischio di bias di genere
L’ingresso sempre più pervasivo dell’intelligenza artificiale nei processi di selezione del personale sta modificando in profondità il modo in cui le organizzazioni valutano competenze e talenti. Non si tratta soltanto di un cambiamento tecnologico, ma di una trasformazione strutturale che incide su equità, trasparenza e responsabilità. Se governata in modo consapevole, l’IA può migliorare l’efficienza e ridurre alcune distorsioni storiche; se utilizzata senza adeguate tutele, rischia invece di rafforzare e amplificare discriminazioni già presenti, in particolare quelle di genere. In un contesto in cui il lavoro resta una delle principali soglie di accesso alla cittadinanza, gli algoritmi applicati al recruitment possono diventare tanto uno strumento di inclusione quanto un fattore di ulteriore disuguaglianza.
Queste riflessioni emergono dallo studio “Intelligenza artificiale e bias di genere nel reclutamento del personale”, realizzato dall’Università della Calabria e dal Politecnico di Bari, con il coordinamento scientifico del professor Salvatore Ammirato e promosso dalla Fondazione Magna Grecia. I risultati sono stati presentati a Roma nel corso del convegno “IA nella selezione del personale. La nuova sfida della leadership inclusiva”, organizzato da Federmanager insieme alla Fondazione Magna Grecia e al Gruppo Ferrovie dello Stato Italiane. L’incontro ha riunito manager delle risorse umane, imprenditori e accademici per discutere le implicazioni etiche e operative dell’uso dell’IA nei processi di recruiting.
Il rapporto si inserisce all’interno del progetto nazionale “Privacy Tour”, promosso da un ampio partenariato che coinvolge istituzioni, imprese e centri di ricerca. L’indagine si basa su numerose interviste condotte su un campione qualificato di professionisti direttamente coinvolti nei processi di selezione e gestione delle risorse umane: responsabili HR e manager impegnati nelle decisioni di reclutamento in aziende di diverse dimensioni, imprenditori e imprenditrici di PMI che seguono personalmente il recruiting e professionisti HR di società specializzate che operano per conto terzi. Il profilo prevalente del rispondente è quello di un uomo di circa 55 anni, laureato, con oltre 25 anni di esperienza nel settore HR, impiegato come senior manager in una grande azienda manifatturiera italiana.
Dallo studio emerge un quadro di transizione. La percezione del ruolo dell’intelligenza artificiale nei processi di selezione appare ancora incerta: il 58% dei rispondenti esprime una valutazione neutra, mentre il 34% la considera particolarmente positiva. Un atteggiamento prudente, che tuttavia lascia intravedere un progressivo consolidamento della fiducia. Tra i benefici più frequentemente associati all’adozione dell’IA spicca l’aumento dell’efficienza, soprattutto in termini di riduzione dei tempi di selezione, indicata dal 72% degli intervistati. Seguono il miglioramento dell’efficacia complessiva del processo, la possibilità di recuperare candidature di valore inizialmente scartate, la riduzione dei costi e, in misura minore, il contributo alla diminuzione dei bias.
Le difficoltà strutturali del mercato del lavoro restano però evidenti. Il 74% dei manager dichiara di incontrare problemi nel reperire profili coerenti con le posizioni aperte e oltre il 40% segnala una scarsa corrispondenza tra le candidature ricevute e i requisiti richiesti. A pesare sono la qualità delle candidature, la complessità dei processi di selezione e la capacità delle aziende di rendere attrattive le proprie offerte di lavoro. In questo scenario, l’adozione di tecnologie più avanzate viene vista come una possibile risposta, a patto che sia accompagnata da strategie di recruiting più mirate e da un’attenzione crescente alla candidate experience.
Non mancano tuttavia gli ostacoli. La resistenza culturale all’interno delle organizzazioni e la mancanza di fiducia negli strumenti di IA vengono indicate come una delle principali barriere all’adozione, insieme ai dubbi sull’affidabilità e sulla trasparenza degli algoritmi e alla carenza di competenze specialistiche interne. È significativo che proprio chi già utilizza soluzioni di IA percepisca in modo più marcato la resistenza organizzativa, a dimostrazione che la sfida principale non è tanto tecnologica quanto culturale. Tra le criticità più temute emergono inoltre la difficoltà di spiegare le decisioni automatizzate, il rischio di risultati imprecisi o difficilmente controllabili, le implicazioni legali e i problemi di conformità normativa, oltre alle questioni legate all’equità.
Un dato particolarmente rilevante riguarda il livello di consapevolezza sull’uso effettivo dell’intelligenza artificiale: solo il 13% del campione dichiara di utilizzare esplicitamente strumenti di IA nei processi di selezione. Un dato che contrasta con la reale diffusione di funzionalità algoritmiche già integrate nei software HR, suggerendo una limitata percezione della presenza dell’IA nelle pratiche quotidiane di recruiting.
Il tema del gender bias resta uno dei nodi più delicati. La maggioranza dei rispondenti mantiene una posizione neutra rispetto all’uso dell’IA come supporto decisionale, con una quota di scetticismo che supera comunque il 25%. Se oltre il 70% riconosce che le donne perdano opportunità lavorative a causa di discriminazioni di genere, molti selezionatori faticano a individuare questi meccanismi nel proprio operato quotidiano. È il cosiddetto “bias blind spot”, la tendenza a riconoscere i pregiudizi come fenomeno generale senza ammetterne l’influenza nelle proprie decisioni. Aspetti come l’aspetto fisico, il tono di voce o rigidità biografiche continuano così a incidere, spesso in modo indiretto, sulle valutazioni. Le differenze di genere all’interno del campione mostrano inoltre che le donne, pur rappresentando solo il 28% dei rispondenti, riconoscono più fortemente l’esistenza del gender pay gap e si dichiarano più ottimiste sull’equità dei processi di selezione, mentre gli uomini esprimono maggiore scetticismo e una più alta consapevolezza dell’impatto degli elementi percettivi e sensoriali nelle decisioni.
Come sottolinea Salvatore Ammirato, “l’Intelligenza Artificiale non è un decisore neutrale, ma uno strumento che riflette le scelte di chi lo progetta e lo utilizza. Non è l’IA a decidere al posto delle persone", aggiunge Ammirato, "ma sono le persone a decidere come l’IA prende decisioni”. Da qui la necessità di una leadership consapevole e inclusiva, capace di orientare l’uso degli algoritmi verso obiettivi di equità.
Sulla stessa linea Pierpaolo Pontrandolfo, professore del Politecnico di Bari e presidente dell’Associazione italiana di Ingegneria Gestionale, ricorda che “è necessario che qualunque innovazione tecnologica sia principalmente finalizzata a migliorare il benessere delle persone e della società. A tal fine occorre grande responsabilità e consapevolezza da parte di chi la usa. Questo è particolarmente vero per l’IA perché, da un lato è un’innovazione radicale e pervasiva, quindi estremamente impattante, dall’altro è connotata da una grande semplicità di utilizzo, che aumenta il rischio di un uso improprio”.
Il tema della governance è centrale anche per Nino Foti, presidente della Fondazione Magna Grecia: “È quantomai necessario immaginare percorsi di governance e trasparenza, puntando a modelli che consentano ai professionisti di comprendere le motivazioni dietro ogni decisione automatizzata, mantenendo però sempre una supervisione umana”. E aggiunge: “L’innovazione deve essere adottabile perché verificabile, e verificabile perché governata. Non si tratta di nutrire una fiducia acritica nella presunta neutralità della tecnologia, ma di contribuire alla costruzione di criteri minimi di trasparenza e pratiche di controllo che permettano a imprese e istituzioni di usare questi strumenti senza scaricare i rischi sulle persone. In questo equilibrio tra tecnologia e responsabilità si gioca il futuro del lavoro”.
Secondo Valter Quercioli, presidente di Federmanager, “l’Intelligenza artificiale rappresenta un’opportunità concreta per migliorare la qualità dei processi di selezione e rendere le organizzazioni più evolute. Perché questo potenziale si realizzi pienamente, è fondamentale che i manager guidino l’innovazione, integrando responsabilmente queste tecnologie nei processi decisionali con competenze e visione”. Un impegno che Federmanager porta avanti anche attraverso la Commissione Intelligenza Artificiale e il Gruppo Federmanager Minerva, con l’obiettivo di diffondere una cultura manageriale capace di coniugare valore, inclusione e sviluppo.
Dal punto di vista delle grandi imprese, Valeria Rizzo, Group Learning & Integration Office del Gruppo Ferrovie dello Stato Italiane, sottolinea che “per il Gruppo Ferrovie dello Stato Italiane l’Intelligenza artificiale rappresenta una leva strategica di trasformazione, che può contribuire a rendere i processi di selezione più efficaci solo se accompagnata da una solida governance, da competenze adeguate e da una forte responsabilità organizzativa. In FS siamo impegnati a promuovere modelli di utilizzo dell’IA fondati su trasparenza, supervisione umana e inclusione, affinché l’innovazione tecnologica diventi uno strumento di equità e valorizzazione dei talenti”.
Il convegno si è chiuso con un richiamo condiviso all’importanza della formazione continua e dell’adozione di politiche realmente inclusive. Contrastare i bias di genere non è soltanto un dovere etico, ma una leva strategica per la competitività: le aziende più inclusive mostrano migliori performance finanziarie e una maggiore capacità di innovazione. La sfida dei prossimi anni, anche alla luce dell’AI Act europeo, sarà dunque quella di garantire che l’intelligenza artificiale diventi un fattore di equità, supportando la leadership umana senza mai sostituirla nelle decisioni che riguardano la dignità e il talento delle persone.
