L’Intelligenza artificiale, se non governata, rischia discriminazioni nella selezione del personale

L’intervista di Poliba Chronicle. Lo studio di Poliba e UniCalabria presentato a Roma

25 febbraio 2026

È stato presentato a Roma, nelle scorse settimane, uno studio curato dal Politecnico di Bari e dall’Università della Calabria dedicato all’Intelligenza Artificiale applicata al reclutamento del personale.

La presentazione è stata organizzata dalla Fondazione Federmanager, dal Gruppo Ferrovie dello Stato Italiane e promossa dalla Fondazione Magna Grecia. L’iniziativa è una delle tappe del progetto nazionale “Privacy Tour”che coinvolge istituzioni, imprese e centri di ricerca.

Con il titolo: “Intelligenza artificiale e bias (pregiudizi) di genere nel reclutamento del personale”, ha posto diverse questioni sul piano etico e dei processi che l’IA ha introdotto per la selezione e reclutamento del personale.

Di particolare rilievo, nell’ambito dello studio, è stato il contributo del gruppo di ricerca del Politecnico di Bari (PoliBa), di cui fanno parte i docenti di ingegneria, Pierpaolo Pontrandolfo, Barbara Scozzi e Francesco Paolo Lagrasta. Per saperne di più, “Poliba Chronicle” ha intervistato Pierpaolo Pontrandolfo, professore ordinario di Ingegneria economico-gestionale, e Francesco Paolo Lagrasta, professore a contratto e ricercatore.

Professor Pontrandolfo, lo studio a quale tipologia di selezione di personale si rivolge?

Lo studio presentato affronta il tema dell’integrazione delle intelligenze artificiali nei processi di selezione del personale. Il mondo delle risorse umane si trova in una fase molto delicata che vede emergere spinte contrastanti: da un lato l’efficienza offerta dall’implementazione di strumenti di intelligenza artificiale, dall’altro il rischio di diffondere e amplificare stereotipi e pregiudizi attraverso gli stessi strumenti. Il nostro lavoro contribuisce a mettere in luce le variabili organizzative in gioco, con particolare attenzione ai valori, alla cultura e alle percezioni degli addetti alle varie fasi dei processi di selezione, come la redazione degli annunci, la selezione dei curricula e la conduzione delle interviste.

Prof. Lagrasta, quali sono i rischi, ma anche i vantaggi, emersi nell’applicazione dell’IA a tale ambito di selezione?

I rischi associati ad un uso inconsapevole delle intelligenze artificiali in questi ambiti sono legati alla propagazione e alla diffusione di stereotipi e pregiudizi. Immaginiamo l’Intelligenza Artificiale come un bambino che assorbe e apprende tutto quello che gli viene somministrato: se i dati con cui addestriamo i modelli di IA escludono sistematicamente determinate categorie, l’IA riproporrà quel pattern, considerandolo corretto. Si rende quindi necessario, ora più che mai, diffondere una cultura della consapevolezza tanto dei potenziali rischi cui l’IA ci espone, quanto degli stereotipi e dei pregiudizi che i dati conservano, quale specchio di assetti culturali discriminanti. Il nostro lavoro si è focalizzato in particolare sul tema degli stereotipi di genere. Proprio da questo punto di vista, l’IA mostra la sua doppia natura: da un lato può agire come potenziale amplificatore e diffusore di scelte e rappresentazioni sessiste, ma, se progettata, istruita e governata con criteri rigorosi, può anche diventare uno strumento operativo per riconoscere, misurare e ridurre la presenza di bias nei contenuti e nei processi decisionali.

L’Intelligenza Artificiale non è un decisore neutrale, ma uno strumento che riflette le scelte di chi lo progetta e lo utilizza. Non è l’IA a decidere al posto delle persone ma sono le persone a decidere come l’IA prende decisioni. Ma oggi è così?

(Pontrandolfo): Il quadro culturale, normativo e organizzativo in cui l’intelligenza si inserisce è eterogeneo e complesso. Il grado di consapevolezza relativo al ruolo e alle potenzialità dell’IA può differire in modo significativo, anche all’interno della stessa organizzazione. In tal senso, è necessario che le imprese assumano un impegno alla formazione del personale, affinché aumentino conoscenza e consapevolezza su tali temi.

L’IA votata al lavoro, non è solo di un’evoluzione tecnologica ma una vera e propria “infrastruttura civile” capace di influire sulla soglia decisiva della cittadinanza che sottende il livello di libertà. Una grande responsabilità con immancabili pregiudizi?

(Lagrasta): Il fatto che l’IA venga integrata a livello infrastrutturale pone un problema di invisibilizzazione. Pensiamo di passeggiare in una città: ne apprezziamo i monumenti, le architetture, le attività commerciali, i panorami. Tuttavia, difficilmente la nostra attenzione si posa sugli elementi infrastrutturali che permettono a quella stessa città di esistere: tralicci, fognature, cavi. L’infrastruttura diventa manifesta solo in caso di disastri e problemi oramai radicati. Con l’IA corriamo un rischio simile: divenire “dipendenti” da sistemi che rivelano le proprie debolezze quando è ormai troppo tardi. Ciò non si deve tradurre in una sfiducia generale verso queste tecnologie, quanto più in un approccio consapevole e attento alle stesse.

Un dato particolarmente significativo dello studio presentato riguarda il livello di consapevolezza sull’uso dell’Intelligenza artificiale: solo il 13% dei partecipanti al sondaggio infatti, dichiara di utilizzare concretamente strumenti di IA nei processi di selezione. Perché questa scarsa propensione?

(Pontrandolfo): Il dato cui si fa riferimento si presta ad una lettura alternativa: non parlerei di scarsa propensione, quanto più di scarsa consapevolezza. Molti e molte di noi utilizzano spesso strumenti di intelligenza artificiale anche senza saperlo. L’IA non è solamente il chatbot cui chiediamo consigli: l’intelligenza artificiale è presente in molti degli strumenti che utilizziamo, nei siti che visitiamo, nelle applicazioni che installiamo sui nostri smartphone. È molto probabile che anche i manager delle risorse umane intervistati abbiano sottostimato l’adozione di strumenti IA semplicemente perché, molto spesso, tali strumenti risultano integrati nei software e ciò non è trasparente verso gli utenti.

Allo stesso tempo se da un lato si ammette l’esistenza di discriminazioni di genere, dall’altro risulta più difficile riconoscere come elementi quali l’aspetto fisico, tono di voce o rigidità biografiche continuino a influenzare, anche in modo indiretto, le decisioni di selezione. Che ne pensa?

(Lagrasta): Esiste una ampia e ricca letteratura scientifica nel merito di come aspetti apparentemente marginali possano influenzare i risultati dei processi di selezione del personale. Per quanto non esistano soluzioni semplici al problema dei bias di genere, la nostra ricerca contribuisce a dimostrare come a maggiori livelli di sessismo corrispondano maggiori livelli di negazione dell’esistenza di queste problematiche. Negare che un problema esista è, indubbiamente, il primo passo per non risolverlo.

Lo studio, inoltre, propone un percorso metodologico volto allo sviluppo di tecnologie più sicure, trasparenti e inclusive, trattando l’IA non come “intelligenza neutrale” ma come agency che produce effetti e richiede regole e controlli verificabili lungo tutto il ciclo di vita del sistema per approdare ad una prospettiva di convergenza verso standard e regole capaci di spingere organizzazioni e fornitori a “progettare per includere” invece di intervenire e correggere successivamente.

Ancora nessun commento

I commenti sono disabilitati