L'utilizzo dell'intelligenza artificiale nei processi di selezione del personale rappresenta oggi una delle frontiere più discusse nel diritto del lavoro contemporaneo. Se da un lato tali tecnologie promettono efficienza e oggettività nei processi di recruitment, dall'altro sollevano questioni cruciali riguardo al rispetto del principio di non discriminazione e dei diritti fondamentali dei lavoratori.
Il fenomeno assume particolare rilevanza alla luce del nuovo quadro normativo europeo, che ha introdotto regole specifiche per governare l'impatto degli algoritmi decisionali nel mondo del lavoro.
L'adozione di sistemi algoritmici nei processi di assunzione ha rivoluzionato le modalità tradizionali di selezione del personale. Gli strumenti di automazione HR consentono di analizzare migliaia di curriculum in tempi ridotti, utilizzando parametri predefiniti per identificare i candidati più idonei. Tuttavia, questa apparente neutralità tecnologica nasconde spesso bias impliciti che possono perpetuare e amplificare discriminazioni esistenti.
I sistemi di recruiting possono favorire determinate categorie di candidati in base a bias impliciti legati al genere o alla salute, creando disparità di trattamento non immediatamente evidenti ma sistematiche. Il celebre caso Amazon, che ha dovuto dismettere il proprio sistema di reclutamento automatizzato perché penalizzava sistematicamente le candidate donne, rappresenta un esempio emblematico di come l'intelligenza artificiale possa perpetuare discriminazioni storiche presenti nei dati di addestramento.
La problematica si estende oltre la mera selezione curricolare, coinvolgendo anche sistemi di scoring comportamentale, analisi predittiva delle performance e valutazioni automatizzate delle competenze, tutti ambiti in cui l'intervento algoritmico può generare effetti discriminatori non intenzionali ma giuridicamente rilevanti.
Il 1° agosto 2024 è entrato in vigore il Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, noto come AI Act, che stabilisce regole armonizzate sull'intelligenza artificiale, introducendo un framework normativo orizzontale per la regolamentazione dei sistemi di IA. L'AI Act classifica i sistemi di AI usati per il reclutamento, la selezione o la valutazione dei candidati come "ad alto rischio", il che significa che devono rispettare requisiti stringenti in materia di gestione dei dati, supervisione umana, trasparenza, controllo e affidabilità. Va precisato che, pur essendo in vigore, molte disposizioni del regolamento diventeranno applicabili solo dopo un periodo transitorio (12-36 mesi a seconda degli articoli), per consentire a imprese e amministrazioni di adeguarsi.
Il regolamento europeo si inserisce nel più ampio sistema di tutele antidiscriminatorie già esistente, che trova fondamento nell'articolo 21 della Carta dei diritti fondamentali dell'UE. Quest’ultimo vieta ogni forma di discriminazione (per motivi di sesso, razza, etnia, religione, età, orientamento sessuale, disabilità, opinioni politiche, ecc.), mentre il divieto esplicito di sistemi di social scoring proviene direttamente dall’AI Act, che qualifica tali pratiche come “a rischio inaccettabile” e quindi vietate.
Parallelamente, l'ordinamento europeo ha rafforzato gli strumenti di tutela attraverso l'approvazione, nel maggio 2024, di due direttive complementari: la Direttiva (UE) 2024/1499 (contro le discriminazioni basate su razza/origine etnica, religione, orientamento sessuale, disabilità ed età) e la Direttiva (UE) 2024/1500 (sulla parità di genere). Entrambe mirano a rafforzare l'indipendenza, i poteri e le risorse degli organismi nazionali di parità, dotandoli di strumenti per vigilare in maniera più efficace anche su fenomeni discriminatori legati all’uso delle tecnologie digitali, inclusa l’intelligenza artificiale.
Il nuovo assetto normativo impone ai datori di lavoro che utilizzano sistemi di IA nei processi di selezione una serie di obblighi specifici volti a prevenire discriminazioni algoritmiche. L'AI Act impone requisiti rigorosi per garantire la trasparenza, la sicurezza e il rispetto dei diritti fondamentali, prevenendo la discriminazione e i bias.
Tra gli obblighi principali emerge la necessità di condurre valutazioni d'impatto sui diritti fondamentali prima dell'implementazione di sistemi di IA ad alto rischio, documentando le misure adottate per minimizzare i rischi discriminatori. I datori di lavoro devono inoltre garantire la trasparenza algoritmica, informando i candidati sull'utilizzo di sistemi automatizzati e sui criteri di valutazione adottati.
La responsabilità del datore di lavoro si estende alla supervisione continua del sistema, con l'obbligo di monitorare costantemente l'efficacia delle misure antidiscriminatorie e di intervenire tempestivamente in caso di rilevazione di bias. Particolare attenzione deve essere prestata alla qualità dei dati utilizzati per l'addestramento degli algoritmi, garantendo che i dataset siano rappresentativi e privi di pregiudizi storici. È importante sottolineare che, in base al regolamento, non solo gli utilizzatori (come i datori di lavoro), ma anche i fornitori e gli sviluppatori dei sistemi di IA sono soggetti a obblighi specifici di conformità.
La crescente diffusione di tecnologie algoritmiche nei processi di selezione pone nuove sfide per la pratica legale, richiedendo competenze specialistiche nell'intersezione tra diritto del lavoro e diritto delle nuove tecnologie. Gli avvocati giuslavoristi devono sviluppare nuove competenze per assistere i clienti nella valutazione della conformità normativa dei sistemi di IA utilizzati nei processi HR.
Sul fronte del contenzioso, emergono questioni inedite relative all'onere della prova nelle discriminazioni algoritmiche, dove la complessità tecnica dei sistemi può rendere difficoltosa la dimostrazione del nesso causale tra l'utilizzo dell'algoritmo e il trattamento discriminatorio subito. La giurisprudenza dovrà progressivamente definire standard probatori adeguati alla natura specifica di queste nuove forme di discriminazione.
Le prospettive future indicano un'evoluzione verso sistemi di governance algoritmica più sofisticati, con l'introduzione di meccanismi di audit continuo, certificazione di conformità e sistemi di accountability condivisa tra sviluppatori, fornitori e datori di lavoro. Sebbene l'adeguamento a queste nuove norme possa rappresentare una sfida per le imprese, i benefici potenziali in termini di prevenzione delle discriminazioni e tutela dei diritti fondamentali giustificano gli investimenti necessari per garantire la compliance normativa.
L'equilibrio tra innovazione tecnologica e tutela dei diritti fondamentali rappresenta la sfida centrale per il prossimo futuro, richiedendo un approccio multidisciplinare che coinvolga giuristi, tecnologi e policy maker nella definizione di standard condivisi per un utilizzo etico e legalmente conforme dell'intelligenza artificiale nei processi di selezione del personale.
A questo link trovi le informazioni e la possibilità di attivarla con lo sconto del 50% ovvero 60€ + iva anziché 120€.
Scopri l'AcademyA questo link trovi le informazioni e la possibilità di attivarla con lo sconto del 75% ovvero 90€ + iva anziché 360€.
Scopri il servizio Premium