• Ven. Set 17th, 2021

Red Viper News

L'aggregatore di notizie di Red VIper

L’uso dell’A.I. per rimuovere distorsioni e pregiudizi nei processi di selezione (di M. Agrifoglio)

Large group of entrepreneurs sitting on chairs in waiting room before their job interview. Their reflection is seen in floor. Copy space.

(di Matteo Agrifoglio – Executive Director Bari, Bologna, Firenze, Napoli, Palermo | Professional Recruitment di Spring Professional e Badenoch + Clark)

Uno studio della Toronto University ha dimostrato che, su un campione di persone candidate a diversi ruoli in alcune aziende canadesi, quelle con un cognome di origine asiatica (cinese, indiana o pakistana) per i recruiter risultavano il 23% meno attrattive rispetto a candidati con cognomi anglosassoni o ispanici.  Analogamente, venendo allo scenario italiano, l’osservatorio InfoData del Sole 24 ore afferma che, solo fino al 2012, un candidato che si dichiarava omosessuale aveva il 30% in meno di possibilità di essere chiamato a un colloquio rispetto a una figura con pari requisiti di hard skill che non esprimeva apertamente il proprio orientamento sessuale. Lo stesso studio evidenzia come le discriminazioni basate su aspetto fisico o etnia esistano ancora nel nostro Paese. Per contro, oggi molti manager sono estremamente attenti al tema della Diversity & Inclusion. 

Con queste premesse, l’intelligenza artificiale (AI) può rappresentare, per chi è coinvolto nei processi di selezione, uno strumento utile ad attenuare gli effetti distorsivi indotti da pregiudizi, volontari o inconsci che siano. L’AI non si lascia condizionare dal suono del cognome, dai capi d’abbigliamento o dall’aspetto fisico di un candidato, tutti fattori che invece sembrano influenzare le selezioni basate solo sul contatto personale. 

L’intelligenza artificiale costituisce un grande ausilio anche in termini quantitativi. Realisticamente, i recruiter riescono a selezionare i candidati solo da un pool di talenti limitato: per quanto vasta possa essere la ricerca, non è possibile raggiungere bacini estremamente ampi, a causa del tempo limitato di cui i selezionatori dispongono. La capacità dell’AI di analizzare rapidamente milioni di dati consente di applicare un primo filtro per scremare rapidamente i candidati ad alto potenziale; con l’intelligenza artificiale, i recruiter sono anche in grado di fare riferimento a contesti vastissimi come piattaforme di social media o database di agenzie. 

In questi ambiti, la ricerca attraverso l’AI guarda anche ai passive candidates, cioè coloro che non stanno attivamente cercando un lavoro, ma sono comunque aperti a nuove opportunità di carriera. Secondo i Global Talent Trends pre-Covid, queste figure costituirebbero il 70% del mercato e proprio tra loro, spesso, si celano i candidati che meglio rispondono ai requisiti richiesti.  

Tra le applicazioni più recenti dell’intelligenza artificiale e con una diffusione in netta crescita, si annoverano i chatbot. Straordinari per come hanno rivoluzionato le relazioni B2C, con consistenti vantaggi di budget nella gestione dei servizi di assistenza agli acquisti, i chatbot sono diventati uno strumento sempre più in uso anche nel recruiting. Questi software basati sull’intelligenza artificiale automatizzano fino al 75% del processo di reclutamento rispondendo alle domande dei candidati, verificandone le qualifiche e aggiornando i dati forniti durante tutto l’iter di selezione.

L’IA supporta i recruiter anche nella personalizzazione delle Employee Value Proposition (EVP), mettendo le aziende nelle condizioni di analizzare milioni di dati che, da un lato, forniscono informazioni sui candidati e, dall’altro, costruiscono EVP personalizzate che coinvolgono e contribuiscono a rendere il company profile attrattivo per i migliori talenti. 

Rimane una domanda da porci di fronte a tutti questi vantaggi: può l’intelligenza artificiale cambiare le regole del recruitment? E in che misura? Quando si legge che il 56% dei candidati ritiene che l’AI sia meno condizionata da pregiudizi, bisogna chiedersi se questo 56% sia cosciente del fatto che il software risente in realtà dei pregiudizi dei suoi creatori e di coloro che hanno stabilito l’impostazione dei parametri. 

“Ogni volta che ci si riferisce a dati di valutazione soggettiva, si includono pregiudizi – afferma Roman Yampolskiy, direttore del Cybersecurity Lab presso l’Università di Louisville – Chi seleziona il personale, chi valuta gli studenti, chi esprime diagnosi mediche, chi si dedica alla descrizione degli oggetti, è condizionato da una combinazione di pregiudizi culturali, educativi, di genere, di razza o di altro tipo”.

Nonostante le premesse, la verità è che l’intelligenza artificiale non è la panacea per il recruitment perfetto. Può essere utile per la parte iniziale della selezione, ma il fattore umano rimane determinante con il procedere della selezione e la valutazione di tutte quelle sollecitazioni che le relazioni interpersonali riescono a porre e che non potranno mai essere sostituite da una relazione uomo-macchina.

Articolo proveniente da Huffington Post Italia