Intelligenza artificiale: come diventerà più inclusiva nella selezione delle risorse umane

L'intelligenza artificiale è spesso usata nelle piattaforme delle aziende che selezionano le proprie risorse umane, un progetto interviene per eliminare ogni forma di esclusione e discriminazione tra i candidati
MeteoWeb

Nel mondo moderno, l’intelligenza artificiale (AI) viene sempre più utilizzata nel mercato del lavoro per coinvolgere e formare i dipendenti, monitorare le infrazioni e persino prendere decisioni sulle assunzioni. Ma cosa succede se questi sistemi di IA sono di parte? Cosa succede se gli algoritmi riflettono stereotipi sociali, portando a decisioni sleali? Il progetto BIAS mira a rispondere a queste possibili sfide concentrandosi sul potenziamento dell’IA e delle comunità di gestione delle risorse umane (HRM) affrontando e mitigando i pregiudizi algoritmici.

Il BIAS utilizza una ricerca interdisciplinare e una strategia di impatto, combinando la ricerca e lo sviluppo dell’IA con un focus sul trattamento del linguaggio naturale e il ragionamento basato sui casi, il lavoro sul campo etnografico e la creazione del Debiaser, un software open source che identifica e mitiga i pregiudizi e l’ingiustizia nel processo decisionale.

Il progetto BIAS per migliorare l’inclusività dell’intelligenza artificiale

Il progetto BIAS sta anche responsabilizzando le piattaforme che usano l’intelligenza artificiale per selezionare le risorse umane attraverso la sensibilizzazione e lo sviluppo delle capacità, fornendo loro strumenti per sviluppare tecnologie migliori e promuovere pratiche migliori che riducano il bias algoritmico. Questo progetto sta riunendo una serie di parti interessate, tra cui piattaforme che utilizzano sistemi di AI per analizzare i dati, sviluppatori di AI, responsabili politici, educatori, lavoratori individuali, datori di lavoro e altro ancora. Tutti questi stakeholder possono far parte della comunità della rete BIAS: i National Labs.

Attraverso di loro, ogni paese coinvolto riunirà tutti questi partecipanti, con particolare attenzione alle comunità sottorappresentate. Tali soggetti saranno impegnati in diverse attività e iniziative BIAS e avranno accesso a informazioni regolari e personalizzate sul progetto. Attualmente, il progetto promuove anche un’indagine sulla discriminazione, l’esclusione e l’emarginazione dei lavoratori per comprendere le loro esperienze e atteggiamenti nei confronti delle applicazioni dell’IA nel mercato del lavoro. Il sondaggio è disponibile in 19 lingue e supporterà lo sviluppo del Debiaser.

Condividi