Negli ultimi anni, i sistemi di computer vision – dai software di riconoscimento facciale alle auto a guida autonoma – hanno dimostrato straordinarie capacità tecniche, ma anche una profonda vulnerabilità: quella dei bias. Le reti neurali che “vedono” il mondo lo fanno attraverso gli occhi dei loro dati, spesso raccolti senza consenso, sbilanciati e ricchi di stereotipi. Proprio per rispondere a questa crisi etica e metodologica, un gruppo di ricercatori guidati da Alice Xiang di Sony AI ha pubblicato su Nature un dataset che potrebbe segnare un prima e un dopo nella storia dell’IA: il Fair Human-Centric Image Benchmark (FHIBE).
Cos’è FHIBE e perché è diverso da tutto ciò che abbiamo visto finora
FHIBE è una raccolta di 10.318 immagini di 1.981 individui provenienti da 81 Paesi o regioni, ognuno dei quali ha dato consenso informato alla partecipazione. A differenza dei dataset costruiti tramite “scraping” indiscriminato dal web, FHIBE è stato progettato nel rispetto delle normative sulla privacy (come il GDPR europeo) e delle migliori pratiche etiche.
Ogni immagine è accompagnata da annotazioni dettagliate che includono:
- Età, pronomi, ascendenza, colore di pelle e capelli;
- Condizioni ambientali e tecniche di scatto;
- Posizioni del corpo e interazioni tra soggetti;
- Annotazioni pixel-level per il riconoscimento di volti, pose e segmentazioni.
Questa granularità senza precedenti permette di analizzare come i modelli di IA si comportino non solo tra gruppi demografici (ad esempio, per colore della pelle o età), ma anche nelle intersezioni tra più fattori sensibili, come genere, provenienza e tonalità di pelle – aree dove i bias sono spesso più sottili e pericolosi.
Etica, privacy e compenso: i pilastri del progetto
- Il cuore innovativo di FHIBE non risiede solo nella diversità, ma nel suo impianto etico.
- Consenso informato: ogni partecipante ha ricevuto spiegazioni sui rischi e sullo scopo del progetto, con la possibilità di revocare i propri dati in qualsiasi momento.
- Privacy attiva: i ricercatori hanno utilizzato tecniche di in-painting basate su modelli di diffusione per rimuovere volti o dati identificabili di soggetti non consenzienti nelle immagini.
- Compenso equo: i partecipanti sono stati pagati fino a 12 volte il salario minimo locale, un record in un settore in cui il lavoro di annotazione è spesso sottopagato o invisibile.
- Sicurezza: ogni immagine è stata verificata per evitare contenuti inappropriati o dannosi, come il materiale di abuso minorile (CSAM).
Come scrivono gli autori, “FHIBE è un dataset vivente”, progettato per evolvere nel tempo, con la possibilità di aggiornamenti e correzioni continue per mantenere equilibrio e rappresentatività.
Bias sotto la lente: cosa rivela FHIBE sui modelli di IA
Usando FHIBE, i ricercatori hanno testato numerosi modelli di visione artificiale, dai sistemi di rilevamento facciale alle reti di ricostruzione e super-risoluzione.
Le analisi hanno mostrato disparità sistematiche:
- Le persone con pelle più chiara o di origine asiatica ottenevano prestazioni migliori,
- Gli individui più anziani e quelli con pelle più scura risultavano penalizzati,
- I modelli di riconoscimento facciale avevano maggiore accuratezza per le persone con pronomi she/her rispetto a he/him,
- I sistemi multimodali come CLIP e BLIP-2 mostravano associazioni stereotipate: uomini associati a ruoli di potere o criminalità, donne a ruoli estetici o familiari, e persone di origine africana o asiatica a scenari rurali o poveri.
FHIBE ha quindi permesso di scoprire nuovi bias, precedentemente invisibili a causa della scarsa qualità o dell’assenza di dati etici nei dataset tradizionali.
Il costo della giustizia algoritmica
Creare un dataset così accurato ha avuto un costo enorme: oltre 750.000 dollari tra raccolta, qualità, verifiche legali e infrastruttura. Ogni immagine è costata mediamente più di 10 dollari, un ordine di grandezza superiore ai dataset tradizionali. Tuttavia, come osservano gli autori, “la trasparenza sui costi è cruciale per la comunità dell’IA”, che dovrà affrontare la questione della scalabilità dell’etica: come raccogliere grandi quantità di dati rispettando persone e culture.
Un modello per l’IA del futuro
FHIBE non è solo un dataset. Mostra che è possibile conciliare innovazione tecnologica e rispetto dei diritti umani, offrendo un nuovo standard per la valutazione e la costruzione di intelligenze artificiali più giuste e affidabili. Come conclude il team Sony AI, “solo ciò che è misurato può essere corretto”. Con FHIBE, per la prima volta, possiamo davvero misurare – e quindi correggere – i pregiudizi che si nascondono negli algoritmi che osservano, giudicano e decidono per noi.


Vuoi ricevere le notifiche sulle nostre notizie più importanti?