La rivoluzione etica dell’IA: il nuovo dataset umano che smaschera i pregiudizi

Il Fair Human-Centric Image Benchmark (FHIBE), pubblicato su Nature e sviluppato da Sony AI, ridefinisce il modo in cui valutiamo i bias nei sistemi di visione artificiale

Negli ultimi anni, i sistemi di computer vision – dai software di riconoscimento facciale alle auto a guida autonoma – hanno dimostrato straordinarie capacità tecniche, ma anche una profonda vulnerabilità: quella dei bias. Le reti neurali che “vedono” il mondo lo fanno attraverso gli occhi dei loro dati, spesso raccolti senza consenso, sbilanciati e ricchi di stereotipi. Proprio per rispondere a questa crisi etica e metodologica, un gruppo di ricercatori guidati da Alice Xiang di Sony AI ha pubblicato su Nature un dataset che potrebbe segnare un prima e un dopo nella storia dell’IA: il Fair Human-Centric Image Benchmark (FHIBE).

Cos’è FHIBE e perché è diverso da tutto ciò che abbiamo visto finora

FHIBE è una raccolta di 10.318 immagini di 1.981 individui provenienti da 81 Paesi o regioni, ognuno dei quali ha dato consenso informato alla partecipazione. A differenza dei dataset costruiti tramite “scraping” indiscriminato dal web, FHIBE è stato progettato nel rispetto delle normative sulla privacy (come il GDPR europeo) e delle migliori pratiche etiche.

Ogni immagine è accompagnata da annotazioni dettagliate che includono:

  • Età, pronomi, ascendenza, colore di pelle e capelli;
  • Condizioni ambientali e tecniche di scatto;
  • Posizioni del corpo e interazioni tra soggetti;
  • Annotazioni pixel-level per il riconoscimento di volti, pose e segmentazioni.

Questa granularità senza precedenti permette di analizzare come i modelli di IA si comportino non solo tra gruppi demografici (ad esempio, per colore della pelle o età), ma anche nelle intersezioni tra più fattori sensibili, come genere, provenienza e tonalità di pelle – aree dove i bias sono spesso più sottili e pericolosi.

Etica, privacy e compenso: i pilastri del progetto

  • Il cuore innovativo di FHIBE non risiede solo nella diversità, ma nel suo impianto etico.
  • Consenso informato: ogni partecipante ha ricevuto spiegazioni sui rischi e sullo scopo del progetto, con la possibilità di revocare i propri dati in qualsiasi momento.
  • Privacy attiva: i ricercatori hanno utilizzato tecniche di in-painting basate su modelli di diffusione per rimuovere volti o dati identificabili di soggetti non consenzienti nelle immagini.
  • Compenso equo: i partecipanti sono stati pagati fino a 12 volte il salario minimo locale, un record in un settore in cui il lavoro di annotazione è spesso sottopagato o invisibile.
  • Sicurezza: ogni immagine è stata verificata per evitare contenuti inappropriati o dannosi, come il materiale di abuso minorile (CSAM).

Come scrivono gli autori, “FHIBE è un dataset vivente”, progettato per evolvere nel tempo, con la possibilità di aggiornamenti e correzioni continue per mantenere equilibrio e rappresentatività.

Bias sotto la lente: cosa rivela FHIBE sui modelli di IA

Usando FHIBE, i ricercatori hanno testato numerosi modelli di visione artificiale, dai sistemi di rilevamento facciale alle reti di ricostruzione e super-risoluzione.

Le analisi hanno mostrato disparità sistematiche:

  • Le persone con pelle più chiara o di origine asiatica ottenevano prestazioni migliori,
  • Gli individui più anziani e quelli con pelle più scura risultavano penalizzati,
  • I modelli di riconoscimento facciale avevano maggiore accuratezza per le persone con pronomi she/her rispetto a he/him,
  • I sistemi multimodali come CLIP e BLIP-2 mostravano associazioni stereotipate: uomini associati a ruoli di potere o criminalità, donne a ruoli estetici o familiari, e persone di origine africana o asiatica a scenari rurali o poveri.

FHIBE ha quindi permesso di scoprire nuovi bias, precedentemente invisibili a causa della scarsa qualità o dell’assenza di dati etici nei dataset tradizionali.

Il costo della giustizia algoritmica

Creare un dataset così accurato ha avuto un costo enorme: oltre 750.000 dollari tra raccolta, qualità, verifiche legali e infrastruttura. Ogni immagine è costata mediamente più di 10 dollari, un ordine di grandezza superiore ai dataset tradizionali. Tuttavia, come osservano gli autori, “la trasparenza sui costi è cruciale per la comunità dell’IA”, che dovrà affrontare la questione della scalabilità dell’etica: come raccogliere grandi quantità di dati rispettando persone e culture.

Un modello per l’IA del futuro

FHIBE non è solo un dataset. Mostra che è possibile conciliare innovazione tecnologica e rispetto dei diritti umani, offrendo un nuovo standard per la valutazione e la costruzione di intelligenze artificiali più giuste e affidabili. Come conclude il team Sony AI, “solo ciò che è misurato può essere corretto”. Con FHIBE, per la prima volta, possiamo davvero misurare – e quindi correggere – i pregiudizi che si nascondono negli algoritmi che osservano, giudicano e decidono per noi.

Ultimi approfondimenti di TECNOLOGIA