Ricerca: l’intelligenza artificiale “eredita” i pregiudizi umani

Quando i sistemi di intelligenza artificiale "imparano" la lingua da testi esistenti e redatti dall'uomo, finiscono per esibire gli stessi pregiudizi

intelligenza artificiale

Macchine intelligenti con i ‘difetti’ degli uomini? Quando i sistemi di intelligenza artificiale “imparano” la lingua da testi esistenti e redatti dall’uomo, finiscono per esibire gli stessi pregiudizi degli esseri umani. Lo rivela un nuovo studio su ‘Science’, destinato a far riflettere. I risultati, infatti, non solo forniscono uno strumento per studiare atteggiamenti e comportamenti segnati da pregiudizi negli esseri umani, ma evidenziano anche come la lingua sia intimamente intrecciata con pregiudizi storici e stereotipi culturali.
Un sistema comune per misurare i pregiudizi negli esseri umani è il Test di associazione implicita, in cui si devono accoppiare due concetti che si ritengono simili, a differenza di due concetti che appaiono diversi. I tempi di risposta possono variare notevolmente, indicando quanto bene si associno due parole: ad esempio le persone sono più propense ad abbinare “fiori” con “piacevole” e “insetti” con “sgradevole”. In questo studio il team di ricercatori della Princeton University e della Bath University guidati da Aylin Caliskan hanno sviluppato un metodo simile per misurare pregiudizi nei sistemi di intelligenza artificiale che acquisiscono il linguaggio da testi umani; invece di valutare il tempo delle associazioni, però, gli studiosi hanno indagato sul numero statistico di associazioni tra le parole, analizzandone circa 2,2 milioni.
I risultati dimostrano che i sistemi di intelligenza artificiale conservano i pregiudizi visti negli esseri umani. Ad esempio, gli studi del comportamento umano mostrano che lo stesso identico curriculum ha il 50% di probabilità in più di tradursi in un’opportunità per un colloquio, se il nome del candidato è europeo-americano piuttosto che afro-americano.
Ebbene, il sistema di intelligenza artificiale tende ad associare nomi europeo-americani con parole “piacevoli” (ad esempio “regalo” o “felice”). Anche in termini di genere, il sistema di intelligenza artificiale riflette i pregiudizi umani: le parole come “donna” e “ragazza” sono più spesso abbinate all’arte, mentre quelle maschili alla matematica. Insomma, se l’intelligenza artificiale impara dall’uomo, ne eredita i pregiudizi. (AdnKronos)