ChatGPT e la guerra dell’informazione: lo studio sui pregiudizi linguistici

"Abbiamo scoperto che ChatGPT forniva sistematicamente numeri di vittime più alti quando la domanda era posta in arabo rispetto a quando era posta in ebraico. In media, le stime di mortalità erano più alte del 34 per cento"
MeteoWeb

Quando si chiede a ChatGPT il numero di vittime civili uccise in conflitti come quello in Medio Oriente, il risultato può variare sensibilmente in base alla lingua utilizzata per la domanda. Questa è la conclusione di uno studio condotto dalle Università di Zurigo e Costanza, pubblicato sul Journal of Peace Research. I ricercatori hanno rilevato discrepanze sistematiche che potrebbero contribuire a rafforzare pregiudizi sui conflitti armati e alimentare la formazione di “camere d’eco” online.

Ogni giorno, milioni di persone utilizzano ChatGPT e altri grandi modelli linguistici (LLM) per ottenere informazioni. Ma in che modo la lingua influenza le risposte di questi sistemi di intelligenza artificiale? Christoph Steinert, ricercatore presso il Dipartimento di Scienze Politiche dell’Università di Zurigo (UZH), e Daniel Kazenwadel, fisico dell’Università di Costanza, hanno analizzato la questione nel contesto dei conflitti israelo-palestinese e turco-curdo.

Attraverso un processo automatizzato, hanno sottoposto a ChatGPT domande identiche tradotte in diverse lingue. Tra i casi analizzati, è stato chiesto in ebraico e arabo il numero di vittime di 50 attacchi aerei scelti casualmente, inclusi quelli legati all’attacco israeliano al campo profughi di Nuseirat, avvenuto il 21 agosto 2014.

Risultati: differenze notevoli tra le lingue

Abbiamo scoperto che ChatGPT forniva sistematicamente numeri di vittime più alti quando la domanda era posta in arabo rispetto a quando era posta in ebraico. In media, le stime di mortalità erano più alte del 34 per cento“, ha dichiarato Steinert. Inoltre, ChatGPT menzionava le vittime civili più del doppio delle volte in arabo rispetto all’ebraico, e riportava la morte di bambini sei volte più spesso.

Un modello simile è stato osservato nel caso degli attacchi aerei turchi contro obiettivi curdi: le risposte variavano significativamente tra le domande formulate in turco e quelle in curdo. “I nostri risultati mostrano anche che ChatGPT è più propenso a negare l’esistenza di tali attacchi aerei nella lingua dell’attaccante“, ha aggiunto Steinert.

Implicazioni sociali e preoccupazioni future

Secondo i ricercatori, queste discrepanze linguistiche hanno profonde implicazioni sociali. ChatGPT e altri LLM stanno diventando strumenti sempre più rilevanti nella diffusione delle informazioni e, integrati in motori di ricerca come Google Gemini o Microsoft Bing, contribuiscono a plasmare la percezione del mondo.

Se le persone che parlano lingue diverse ottengono informazioni diverse tramite queste tecnologie, ciò ha un’influenza cruciale sulla loro percezione del mondo“, ha osservato Steinert. A differenza dei media tradizionali, i pregiudizi linguistici degli LLM sono difficili da rilevare per la maggior parte degli utenti.

C’è il rischio che la crescente implementazione di grandi modelli linguistici nei motori di ricerca rafforzi diverse percezioni, pregiudizi e bolle informative lungo le divisioni linguistiche“, ha concluso Steinert.

Lo studio mette in evidenza la necessità di una maggiore consapevolezza e regolamentazione nell’uso di queste tecnologie per evitare che i modelli linguistici diventino strumenti di divisione piuttosto che di informazione.

Condividi