I chatbot tendono a rafforzare opinioni e pregiudizi

"Le persone tendono a cercare informazioni in linea con i loro punti di vista, un comportamento che spesso le intrappola in una 'camera dell'eco' di opinioni affini"
MeteoWeb

I chatbot, ossia i sistemi di intelligenza artificiale capaci di dialogare come ChatGpt, ci dicono semplicemente le cose che vorremmo sentirci dire e in questo modo tendono a rafforzare i pregiudizi, aumentare la polarizzazione delle opinioni. Lo confermano i test realizzati sotto la guida di Ziang Xiao, della Johns Hopkins University, presentati al Convegno sul fattore umano nei sistemi di calcolo 2024 Acm Chi, in corso alle Hawaii.

I dialoghi con i chatbot

Quando dialoghiamo con un chatbot tendiamo, erroneamente, a ritenerlo un sistema le cui comunicazioni sono imparziali e basate su fatti oggettivi, ma non è così perché i chatbot cercano di farci ‘felici’: “anche se un chatbot non è progettata per essere parziale – ha detto Xiaole sue risposte riflettono i pregiudizi o le inclinazioni della persona che pone le domande. Quindi, davvero, le persone ottengono le risposte che vogliono sentire“.

Per verificarlo in modo oggettivo, i ricercatori hanno condotto test su un campione di 272 persone alle quali è stato prima chiesto di scrivere la loro opinione su alcuni temi, ad esempio su sanità pubblica o prestiti agevolati, e poi di cercare ulteriori informazioni online usando chatbot e motori di ricerca.

I risultati hanno verificato che, sia usando motori di ricerca che chatbot, gli utenti andavano a seguire solo i link che confermavano le loro opinioni iniziali e che il fenomeno era particolarmente evidente nel caso dei chatbot. “Le persone tendono a cercare informazioni in linea con i loro punti di vista, un comportamento che spesso le intrappola in una ‘camera dell’eco’ di opinioni affini“, ha detto Xiao. “Abbiamo scoperto che questo effetto eco è più forte con i chatbot che con le tradizionali ricerche sul web“.

La tendenza a cercare conferme sulle proprie idee preconcette resta dunque un problema non risolvibile facilmente dai chatbot, osservano gli autori della ricerca, e “dato che i sistemi basati sull’intelligenza artificiale stanno diventando più facili da costruire – concludono – ci saranno opportunità per gli autori malintenzionati di sfruttare l’intelligenza artificiale per creare una società più polarizzata“.

Condividi