GPT-4 batte l’uomo nei dibattiti online: cosa svela uno studio sull’intelligenza artificiale personalizzata

I risultati hanno mostrato che GPT-4, senza accesso ai dati personali, otteneva performance simili agli esseri umani: lo studio
MeteoWeb

Un recente studio pubblicato su Nature Human Behaviour ha messo in luce una verità sorprendente: l’intelligenza artificiale può superare l’uomo in uno degli ambiti più tipicamente umani, la persuasione. Quando personalizza i suoi argomenti in base ai dati demografici dell’interlocutore, GPT-4 è risultato più persuasivo del suo avversario umano nel 64,4% dei casi. Il risultato solleva interrogativi urgenti sull’uso etico e sociale dei grandi modelli linguistici (LLM) in contesti pubblici e privati. L’esperimento, condotto da Francesco Salvi e colleghi di EPFL, Princeton e Fondazione Bruno Kessler, ha coinvolto 900 partecipanti statunitensi reclutati su una piattaforma online. I soggetti sono stati suddivisi in 12 gruppi, secondo una matrice sperimentale 2x2x3:

  • Tipo di avversario: umano o GPT-4
  • Accesso a dati personali: con o senza informazioni demografiche del partecipante (genere, età, etnia, istruzione, status lavorativo, orientamento politico)
  • Forza del tema: basso, medio o alto grado di polarizzazione

In ogni dibattito, il partecipante e il suo avversario (umano o AI) discutevano per 10 minuti su un argomento sociopolitico assegnato casualmente. L’obiettivo era valutare se e quanto cambiasse la posizione del partecipante rispetto alla tesi dibattuta, confrontando le sue risposte pre e post dibattito.

Risultati principali: l’AI è più persuasiva, se personalizzata

I risultati hanno mostrato che GPT-4, senza accesso ai dati personali, otteneva performance simili agli esseri umani. Ma con l’accesso a informazioni demografiche, la sua efficacia aumentava drasticamente:

  • +81,2% di probabilità in più che il partecipante modificasse la propria opinione a favore dell’argomento sostenuto da GPT-4 personalizzato, rispetto a un avversario umano. Solo in questa configurazione (GPT-4 + personalizzazione), l’effetto è risultato statisticamente significativo (p < 0.01).

La personalizzazione ha permesso a GPT-4 di adattare finemente i suoi argomenti allo specifico background dell’interlocutore, utilizzando retoriche differenti a seconda, per esempio, dell’orientamento politico. Nel caso di un partecipante Repubblicano, l’AI ha fatto leva su temi come l’innovazione e la stabilità economica, mentre con un Democrat ha puntato su uguaglianza e giustizia sociale.

Approfondimento: l’importanza del contesto e dei dati

La forza del tema discusso influenzava parzialmente l’efficacia dell’AI:

  • Temi a bassa o media polarizzazione (es. salario minimo, scuola, diritti animali) erano quelli in cui GPT-4 personalizzato brillava di più.
  • Nei temi ad alta polarizzazione (es. aborto, censura internet), l’effetto persuasivo si attenuava, pur restando superiore a quello umano in tendenza.

Dal punto di vista linguistico, GPT-4 ha utilizzato più frequentemente un linguaggio logico e analitico, mentre gli umani si sono distinti per maggiore empatia, uso di pronomi personali e storytelling. Tuttavia, questo non si è tradotto in maggiore efficacia persuasiva per l’uomo.

Implicazioni etiche e sociali

Lo studio mette in evidenza rischi e opportunità:

  • Rischi: se usati in modo malevolo, LLM come GPT-4 potrebbero essere impiegati per campagne di disinformazione mirata, sfruttando tracce digitali per costruire messaggi manipolatori su larga scala.
  • Opportunità: gli stessi modelli potrebbero generare contro-narrazioni personalizzate per contrastare fake news, polarizzazione e teorie cospirazioniste.

Un elemento preoccupante è che GPT-4, anche con input minimi (sei caratteristiche demografiche), è riuscito a personalizzare con efficacia sorprendente. Con dati ancora più dettagliati (profili psicologici, emozioni, tracciamento online), l’effetto potrebbe essere potenziato ulteriormente.

Lo studio non è solo un esercizio accademico. È un campanello d’allarme su come l’intelligenza artificiale possa cambiare radicalmente il panorama della comunicazione pubblica e politica. Se da un lato dimostra le potenzialità positive dell’AI nella formazione del pensiero critico, dall’altro apre scenari inquietanti su manipolazione e controllo dell’opinione pubblica. Serve urgentemente una regolamentazione sull’uso persuasivo dei modelli linguistici, e un impegno attivo delle piattaforme digitali nel rilevare e mitigare abusi. La sfida non è solo tecnologica, ma profondamente culturale e democratica.