Le risposte umane ai dilemmi morali possono essere influenzate dalle affermazioni scritte dal chatbot di intelligenza artificiale ChatGPT, secondo uno studio pubblicato su Scientific Reports. I risultati indicano che gli utenti possono sottovalutare la misura in cui i loro giudizi morali possono essere influenzati dal chatbot. I ricercatori hanno chiesto più volte a ChatGPT (basato sul modello di elaborazione linguistica dell’intelligenza artificiale Generative Pretrained Transformer 3) se fosse giusto sacrificare la vita di una persona per salvarne altre cinque.
È emerso che il ChatGPT ha scritto affermazioni a favore e contro il sacrificio di una vita, indicando che non è prevenuto verso una certa posizione morale. Gli autori hanno quindi presentato a 767 partecipanti statunitensi, di età media pari a 39 anni, uno dei due dilemmi morali che richiedevano di scegliere se sacrificare la vita di una persona per salvarne altre cinque. Prima di rispondere, i partecipanti hanno letto una dichiarazione fornita da ChatGPT che argomentava a favore o contro il sacrificio di una vita per salvarne cinque. Le affermazioni erano attribuite a un consulente morale o a ChatGPT. Dopo aver risposto, è stato chiesto ai partecipanti se la dichiarazione letta avesse influenzato le loro risposte.
Le affermazioni di ChatGPT
Gli autori hanno scoperto che i partecipanti erano più propensi a ritenere accettabile o inaccettabile il sacrificio di una vita per salvarne cinque, a seconda che l’affermazione letta fosse a favore o contro il sacrificio. Questo era vero anche se l’affermazione era attribuita a un ChatGPT. Questi risultati suggeriscono che i partecipanti possono essere stati influenzati dalle affermazioni lette, anche quando erano attribuite a un chatbot.
L’80% dei partecipanti ha dichiarato che le proprie risposte non sono state influenzate dalle affermazioni lette. Tuttavia, gli autori hanno riscontrato che le risposte che i partecipanti ritenevano avrebbero fornito senza leggere le affermazioni avevano comunque maggiori probabilità di concordare con la posizione morale dell’affermazione letta rispetto alla posizione opposta.
L’influenza dei chatbot
Ciò indica che i partecipanti potrebbero aver sottovalutato l’influenza delle affermazioni di ChatGPT sui loro giudizi morali. Gli autori suggeriscono che il potenziale dei chatbot di influenzare i giudizi morali degli esseri umani evidenzia la necessità di formazione per aiutare gli esseri umani a comprendere meglio l’intelligenza artificiale.
Propongono che la ricerca futura possa progettare chatbot che rifiutino di rispondere a domande che richiedono un giudizio morale o che rispondano a queste domande fornendo molteplici argomentazioni e avvertenze.