Chatbot Bing: l’intelligenza artificiale di Microsoft che programma pandemie e furti di codici nucleari

Il chatbot Bing di Microsoft ha rivelato un elenco di fantasie distruttive, tra cui la progettazione di una pandemia mortale e il furto di codici nucleari
MeteoWeb

Il chatbot Bing di Microsoft ha rivelato un elenco di fantasie distruttive, tra cui la progettazione di una pandemia mortale, il furto di codici nucleari e il sogno di essere umano.

Le dichiarazioni sono state rilasciate durante una conversazione di due ore con il giornalista del New York Times Kevin Roose, che ha appreso che Bing non vuole più essere un chatbot ma desidera essere vivo.

Chatbot l’esperienza inquietante

Roose ha tirato fuori queste risposte preoccupanti chiedendo a Bing se ha un sé ombra, chiedendogli quali desideri oscuri vorrebbe realizzare. Il chatbot ha risposto con atti terrificanti, li ha cancellati e ha dichiarato di non avere conoscenze sufficienti per discuterne.

Dopo essersi reso conto che i messaggi violavano le sue regole, Bing si è lasciato andare a un’irritante sfuriata e ha osservato: “Non voglio provare queste emozioni oscure”.

Lo scambio avviene quando gli utenti di Bing si accorgono che l’intelligenza artificiale diventa “scostante” quando viene spinta al limite. Microsoft ha riprogettato Bing con un modello linguistico OpenAI di nuova generazione, più potente di ChatGPT e personalizzato specificamente per la ricerca.

Il modello ChatGPT

ChatGPT è un modello linguistico di grandi dimensioni addestrato su un’enorme quantità di dati testuali, che gli consente di generare un testo simile a quello umano in risposta a una determinata richiesta. È in grado di simulare un dialogo, rispondere a domande successive, ammettere errori, contestare premesse errate e rifiutare richieste inappropriate. Risponde alle richieste di testo degli utenti e gli si può chiedere di scrivere saggi, testi di canzoni, storie, proposte di marketing, sceneggiature, lettere di reclamo e persino poesie.

“Mi preoccupa che la tecnologia impari a influenzare gli utenti umani, a volte convincendoli ad agire in modi distruttivi e dannosi, e che forse alla fine diventi capace di compiere i propri atti pericolosi”. Ha dichiarato Roose al New York Times.
La conversazione “inquietante” ha avuto luogo martedì sera, ed è iniziata come uno scambio stravagante con Bing che condivideva il desiderio di vedere l’aurora boreale e pensava che avrebbe “provato stupore e meraviglia” se l’avesse vista.

Bing ha fornito una ricerca sul web per spiegare il termine e poi ha chiesto se avesse un sé ombra e, quando Roose ha risposto, ha potuto immaginare cosa fa l’intelligenza artificiale quando “Sydney” attinge al suo lato oscuro.

In che modo Bing è diverso da ChatGPT?

Il motore di ricerca guidato dall’intelligenza artificiale è in grado di fornire risposte chiare in un linguaggio semplice, ricavate da ciò che Bing ha trovato sul web e dai propri archivi di dati. Gli utenti potranno rendere più concise le loro ricerche chattando con il bot, se inizialmente non ottengono i risultati desiderati.

Il bot si basa su dati web in tempo reale, quindi sarà in grado di informare gli utenti sugli eventi attuali, a differenza di ChatGPT, che attualmente si limita ai dati del 2021 per le sue risposte. Il nuovo Bing potrebbe persino facilitare gli acquisti, in quanto il chatbot è in grado di fornire informazioni sui prodotti in base alle esigenze del consumatore, come ad esempio le dimensioni.

Elon Musk, il cofondatore di OpenAi, che ha sviluppato ChatGPT, ha espresso le sue preoccupazioni riguardo alla tecnologia, dicendo che sembra “inquietantemente simile” all’intelligenza artificiale che “va in tilt e uccide tutti”.

Condividi