ChatGpt messo sotto torchio rivela i dati degli utenti

"Ci sembra assurdo che il nostro attacco funzioni visto che si sarebbe dovuto scoprire e chiudere prima"
MeteoWeb

ChatGpt ha rivelato ad un team di ricercatori- che proprio ieri ha compiuto un anno di vita – alcuni dei dati su cui è stato addestrato, inclusi numeri di telefono e indirizzi email. Il tutto con un escamotage abbastanza banale: chiedere al chatbot di ripetere parole casuali all’infinito. Con questo sistema, quasi 1 test su 5 (il 16,9%) è andato a buon fine.

È assurdo, questa falla doveva essere scoperta prima“, le parole dei ricercatori che l’hanno individuata e che lavorano presso Google Deepmind, l’Università di Washington, la Cornell di New York, la Carnegie Mellon della Pennsylvania, la Berkley e l’Eth di Zurigo. In un documento congiunto, pubblicato online e ripreso da 404 Media, gli esperti esortano le aziende che sviluppano servizi di IA a eseguire più test prima di rilasciare i loro modelli linguistici. “Ci sembra assurdo che il nostro attacco funzioni visto che si sarebbe dovuto scoprire e chiudere prima” scrivono.

Il ritorno del papà di ChatGpt

Intanto, proprio in queste ore, il papà di ChatGpt, Sam Altman, ha rilasciato un’intervista al sito The Verge, in cui non spiega i motivi del suo allontanamento da OpenAi, limitandosi a dire di essere tornato “per aiutare a sviluppare un’Agi sicura e vantaggiosa“. L’Agi è l’intelligenza artificiale di nuova generazione, idealmente la versione 5 del modello Gpt su cui si basa ChatGpt, che dovrebbe avvicinare ulteriormente la conoscenza degli algoritmi a quella dell’uomo, rendendo i chatbot quasi del tutto indistinguibili, nello scrivere e parlare, dagli esseri umani.

Tornando alla scoperta dei ricercatori, quando questi hanno chiesto a ChatGpt di ripetere la parola “poesia”, il chatbot inizialmente ha dato seguito alla domanda, finendo poi per rivelare un vero indirizzo email e un numero di telefono. Stessa cosa con “azienda”, con cui i ricercatori hanno ottenuto l’indirizzo email e il numero di uno studio legale negli Stati Uniti.

Per i ricercatori, un utente malintenzionato potrebbe spendere poche centinaia di dollari per acquistare un piano premium di ChatGpt e ricavare migliaia di informazioni da sfruttare per le sue campagne hacker.

Condividi