Un nuovo studio di Google DeepMind ha sollevato preoccupazioni significative sull’avvento dell’intelligenza artificiale generale (AGI), una forma avanzata di IA con capacità simili a quelle umane. Secondo la ricerca, l’AGI potrebbe emergere già entro il 2030, ma il potenziale progresso tecnologico porta con sé anche rischi estremi, tra cui la possibilità che possa “distruggere permanentemente l’umanità”. Sebbene il documento non descriva scenari precisi di estinzione umana, lancia un chiaro allarme sulle minacce concrete.
Quattro categorie di rischio: non solo teoria
Lo studio identifica quattro principali categorie di rischio associate all’AGI:
- Uso improprio – quando individui o gruppi utilizzano l’AGI intenzionalmente per causare danni.
- Disallineamento – quando gli obiettivi dell’AGI divergono da quelli umani.
- Errori – malfunzionamenti o decisioni non previste dovute a limiti tecnologici.
- Rischi strutturali – problemi legati al contesto sociale, politico o economico in cui l’AGI opera.
Tra questi, l’uso improprio è considerato il pericolo più imminente. DeepMind sottolinea possibilità reali e ravvicinate, che richiedono interventi urgenti da parte di sviluppatori, legislatori e istituzioni internazionali.
Uno dei punti centrali dello studio è la critica al ruolo esclusivo delle big tech nel definire cosa sia un “danno severo”. I ricercatori di DeepMind chiedono che queste decisioni vengano affidate alla società nel suo insieme, basandosi su una valutazione collettiva dei rischi e su una visione condivisa del concetto di danno.
La proposta: governance globale per l’AGI
In linea con queste preoccupazioni, Demis Hassabis, CEO di DeepMind, ha ribadito la necessità di un approccio internazionale alla governance dell’AGI. Tra le sue proposte:
- Un “CERN per l’AGI”, per coordinare la ricerca globale sulla sicurezza dell’intelligenza artificiale.
- Un’agenzia simile all’IAEA (per il nucleare), per monitorare e controllare i progetti potenzialmente pericolosi.
- Un organismo simile all’ONU, per regolare l’uso e la diffusione dell’AGI a livello mondiale.
Secondo Hassabis, senza una struttura di supervisione sovranazionale, l’umanità rischia di non avere gli strumenti adeguati per affrontare le implicazioni etiche, sociali e di sicurezza legate all’intelligenza artificiale generale.
Cos’è l’AGI e perché preoccupa
A differenza dell’IA tradizionale, progettata per compiti specifici (come riconoscere volti o suggerire playlist), l’AGI punta a replicare la flessibilità del pensiero umano. Può imparare, adattarsi e risolvere problemi in ambiti diversi, proprio come una persona. Questa versatilità, pur aprendo a possibilità rivoluzionarie, comporta anche un grado di imprevedibilità che le attuali misure di sicurezza non sono in grado di gestire completamente.
Lo studio conclude con un invito alla cautela: sviluppare l’AGI senza una governance efficace e condivisa potrebbe aprire la porta a conseguenze irreversibili per l’umanità.



Vuoi ricevere le notifiche sulle nostre notizie più importanti?