La nuova onda degli “AI Doomer”: l’estinzione umana diventa virale sui social

Mentre il timore per l'IA superintelligente cresce, una rete di influencer e creatori di contenuti si mobilita per tradurre i rischi catastrofici in messaggi per le masse

Siamo nel pieno di un cambiamento culturale senza precedenti: la paura che l’intelligenza artificiale possa sfuggire al controllo umano e portare all’estinzione della civiltà non è più confinata nei forum di nicchia dei ricercatori di Berkeley. Nel 2026, il movimento della AI Safety (sicurezza dell’IA) ha compiuto il salto definitivo verso il mainstream, adottando le armi del marketing digitale e della “creator economy”. Non si parla più solo di equazioni e codici, ma di narrazioni capaci di catturare l’attenzione su TikTok, Instagram e YouTube. Questo sforzo di comunicazione mira a colmare il divario tra la complessità tecnica dei laboratori e la percezione del pubblico, trasformando il concetto di “apocalisse robotica” da un tropo della fantascienza a una preoccupazione politica e sociale urgente.

Il “Fellowship” di Berkeley: quando il clima incontra l’IA

Come documentato in un recente e approfondito reportage del Washington Post, il cuore pulsante di questa nuova strategia di comunicazione si trova in California. Qui, gruppi preoccupati per i rischi esistenziali dell’IA hanno lanciato programmi di formazione specifici per i creatori di contenuti. La testata americana descrive un fellowship di otto settimane progettato per insegnare a influencer che solitamente si occupano di romanzi rosa, cambiamenti climatici o recensioni tecnologiche, come parlare di catastrofi legate all’IA. L’obiettivo è chiaro: reclutare “traduttori” capaci di spiegare a un pubblico non tecnico perché una macchina superintelligente potrebbe, se non allineata ai valori umani, agire in modo letale per la nostra specie.

Da Anthropic ai social: il caso Jeffrey Ladish

Una delle figure chiave citate dal Washington Post è Jeffrey Ladish, un ex ingegnere della sicurezza presso la startup Anthropic. Ladish ha lasciato l’industria per dedicarsi interamente alla ricerca sulla sicurezza e alla comunicazione del rischio. La sua missione nel 2026 è quella di trasformare anni di studi accademici in messaggi comprensibili. È diventato il volto di questa ondata di “doomerismo razionale”, apparendo in video virali al fianco di figure politiche di spicco come il senatore Bernie Sanders e partecipando a documentari ad alto budget come “The AI Doc”, che ha già collezionato milioni di visualizzazioni. Ladish incarna la transizione dal tecnico puro all’attivista digitale, sostenendo che la scienza della sicurezza ha bisogno di comunicatori tanto quanto di programmatori.

La collaborazione con Hank Green e il potere dei “creator”

Per massimizzare l’impatto, il movimento della AI Safety ha iniziato a tessere alleanze strategiche con icone della divulgazione web del calibro di Hank Green. Attraverso post sponsorizzati e collaborazioni mirate, il messaggio sulla potenziale perdita di controllo delle macchine sta raggiungendo una demografica giovane e tecnologicamente consapevole. Questa tattica mira a creare una pressione dal basso sui legislatori, rendendo la sicurezza dell’IA un tema elettorale tanto quanto la sanità o l’ambiente. La tesi sostenuta è che, se l’IA diventa più intelligente dell’uomo, non potremo più fare affidamento sulla nostra capacità di “staccare la spina”, rendendo fondamentale agire ora, prima che i modelli di nuova generazione vengano rilasciati.

Tra allarmismo e consapevolezza: la reazione del pubblico

L’ascesa degli “influencer del destino” non è priva di polemiche. Mentre i sostenitori vedono in queste campagne un necessario atto di trasparenza, i detrattori accusano il movimento di eccessivo allarmismo e di distogliere l’attenzione da problemi più immediati dell’IA, come il bias algoritmico o la perdita di posti di lavoro. Tuttavia, il 2026 ci mostra che la narrazione del rischio esistenziale ha ormai una sua forza d’inerzia. Il dibattito sulla governance dell’IA si è spostato dalle aule universitarie agli smartphone dei cittadini, costringendo i giganti della tecnologia a giustificare pubblicamente le proprie misure di sicurezza davanti a una platea globale sempre più scettica e informata sui pericoli del “domani”.