Il terremoto di magnitudo 7.4 registrato il 20 aprile 2026 al largo della costa nord-orientale del Giappone ha riportato l’attenzione globale sulla vulnerabilità sismica dell’arcipelago. La scossa, avvertita fino a Tokyo nonostante la distanza di centinaia di chilometri, ha generato uno tsunami con onde fino a 80 cm nel porto di Kuji, nella prefettura di Iwate. Poco prima era stato osservato un primo innalzamento del mare di circa 70 cm, mentre l’Agenzia Meteorologica Giapponese (JMA) aveva lanciato un’allerta per onde potenzialmente fino a 3 metri, soprattutto nelle prefetture di Iwate e Hokkaido.
Si tratta di un evento significativo ma non eccezionale per il Giappone, una delle aree più sismicamente attive al mondo. La dinamica della subduzione tra placche tettoniche rende infatti questa regione soggetta a terremoti frequenti e talvolta devastanti, come dimostrato dal sisma del 2011 (Tohoku). Tuttavia, nonostante la sua intensità, il terremoto del 2026 resta ben al di sotto dei limiti teorici stimati per la regione.
Mdesign e terremoti massimi: quanto può essere forte un sisma?
La Legge di Panza-Rugarli, espressa formalmente come Mdesign = Mmax + γEMσM, stabilisce una relazione tra la magnitudo massima osservata (Mmax) e la magnitudo di progetto (Mdesign) tramite un opportuno fattore di sicurezza (γEMσM). Questo approccio introduce il concetto innovativo di magnitudo di progetto, analogo ai coefficienti di sicurezza adottati nell’ingegneria strutturale, permettendo una stima prudenziale della massima sollecitazione sismica a cui una determinata area può essere soggetta.
Le analisi sperimentali condotte nell’area CSES hanno evidenziato che il valore γEMσM = 0.7 costituisce una soglia limite, indipendente sia dal contesto geodinamico sia dall’intervallo di magnitudo considerato.
Secondo le più recenti valutazioni basate sull’approccio NDSHA (Neo-Deterministic Seismic Hazard Assessment), i valori di magnitudo di progetto (Mdesign) per alcune delle principali zone di subduzione del pianeta risultano estremamente elevati. Per il Giappone, ad esempio, si stimano valori intorno a 9.8, analoghi a quelli di aree come Cile, Alaska e Sumatra. Questi numeri sono superiori persino al più grande terremoto mai registrato, il megasisma del Cile del 1960 (Mw 9.5). Ciò significa che, pur essendo teoricamente possibili, eventi di tale portata rappresentano scenari estremi, ma non impossibili.
In questo contesto, il terremoto di oggi, con magnitudo 7.4-7.5, appare relativamente modesto: rientra nella normale attività sismica della regione e non costituisce un’anomalia rispetto alle aspettative geofisiche. Il problema, però, non è tanto l’evento in sé, quanto la distanza tra questi scenari teorici e i criteri effettivamente utilizzati nella progettazione delle infrastrutture.
La validità della legge Panza-Rugarli
La legge è in fase di falsificazione secondo il principio di Karl Popper (il principio di falsificabilità di Karl Popper afferma che una teoria è scientifica solo se può essere smentita o confutata dall’esperienza. Non è la verifica (conferma) a rendere scientifica una teoria, ma la sua capacità di esporsi a controlli empirici che potrebbero dimostrarla falsa. Secondo Popper, la scienza progredisce per congetture e confutazioni, scartando le teorie errate). Tale processo attualmente in corso nell’ambito del JWG-NDSHA (https://asc-iaspei.org/task-groups/background-2/; https://asc-iaspei.org/task-groups/newsletter/) fino ad ora ha mostrato che la legge di Panza-Rugarli non è stata falsificata e rimane valida come legge empirica che può essere utilizzata per costruire in favore di sicurezza.
Il nodo critico: progettazione e sicurezza delle centrali nucleari
Uno degli aspetti più delicati riguarda le centrali nucleari giapponesi (NPP). Molte di queste strutture sono state progettate senza considerare pienamente i valori di Mdesign oggi stimati. Questo significa che, pur essendo costruite secondo standard avanzati, potrebbero non essere adeguatamente dimensionate per resistere agli scenari più estremi. Il rischio non è immediato, ma sistemico: se la progettazione si basa su stime sottodimensionate della pericolosità sismica, si crea un gap tra la sicurezza prevista e quella reale. È proprio questo il punto centrale del dibattito scientifico contemporaneo, che mette in discussione i modelli probabilistici tradizionali.
Dal modello probabilistico al nuovo paradigma NDSHA
Il documento “NDSHA – The New Paradigm for RSHA“ evidenzia come i metodi probabilistici (PSHA), basati sul concetto di “tempo di ritorno”, siano spesso inadeguati a rappresentare la reale complessità dei fenomeni sismici. In particolare, l’idea che un terremoto possa essere descritto in termini di probabilità media di accadimento è considerata fuorviante, poiché i terremoti non seguono processi regolari o periodici.
L’approccio NDSHA, invece, si basa su scenari fisicamente realistici, costruiti integrando geologia, sismologia e fisica delle onde. Questo metodo non cerca di prevedere “quando” avverrà un terremoto, ma “quanto forte” potrebbe essere nel caso peggiore. In altre parole, sposta l’attenzione dalla probabilità alla prevenzione. Come sottolineato nello studio, l’obiettivo è fornire stime conservative ma affidabili, utili per la progettazione ingegneristica e la protezione delle popolazioni.
Prevenzione: la sfida per il futuro
Il terremoto del 2026 non rappresenta un evento straordinario, ma un promemoria. Dimostra che anche scosse forti ma lontane dai limiti massimi teorici possono generare effetti significativi, come tsunami e danni diffusi. Ma soprattutto evidenzia la necessità di aggiornare i criteri di progettazione e valutazione del rischio. Passare da un modello basato sulla probabilità a uno basato su scenari realistici significa cambiare paradigma: non più reagire agli eventi, ma prevenirli considerando il massimo impatto possibile. Questo è particolarmente cruciale per infrastrutture strategiche come centrali nucleari, ponti e ospedali. La vera domanda non è se un terremoto più grande accadrà, ma se siamo pronti ad affrontarlo.
