La Scienza non è una sfera di cristallo: i misteri della Comunicazione del Rischio Naturale

“La Scienza non è una sfera di cristallo”(Peter L. F. Fast). L’analisi di Nature sullo stato della ricerca pubblica europea, nell’articolo di Daniel Cressey pubblicato sul numero del 9 Novembre 2012, invita a una saggia riflessione: voci di spesa e di investimento per milioni di euro in progetti a volte incomprensibili non aiutano il cittadino […]

“La Scienza non è una sfera di cristallo”(Peter L. F. Fast). L’analisi di Nature sullo stato della ricerca pubblica europea, nell’articolo di Daniel Cressey pubblicato sul numero del 9 Novembre 2012, invita a una saggia riflessione: voci di spesa e di investimento per milioni di euro in progetti a volte incomprensibili non aiutano il cittadino a capire l’utilità della scienza e della tecnologia per risolvere i problemi quotidiani. “La decisione della corte italiana di punire severamente gli scienziati accusati delle morti causate dal Terremoto di L’Aquila (Nature 490, 446; 2012) è indicativa dei difetti insiti nel delicato, ma indispensabile, rapporto tra la scienza e la politica” – sostiene Erik Aarden sulla prestigiosa rivista scientifica Nature. La governance scientifica italiana è stata declassata come la politica e l’economia? A difendere le ragioni supreme della Scienza e della Fede nella libertà della ricerca in Italia e nel mondo, è il Sommo Pontefice Benedetto XVI in un suo intervento alla Pontificia Accademia delle Scienze. Se il territorio del Belpaese è esposto al rischio sismico, idrogeologico e vulcanico, bisogna prepararsi ad affrontare i disastri in tempo utile. È fondamentale farlo presto perché il tempo passa. A 44 mesi dal catastrofico terremoto di L’Aquila del 6 Aprile 2009 (Mw=6.3; 309 morti; 1600 feriti) l’unica lezione finora impartita da quella drammatica tragedia che ha distrutto la Capitale d’Abruzzo non sembra concentrata sulle politiche di prevenzione e mitigazione degli effetti delle catastrofi naturali. Le Tredici Raccomandazioni dei geo-scienziati, alla vigilia del 45mo Agu Fall Meeting al Moscone Center di San Francisco (3-7 Dicembre 2012) che vedrà la partecipazione di 20mila scienziati della Terra, fisici dello spazio, educatori, giornalisti scientifici, studenti e ricercatori dei più prestigiosi centri di ricerca riuniti per presentare al mondo i loro lavori, vanno fatte rispettare alla lettera, separando il grano dalla zizzania. La politica dorme sogni tranquilli in attesa dell’irreparabile mentre la scienza italiana, sotto i riflettori della comunità scientifica internazionale, cerca di lavorare seriamente in un Belpaese dove l’Hiroshima culturale e il precariato rischia di travolgere tutto e tutti. Gli studi scientifici hanno dimostrato inequivocabilmente che da decenni L’Aquila era condannata. Era solo questione di tempo. Ma la politica cosa ha fatto per salvare 309 vite umane, salvo poi scaricare sulla scienza, sulla giustizia e sugli scienziati le proprie responsabilità che la Storia saprà giudicare? Cosa hanno fatto i mass media che avrebbero dovuto controllare la politica e studiare le ricerche scientifiche per conoscere la verità, divulgandole correttamente ai cittadini, informandoli sulla pericolosità delle sorgenti sismogenetiche dove abitano da secoli? La sicurezza dipende soprattutto dalla casa in cui si abita. Se è costruita in modo da resistere al terremoto, non subirà gravi danni e proteggerà i suoi abitanti. Ovunque ci si trovi in quel momento, è molto importante mantenere la calma e seguire alcune semplici norme di comportamento. La Terra è un sistema dinamico e in continua evoluzione, composto al suo interno da rocce disomogenee per pressione e temperatura cui sono sottoposte, densità e caratteristiche dei materiali. Questa elevata disomogeneità interna provoca lo sviluppo di forze negli strati più superficiali, che tendono a riequilibrare il sistema spingendo le masse rocciose le une contro le altre, deformandole. Il Gran Sasso d’Italia e i Monti della Laga ne sono una meravigliosa e sconvolgente manifestazione. I terremoti sono un’espressione e una conseguenza di questa continua evoluzione che avviene in centinaia di migliaia e, in alcuni casi, milioni di anni. Il terremoto si manifesta come un rapido e violento scuotimento del terreno ed avviene in modo inaspettato, senza preavviso. All’interno della Terra l’attività sismica interessa solo gli strati più superficiali della crosta e del mantello superiore. L’involucro solido della superficie del pianeta, la litosfera, è composto da placche o zolle che si spostano, si urtano, si incuneano e premono le une contro le altre. I movimenti delle zolle determinano in profondità condizioni di sforzo e di accumulo di energia. Quando lo sforzo supera il limite di resistenza, le rocce si rompono formando profonde spaccature dette faglie, l’energia accumulata si libera ed avviene il terremoto. L’energia liberata viaggia attraverso la Terra sotto forma di onde che, giunte in superficie, si manifestano come movimenti rapidi del terreno. Che investono le persone, le costruzioni e il territorio. Ma non si muore di terremoto direttamente. Si muore di crolli. Un terremoto, soprattutto se forte, è caratterizzato da una sequenza di scosse chiamate Periodo Sismico, che talvolta precedono e quasi sempre seguono la scossa principale. Le oscillazioni provocate dal passaggio delle onde sismiche determinano spinte orizzontali sulle costruzioni e causano gravi danni o addirittura il collasso, se gli edifici (a scadenza!) non sono costruiti con criteri antisismici. Il terremoto genera inoltre effetti indotti o secondari, come frane, maremoti, liquefazione dei terreni, incendi, a volte più dannosi dello scuotimento. A parità di distanza dalla faglia in cui si è generato il terremoto (ipocentro), lo scuotimento degli edifici dipende dalle condizioni locali del territorio, in particolare dal tipo di terreni in superficie e dalla forma del paesaggio. Per definire la forza di un terremoto gli scienziati utilizzano due grandezze differenti: la magnitudo e l’intensità macrosismica. La magnitudo è l’unità di misura che permette di esprimere l’energia rilasciata dal terremoto attraverso un valore numerico, in genere, della scala Richter. L’intensità macrosismica è l’unità di misura degli effetti provocati da un terremoto, espressa con i gradi della scala Mercalli. Per calcolare la magnitudo è necessario registrare il terremoto con un sismografo, uno strumento che registra le oscillazioni del terreno durante una scossa sismica anche a grandissima distanza dall’ipocentro. L’intensità macrosismica, invece, viene attribuita in ciascun luogo in cui si è risentito il terremoto, dopo averne osservato gli effetti sull’uomo, sulle costruzioni e sull’ambiente. Sono grandezze diverse e non confrontabili. La previsione probabilistica dei terremoti (Probabilistic Earthquake Forecasting) è uno strumento molto importante. Nel caso tipico della sequenza avviata da una scossa principale forte (main shock) le rocce  intorno alla faglia su cui ha avuto luogo il terremoto subiscono un’alterazione delle loro condizioni fisiche. Questo determina centinaia o migliaia di “aftershocks” quasi sempre più piccole della scossa principale. Quanto più forte è il terremoto, tanto più grande è la faglia che si muove e tanto più estesi saranno l’area e il periodo in cui si registreranno gli aftershocks. Le leggi empiriche che governano la distribuzione spazio-temporale delle repliche sono ben conosciute dagli scienziati e per questo motivo si può fare il cosiddetto “forecasting”: ossia prevedere in termini probabilistici il numero, la magnitudo e la localizzazione delle repliche, giorno dopo giorno. Nel secondo caso, ossia l’ipotesi che piccoli terremoti possano innescarne di più grandi, non esiste un analogo campione statistico su cui fare un modello previsionale, perché ci sono molti più casi di sequenze “main shock – aftershocks” rispetto alle sequenze di “foreshocks – main shock”. E queste ultime presentano un elevatissimo grado di eterogeneità, con durate dei foreshocks, quando si manifestano, da poche ore a diversi mesi. Si adotta, quindi, un modello statistico analogo a quello del caso precedente, con delle assunzioni molto più forti. Le probabilità così calcolate che, dopo uno piccolo terremoto o uno sciame, se ne verifichi uno forte, sono sempre molto basse (raramente raggiungono l’uno per cento) quindi difficilmente utilizzabili per azioni di mitigazione del rischio su intervalli temporali di ore o giorni. Un altro problema rilevante dei modelli di forecasting sismico a breve termine è che, non conoscendo la distribuzione statistica del sistema “foreshocks – main shock” e pur ammettendo un aumento di probabilità determinato da un terremoto relativamente piccolo (il terremoto aquilano del 30 marzo 2009 di magnitudo 4 che determinò la convocazione della Commissione Grandi Rischi del giorno 31) non si saprebbe come gestire il periodo successivo a questa scossa. Pur assumendo che le probabilità di un forte terremoto aumentino all’aumentare della sismicità e della magnitudo dei “foreshocks”, la Scienza deve e può considerare che esse tornino rapidamente a valori bassi non appena l’attività diminuisce. Le ricerche empiriche servono a costruire modelli matematici in assenza dei quali non siamo in presenza di Scienza. Le ricerche pubbliche e private vanno sempre sottoposte al vaglio della comunità scientifica internazionale. Il Presidente dell’Istituto Nazionale di Geofisica e Vulcanologia, il professor Stefano  Gresta, su mandato del proprio CdA, ha sottoscritto la “Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities” (Dichiarazione di Berlino) che costituisce la Carta europea di adesione ai principi dell’accesso aperto ai prodotti della ricerca finanziata con fondi pubblici. Con questo atto l’Ingv si impegna ad assicurare il massimo accesso al patrimonio informativo prodotto dalle attività di ricerca dell’Istituto: i risultati della ricerca saranno diffusi non solo attraverso le modalità tradizionali di pubblicazione, ma anche attraverso i nuovi strumenti informativi aperti, propri delle tecnologie di informazione e comunicazione, che consentono di mettere a frutto più efficacemente i principi dell’open access. “La Dichiarazione di Berlino è un’eccellente iniziativa che condividiamo proprio perché delinea un percorso – dichiara il prof. Gresta – che nel nostro piccolo l’Ingv aveva già avviato fin dal 2005 con EarthPrints (www.earth-prints.org) uno strumento per la rapida diffusione dei risultati di ricerche scientifiche appena pubblicate”. Insomma, gli scienziati italiani sono sempre stati in prima linea, prima e dopo la catastrofe aquilana. I ricercatori dell’Ingv dalla Nave Italia non sono mai scesi. Non sono scesi durante la crisi sismica al Pollino né durante la sequenza emiliana. E non erano scesi prima e dopo il terremoto di L’Aquila, impegnandosi sempre nell’analizzare tutti i dati e fornendo sempre tutte le informazioni utili alla Protezione Civile ed alla popolazione, sul web e nelle tendopoli. Non sono scesi nemmeno i duecentocinquanta precari che in questi giorni continuano a lavorare anche di notte, pur con il timore di perdere il lavoro a fine anno 2012. Durante la riunione del 31 marzo 2009, gli scienziati dell’Ingv nella sala sismica stavano analizzando i dati delle sequenze in corso in quei giorni a L’Aquila, a Sulmona ed a Forlì, riassunti in una Relazione tecnica distribuita alla riunione della Grandi Rischi. Chiunque ha vissuto un terremoto davvero sa che la prima precauzione è quella di uscire di casa? Ma è sbagliato. La prima precauzione è vivere in una casa sicura che non crolla. È pretendere dai Politici veri la sicurezza delle scuole, a cui affidiamo l’educazione dei nostri figli, dei posti di lavoro e dei luoghi pubblici dove viviamo. E questa sicurezza non è la Scienza a potercela dare direttamente. Ma l’Amministrazione dello Stato, cioè la funzione pubblica, attraverso le Leggi. Se non facciamo prevenzione, un’altra L’Aquila non è soltanto possibile ma probabile ovunque. Addio New Town! Si vivrà nei container e nelle tende. Ma non è vero che gli scienziati avevano previsto l’arrivo di un’altra scossa mortale a L’Aquila ed altrove. Non è così. Neppure l’Usgs avrebbe potuto tanto! I ricercatori italiani non avevano previsto nessuna scossa mortale: perchè non ne erano e non ne sono capaci. La politica, forse, aveva previsto qualcosa? Dopo il terremoto del 6 Aprile gli scienziati italiani avevamo segnalato la probabilità significativa di altre repliche forti che ci sono effettivamente state. Non potevano dire di più. E anche il 31 Marzo nessuno sulla Terra avrebbe potuto prevedere nulla in un senso o nell’altro. Le previsioni dei crolli  sono tutte nella Carta della Pericolosità Sismica del 2004: in Calabria, come in molte altre regioni italiane, un terremoto più forte di quello di Mormanno (Magnitudo 5) e di L’Aquila, prima o poi, arriverà. E bisogna prepararsi all’emergenza che farà paura! Che facciamo alla prima scossa? Un’evacuazione di massa in Sardegna? Usiamola questa benedetta Carta che è norma dello Stato, per adeguare subito la classificazione sismica e per rinforzare tutti gli edifici in cui abitiamo e lavoriamo. Gli scienziati fanno quello che possono: continuano a migliorarla giorno dopo giorno con i metodi e i criteri propri della ricerca scientifica galileiana. Nella libertà. Se ci sia stata o meno la volontà di disinformare si indaghi e si giudichi anche la politica e i suoi esponenti. I ricercatori non si sono prestati a nessuna propaganda maligna. Anzi, come tutti i cittadini, auspicano che vengano chiarite al più presto le vere responsabilità della tragedia aquilana. Nel frattempo Nature registra il fatto che sei scienziati italiani e un funzionario di governo siano stati condannati a sei anni di carcere (www.nature.com/news/2011/110914/full/477264a.html) in primo grado per le dichiarazioni rese prima del terremoto del 6 Aprile 2009 che ha ucciso 309 nella città di L’Aquila. Anche secondo Nature il verdetto allarma gli scienziati della Terra in tutto il mondo. “Spero che gli italiani si rendano conto di quanto sono indietro in questo processo di L’Aquila e nel suo verdetto” – dichiara Erik Klemetti, assistente professore di scienze geologiche alla Denison University dell’Ohio, aggiungendo che “il verdetto è un terribile precedente”. Secondo il Giudice italiano (siamo in attesa di conoscere le Motivazioni della sentenza) gli scienziati e i pubblici ufficiali avrebbero minimizzato i rischi di un terremoto di grandi dimensioni a L’Aquila dopo una serie di scosse che avevano interessato non solo la città fin dall’inizio del 2009. Il 6 aprile 2009, l’evento di magnitudo Richter 6.3 uccise 309 persone. Nature sottolinea l’importanza dell’architettura medievale di L’Aquila come causa del crollo di numerosi edifici durante il terremoto. Anche la BBC registra il fatto che gli scienziati sono stati riconosciuti colpevoli di omicidio colposo plurimo. Al controverso “incontro” del 31 Marzo a L’Aquila, lo scienziato della Terra, il prof. Enzo Boschi, imputato nella causa, avrebbe riconosciuto l’incertezza, definendo “improbabile” un grande terremoto, ma sostenendo che la possibilità non poteva essere esclusa. In un “post-meeting”, stile conferenza stampa, l’ufficiale del Dipartimento della Protezione Civile, Bernardo De Bernardinis, anch’egli imputato, avrebbe detto ai media che non c’era “nessun pericolo” immediato. All’inizio del processo, nel Settembre 2011, i geo-scienziati americani capirono che il nucleo del giudizio era tutto concentrato sulla comunicazione e trasmissione della valutazione del rischio sismico attraverso il sistema penale italiano. “La nostra capacità di prevedere i terremoti è francamente risibile – dichiara Seth Stein, professore di Scienze della Terra alla Northwestern University in Illinois – per cui criminalizzare qualcuno avrebbe senso soltanto se questi avesse saputo davvero come fare la previsione e l’avesse fatta nel modo sbagliato”. Sapere se piccole scosse sono scosse prodromiche ad eventi distruttivi è oggi impossibile secondo sismologi. Uno studio del 1988 su altre regioni italiane a rischio sismico ha evidenziato che circa la metà dei terremoti di grandi dimensioni sono stati preceduti da deboli “foreshocks”. Ma solo il 2 per cento dei piccoli sciami ha segnalato una rottura più grande. Anche secondo il Wall Street Journal la condanna potrebbe compromettere il lavoro degli scienziati in Italia e nel mondo. Se passerà in giudicato, ciascuno dei sette imputati dovrà scontare sei anni di prigione e l’interdizione perpetua dai pubblici uffici. Certamente il rischio di un terremoto può essere previsto politicamente e, di conseguenza, può essere mitigato prima dei disastri con spese nettamente inferiori alla ricostruzione. Ma a chi spetta quest’arduo compito? Solo ai membri della Commissione nazionale Grandi Rischi della Protezione Civile? La Commissione era stata incaricata, nella Primavera del 2009, quando vari terremoti avevano iniziato a colpire la zona aquilana dal Dicembre 2008, di valutare i rischi di un grande terremoto. La Pubblica Accusa si concentra sulla minimizzazione del rischio di un terremoto distruttivo a L’Aquila, offerta dalla Commissione. I pubblici ministeri hanno sostenuto che, di conseguenza, i residenti della zona non erano adeguatamente preparati come avrebbero potuto essere in caso contrario. Dopo l’incontro del 31 Marzo 2009 la Commissione avrebbe detto che non c’era “nessun pericolo”, definendo importante “restare vigili, senza farsi prendere dal panico”. Alle ore 3:32 A.M. del 6 Aprile un terremoto di 6,3 gradi Richter colpì L’Aquila e i vicini comuni. Quali sono le responsabilità degli esperti di risposta alle catastrofi? Quali quelle dei “profeti” di terremoti e dei mass media? È giusto finire in galera per non aver messo in sicurezza la città di L’Aquila negli anni immediatamente precedenti? Chi si occupa di tirare la gente fuori dal fango e dalle macerie dopo le catastrofi, quali colpe avrebbe nella morte di 32 delle 309 persone? Il Giudice ha 90 giorni di tempo per fornire ad avvocati e magistrati, con motivazioni scritte, le Motivazioni della sentenza. Gli imputati possono quindi decidere se fare appello. Se l’esito risultasse ancora negativo la causa potrebbe poi proseguire in Cassazione. Il processo ha indignato molti scienziati che affermano da anni che la previsione di un terremoto specifico o di altri disastri naturali è praticamente impossibile e che non dovrebbero essere ritenuti responsabili per le mancate previsioni di un rischio del genere. “La preoccupazione è che questa sentenza, come precedente, potrebbe avere un effetto molto agghiacciante per gli scienziati di sismologia” – ha dichiarato Joanne Padrón Carney, direttore dell’Ufficio dei rapporti con il governo presso l’Associazione Americana per l’Avanzamento della Scienza. “Dove è la responsabilità? È davvero una questione politica, una questione di procedura, non è solo una questione di scienza”. Il verdetto potrebbe spingere gli scienziati italiani, in futuro, a tacere ovvero a peccare per eccesso di rischio, lasciando sola l’opinione pubblica, come ha sostenuto Brooks Hanson, portavoce per l’Associazione Americana per l’Avanzamento della Scienza. “Inutile dire che la sentenza potrebbe rendere più difficile in futuro la trasmissione di informazioni precise” – ha affermato il geologo Hanson. Gregory Beroza, Presidente del Dipartimento di Geofisica all’Università di Stanford, si è detto deluso dal verdetto, ma ha aggiunto che gli scienziati devono continuare a comunicare meglio il rischio sismico e naturale al pubblico. “Penso che quello che dovremmo fare è indicare con precisione lo stato delle conoscenze, ciò che sappiamo o ciò che pensiamo di sapere dei terremoti”. Gli scienziati stanno cercando di migliorare i modelli predittivi. Una collaborazione internazionale ha lavorato su un modello di Terremoto Globale per migliorare sia i calcoli a livello internazionale sia la comunicazione del rischio da presentare all’opinione pubblica. “Negli Stati Uniti ci sono stati alcuni casi in cui alcuni meteorologi del National Weather Service sono stati denunciati per aver offerto informazioni poco precise, ma non sono mai stati ritenuti responsabili di delitti simili a quello di L’Aquila” – sostiene Mike Smith, vice Presidente senior e meteorologo dell’AccuWeather Enterprise Solutions presso lo State College della Pennsylvania. Il professor David Spiegelhalter della Cambridge University ha reagito fermanente alla sentenza. “Sono rimasto veramente scioccato, sconvolto fisicamente. Senza parole. Sono sempre stato sorpreso del processo – ha dichiarato Spiegelhalter – ma non ho mai creduto di poter mai vedere degli scienziati condannati in questo modo. Siamo molto sconvolti ed arrabbiati. Ma molti dei commenti, credo, credo siano stati un po’ fuorvianti, soprattutto nel Regno Unito, perché hanno suggerito che questo processo è un attacco alla Scienza e che qualcuno sia stato in qualche modo accusato di non aver saputo usare la sfera di cristallo, cioè di non aver previsto cosa sarebbe successo di lì a poche ore. La mia sensazione è che questo non sia il classico caso di Giudizio alla Scienza. È molto più una questione di comunicazione del rischio nell’incertezza generale, visto e considerato che la gente si aspetta sempre dalla Scienza una previsione certa su tutto. In realtà, sembra che abbiano avuto trasmessa dai media la certezza, fin troppo rassicurante ed a-scientifica, della non possibilità della catastrofe. Piuttosto dell’attuale incertezza reale che naturalmente abbiamo nel cercare di prevedere i terremoti: un atto incredibilmente difficile”. Dunque, il tema centrale è quello della Comprensione pubblica del rischio. A Cambridge importantissima. In Italia quasi del tutto ignota alle persone. Ci sono evidentemente delle lezioni da imparare in questa storia. “La lezione principale è che, se gli scienziati continuano ad impegnarsi in importanti questioni pubbliche, hanno bisogno di comprendere ed essere consapevoli di quanto possa diventare importante nella società e su Internet  l’impatto delle loro parole. Hanno bisogno di scegliere e di misurare le parole molto attentamente quando si fanno dichiarazioni al pubblico. Credo che questo non sia stato fatto bene a L’Aquila. E credo che questo significi che gli scienziati hanno bisogno di ripensare le loro strategie per la Comunicazione del rischio. Coscienti del fatto che il loro lavoro oggi non può essere soltanto quello dell’analisi dei dati e delle probabilità approssimative: devono pensare a come le persone interpretano il loro lavoro. E questo, credo, fa parte della responsabilità di ciascuno scienziato pubblico. Questa terribile prova – secondo Spiegelhalter – è solo un avvertimento agghiacciante di ciò che può accadere quando questo lavoro non funziona correttamente”. Una siffatta Struttura di Comunicazione ideale nei casi difficili come L’Aquila per la valutazione immediata dei rischi di terremoto, in Italia ancora non esiste. “Il problema, in questo caso, è che si può essere indotti a fare dichiarazioni sui media enormemente difensive da parte di scienziati, con frasi del tipo: Io non sono effettivamente responsabile; Non posso dare alcuna garanzia, e così via. Ci deve essere un certo equilibrio nel modo in cui sono espresse le parole in modo chiaro al pubblico per non ingenerare false aspettative o previsioni. E credo che questo significhi equilibrio: gli scienziati non dovrebbero essere persone rassicuranti, ma nemmeno dei profeti di panico tra la gente”. Le persone, dunque, devono comprendere che conta molto più reagire prontamente alle catastrofi come L’Aquila, piuttosto che vivere nel terrore permamente paralizzante. “Nel Regno Unito abbiamo avuto alcuni errori terribili fatti da ministri del governo che ci hanno rassicurato sul morbo della mucca pazza, sul fatto che non poteva essere trasmessa in qualsiasi forma agli esseri umani. Abbiamo avuto alcuni costosi errori nel nostro Paese. Senza crocifiggere la Scienza”. Thomas Jordan, direttore del Southern California Earthquake Center presso il Dipartimento di Scienze della Terra della University of Southern California, all’indomani della catastrofe aquilana fu chiamato dal governo italiano a presiedere una Commissione internazionale per indagare su ciò che era accaduto durante il terremoto di L’Aquila. Fu stilato un rigoroso Rapporto scientifico unitamente alle famose Tredici Raccomandazioni per migliorare il Sistema di comunicazione del rischio. “Convocata un mese dopo il terremoto – ha dichiarato Thomas Jordan – iniziammo il nostro studio che abbiamo continuato per oltre un anno. Abbiamo pubblicato una serie di raccomandazioni nel mese di Ottobre del 2009 indirizzate al governo italiano, con una formulazione dettagliata di consigli su come la Comunicazione del rischio dovesse migliorare in questo tipo di situazioni. Fu molto chiaro che vi è spazio per l’implementazione delle ricerche su come prevedere i terremoti: oggi non possiamo prevedere i terremoti con alta probabilità, ma ci rendiamo conto che le probabilità possono cambiare, possono aumentare o diminuire secondo l’attività sismica. Questi metodi non sono ampiamente utilizzati per la previsione dei terremoti e non erano in uso al momento dal Dipartimento della Protezione Civile italiana, ma è consigliabile che siano messi in uso per migliorare la pratica di prevenzione del rischio. A mia conoscenza, le nostre Raccomandazioni non sono state attuate dal Dipartimento della Protezione Civile”. Un errore scientifico, tecnico e politico senza precedenti, se venisse confermato. “Nella scienza e nella sismologia si distingue tra pericolo e rischio. Un pericolo è quello che potrebbe accadere, ciò che la Natura potrebbe fare. Per esempio, il verificarsi di un grande terremoto in futuro rappresenta un pericolo, mentre il rischio è quello che succede quando si verifica un evento. In altre parole, il rischio è misurato in termini di danni, in denaro e in vite umane, mentre pericolo è più una descrizione, nel caso di un terremoto, dello scuotimento che potrebbe verificarsi”. Quindi il punto è un altro: il rischio è davvero percepito come un effetto che il pericolo ha sulla popolazione italiana? Subito dopo la condanna degli scienziati “ho pensato che fosse un verdetto piuttosto incredibile. Sono rimasto profondamente turbato – rivela Jordan – che alcuni scienziati impegnati a fare il loro lavoro in circostanze avverse sono stati condannati per un crimine come l’omicidio colposo. Chiaramente non erano responsabili per i danni causati da questo terremoto. Sappiamo che gli edifici in città antiche come L’Aquila sono a rischio, fatto ben noto prima del terremoto, e che nessuna delle loro azioni ha cambiato il rischio. “Siamo stati molto chiari nella Relazione che abbiamo presentato al governo italiano in merito a quale sia il ruolo dello scienziato in queste circostanze: vale a dire l’informazione scientifica sui pericoli e sui rischi da divulgare correttamente alla popolazione. Ora, è consigliabile che le informazioni vengano descritte in termini di probabilità di rischio. In altre parole – spiega Jordan – gli scienziati non dovrebbero essere messi in un ruolo decisionale. Le decisioni su cosa fare durante una crisi sismica come quella che si è verificata a L’Aquila, sono di competenza delle autorità civili, i politici e gli amministratori, le persone che possono prendere informazioni scientifiche e combinarle con molti tipi di informazioni sui fattori economici, politici e giuridici necessari per prendere prontamente decisioni adeguate. Il ruolo dello scienziato – sottolinea Thomas Jordan – non è quello di prendere decisioni su come far fronte a situazioni ad alto rischio. Così è consigliabile una Commissione di consulenza le cui risultanze dovrebbero essere riferite dalla Commissione Grandi Rischi al Capo del Dipartimento della Protezione Civile: per comunicare informazioni scientifiche sui rischi e sui pericoli che poi l’autorità politica avrebbe il dovere di fare propri per assicurare che le sue decisioni politiche vengano eseguite immediatamente per affrontare una situazione del genere. Abbiamo una struttura del genere in California dove il rischio è analizzato da un organo consultivo, denominato California Earthquake Prediction Evaluation Council, cui prendo parte regolamente, che fornisce la consulenza scientifica al governo, ossia alla California Emergency Management Agency, l’equivalente della Protezione Civile. In quella sede consultiva noi teniamo in debito conto i nostri limiti e cerchiamo di assicurare che le informazioni sulla nostra corretta comprensione del comportamento dei terremoti rimanga in ambito scientifico. Quindi se, ad esempio, vi è una normale attività sismica, cerchiamo di valutare in che modo questo cambia le probabilità di avere un terremoto di grandi dimensioni. E poi comunichiamo al governo le nostre conclusioni. Ma le decisioni operative spettano all’organo politico, non agli scienziati”. Il pasticcio italiano è servito! Qualche giorno prima del disastroso sisma del 6 Aprile 2009, preceduto da un interminabile sciame di piccoli terremoti, la Commissione Grandi Rischi della Protezione Civile si riunì a L’Aquila per valutare se fosse possibile stimare il reale rischio corso dalla popolazione abruzzese. Tre anni e mezzo dopo, una sentenza ha condannato gli scienziati (non i politici) presenti alla riunione a sei anni di reclusione per non aver informato correttamente sul pericolo. Ancora più di quanto chiesto dal Pubblico Ministero (quattro anni). La faccenda è molto seria e complessa. Ha provocato reazioni contrastanti in tutto il mondo. Il giornalista scientifico Nicola Nosengo, che ha seguito la vicenda per Nature, ha raccontato molti dettagli del processo al recente convegno del CICAP a Volterra proprio una settimana prima della sentenza. “Una delle frasi più abusate in questo strano Paese – scrive Nicola Nosengo – è che “le sentenze non si commentano, si rispettano”. L’ha ripetuta anche ieri Fabio Picuti, sostituto procuratore de L’Aquila, dopo la lettura della sentenza che, andando oltre le sue stesse richieste, ha condannato a sei anni di reclusione per omicidio colposo i sette membri della Commissione Grandi Rischi (sei più uno, a dire il vero) da un anno sotto processo per i fatti legati al terremoto del 6 Aprile 2009. Un pubblico ministero è tenuto a rispondere così, noi no. Le sentenze si commentano eccome, e questa di commenti ne merita molti. Ho seguito questa storia a lungo per Nature, che come molte testate straniere è stata ben più attenta a questa complicata vicenda rispetto ai grandi giornali italiani che la scoprono riportando in molti casi informazioni platealmente inesatte (no, non è una condanna per non aver previsto il terremoto, almeno questo si sperava di non leggerlo più). Lì mi sono sempre attenuto ai fatti, anche perché erano talmente intricati che provare semplicemente a metterli in fila mi pareva l’unico servizio dovuto ai lettori. Ma il nostro mestiere è anche interpretarli, i fatti, e qua e là prendere posizione. Arrivati allo snodo cruciale della sentenza (e che sentenza) qualche opinione l’ho maturata, e ringrazio Scienza in Rete di volerla ospitare. Parto dalla fine della storia. Dopo aver letto le carte del processo e averne seguito i passaggi chiave, considero la sentenza sbagliata e, per molti versi, grave. Ma non per i motivi che oggi molti miei colleghi ripetono su giornali e social network: sentenza contro la Scienza (ovviamente sempre con la Maiuscola), sintomo della radicata cultura antiscientifica italiana, e così via, senza farsi mancare la citazone di Croce e Gentile e della loro nefasta influenza. Un processo penale va commentato con gli argomenti del diritto ben prima che con quelli della scienza. Questa condanna mi pare sbagliata non perché “antiscientifica”, ma perché giuridicamente poco fondata. Manda (manderebbe, se confermata) in galera sette persone per una accusa pesantissima senza prove abbastanza solide per farlo. Questo è sempre gravissimo, ma purtroppo non è una novità nella giustizia italiana, spesso usata per risolvere i nodi che il processo politico non sa sciogliere. Capita troppo spesso, e non diventa improvvisamente più grave perché stavolta gli imputati sono scienziati. Ricordiamolo ancora. La tesi dell’accusa si basa sulla catena logica della negligenza professionale, che influenza il corso degli eventi, finendo per causare la morte di una persona che altrimenti non sarebbe avvenuta. Definizione da manuale di omicidio colposo. É la tesi che una superficiale e inadeguata analisi del rischio fatta nel corso della riunione (punto sostanzialmente non in discussione, lo stesso Enzo Boschi l’ha definita tale) abbia portato la Protezione Civile a dare alla popolazione messaggi troppo rassicuranti rispetto a quanto la scienza avrebbe voluto (anche qui, diversi tra gli imputati si sono apertamente dissociati da quei messaggi che in sostanza escludevano la possibilità di un forte terremoto, ed esperti internazionali li hanno criticati) e che quei messaggi abbiano portato alcuni cittadini a rivedere i loro piani, in particolare quelli di lasciare L’Aquila per qualche giorno o di dormire in macchina. Ma comunque la si pensi sui primi due punti, è l’ultimo quello cruciale perché si possa arrivare a una condanna: il processo ha provato oltre ogni ragionevole dubbio che quei 29 cittadini di L’Aquila oggi sarebbero sicuramente vivi se quei 7 imputati avessero fatto qualcosa di diverso? Mi pare che la risposta sia no. Gran parte dell’accusa si basa su ciò che altri ricordano sui motivi delle decisioni prese dalle vittime ormai anni fa. Con l’assoluto rispetto che si deve a chi ha perso familiari e amici in quella tragedia, e della cui buona fede non è lecito dubitare, bisogna dire che mandare in galera sette persone su questa base è un grande azzardo giuridico. Come lo è mandarci qualcuno che ha detto cose giuste (la maggior parte dei partecipanti alla riunione se ci fidiamo dei verbali, magari superficiali ma giuste) per le cose sbagliate che qualcun altro ha detto dopo averlo incontrato. O processare un soggetto istituzionale (la Commissione Grandi Rischi) e nel pacchetto mettere anche chi non ne fa parte ma era lì solo per accompagnare il capo (come Selvaggi). La condanna si basa su una idea di “responsabilità collettiva” che, sospettiamo, non reggerebbe un giorno in tribunali di altri Paesi. Anche nell’ipotesi che sia provato quel nesso causale, tuttora non è ben chiaro quale sia, secondo la Procura, l’evento specifico che avrebbe “causato” quelle morti. La riunione? La conferenza stampa? L’intervista televisiva di De Bernardinis? Non può essere stato tutto nella stessa misura. All’inizio del processo il PM sembrava indicare in De Bernardinis e nella Protezione Civile i “cattivi” della vicenda, colpevoli di aver orchestrato una riunione che fin dall’inizio aveva il solo scopo di produrre un messaggio rassicurante culminato in quel tristemente famoso “bicchiere di vino” da bersi per scacciare la paura (per la cronaca, a De Bernardinis va riconosciuto di avere attraversato il processo da uomo delle istituzioni, mettendo la faccia in quasi tutte le udienze e parlando alla stampa, anche ieri sera, direttamente e non attraverso gli avvocati). Alla fine del processo il PM è invece arrivato a definire De Bernardinis “vittima” dei sismologi, e della loro analisi superficiale delle possibili conseguenze di un forte terremoto in quell’area. Ora, o la riunione era una “mossa mediatica” (come la definisce Bertolaso nell’intercettazione telefonica del giorno precedente) con un finale già scritto, e allora gli scienziati sono stati almeno in parte presi in giro. O la Protezione Civile era sinceramente aperta all’opinione degli scienziati e ha deciso cosa dire ai cittadini solo dopo averli ascoltati. Le due ipotesi – scrive Nicola Nosengo – si escludono a vicenda, e il PM le ha di fatto sostenute entrambe. Che un procuratore stiracchi un po’ il suo argomento per sostenere l’accusa fa parte del gioco, ma il compito del giudice è notarlo e decidere di conseguenza. Leggeremo le motivazioni, ma si direbbe che il giudice Marco Billi non lo abbia fatto. La certezza del diritto non esce bene da questa sentenza, e a costo di irritare qualcuno dei miei amici più “scientisti” (credo così poco alla stucchevole contrapposizione con gli “antiscientisti” che non riesco a scrivere il tutto senza virgolette) tengo alla certezza del diritto persino più che alla teoria dell’evoluzione. Il risultato è una sentenza sproporzionata e incomprensibilmente uguale per tutti gli imputati. Condannare qualcuno e assolvere qualcun altro sarebbe stato forse altrettanto ingiusto, ma avrebbe almeno dato il senso che 13 mesi di processo siano serviti ad analizzare, distinguere responsabilità, dare indicazioni per un futuro ripensamento della prevenzione dei rischi, che deve per forza partire da una maggiore chiarezza di ruoli: dove si fermano le responsabilità dei consulenti scientifici, dove iniziano quelle della politica, a chi spetta il compito di tradurre l’incertezza della scienza in una comunicazione efficace ai cittadini? Il processo è figlio del grande, inaccettabile caos che circondava questi temi all’epoca (oggi le cose sono un po’ cambiate in meglio). Se voleva contribuire a una maturazione del rapporto tra scienza, politica e società, con questa sentenza urbi et orbi ha sprecato l’occasione. Tutto questo significa che nessuno ha nulla da rimproverarsi per quella riunione della Grandi Rischi? O che a priori non si devono ritenere anche gli scienziati, nel momento in cui diventano consulenti governativi e quindi pubblici funzionari, responsabili delle loro azioni, della qualità del loro lavoro, del modo in cui influenza le scelte dei cittadini? No. E, pur non condividendo questa sentenza, non basta dire che “i veri responsabili sono quelli che hanno costruito le case”. É vero, ma non è tutta la verità. Come può confermare il primo giapponese fermato per strada, la preparazione al rischio sismico ha due gambe, ugualmente importanti: l’edilizia antisismica e l’educazione al rischio dei cittadini. In Italia mancano entrambe, e se manca la seconda è in buona parte perché in passato le autorità (non senza qualche aiuto da scienziati di vaglia) hanno quasi sempre scelto lo stile di “comunicazione” visto a L’Aquila. Sposando la stravagante e, a modestissimo parere di chi scrive, inaccettabile teoria sostenuta in aula dal sociologo Mario Morcellini, chiamato come testimone per la difesa:“La rassicurazione è il primo obbligo di un organo pubblico”. Davvero? Credevo che il primo fosse dire la verità, e pazienza se non è rassicurante, ma forse sono un romantico. A L’Aquila sono stati violati diritti fondamentali, troppe volte. È successo per tutti gli ultimi decenni, quando palazzinari e tecnici compiacenti delle autorità locali hanno costruito e autorizzato edifici (compresi grandi edifici pubblici come la Casa dello Studente) in spregio delle norme antisismiche, in una delle zone più sismiche d’Europa”. Lanciano docet. “È successo ancora tra la fine di Marzo e l’inizio di Aprile 2009, quando alla legittima e umanissima ansia di una popolazione stremata da quattro mesi di scosse si è risposto con una baracconata (perché questo fu la riunione della Commissione Grandi Rischi, di chiunque sia la colpa) con una comunicazione improvvisata, imprecisa e scientificamente infondata, in cui lo Stato semplicemente non ha trattato i suoi cittadini da persone adulte. Ma diritti fondamentali sono stati violati anche ieri, con una sentenza che non corrisponde a quanto effettivamente emerso in aula, e che commina una pena sproporzionata per responsabilità non sufficientemente dimostrate in sede giudiziaria. E non si rimedia alla violazione di un diritto violandone un altro”. Scrive Guido Bertolaso sul suo Blog www.guidobertolaso.net/, commentando un articolo pubblicato sul Corriere della Sera da Gian Arturo Ferrari, già docente di Storia della scienza e responsabile della Divisione Libro della Mondadori, Presidente oggi del Centro per il libro e la promozione della lettura della Presidenza del Consiglio dei Ministri, sul quale il prof. Ferrari offre un contributo sul processo alla Commissione Grandi Rischi concluso a L’Aquila con la condanna degli imputati:“A prescindere dai rapporti di stima che mi legano ai condannati, con molti dei quali ho rapporti di profonda amicizia, personalmente continuo a ringraziarli per il prezioso lavoro che hanno svolto, pagandone conseguenze queste sì imprevedibili, dovute ad un nuovo ed inatteso “rischio antropico”. Del fatto che un insigne personaggio si prenda la briga di pronunciamenti definitivi su una questione che certo non è stata oggetto di seri studi da parte sua, invece, non mi stupisco. Sulla vicenda aquilana continuano a susseguirsi prese di posizione, rivelazioni, giudizi che hanno a che fare con quasi tutto tranne che con la semplice verità dei fatti. L’Onorevole Di Pietro, ieri, ha ritenuto suo dovere spiegare che la condanna dei componenti della Commissione Grandi Rischi si motiva con la svendita, da parte dei condannati, della dignità della scienza avvenuta, per mio tramite, in favore della tranquillità e del quieto vivere del Governo(?). Ma di cosa parlano, questi illustri contemporanei? Di chi parlano? Non certo di fatti, che non conoscono, ma di sicuro di pregiudizi, di stereotipi, di luoghi diventati comuni dopo alcuni anni di bombardamento e criminalizzazione mediatica di tutto il mio operato a capo della Protezione Civile italiana. Pochi minuti fa un amico ha visto in TV una trasmissione di cui era ospite il Professor Boschi. Mi è stato riferito non tanto ciò che ha detto Boschi, che a giudizio di chi ha visto la trasmissione è stato corretto e preciso, ma soprattutto il clima che nello studio si respirava, un clima ostile, banale dire pregiudizialmente ostile. Qualcuno ha fatto notare al Professor Boschi, dopo aver fatto ascoltare la registrazione della mia telefonata con lui del 9 Aprile, “emersa” ora nella disponibilità di La Repubblica e pubblicata da quel quotidiano, che il mio “tono di voce” con lui era veramente irriguardoso, imperioso, di uno che dà ordini e non è certo alla ricerca di consigli e suggerimenti scientifici. Boschi ha risposto dicendo che in quei giorni “mi trovavo in una situazione difficilissima” – lo ringrazio per averlo ricordato – e che non era certo il momento di badare al mio tono di voce, quanto piuttosto di continuare nella opera di collaborazione che durava da anni tra la Commissione e il Dipartimento da me diretto. Il clima in studio di cui mi è stato riferito, e il tenore della domanda, rimandano dritti alla solerte attività editoriale di Repubblica, che continua con la sua strategia di pubblicare periodicamente documentazione “emersa”, quasi ritrovata per caso, che in realtà è probabilmente, in possesso da tempo di quel quotidiano, che, con uguale probabilità, parrebbe disporre di intercettazioni telefoniche a mio carico, disposte dalla magistratura. Questa volta l’intercettazione pubblicata riguarda una mia telefonata al professor Boschi del 9 Aprile, tre giorni dopo il terremoto. A cosa serve tirarla fuori?  A dimostrare come fossi io a dettare ciò che la Commissione Grandi Rischi doveva dire, come si evince dal “tono” della mia voce. Se questo era vero il 9 Aprile, a terremoto avvenuto, lo era anche prima del terremoto, ovvio. Quindi…Peccato che vero non lo sia mai stato, né prima né dopo il sisma di L’Aquila. Ma a chi interessa? A chi può importare di capire davvero sia quali erano i rapporti tra scienziati e Dipartimento, sia il contesto e la successione dei fatti, ammettendo che esiste una bella differenza tra ciò che si può dire dopo qualsiasi evento e ciò che si sa e si dice prima o mentre esso è in corso. Dopo, sono capaci tutti di dire cosa andava fatto, come andava fatto, e anche quale “tono” andava usato nelle telefonate. Ma scambiare il dopo col prima, usare il senno di poi per valutare i fatti non è, semplicemente, corretto, o più esattamente è sbagliato, perché non porta a nessuna verità diversa da quella di cui, a priori, ci si è convinti. Questa volta avrei tramato con Boschi per nascondere agli Aquilani la verità. Su cosa? Sulla possibilità che altre scosse forti colpissero L’Aquila. Ma guarda! Ma pensa te che congiura! Cosa avrei nascosto? Basta sfogliare la rassegna stampa di quei giorni successivi al 6 Aprile per trovare riferimenti continui, anche su Repubblica, al persistere del rischio di altre scosse. È certo che in una zona sismica la impossibilità di previsione su data, luogo e ora di un sisma vale per la prima scossa e per le scosse successive. È molto probabile che una scossa anche forte non sia isolata. La storia ci insegna che i terremoti hanno comportamenti imprevedibili. Ad Assisi fu una seconda scossa a fare vittime nella Basilica di San Francesco facendo crollare la vela della volta. In Friuli, a distanza di mesi, fu necessario ricominciare da capo il lavoro di ritorno alla normalità perché un’altra scossa di pari intensità colpì la stessa zona. In Emilia, di recente, è stata la seconda scossa a fare vittime a seguito dei crolli dei capannoni, non la prima. Il mio compito, il mio lavoro a L’Aquila, è stato quello di gestire una emergenza complessa ed inedita nella nostra storia, visto che era la prima volta che un capoluogo di regione era distrutto ed era azzerata – azzerata, niente di meno – l’operatività delle Istituzioni e degli Enti locali coinvolti; di soccorrere le vittime, di monitorare il territorio e valutare in diretta le soglie di rischio createsi dopo il sisma del 6 Aprile ed agire di conseguenza; informare direttamente la popolazione su cosa stava accadendo e su cosa poteva succedere. L’ho fatto stando a L’Aquila, lavorando giorno e notte, sentendo di persona tutte le scosse seguite a quella del 6 Aprile, insieme agli Aquilani ormai messi in sicurezza e con le migliaia di soccorritori giunti da ogni parte d’Italia per aiutarli, ben consapevoli dei rischi che correvano per questa loro generosa indispensabile attività, con i quali ogni giorno abbiamo condiviso ogni informazione utile al nostro lavoro e alla sicurezza di tutti. Se Boschi ha un torto, è stato quello di aver capito e condiviso il lavoro che stavo, stavamo facendo. Nella situazione concreta del 9 Aprile –  tre giorni dopo la scossa del 6 – nulla c’era da aggiungere a quanto già sapevamo e stavamo facendo e dicendo con chiarezza agli Aquilani e ai Soccorritori. Questo è confermabile, anche oggi col senno di poi, da chiunque fosse a L’Aquila in quei giorni a qualsiasi titolo. Non ho mai avuto bisogno di imporre niente agli scienziati – scrive Guido Bertolaso – che collaboravano con noi, tutte persone serie in grado di prestare la loro opera, anche sul campo, insieme ai Soccorritori, senza perdere alcuna dignità e senza prostituirsi ad esigenze di “tranquillità” (?) del Governo”. Ma, allora, l’Italia è preparata ad affrontare seriamente i rischi sismici e vulcanici? Viviamo su una delle aree sismiche più pericolose in Europa e nel Mediterraneo. Il terremoto dell’Emilia Romagna docet. “Gli edifici storici sono una cosa. Ma è inaccettabile che le costruzioni moderne come magazzini e capannoni industriali siano crollati in un terremoto che era forte, ma non eccezionale – afferma Stefano Gresta, Presidente dell’Istituto Nazionale di Geofisica e Vulcanologia (Ingv) – il terremoto di L’Aquila che ha ucciso 309 persone il 6 Aprile 2009 ha raggiunto magnitudo 6.3. Fino al 2003 la regione intorno all’epicentro del sisma tra le città di Modena e Ferrara, non era nemmeno inclusa nella mappa ufficiale del rischio sismico! Nel 2003 sismologi introdussero una nuova mappa di pericolosità sismica in tutta Italia, e la zona del terremoto emiliano fu riclassificata come una a medio rischio.
La Mappa attuale, compilata dagli scienziati dell’Ingv, è considerata tra i più precise al mondo e costituisce la base di una legge del 2006 che impone standard di costruzione variabili sulla base del livello di rischio di ciascuna zona. Quando si rispettano le leggi esistenti, le abitazioni non crollano. Ma l’applicazione di tali norme si trascina da anni a causa degli elevati investimenti (non costi) necessari per ottenere una loro totale esecuzione, fino al punto che le persone nelle amministrazioni locali spesse volte vengono formalmente autorizzate ad aggirarle! Dopo il terremoto di L’Aquila, le norme per i nuovi edifici sono diventate più severe, Ma la maggior parte patrimonio edilizio italiano è talmente obsoleto da richiedere investimenti aggiuntivi molto più importanti e concreti per la loro totale messa in sicurezza. La politica dorme. La scusa più tipica è quella delle piccole imprese che non potrebbero permetterselo! Questo è motivo di scandalo per tutti i cittadini italiani. Un Governo politico dovrebbe introdurre incentivi finanziari ed esenzioni fiscali per garantire la messa in sicurezza delle case degli Italiani. Basta imporlo per legge e funzionerà come in tutti i Paesi civili del mondo. La cosa più allarmante, secondo i ricercatori, è che un terremoto relativamente modesto (di magnitudo 5.5), in Italia probabile in ogni città, potrebbe uccidere migliaia di persone, annullando le nostre ricchezze storiche, artistiche e culturali d’Italia. Un terremoto molto più forte nelle regioni meridionali del Belpaese, se combinato alla maggiore pericolosità sismica ed al più basso rispetto delle più elementari norme di costruzione, potrebbe rivelarsi molto più devastante. Il rischio più elevato è in Calabria, la regione più meridionale del continente europeo, e in Sicilia. Nel 1908, le città di Messina e Reggio Calabria, sui lati opposti dello stretto tra la Calabria e la Sicilia, furono distrutte da un devastante terremoto, con annessi tsunami, di magnitudo 7,2. Uno dei più violenti della storia d’Europa. Se accadesse di nuovo, le vittime potrebbero superare le decine di migliaia di morti. Il problema principale non sarebbe costituito dai più antichi edifici che sono stati costruiti negli anni 1920-30, a seguito della tragedia e delle più rigide norme antisismiche, bensì dalle abitazioni del Dopoguerra completamente fuori controllo e regolamentazione a causa della corruzione dilagante e delle costruzioni abusive. Eventi così energetici sono comuni sulla Terra. Alcuni giorni fa un sisma di magnitudo 7,7 ha colpito al largo della costa occidentale del Canada,  innescando una serie di allarmi-tsunami per il Pacifico ed alcune evacuazioni costiere nelle Isole Hawaii. Anche se il terremoto era abbastanza grande – il più grande del Canada negli ultimi 60 anni – ha prodotto solo onde di circa un metro a Hilo (Hawaii) e meno di circa 0,3 metri lungo le coste della California e  della British Columbia. Il sisma si è originato sulla Queen Charlotte, a poche centinaia di chilometri a ovest della terraferma, la zona che fu anche responsabile di un terremoto di magnitudo 8,1 nel 1949. Nell’area si producono principalmente movimenti orizzontali delle placche tettoniche piuttosto che movimenti verticali di grandi dimensioni responsabili di solito della dislocazione di enormi masse d’acqua oceanica in grado di generare tsunami di grandi dimensioni. Il Pacific Tsunami Warning Center emette regolarmente Bollettini ufficiali a meno di dieci minuti dopo eventi sismici simili. Di solito per rassicurare sul fatto che “una minaccia diffusa per uno tsunami distruttivo non esiste sulla base dei dati storici”. Tuttavia i pericoli più importanti su base intercontinentale, anche per il Mediterraneo, possono derivare dalle improvvise e pericolosissime frane che in futuro potrebbero abbattersi sull’oceano (per il collasso delle ceneri vulcaniche, Isole Azzorre) e dalle inevitabili inondazioni costiere innescate da una serie di tsunami distruttivi. Alle Hawaii suonano le sirene! Vengono chiuse spiagge e porti. Nel Mediterraneo saremmo impreparati.
Nel 1946 un terremoto di magnitudo 7,1 nelle Isole Aleutine allagò Hilo uccidendo più di 150 persone e provocando 26 milioni di dollari di danni. La ricerca italiana deve scegliere da che parte stare. “La Dichiarazione di Berlino è una eccellente iniziativa che condividiamo proprio perché delinea un percorso – afferma il Presidente Gresta – che nel nostro piccolo l’Ingv aveva già avviato fin dal 2005 con EarthPrints è uno strumento per la rapida diffusione dei risultati di ricerche scientifiche appena pubblicate”. Certamente i rapporti fra la scienza, la politica, l’economia e la giustizia sulla delicata questione di chi (come?) debba fare Comunicazione del Rrischio, sono ben lungi dall’armistizio. Stiamo forse vivendo un periodo di emergenza terremoti? Con una media di 1000 morti all’anno in Italia dall’Unità a oggi e di 80.000 morti all’anno nel mondo negli ultimi dieci anni, i terremoti sono il più sanguinoso fenomeno geologico su scala globale. In realtà, questi valori medi sono il risultato di pochi eventi catastrofici che tendono a ripetersi in sequenze temporalmente ravvicinate: per esempio il terremoto di Messina e Reggio Calabria del 1908 e quello di Avezzano del 1915 sono stati responsabili, da soli, di 100.000-120.000 vittime. In Italia, con una media di un terremoto catastrofico ogni dieci anni dall’Unità a oggi, abbiamo da sempre convissuto con i terremoti. Il bilancio a scala globale dovrebbe peggiorare nel XXI secolo, non per un incremento del numero di grandi terremoti per decade, ma per il continuo aumento della popolazione mondiale, spesso sita in località vulnerabili da eventi sismici. Oggi la maggior parte delle persone vive lungo le coste. Benché l’ultimo decennio sia stato funestato da eventi distruttivi, gli scienziati non hanno dati statisticamente significativi che mostrino un incremento dell’attività sismica su scala mondiale. Purtroppo, alcuni degli eventi medio-grandi (terremoto di magnitudo M 7.1 di Van 2011, Turchia, 604 vittime) e giganteschi (il terremoto M 9.0 del Giappone 2011, 20.000 tra morti e dispersi) hanno devastato aree densamente abitate ed avuto grande risalto nei mass media. Avete mai sentito parlare del terremoto di magnitude 7.1 che ha colpito la Papua Nuova Guinea il 14 Dicembre del 2011? Eppure di terremoti così grandi ne abbiamo almeno uno al mese sulla Terra, e uno medio-grande come quello di L’Aquila 2006  (Mw=6.3) ogni tre giorni. Dunque, secondo gli scienziati, alla vigilia del 21 Dicembre 2012, non stiamo vivendo un momento di particolare emergenza terremoti. Ma cosa sappiamo sui terremoti? I terremoti mortali per l’uomo “nascono” tra i 6 km e i 30 km di profondità: trattandosi di un fenomeno che avviene a diversi chilometri di profondità, la sismologia, che studia i terremoti mediante l’interpretazione delle onde sismiche, la fa da padrona. La sismologia quantitativa è una disciplina modernissima: nasce con l’installazione dei primi sismometri nella seconda metà dell’Ottocento. Grazie soprattutto al contributo di studiosi giapponesi e statunitensi, furono localizzati (ipocentri) e quantificata l’energia sismica (M= magnitudo) irradiata dai terremoti. In questo modo, le antiche “leggi” di sopravvivenza dei nostri antenati calabresi ed abruzzesi (“se la terra trema, stai fuori di casa almeno tre giorni”) trovarono un riscontro quantitativo. In primis perché i terremoti sono ravvicinati nello spazio e nel tempo (clusterizzazione). Poi in quanto un evento grande è seguito da numerosi eventi minori (repliche) che decadono rapidamente nel tempo (la legge di Omori). Inoltre per un dato evento di magnitudo X, esistono circa 10 eventi di magnitudo X-1 (le legge di Gutenberg-Richter). Senza contare che il numero di repliche aumenta esponenzialmente con la magnitudo dell’evento principale (la legge di Utsu). Considerato che, in alcuni casi, eventi grandi sono preceduti da eventi minori. Queste osservazioni sperimentali suggeriscono che i terremoti “dialogano” in qualche modo tra di loro, anche se il linguaggio è ancora tutto da scoprire e studiare. Infatti, la sismologia analizza un terremoto come il nostro udito studia il motore di un’auto: ascoltando il rombo del motore, siamo in grado di stabilire approssimativamente la cilindrata del motore (la magnitudo) e di localizzare l’auto (l’ipocentro), ma non possiamo “vedere”come funziona il motore (la faglia). Benché siano stati compiuti sforzi significativi negli ultimi 40 anni (esperimenti di laboratorio che riproducono le condizioni che portano alla enucleazione e alla propagazione di rotture sismiche, studi di terreno di faglie oggi esposte in superficie ma un tempo attive a chilometri di profondità che consentono di quantificare la struttura del motore dei terremoti), le conoscenze sulla fisica dei terremoti sono ancora limitate. Il modello dominante di enucleazione di un terremoto rimane quello del rimbalzo elastico proposto da Harry Reid dopo il terremoto di San Francisco del 1906. Nella versione moderna del modello, il moto relativo delle placche terrestri carica progressivamente le rocce della crosta come delle gigantesche molle. Quando le rocce non sono più in grado di sostenere queste spinte, esse si rompono lungo delle superfici chiamate faglie e l’energia elastica caricata dalle rocce nell’arco di centinaia di anni viene rilasciata in pochi secondi attraverso l’emissione di onde elastiche: il terremoto. Le onde sono emesse sia durante la propagazione della rottura, che avviene a chilometri al secondo, sia durante lo sfregamento delle masse roccia, che avviene a velocità di qualche metro al secondo. Come ordine di grandezza, la faglia responsabile del terremoto di L’Aquila del 6 Aprile 2009 (Mw=6.3) è lunga circa 20-25 km e ha un’area di circa 240 km2; la faglia del terremoto di Sumatra del 26 Dicembre 2004 (M 9.4) è lunga circa 800 km e copre un’area di quasi 200.000 km2. Poiché passando da un grado a quello successivo nelle scale di magnitudo l’energia liberata in onde sismiche aumenta di circa 30 volte, il terremoto di Sumatra è stato 27.000 volte più energetico di quello di L’Aquila. Rimangono molte domande che il modello del rimbalzo elastico non soddisfa: perché, ad esempio, se gli esperimenti di laboratorio mostrano che il meccanismo di enucleazione di un terremoto è circa lo stesso, alcune rotture si propagano per poche decine o centinaia di metri (M=1) mentre altre diventano dei grandi terremoti distruttivi (M=9)? Occorre rispondere a questo genere di domande per prevedere un terremoto catastrofico. I “profeti” mediatici non sanno farlo. Cosa vuol dire “prevedere” un terremoto? Intanto, occorre distinguere tra previsione deterministica del luogo (coordinate geografiche), data (ora, giorno, anno) e dimensione (magnitudo) del terremoto, dalla previsione probabilistica (con probabilità compresa tra 0 e 1, dove “zero” è un evento impossibile ed “uno” è un evento certo), o quante probabilità vi sono che un evento di una certa magnitudo colpirà una data area in un dato giorno. La differenza tra previsione deterministica e probabilistica distingue un ciarlatano da uno scienziato. Tutte le previsioni scientifiche sono di tipo probabilistico. Lo conferma la letterartura scientifica. Nel caso delle previsioni meteo “a 24 ore” l’attendibilità (“piove-non piove”) sfiora lo 0,9. Ma il “tempo” è un fenomeno i cui parametri principali (umidità, temperatura, pressione atmosferica) sono monitorati in tempo reale e su scala globale e, quindi, inseriti in una “scatola nera” (modelli matematici che simulano il comportamento dell’atmosfera tenendo conto delle leggi dei fluidi ed altri parametri) che produce una previsione. La previsione può essere verificata il giorno successivo: se non è corretta, si può agire sulla scatola nera. Senza condannare nessuno. I terremoti distruttivi per l’uomo nascono a una decina di chilometri di profondità, dove oggi non è consentito misurare i parametri fisici (temperatura, energia di deformazione elastica accumulata e proprietà frizionali delle rocce) che controllano l’enucleazione di un terremoto. Inoltre, i terremoti grandi rompono faglie di centinaia di chilometri quadrati ma “nascono” da aree di faglia poco più grandi delle nostre scrivanie. Che dati inserire nella scatola nera che produce le previsioni di un terremoto? E, anche se gli sceinziati avessero una scatola nera così miracolosa, i terremoti distruttivi come quello di L’Aquila 2009 si ripetono ogni 250-500 anni. Come verificare la bontà della previsione? Benché le conoscenze sulla fisica dei terremoti stiano notevolmente incrementando, i ricercatori non hanno oggi un metodo robusto per prevedere i terremoti nel breve termine e con un’elevata probabilità. Non esistono segnali precursori (emissioni di Radon, sciami sismici, deformazioni del suolo, scariche elettriche) affidabili. Per questa ragione in Italia si è optato per una più logica Carta della Pericolosità Sismica che si basa prevalentemente sulla Storia degli eventi passati: la Carta indica l’accelerazione di riferimento che nel 90 per cento dei casi non verrà superata in un periodo prefissato di 50 anni, in condizioni ottimali di risposta locale del terreno (roccia). La Carta è costruita impiegando il Catalogo dei terremoti storici italiani, il catalogo dei terremoti strumentali, un modello di zonazione sismotettonica che rappresenta la frequenza/magnitudo degli eventi, e le proprietà di trasmissione delle onde nelle rocce. Il Catalogo dei terremoti storici italiano, il più completo al mondo, sfrutta la lunga tradizione scritta del nostro Paese ed è uno straordinario esempio delle potenzialità di simbiosi tra discipline umanistiche e scientifiche: è il risultato di un certosino studio di antichi documenti conservati in monasteri, chiese, biblioteche, osservatori astronomici, dove erano registrati eventi interpretabili come causati da terremoti. Secondo la Carta, ad esempio, L’Aquila si trova nelle zone a più alta pericolosità d’Italia. Poiché i tempi di ritorno di un evento distruttivo per L’Aquila sono di circa 250-500 anni (l’ultimo evento distruttivo era stato registrato nel 1703) la probabilità di avere un evento distruttivo in un dato giorno, per esempio il 6 Aprile 2009, era di circa lo 0.00001 = 1 / (365 giorni per 300 anni). In altre parole, la Carta non prevedeva “deterministicamente” quando, ma, sempre probabilisticamente, luogo e magnitudo. La Carta è di riferimento per la classificazione sismica di un comune e, di conseguenza, per Legge, impone vincoli sulle caratteristiche costruttive degli edifici la cui rigorosa applicazione ridurrebbe al minimo le perdite di vite umane. In realtà, per le scarse conoscenze che gli scienziati hanno della fisica dei terremoti, per le possibili lacune nei cataloghi storici e per i lunghi tempi di ritorno dei terremoti, la Carta non è necessariamente “robusta”. In altre parole, non dovrebbe stupire che in futuro in alcune aree si potrebbero misurare accelerazioni al suolo anche molto più elevate da quanto previsto dalla Carta: come sembra essere stato il caso della sequenza Emiliana del 2012, anche tenendo conto della particolare geologia del sottosuolo dell’area che comprende uno spesso materasso alluvionale. Carte simili sono state redatte anche in altri Paesi dove hanno mostrato i loro attuali limiti. In Giappone, ad esempio, il gigantesco terremoto di M=9.0 del 2011 di Tohoku ha interessato un’area dove la magnitudo massima stimata era M=8.0: l’energia sismica irradiata è stata da 10 a 30 volte maggiore (e la faglia responsabile del terremoto grande circa il doppio) di quanto previsto. Questa discrepanza ha aperto un ampio dibattito nella comunità scientifica sulla validità di questi modelli a lungo termine. Naturalmente, nonostante questa forte discrepanza, i sismologi non sono stati processati e condannati in Giappone! Inoltre, questo tipo di carte non considera aspetti geologici locali di amplificazione delle onde. E, soprattutto, non considera alcuni aspetti caratteristici dei terremoti, come la loro tendenza a “clusterizzare” in brevi periodi. Quest’ultima proprietà aumenta di molto la probabilità di un evento sismico. Uno studio del 2011, successivo al terremoto di L’Aquila, dei sismi registrati in Italia negli ultimi sessant’anni indica che un terremoto di M > 4 ha circa l’1% di probabilità di essere seguito da un terremoto di magnitudo più grande in un raggio di 10 km dall’epicentro nelle 72 ore successive. Nel caso del terremoto M 6.3 dell’Aquila del 6 Aprile 2009 delle ore 3:32 AM, essendo stato preceduto alle 22:48 del 5 Aprile da un evento M=4, esisteva una probabilità pari all’1% di avere un terremoto come quello che ha colpito la città poche ore dopo. In altre parole, la pericolosità calcolata sul lungo termine non è costante nel tempo: possono esserci importanti variazioni nell’arco di giorni, settimane e mesi quando  vi è uno sciame sismico in atto. Un incremento di probabilità da 0.00001 a 0.01 è un aumento significativo (tre ordini di grandezza) da un punto di vista “scientifico”, ma numeri così piccoli evidenziano la difficoltà di comunicare la pericolosità di un evento alla popolazione e ai decision makers, cioè ai politici. Che cosa significa che la probabilità di un evento aumenta da 0.00001 a 0.01? Può il Sindaco ordinare l’evacuazione di una città perché vi è una probabilità su cento che nei prossimi tre giorni vi sarà un terremoto? E se il terremoto, come probabile al 99%, non arriva, quanto dovrà durare l’evacuazione? Chi coprirà i costi delle giornate lavorative perse?  Chi si assumerà le responsabilità di un eventuale incidente, per esempio automobilistico, durante le fasi di evacuazione? Occorre confrontare i costi economici e sociali dell’evacuazione di una città con quello delle eventuali perdite in caso di mancata evacuazione. Questo comporta anche una valutazione del numero di potenziali vittime e del costo di una vita umana. Anche se “non ha prezzo”, le società di assicurazione attribuiscono un “prezzo” alle nostre vite sulla base del nostro stato di salute. Se moltiplichiamo i costi delle potenziali “perdite” per la probabilità di un evento e li confrontiamo con i costi di evacuazione, è possibile prendere una decisione? È evidente che occorrono delle rigorose normative preparate “in tempo di pace” (lontano dall’emergenza!) e fondate su un’analisi razionale costi/benefici, cui affidarsi per prendere decisioni politiche e giuridiche che si basano su probabilità estremamente basse di realizzazione di un evento. Nei giorni del terremoto di L’Aquila, in Versilia gli alberghieri stavano procedendo con un’azione legale nei confronti dei metereologi che, avendo stilato bollettini meteo che prevedevano pioggia quando il weekend era stato soleggiato, avevano indotto numerosi turisti a cancellare le prenotazioni negli alberghi! Il terremoto di L’Aquila del 6 Aprile è stato preceduto da una sequenza sismica di circa sei mesi, tra cui l’evento M=4.1 del 30 Marzo 2009 cui fece seguito la Riunione della Commissione Grandi Rischi del 31 Marzo 2009. La riunione fu tenuta nella città di L’Aquila in un clima di tensione, sia per una popolazione sottoposta alla snervante crisi sismica, sia per le voci di previsione (deterministica) di un grande terremoto ad opera dei mass-media che avevano “interpretato” le ricerche di un privato cittadino. Le “previsioni” basate su misure di emissione di Radon, ancora oggi, secondo la Scienza ufficiale, non avrebbero trovato alcun riscontro sia pratico (le “previsioni” si sono mostrate errate sia nel tempo sia nel luogo) sia scientifico. Nessuno dei dati finora raccolti dai ricercatori privati è stato pubblicato su una rivista scientifica e i loro dati, analizzati da una commissione di esperti internazionali, si sono mostrati non utilizzabili per prevedere un terremoto. Questo non dovrebbe sorprendere: studi rigorosi condotti negli ultimi quarant’anni hanno mostrato la non affidabilità del Radon come precursore. Alla Grandi Rischi parteciparono sei scienziati: quattro sismologi, Enzo Boschi e Giulio Selvaggi (dell’Istituto Nazionale di Geofisica e Vulcanologia, l’ente preposto al monitoraggio dell’attività sismica sul territorio nazionale), Mauro Dolce (della Protezione Civile), Claudio Eva (dell’Univ. di Genova), il vulcanologo Franco Barberi (dell’Univ. di Roma Tre) e gli ingegneri Gian Michele Calvi (dell’European Centre di Ingegneria Sismica di Pavia) e Bernardo De Bernardinis (Vice Capo della Protezione Civile). La riunione durò meno di un’ora e il verbale fu firmato la mattina del 6 Aprile. A terremoto avvenuto. Il 31 Marzo, prima della riunione, il vice-direttore della Protezione Civile, l’Ing. De Bernardinis, avrebbe affermato in un’intervista televisiva che L’Aquila non correva pericolo alcuno perché i “numerosi piccoli terremoti stavano scaricando l’energia elastica accumulata nei secoli passati”. La prima regola di comunicazione e buon senso, è che non è possibile smentire voci scientificamente infondate (le previsioni deterministiche a sfondo “privato”) con affermazioni altrettanto scientificamente infondate (le dichiarazioni sullo “scaricamento” dell’energia elastica sono giudicate dagli scienziati inconsistenti con cento anni di studi di sismologia quantitativa i cui risultati sono il fondamento della previsione probabilistica di un terremoto). Queste affermazioni inesatte non furono contestate da specialisti (forse anche perché non ne erano a conoscenza) nei giorni che precedettero l’evento del 6 Aprile 2009 e, a detta dei parenti di 29 vittime del terremoto, avrebbero influenzato le loro decisioni: non abbandonare l’abitazione dopo l’evento di M=4.0 delle 22:48 del 5 Aprile. Il processo ha fatto gridare parte della comunità scientifica ad un nuovo caso Galilei. Il 22 Ottobre 2012 sono stati condannati a sei anni di carcere per omicidio colposo. L’accusa, come affermato dal PM Fabio Picuti nell’Udienza Preliminare del Luglio 2010, non è di non aver previsto il terremoto (e di non aver richiesto di far evacuare la città), come inizialmente interpretato dalla comunità scientifica, ma di aver fornito alla popolazione informazioni lacunose e contraddittorie sulla crisi sismica e di non aver comunicato in maniera esaustiva alla popolazione come comportarsi durante la crisi. Benché la posizione di alcuni degli scienziati coinvolti sia diversa (vedi il caso di Giulio Selvaggi che non faceva parte della Commissione Grandi Rischi e fu convocato in maniera ufficiosa per riassumere lo stato della crisi sismica) o il fatto che, secondo la Legge, è il Dipartimento della Protezione Civile che sulla base del parere degli esperti, prende delle decisioni sul tipo di azioni da portare alla popolazione, la situazione è alquanto intricata. A difesa dei sismologi si può affermare che il terremoto era stato previsto probabilisticamente (quindi non nel giorno), che se le case di L’Aquila e dintorni fossero stare sufficientemente robuste da resistere alle sollecitazioni previste per Legge, forse non ci sarebbero state vittime e che, in ogni caso, è la Protezione Civile l’Ente ufficiale preposto all’azione nei confronti della popolazione. La severa condanna agli imputati lascia però gli scienziati del mondo estremamente perplessi. Sfortunatamente, il processo, almeno sfogliando la Requisitoria del Settembre 2012, non è riuscito a fare chiarezza su molti aspetti, per esempio i rapporti tra Istituto Nazionale di Geofisica e Vulcanologia e Protezione Civile (all’epoca, l’Ingv aveva almeno 450 precari il cui stipendio era pagato in parte su progetti finanziati dalla Protezione Civile), sul perché il verbale della riunione della Commissione Grandi Rischi del 31 Marzo 2009 sia stato firmato dopo il terremoto del 6 Aprile 2009. Molti di questi “perché” potrebbero non avere nulla a che fare con i terremoti, con il concetto di Rischio, di Comunicazione e con la Scienza ufficiale. Potrebbero, invece, avere a che fare più prosaicamente con questioni tipicamente “italiane” che ricordano in parte il caso della diga e della frana del Vaiont (Ottobre 1963, 2000 vittime). La sentenza sembra essere, ma occorre leggere ancora le Motivazioni della condanna, ingiusta. Il concetto di “responsabilità collettiva” invocato dal PM Picuti nei confronti degli imputati potrebbe non reggere così efficacemente ad un elementare processo logico, almeno per un comune cittadino buon padre di famiglia. Se l’accusa è che delle persone hanno preso una decisione (restare o non restare in casa) sulla base di informazioni ricevute dai mass-media, sono coloro che hanno rilasciato quelle interviste che rispondono di queste informazioni. L’affermazione poi che tutti i componenti della Commissione Grandi Rischi potevano essere al corrente di quanto affermato da uno di loro perché l’intervista era stata trasmessa su di un canale nazionale (telegiornali TG1 e TG5) è altrettanto illogica: nessuno (per fortuna non viviamo ancora nel paese di Orwell) è tenuto ad ascoltare un particolare telegiornale. L’altra imputazione, come si legge nella Requisitoria del Settembre 2012, di “grave deficit comunicativo, grave deficit informativo, la grave sottovalutazione del rischio in capo agli imputati…”, potrebbe risultare molto pericolosa. Se è facile distinguere un’informazione esatta (scientificamente corretta e rigorosa) da una errata, è forse impossibile affermare quando l’informazione sarà completa, soprattutto a posteriori e quando l’informazione riguarda eventi a bassa probabilità di accadimento. Specie considerato che, nei fatti, a molti degli interlocutori politici e al comune cittadino spesso sfugge il concetto di probabilità matematica! Anche se poi tutti giocano al Super Enalotto consapevoli di far vincere il Banco! In ogni caso, come dichiarato dal sismologo Tom Jordan, direttore del Southern California Earthquake Center preposto al monitoraggio della Faglia di San Andreas, prima della sentenza di condanna, il processo segna uno spartiacque: costringerà i sismologi di tutto il mondo a rivedere il modo con cui comunicare la probabilità di eventi disastrosi con bassissime percentuali di accadimento e come rapportarsi con i mass-media. La comunità scientifica deve avere la massima trasparenza e comunicare nella maniera più chiara possibile messaggi non contraddittori. Nei giorni precedenti e successivi al terremoto di L’Aquila, ricercatori e professionisti, a volte con scarsa competenza in fatto di terremoti e impreparati a gestire le domande di un giornalista, avrebbero creato ulteriore confusione che nelle carte processuali meriterebbe altrettanta considerazione ed attenta valutazione. Secondo alcuni scienziati di fama mondiale avremmo assistito alla Caporetto della Comunicazione Scientifica con una grave perdita di fiducia da parte del cittadino nei confronti della Scienza. Può essere ma l’analisi appare riduttiva. Per affrontare situazioni di questo tipo che inevitabilmente si ripeteranno (Vesuvio, Stretto di Messina, Avezzano-Sulmona) è indispensabile una regia e un soggetto di riferimento attualmente assenti nella comunità scientifica italiana. La FEMA docet. Ma è altrettanto vero che il problema di comunicazione è biunivoco. Diversi giornali e uomini politici nei giorni successivi al terremoto di L’Aquila proclamarono troppo facilmente “eroe inascoltato” chi avrebbe previsto la catastrofe imminente del terremoto, dispensando lodi e celebrazioni che negli atti processuali meriterebbero una parsimoniosa analisi onde fugare ogni ragionevole dubbio per la sentenza! È necessario, altresì, che gli interlocutori politici, i giornalisti e la popolazione sappiano selezionare le fonti, conoscere i rudimenti del metodo scientifico e, in futuro, indirizzare i decision-makers e le Istituzioni in grado di assumere responsabilmente le decisioni sulla base di previsioni con bassissima probabilità di accadimento. L’alluvione del Novembre 2011 di Genova insegna che in Italia (e non solo, basti pensare alla gestione dell’uragano Katrina che infierì lungo la costa meridionale degli USA allagando New Orleans) anche nel caso di previsioni ad elevata probabilità di accadimento, i decision makers sono impreparati nel gestire queste informazioni. Altro che emergenza, pre-allerta e pre-allarme da impatto cosmico! Fortunatamente, grazie a DIO, i terremoti hanno tempi di ritorno lunghi in Italia (da 250 a 1000 e più anni) ma questo ci si ritorce contro perché dimentichiamo in fretta le tragedie. È compito dei mass-media, debitamente informati, ricordare che il nostro è un Paese sismico. L’Ingv e molte scuole pubbliche organizzano regolarmente corsi su come occorra agire prima (per esempio, fissare i mobili alle pareti) e durante un terremoto (rifugiarsi sotto le travi portanti o un tavolo), semplici regole di comportamento che possono salvare vite umane. Nei giorni antecedenti al terremoto di L’Aquila, il Governo proponeva il piano di ampliamento del 25% delle abitazioni come stimolo alla stagnante economia. Non ci fu un solo parlamentare della maggioranza di centro-destra che avesse ricordato che sarebbe stato più saggio spendere quei soldi per rinforzare le nostre scuole ed abitazioni, senza contare i soldi spesi a L’Aquila per opere faraoniche come la tram-via. Altro che Lisbona e San Francisco! Esiste un’emergenza di Comunicazione che è il lontano riflesso di una più accecante emergenza culturale e scientifica. Naturalmente non è colpa della Chiesa Cattolica come sostengono i non-cristiani. Quella clamorosa sentenza ha scosso il nostro Paese ed ha rapidamente guadagnato la ribalta delle cronache internazionali sollevando sorpresa e profonde perplessità. Ben altre “rassicurazioni” politiche meriterebbero un processo ad hoc perché hanno sicuramente favorito (e favoriranno) negli anni comportamenti non adeguati ad affrontare tutti i terremoti distruttivi che tragicamente hanno presentato (e presenteranno) il conto. Da sempre l’opinione pubblica è informata sulla impossibilità di prevedere i terremoti in base alle attuali conoscenze scientifiche. Un poco meno è consapevole che per ragioni analoghe la scienza non sa oggi prevedere l’assenza di un terremoto, ossia essere in grado di stabilire con certezza che un evento sismico di particolare rilevanza “non” avvenga. Queste due previsioni non sono tra loro necessariamente implicate: pur non essendo in grado di prevedere che un terremoto avvenga, si potrebbe essere invece in grado di prevedere che un terremoto non avvenga. Ma nella realtà scientifica attuale, non è possibile, con certezza, fare nessuna delle due previsioni: nè che un sisma ci sarà, nè che esso non ci sarà. Messa in questo modo L’Aquila, l’Emilia e il resto del mondo sembrerebbero vittima di un tragico equivoco o scherzo del destino: una comunicazione superficiale, mediata da soggetti terzi di un’informazione giornalistica mediocre non immediatamente riscontrabile nella cultura diffusa, può rappresentare per i giudici un elemento sufficiente per condannare. Tanto più che la fonte di quella comunicazione rappresenta la Massima Autorità del Paese in ordine a questo tipo di conoscenze. La riflessione critica va, quindi, spostata sul piano della Comunicazione delle acquisizioni scientifiche e sul ruolo che gli scienziati possono e devono svolgere al servizio del Paese. Alcuni articoli scandalistisci finora pubblicati indicano come sul piano della comunicazione della scienza possano trovarsi a confliggere scopi ideologici di natura e strumentalità molto diverse tra loro. Volendo esclusivamente prendere in considerazione scopi legittimi implicati nella vicenda, ma alcuni servizi giornalistici sembrano portare alla luce un quadro ben più complesso, si potrebbe sostenere che l’obiettivo principale della Commissione Grandi Rischi sarebbe di fornire informazioni il più possibile coerenti con le reali previsioni che la scienza è in grado di fare sugli eventi sismici. La Protezione Civile, per conto suo, avrebbe l’obiettivo di mantenere il giusto equilibrio tra: assicurare la prontezza della popolazione nel rispondere agli eventuali allerta e i rischi di allarme non giustificato che coinvolgerebbero altri problemi di sicurezza della popolazione medesima. La comunicazione risultante dovrebbe quindi tener conto di, almeno, questi due fattori. In ogni caso gli scienziati, essendo consapevoli delle informazioni sostanziali in loro possesso hanno la responsabilità morale, nel caso in cui quelle informazioni venissero distorte, di dover fare tutto quanto è possibile per recuperare la verità da quelle distorsioni. È evidente che affinché questo possa avvenire, i poteri degli organismi collaboranti (Commissione Grandi Rischi e Protezione Civile nel caso in oggetto) devono avere piena indipendenza ed autonomia nel giudizio per avere modo di salvaguardare quel giudizio nell’uso che se ne fa anche, eventualmente, nei confronti della controparte istituzionale. Ben più gravi responsabilità sono imputabili politicamente e culturalmente su chi ha reso possibile lo sfacelo italiano ed abruzzese nei decenni speculando sui fattori costruttivi, sulla pianificazione, sull’inadeguatezza dei materiali utilizzati nelle edificazioni e nella realizzazione delle vie di comunicazione, rendendo un terremoto con energia limitata un evento di distruzione e di morte senza eguali nel mondo. Ciononostante, la riflessione sulla resposabilità degli scienziati riguardo alla comunicazione delle conoscenze scientifiche è certamente un tema su cui riflettere e sarà tanto più significativo considerando gli impatti che la scienza e la tecnologia, pubblica e privata, avranno in modo sempre più crescente nel futuro. L’integrità della scienza e della giurisprudenza e il ruolo degli scienziati e del giornalismo scientifico, si valorizza attraverso la loro immagine nella società. Tanto più quell’immagine darà conto del reale beneficio che la scienza è in grado di produrre per l’umanità, tanto più la società saprà attribuirle quella funzione fondamentale. Che oggi la politica politicante non è neppure in grado di riconoscere! In relazione alla condanna inflitta ai membri della Commissione Grandi Rischi dal Tribunale di L’Aquila, il mondo della scienza esprime la sua solidarietà ai ricercatori. Per alcuni questa condanna dei membri della Commissione Grandi rischi, accusati di omicidio plurimo, può spiegarsi soltanto come la volontà di identificare un capro espiatorio per i morti del terremoto. È, dunque, con un senso di profondo disagio che si assiste all’ennesima supplenza, se non indebita almeno inadeguata, nei confronti di prassi che andrebbero discusse e regolate in sedi politiche ed istituzionali, scientifiche e in un libero dibattito fra scienziati e cittadini. Non in Tribunale. Il mondo oggi ride dell’Italia. È un fatto. Il terremoto di L’Aquila ha cause naturali imprevedibili che non possono essere addebitate a nessun scienziato. Le conseguenze in termini di perdite umane certo dipendono anche da comportamenti politici e da un radicato malcostume che accompagnano da decenni la storia del nostro Paese. L’abusivismo edilizio e l’assenza di costruzioni antisismiche hanno contribuito a trasformare un terremoto che in Giappone non avrebbe fatto vittime in un evento calamitoso, con 309 vittime. Ma ora a pagare non sono i politici che non hanno voluto e/o saputo prevedere il prevedibile. Le conoscenze scientifiche non autorizzavano alcuna previsione con un minimo di affidabilità. In queste condizioni qualsiasi decisione sul da farsi era di fatto rimessa alla scelta della Protezione Civile e degli amministratori locali. Appare paradossale il fatto che la responsabilità del mancato sgombero sia, invece, caduta sui membri della Commissione. Per cui tale condanna non fa che approfondire il solco fra scienza e società, con la conseguenza che in futuro nessuno vorrà prendersi il rischio di mettere il suo tempo al servizio della comunicazione pubblica della scienza e delle sue inevitabili incertezze. Assumono un significato straordinario le parole del Santo Padre Benedetto XVI pronunciate Giovedì 8 Novembre 2012 ai partecipanti dell’Assemblea Plenaria della Pontificia Accademia delle Scienze: “La presente sessione plenaria su «Complexity and Analogy in Science: Theoretical, Methodological and Epistemological Aspects» (Complessità e analogia nella scienza: aspetti teoretici, metodologici ed epistemologici), tocca un argomento importante che dischiude una serie di prospettive che puntano verso una nuova visione dell’unità delle scienze. Di fatto, le importanti scoperte e i progressi degli ultimi anni c’invitano a esaminare la grande analogia tra fisica e biologia che si manifesta chiaramente ogni qualvolta otteniamo una comprensione più profonda dell’ordine naturale. Se è vero che alcune delle nuove nozioni ottenute in questo modo ci possono permettere di trarre anche conclusioni sui processi del passato, questa estrapolazione mette altresì in rilievo la grande unità della natura nella complessa struttura dell’universo e il mistero del posto che l’uomo occupa in esso. La complessità e la grandezza della scienza contemporanea in tutto ciò che consente all’uomo di sapere sulla natura ha ripercussioni dirette sugli esseri umani. Solo l’uomo può ampliare costantemente la propria conoscenza della verità e ordinarla saggiamente per il bene proprio e del suo ambiente. Nei vostri dibattiti avete cercato di esaminare, da un lato, la dialettica in corso sulla costante espansione della ricerca scientifica, dei metodi e delle specializzazioni e, dall’altro, la ricerca di una visione comprensiva di questo universo in cui gli esseri umani, dotati di intelligenza e di libertà, sono chiamati a capire, amare, vivere e lavorare. Attualmente, la disponibilità di potenti strumenti di ricerca e il potenziale per compiere esperimenti altamente complessi e precisi hanno permesso alle scienze naturali di avvicinarsi alle fondamenta stesse della realtà materiale in quanto tale, pur senza riuscire a capire del tutto la sua struttura unificante e la sua unità ultima. L’infinita successione e la paziente integrazione di diverse teorie, dove i risultati ottenuti servono a loro volta come presupposto per nuove ricerche, attestano sia l’unità del processo scientifico, sia l’impeto costante degli scienziati verso una comprensione più appropriata della verità della natura e una visione più inclusiva della stessa. Possiamo pensare qui, per esempio, agli sforzi della scienza e della tecnologia per ridurre le diverse forme di energia a una forza elementare fondamentale, che ora sembra essere meglio espressa nell’emergente approccio della complessità come base per modelli esplicativi. Se questa forza fondamentale non sembra più essere tanto semplice, ciò sfida i ricercatori a elaborare una formulazione più ampia, capace di abbracciare sia i sistemi più semplici, sia quelli più complessi. Questo approccio interdisciplinare alla complessità mostra anche che le scienze non sono mondi intellettuali separati l’uno dall’altro e dalla realtà, ma piuttosto che sono collegati tra loro e volti allo studio della natura quale realtà unificata, intelligibile e armoniosa nella sua indubbia complessità. Questa visione contiene punti di contatto fecondi con la visione dell’universo adottata dalla filosofia e dalla teologia cristiane, con la nozione di essere partecipato, in cui ogni singola creatura, dotata della propria perfezione, partecipa anche a una natura specifica, e ciò all’interno di un universo ordinato che ha origine nella Parola creatrice di Dio. È proprio questa intrinseca organizzazione «logica» e «analogica» della natura a incoraggiare la ricerca scientifica e a portare la mente umana a scoprire la compartecipazione orizzontale tra esseri e la partecipazione trascendente da parte del Primo Essere. L’universo non è caos o risultato del caos, ma anzi appare sempre più chiaramente come complessità ordinata che ci permette di salire, attraverso l’analisi comparativa e l’analogia, dalla specializzazione verso un punto di vista più universalizzante e viceversa. Mentre i primi istanti del cosmo e della vita eludono ancora l’osservazione scientifica, la scienza si ritrova però a riflettere su una vasta serie di processi che rivela un ordine di costanti e corrispondenze evidenti e serve da componente essenziale della creazione permanente. È in questo contesto più ampio che vorrei osservare quanto si sia dimostrato fecondo l’uso dell’analogia nella filosofia e nella teologia, non soltanto come strumento di analisi orizzontale delle realtà della natura, ma anche come stimolo alla riflessione creativa su un piano trascendente più elevato. Proprio grazie alla nozione della creazione il pensiero cristiano ha utilizzato l’analogia non solo per investigare le realtà terrene, ma anche come mezzo per salire dall’ordine creato alla contemplazione del suo Creatore, con la dovuta considerazione per il principio secondo cui la trascendenza di Dio implica che ogni similarità con le sue creature necessariamente comporti una più grande dissimilarità: mentre la struttura della creatura è quella di essere un essere per partecipazione, quella di Dio è di essere un essere per essenza, o Esse subsistens. Nella grande impresa umana di cercare di dischiudere i misteri dell’uomo e dell’universo, sono convinto del bisogno urgente di dialogo costante e di cooperazione tra i mondi della scienza e della fede per edificare una cultura di rispetto per l’uomo, per la dignità e la libertà umana, per il futuro della nostra famiglia umana e per lo sviluppo sostenibile a lungo termine del nostro pianeta. Senza questa necessaria interazione, le grandi questioni dell’umanità lasciano l’ambito della ragione e della verità e sono abbandonate all’irrazionale, al mito o all’indifferenza, a grande detrimento dell’umanità stessa, della pace nel mondo e del nostro destino ultimo. Cari amici, nel concludere queste riflessioni, vorrei attirare la vostra attenzione sull’Anno della fede che la Chiesa sta celebrando per commemorare il cinquantesimo anniversario del concilio Vaticano II. Ringraziandovi per il contributo specifico dell’Accademia al rafforzamento del rapporto tra ragione e fede, vi assicuro del mio profondo interesse per le vostre attività e delle mie preghiere per voi e per le vostre famiglie. Su tutti voi invoco le benedizioni di Dio Onnipotente della saggezza, della gioia e della pace”. A dimostrazione del fatto che Scienza e Fede sono autentiche espressioni della libertà della ricerca della verità al servizio dell’Umanità. Ma l’attività umana può influire sull’attività sismica? Un gruppo di ricercatori dell’Istituto Nazionale di Geofisica e Vulcanologia, dell’Università dell’Ontario e dell’Istituto di Geoscienze di Madrid, ha pubblicato sulla prestigiosa rivista internazionale “Nature Geoscience”, uno studio dal titolo:“Gli effetti dello sfruttamento a lungo termine delle falde acquifere sul Terremoto di Lorca (Spagna meridionale) del Maggio 2011”.
Quest’analisi ha permesso di capire come le variazioni del campo di stress a medio-bassa profondità, indotte da attività umane, possano influenzare l’attività sismica di faglie locali con dirette conseguenze nella valutazione della pericolosità sismica. Lo studio, a cura dei ricercatori Pablo González, Kristy F. Tiampo, Mimmo Palano (Ingv), Flavio Cannavò (Ingv) e José Fernández, ha messo in evidenza la possibile relazione tra l’attività di un segmento di faglia e lo stress sugli strati di terreno circostante, indotto dal pompaggio dal 1960 ad oggi, di grandi volumi d’acqua sotterranea, a scopi irrigui, dall’esteso bacino acquifero di Alto Guadalentin, confinante con la faglia. La ricerca ha investigato in dettaglio la dinamica del terremoto di magnitudo 5.1 che ha interessato la parte meridionale della Spagna, nei pressi della città di Lorca. L’analisi dei dati di deformazione del suolo ha consentito di stabilire che il terremoto ha avuto un ipocentro a circa 2-4 Km di profondità, lungo la faglia nota in letteratura con il nome “Alhama de Murcia”. Ulteriori studi di questo tipo permetteranno una migliore quantificazione della pericolosità sismica con un possibile impatto sulla prevenzione sismica. Secondo Mimmo Palano, co-autore della ricerca “il terremoto di Lorca è stato un terremoto di origine tettonica, ma lo sfruttamento della falda acquifera da parte dell’uomo sin dal 1960 – spiega lo scienziato – ha causato una variazione del campo di stress locale, che sommandosi a quello regionale (tettonico) ha “aiutato” la faglia a generare il terremoto: considerando questi importanti risultati, ad oggi stiamo continuando la ricerca utilizzando modelli matematici più complessi e prendendo in considerazione le aree sismogenetiche per le quali esiste una ingente quantità di dati. L’Italia è una di queste”. Chiaramente nessun sismologo sa prevedere un preciso terremoto. Nessuno può dire con certezza il momento e il luogo della prossima scossa, così come nessun cardiologo sa prevedere un preciso infarto o ictus. Entrambi, sismologi e cardiologi o neurologi, dicono che ci si deve pensare prima, negli anni, e indicano le aree e le persone a rischio. L’unica via è la prevenzione: riduciamo i grassi, il fumo, gli abusi edilizi e le ruberie di danaro pubblico da parte dei mille partiti e dei movimenti politici, ma non chiedete agli scienziati se vi verrà un colpo mercoledì o giovedì prossimi. Perché non possono dirvelo. Oggi possiamo anche saltare il fritto o dormire in macchina, evacuando ospedali e città, ma domani? Chi può dirlo? Tutto si gioca sulla sottile linea rossa della distinzione tra mancata previsione e rassicurazione. L’espressione “Non possiamo dire che ci sarà un forte terremoto” viene letta come “non ci sarà un forte terremoto”. Si parla di previsione a breve termine (quella del giorno prima, quella impossibile) usando impropriamente mappe di probabilità riferite ai prossimi dieci anni ed a un’area di migliaia di chilometri quadrati. Si vorrebbero usare come prova del crimine? Si cerca di trovare il marcio: mappe occultate, rapporti di progetto secretati dagli scienziati, dagli istituti di ricerca. Come se non si sapesse, come se non fosse noto da anni, alle autorità, ai politici, ai giornalisti scientifici ed a chi è deputato a informare la popolazione, che L’Aquila era ed è una delle zone a più alta pericolosità del Belpaese. La nuova Mappa di pericolosità sismica è uscita sulla Gazzetta Ufficiale nel 2006, raro caso di trasferimento di un risultato scientifico condiviso alla società, ma non c’è bisogno della Mappa più aggiornata: l’Abruzzo è classificato sismico da quasi un secolo, dal terremoto della Marsica del 1915. Lo sanno bene alla Protezione Civile. Lo sanno bene i Sindaci, lo sanno bene i Dirigenti della Protezione Civile, lo sanno bene tutti. Anche dopo il terremoto del Molise nel 2002, quando molti bambini morirono per il crollo della scuola di San Giuliano che non doveva crollare, subito si gridò allo scandalo: gli scienziati non avrebbero classificato in tempo utile  la zona come sismica! Ecco i colpevoli! Al rogo! E dagli agli untori! Che ignoranza, che pena, che vergogna! Era il 2002, dieci anni fa, sette anni prima di L’Aquila, e ci volle poco per mostrare che esisteva da anni una proposta di nuova classificazione sismica, redatta da molti ricercatori universitari e degli enti di ricerca, che classificava quasi tutto il Molise tra le aree pericolose, e che dal 1998 giaceva da qualche parte nei cassetti del Ministero dei Lavori pubblici, in attesa di chissà che cosa. Forse del prossimo terremoto che l’avrebbe fatta approvare? Sentenza fu naturalmente ribaltata: gli scienziati furono scagionati e politica finì sotto accusa. La nuova classificazione sismica del territorio, basata su quella proposta, e le norme tecniche di costruzione antisismica, finalmente in linea con le norme europee, uscirono nel 2003, l’anno dopo il terremoto di San Giuliano. Furono subito approvate, si penserà, per evitare che le migliaia di case che si costruiscono ogni anno nelle zone sismiche del Belpaese fossero ancora una volta costruite male. No. Vennero applicate solo in misura parziale. La nuova Carta di pericolosità uscì nel 2004 con un grande impegno e una forte assunzione di responsabilità della comunità scientifica nazionale, e divenne riferimento dello Stato Italiano nel 2006. L’applicazione delle norme del 2003 venne sostanzialmente tenuta in “stand-by” e nel 2006 venne istituita un’altra commissione per farne di migliori, che uscirono nel 2008. Applicate subito, penserete, almeno ora? Ed invece, no, altro rinvio. La definitiva applicazione ha dovuto attendere un’altra tragedia, quella di L’Aquila del 6 Aprile 2009. Chiaramente in Italia ci saranno altri terremoti, altre decine di migliaia di morti, altre polemiche, altri processi. Ma la politica resterà sempre la stessa. Potrebbe succedere nella zona dove da mesi gli scienziati stanno rilevando sequenze sismiche con tanti piccoli terremoti, simili a quella aquilana prima del 6 Aprile, ma potrebbe accadere quasi ovunque. Anche sotto i vostri piedi. E ci saranno, naturalmente altri “santoni” che diranno sui media “lo avevo previsto” e cercheranno di specularci sopra, come è sempre accaduto, e oggi è ancora più facile che succeda, con Internet, sui social media, sui giornali on-line, sulle “TV-verità”. Qualche settimana fa, descrivendo la sequenza sismica in corso da oltre tre mesi nell’area del Pollino, l’Unità titolava:“La Calabria trema: 34 scosse al giorno: Qui come a L’Aquila”. Poi, 24 ore dopo,  sullo stesso giornale:“Nessun allarme: Lo sciame sismico calabrese è normale”.  Questi due titoli, considerati sbagliati per ragioni opposte, rispecchiano bene l’incertezza che accompagna ogni sequenza sismica che si manifesta sul nostro territorio. Gli scienziati cercano di fare chiarezza, per quanto si può, ma spesse volte senza ascolto. La sequenza del Pollino, di cui questi titoli parlano, è simile a quella rilevata a L’Aquila dalla fine del Dicembre 2008 al Marzo 2009. Ma altre sequenze sismiche avvenute in Italia sono state simili a quella dell’Aquila, e tutte sono finite nel niente. Anche al Pollino per ora sembra che stia andando così: tante e poche scosse ormai da mesi. Ma non si può dire che sia già finito tutto. Gli scienziati non lo sanno. Si sa che le sequenze sismiche avvengono spesso nelle regioni sismicamente attive, la maggior parte delle volte senza concludersi con una scossa significativa. In Italia se ne sono contate oltre 120 dal 2008 al 2010, e solo in un caso, quello di L’Aquila, la sequenza è stata seguita da un forte terremoto. Ma, proprio in Abruzzo, un altro studio recente ha mostrato che soltanto nel XX Secolo ci sono state 23 sequenze, otto delle quali in prossimità di L’Aquila. Nei secoli precedenti è accaduto lo stesso, come sostiene il più famoso trattato sui terremoti storici italiani (“I Terremoti d’Italia” di Mario Baratta, 1901) e come ricostruito in un recente studio dei ricercatori dell’Ingv Amato e Ciaccio (“Earthquake sequences in the last millennium in L’Aquila and surrounding regions”, Terra Nova, 2012). Viceversa, i terremoti grandi possono arrivare del tutto inattesi, senza essere preceduti da scosse di nessun tipo. Successe così per il terremoto della Marsica del 1915, come cita un sismologo dell’epoca, Alfonso Cavasino (1935) nel suo trattato su “I terremoti d’Italia nel trentacinquennio 1899-1933”. È vero, tuttavia, che alcuni forti terremoti sono stati effettivamente preceduti da sequenze sismiche. Per questo c’è chi ipotizza che i piccoli terremoti possano “accelerare” i grandi e che si potrebbe usare quello che viene definito “forecasting” probabilistico per mettere in atto azioni di riduzione del rischio subito prima di un possibile evento sismico. Questa ipotesi viene spesso ripresa anche dalla stampa. Ma va ricordato che la definizione di queste sequenze come  “foreshocks” (spesso tradotto impropriamente con “scosse premonitrici”) può essere fatta solo a posteriori. In un recente articolo di Nicola Nosengo sul terremoto a L’Aquila (“Scienziati a processo”, L’Espresso del 29/12/2011) viene espressa questa tesi, attraverso le parole di Tom Jordan, un noto sismologo americano, direttore del Southern California Earthquake Center (SCEC).  Secondo Jordan le probabilità di accadimento di un terremoto in Abruzzo il 30 marzo, dopo la scossa di magnitudo 4, erano aumentate notevolmente, arrivando a una su mille, secondo Jordan. Anzitutto ciò equivale a dire che c’era il 99,9 per cento delle probabilità che non accadesse nulla. Ma nei giorni successivi, prima del 6 Aprile, questo valore era sceso nuovamente a valori molto inferiori, dell’ordine di 1 su 10.000, a causa del diradarsi della sismicità. Va anche rilevato che in alcuni casi queste sequenze di “foreshocks” sono avvenute minuti o ore prima dell’evento forte, in altri casi settimane o addirittura mesi, e  sempre in maniera del tutto irregolare. E la faccenda cambia di molto. È evidente che nel primo caso non si ha il tempo di fare nulla, mentre negli altri casi si rischierebbe di mettere in atto azioni temporanee che verrebbero vanificate da un presunto ritorno alla normalità che non ha mai senso in un’area altamente sismica (per la serie: “la crisi è passata e non ce ne preoccupiamo più”). Nel gennaio del 1693, in Sicilia sud-orientale, dopo che un forte terremoto causò alcune centinaia di vittime tra Noto e Augusta, la popolazione rimase fuori dagli edifici per 48 ore. Trascorso questo intervallo, ritenuto sufficiente per decretare scampato il pericolo, rientrò nelle case. Fu così che la sera dell’11 Gennaio oltre 54.000 abitanti di Catania, Siracusa, Ragusa, Augusta, Noto, Modica e molti altri paesi, persero la vita sotto le macerie. Fu uno dei più grandi terremoti della nostra storia sismica che impose  la ricostruzione quasi coeva di molte città e paesi della Sicilia orientale, tanto da essere considerato l’origine del Barocco siciliano. La scossa sarebbe potuta avvenire poche ore prime, e avrebbe risparmiato migliaia di vite umane, o molti giorni dopo. Se fosse avvenuta, ad esempio, un anno dopo si potrebbe essere autorizzati a pensare che avrebbe dato ai cittadini il tempo di prepararsi, rinforzando gli edifici. O forse no, nel 1693 non si sarebbe fatto, perché il vizio italiano di scordarsi presto dello scampato pericolo è antico. Ma la cosa più grave è che forse non si farebbe neanche ora, nel XXI Secolo, alla vigilia delle Elezioni Politiche e Presidenziali italiane della Primavera 2013. Allora che cosa facciamo in attesa della prossima catastrofe? Il punto di snodo del processo ai sismologi in corso a L’Aquila è proprio questo: il “forecasting” dei terremoti potrebbe portare a mettere in pratica azioni di riduzione del rischio a breve termine. E, se si potesse dimostrare che le probabilità a L’Aquila erano aumentate davvero, si arriverebbe a dire che lì si poteva e si doveva fare qualcosa. Ma attenzione. Non solo non si “può dimostrare” proprio niente. Ma questa non deve essere “la soluzione” al problema del rischio sismico in Italia. Non ci si faccia ingannare dalle argomentazioni più semplici presenti sui media. A un uso scriteriato (politicamente ed economicamente) del territorio come quello attuato negli ultimi decenni in Abruzzo e in tutta Italial, si vorrebbe porre rimedio pretendendo di allertare le persone poche ore o minuti prima di un terremoto, invitandola a uscire dalle case e magari a dormire in macchina! Anche ammesso (e non concesso scientificamente) di indovinarci una volta su cento, non solo non si eviterebbero comunque crolli e danni in quell’unico caso, ma si creerebbero moltissimi falsi allarmi con conseguente perdita di fiducia in chi formula le previsioni. Inoltre, si rischierebbe di fuorviare l’attenzione delle persone e delle amministrazioni pubbliche, convincendole ulteriormente (se ce ne fosse bisogno) a non fare nulla nel medio e lungo termine perché tanto qualcuno (con la sfera di cristallo) potrà avvisarci subito prima. Magari con il Radon! Il “forecasting” non va abbandonato, certo. Va studiato, sperimentato e migliorato, secondo gli scienziati. E forse un giorno potrà guidare e migliorare la capacità previsionale scientifica. Ma questa è, per ora, materia di ricerca. E non è la via da seguire oggi per ridurre il rischio sismico e i morti. Il rischio sismico si affronta lavorando pazientemente, casa dopo casa, pietra dopo pietra, per anni, mettendo in totale sicurezza tutto ciò che oggi non è sicuro. Ed è tantissimo dando per scontato, ma forse non dovremmo, che le nuove costruzioni siano fatte nel modo giusto. A cominciare dalle scuole, dagli ospedali e dagli edifici pubblici e strategici. Parallelamente l’edilizia privata, con incentivi e finanziamenti ad hoc. Ma intanto bisogna iniziare subito, in tempo di pace, prima della prossima catastrofe. In realtà qualcosina si sta facendo: per la prima volta si è costituito uno specifico fondo di oltre 900 milioni di euro (con la Legge 77 del 24 giugno 2009) per interventi di riduzione del rischio da effettuare nel periodo 2010-2016. Una goccia nell’oceano. Ce ne vorrebbero probabilmente cento volte tanto, forse più. Ma è almeno un inizio. Nel frattempo, altri terremoti sono arrivati, e senza nessun preavviso, a Parma come a Reggio Emilia, invocando altri finanziamenti. E se l’Europa non li concede, dagli all’untore! Per fortuna erano sismi profondi (30 e 60 km contro i 10 di L’Aquila, dove la faglia è arrivata a rompere la superficie) e con una magnitudo massima di 5.4. Di poco sotto alla soglia del danno. Forse dovremmo prenderli come un avvertimento che ci manda la Terra. Come se ci dicesse:“per favore, non aspettate la prossima tragedia”. C’è molto di discutibile, nella spinosa questione del processo alla Commissione Grandi Rischi che valutò il rischio sismico prima del terremoto de L’Aquila. Lo stesso dibattito scientifico sulla significatività di una prolungata sequenza sismica come precursore di una forte scossa, ha tutto sommato poco a che fare con il merito dell’inchiesta, se non “al contrario”. L’impressione è che, anche a sentenza passata in giuduicato, non sarà facile provare oltre ogni ragionevole dubbio che quelle 32 vittime (delle 309 totali) si sarebbero salvate sicuramente e cambiarono idea solo ed esclusivamente per quanto detto a quella famosa conferenza stampa. Si discuterà anche, e cavillosamente, del mandato dei membri della Grandi Rischi. È un organo collegiale, in cui ognuno dei membri è corresponsabile di quanto poi viene riferito all’esterno? O è un Gruppo consultivo, in cui ognuno degli esperti dà il suo contributo e poi sta solo alla Protezione Civile decidere che dire alla popolazione? E in ogni caso, da dove arrivava quella frase sulla sequenza sismica che rilasciando energia abbassava il rischio di una scossa, di cui tutti ora dicono che “nessun sismologo serio la direbbe mai”? Nessuno dovrebbe anticipare sentenze in giudicato, e i processi si fanno per stabilire la verità, cioè le responsabilità puntuali e personali, non per lanciare messaggi. La valutazione politica sulla gestione dell’emergenza terremoto a L’Aquila dovrebbe restare fuori dall’aula del Tribunale. Ma in una società democratica i processi che coinvolgono pubblici ufficiali hanno anche la funzione di creare precedenti che condizionano i comportamenti futuri, e di questo discute ora la comunità scientifica internazionale. Siamo di fronte a un “attacco alla scienza” che metterà una spada di Damocle su tutti gli esperti chiamati a valutare il rischio? La Comunicazione in materia di rischio deve essere, prima di ogni altra cosa, scientificamente fondata: deve essere il frutto di valutazioni approfondite e multidisciplinari, ed avere come requisito minimo l’uso di formule e parole che la maggior parte della comunità scientifica sottoscriverebbe. Non i media, non la politica, non il cinema italiani. Si può discutere se un’aula di tribunale sia il luogo adatto per affermare questi principi, ma mi pare difficile contestarli. Tuttavia condannati in primo grado sono finite le più alte autorità scientifiche in materia di geofisica e le più alte autorità per la prevenzione degli effetti dei terremoti. Cosicché è opportuno interrogarci su tre questioni del tutto generali: qual è la capacità che abbiamo di prevedere un terremoto; quale deve essere la politica di prevenzione sulla base di questa capacità; se la controversia è scientifica, è il Tribunale il luogo può adatto a dirimerla? Sono domande che rilanciamo agli esperti, nella speranza di aprire una discussione. La prima domanda, allo stato attuale delle conoscenze, è relativamente semplice. Gli scienziati hanno una capacità statistica ma non deterministica di prevedere un terremoto. Sanno che l’Italia è quasi tutta a rischio. Sanno quali sono le aree a rischio più elevato per un forte terremoto. Sanno quale sarà, più o meno, l’intensità massima. Possono escludere con sufficiente confidenza la possibilità che in una qualche zona d’Italia si verifichi un terremoto di magnitudo superiore a 8,5. Perché sanno che terremoti di questa potenza si verificano in altre zone della Terra. Tuttavia non sanno quando avverrà esattamente un forte terremoto né quale sarà la sua specifica potenza. Gli scienziati sanno dove avverrà, ma non quando né con che forza. Non hanno, in altri termini, una capacità di previsione deterministica dei terremoti. Né in Italia né nel resto del mondo. Nell’articolo scientifico dal titolo:“The 2012 Ferrara Seismic Sequence: Regional Crustal Structure, Earthquake Sources, and Seismic Hazard”, appena pubblicato sul Geophysical Research Letters, i ricercatori dell’Ingv descrivono uno studio della sequenza sismica che ha recentemente colpito la zona di Ferrara, nel quale hanno potuto apprezzare la discrepanza esistente tra le magnitudo degli eventi principali (Mw=5.63 per l’evento più grande del 20 Maggio 2012 e Mw=5.44 per il terremoto di Mirandola del 29 Maggio 2012) e gli scuotimenti del suolo (livelli di danno) che sembravano indicare eventi di magnitudo assai più importanti (magnitudo locali 5.9 e 5.8, rispettivamente, per i due eventi citati). Uno studio numerico della propagazione delle onde sismiche nei sedimenti della Pianura Padana ha permesso di modellare con successo le caratteristiche dei sismogrammi osservati durante la sequenza, evidenziando il fortissimo contributo delle onde superficiali allo scuotimento del terreno. Le onde di superficie si propagano nei terreni soffici più prossimi alla superficie: nel caso della sequenza di Ferrara, esse sono responsabili delle eccezionali ampiezze e durate del moto del suolo osservate in Pianura Padana. Le anomalie dello scuotimento del terreno hanno interessato la banda di frequenze di maggiore interesse ingegneristico (tra 0.1 e 5 Hz) con effetti spettacolari alle frequenze più basse (tra 0.1 e 1 Hz). Quanto pubblicato nello studio dovrà servire per un aggiornamento della Mappa di pericolosità sismica dell’Italia settentrionale, nel quale si tenga conto delle anomale caratteristiche della propagazione dell’energia sismica nei sedimenti della valle del Po. I risultati della ricerca hanno portato ad ipotizzare che, in Italia settentrionale, la pericolosità sismica possa essere fortemente sottostimata a bassa frequenza, nella parte dello spettro più importante per gli edifici di grande altezza, ovvero per quelli aventi minore rigidità. C’è poi il problema degli sciami sismici. La presenza di uno sciame di scosse a intensità relativamente bassa preannuncia, a breve, un terremoto più forte? Ne parla in un articolo Giuseppe Grandori, esperto di ingegneria sismica e professore emerito di Teoria delle Strutture del Politecnico di Milano. Una qualche correlazione esiste. Ma, ancora una volta, è statistica, non deterministica. Varia da zona a zona, da faglia a faglia. Grandori ha verificato, ad esempio, che, nel caso di alcuni specifiche aree (l’Irpinia, il Friuli, la Garfagnana), talvolta gli sciami sismici sono seguiti, relativamente a breve, da forti terremoti. Su cento sciami sismici solo due sono stati seguiti in passato da forti terremoti. È presumibile che anche in futuro su 100 sciami sismici 98 si risolveranno senza conseguenze e due saranno seguiti a breve da un forte terremoto. Il guaio è che la Scienza non sa ancora dirci quali. Ciò porta direttamente alla seconda domanda: quale deve essere la Politica di prevenzione? Sono due gli scenari possibili oggi. Da un lato la probabilità che in una zona a rischio si verifichi senza precursore alcuno un forte terremoto; dall’altra la probabilità che in una zona a rischio uno sciame sismico annunci un forte terremoto (il 2 per cento dei casi). La migliore prevenzione, in entrambi i casi, è quella di costruire edifici antisismici ed assicurarsi che le norme siano rispettate. Altro da fare, nel primo scenario, non c’è. Il ruolo dei mass media liberi, è determinante per controllare i politici e gli amministratori. Ma che fare nel secondo scenario, in presenza di uno sciame sismico? Far evacuare la zona, sapendo che nel 98% dei casi si tratterà di un falso allarme, ma sapendo anche che il rischio che il terremoto si verifichi è 200 volte superiore a quello di “tempi normali”? In nessun Paese al mondo uno sciame sismico ha portato finora all’evacuazione automatica di una popolazione. In Italia è successo una sola volta e si è trattato di un “falso allarme”. E, tuttavia, siamo in presenza di un rischio maggiore rispetto ai “tempi normali”. Se l’evacuazione fosse automatica il costo dei 98 casi di “falsi allarmi” sarebbe enorme, sia in termini economici sia in termini di percezione pubblica del rischio sia in termini politici. Ne abbiamo avuto una prova con la pandemia da virus “H1N1”: una minaccia che non si è concretizzata ed ha creato disincanto. E ciò ha avuto conseguenze non solo nella vaccinazione contro il virus H1N1 ma anche nell’aumento dei rifiuti a vaccinarsi per altre malattie tra le stesse persone a rischio. Dopo che si è gridato “Al lupo! Al lupo!” e il lupo non arriva all’uscio di casa – che tu abbia avuto ragione o meno nel lanciare l’allarme – le persone non ti credeno più! Che fare, allora? Lo strumento migliore, secondo gli analisti, è la Democrazia del Rischio Naturale: chiamare in causa (non in Tribunale!) gli “stakeholders”, cioè coloro che hanno una posta in gioco, alla compartecipazione alle scelte ed alle responsabilità personali, non oggettive ma soggettive. Nel caso di uno sciame sismico, ciò significa comunicare la situazione dalla popolazione e lasciare che sia essa a decidere il proprio comportamento: restare a casa o dormire fuori. Naturalmente la libera e consapevole Comunicazione pubblica della scienza è l’elemento primario di Democrazia nell’era della conoscenza e della percezione del Rischio, basso, medio ed alto che sia. E da questo punto di vista molti, soprattutto in Italia, siamo in presenza di peccaminosi  ritardi culturali, politici e istituzionali assolutamente da colmare nel più breve tempo possibile. Non  sfuggono, poi, i limiti e i rischi associati alla Democrazia del Rischio soprattutto in un Belpaese come l’Italia particolarmente esposto ai venti della demagogia forcaiola. Di certo occorre una più attenta riflessione sulla gestione dell’incertezza e sul ruolo che devono avere nella gestione dei rischi ambientali gli scienziati, i tecnici, i politici, gli “stakeholders”. Sulle norme che devono regolare la gestione del rischio. Democrazia e Libertà non significa che tutte le posizioni e tutte le responsabilità sono uguali. Al contrario, significa ricerca razionale del miglior equilibrio tra ruoli e funzioni diverse. La scienza migliore e la migliore gestione del rischio non possono essere stabilite nelle aule dei Tribunali. Ma nei Centri d’eccellenza. Tra le sfide lanciate dal terremoto di Abruzzo alla comunità scientifica, ha la non trascurabile importanza quella riguardante i precursori sismici a breve termine, cioè quei fenomeni che talvolta sono seguiti, nella stessa zona ed entro un breve intervallo di tempo “Δt”(delta t, dove t è il tempo) da un forte terremoto. A proposito di questi fenomeni precursori è nata una polemica nel corso della quale sono state dette, scritte e lette cose inesatte e fuorvianti nei riguardi delle possibili future strategie della Protezione civile e della comunità scientifica internazionale. Nel caso dell’evento del terremoto del 6 Aprile  2009 a L’Aquila, si è molto discusso del precursore costituito dalle cosiddette “scosse premonitrici”. A questo precursore ci si riferisce con insistenza, anche perché esso possiede alcune prerogative non possedute da altri fenomeni studiati come possibili precursori. È generalmente riconosciuto che una scossa di magnitudo medio-bassa può essere seguita, dopo poche ore o pochi giorni, da un forte terremoto. Ma il guaio è che non esistono oggi affidabili modelli di calcolo della probabilità che ciò avvenga, e che non si tratti di un falso allarme. E allora? In un Paese ad alta sismicità e di antica civiltà come l’Italia, l’ente preposto alla sorveglianza sismica potrebbe e dovrebbe predisporre un Programma per l’analisi statistica dei numerosissimi dati del Catalogo, capace di ottenere una ragionevole stima della probabilità di falso allarme delle scosse premonitrici, come suggerito da alcuni ricercatori che hanno eseguito da tempo delle prove in alcune zone italiane (Garfagnana, Friuli e Irpinia) trovando in tutti e tre i casi che le scosse premonitrici hanno una probabilità di falso allarme dell’ordine del 98%. Se si dichiara l’allerta si ha un’alta probabilità (98%) di causare un disagio inutile, mentre se non si dichiara l’allerta si ha una piccola probabilità (2%) di provocare un danno gravissimo: lasciar morire delle persone. Causare un disagio inutile ha un costo sociale formato da diverse voci, quali il costo vivo della organizzazione dei provvedimenti di prevenzione, il disturbo delle attività produttive e l’influenza negativa sulla credibilità del sistema di allarme. Come decisori, ci si sente in grave imbarazzo perché il 2% di probabilità che nei prossimi giorni (diciamo nella prossima settimana ) si verifichi un forte terremoto, pur essendo piccola in assoluto, è 200 volte più grande della probabilità-base di un simile terremoto, in una settimana scelta a caso. Ed è del resto questa l’origine dei comportamenti popolari di prevenzione, come andare a dormire all’aperto. Che fare? Va da sé che dovranno essere considerati tutti gli altri eventuali elementi a favore o contro la decisione di dare l’allerta, per esempio gli studi sull’andamento a lungo termine dell’hazard nella zona oppure notizie circa il livello di resistenza ai sismi degli edifici presenti nell’area. Ma una volta completata l’analisi, va bene dare solo all’esperto (o gruppo di esperti ) la responsabilità della decisione? Autorevoli studiosi di psicologia sociale sostengono in generale che anche i cittadini non specialisti (ai media) dovrebbero essere coinvolti nel processo decisionale. A loro dovrebbe essere fornita l’informazione scientifica disponibile discutendo i possibili provvedimenti di prevenzione. Nel caso delle scosse premonitrici, in particolare, il contributo dei cittadini può essere determinante sotto molti aspetti. Nessuno meglio di loro, per esempio, è in grado di valutare il costo sociale di un eventuale falso allarme. Si dovrebbe in sostanza tendere a un iter decisionale compreso da tutti e il più possibile condiviso. È importante osservare che tutto il processo decisionale (dalle premesse scientifiche agli sviluppi dell’analisi) è aperto alla critica metodologica. Mentre non ha senso, a posteriori, e cioè a seconda che il terremoto sia avvenuto oppure no, dire che gli avvenimenti reali dimostrano che la decisione presa era quella “giusta” o quella “sbagliata”. Infatti in un’impostazione probabilistica, il risultato di un singolo esperimento non può validare alcunché. La critica metodologica è utile per migliorare le modalità di formazione della decisione. Le scosse premonitrici hanno in passato salvato molte vite umane grazie a una tramandata conoscenza popolare ed a un’intuitiva analisi costi-benefici. La comunità scientifica è chiamata a suggerire sempre migliori metodi di interpretazione di questo provvidenziale precursore, così da salvare, statisticamente, un sempre maggior numero di vite umane. Non sempre un terremoto porta al declino delle zone colpite, nel rispetto di certe condizioni minime di buona amministrazione può anzi addirittura risultare un moltiplicatore di energie e iniziative tale da condurre ad una fioritura economica. È certamente il caso del Friuli, un po’ meno dell’Umbria e delle Marche, ancora meno dell’Irpinia. E L’Aquila? Dopo il terremoto del 6 Aprile 2009, è una città ferita, ma non annientata per sempre. Il tessuto sociale non è ancora andato perduto. La ricostruzione deve ispirarsi ai principi di conservazione integrata, preventiva, programmata: metodi certo meno efficienti sul breve periodo ma che alla lunga restituiscono davvero la città agli Aquilani e la Capitale d’Abruzzo agli Abruzzesi. La riparazione delle case può, e dunque deve, attuarsi come processo partecipato, in cui gli abitanti siano coinvolti e responsabilizzati. Dialogo e partecipazione sociale risultano indispensabili, ma devono nascere attorno ad una progettazione in grado di valorizzare tutti i possibili resti architettonici, veri e propri “documenti” che ancora conservano la “memoria” di L’Aquila. Non si può certo consentire che un certo efficientismo d’immagine e la priorità del “fare” condizionino negativamente la ricostruzione: la volontà di procedere con tempi accelerati, pure comprensibile per motivi di ritorno alla normalità delle condizioni di vita della popolazione, deve ovviamente essere contemperata dalla necessità di garantire la qualità dell’intervento sia in fase progettuale sia esecutiva. Sbagliatissimo sarebbe cedere alla tentazione di adottare soluzioni tecniche standardizzate ed apparentemente risolutive, senza considerare l’identità costruttiva degli edifici, la specificità delle problematiche da essi presentate e la possibilità di sviluppare, caso per caso, le tecniche meno invasive e più appropriate. La particolare natura dell’architettura aquilana, rigeneratasi nei secoli dopo i frequenti terremoti, pone precisi problemi. La persistenza, nel centro storico di L’Aquila, di un tracciato urbano forte, che ha nel tempo costantemente ribadito l’armonica fusione (più unica che rara, sicuramente eccezionale, in ambito montano) fra la griglia ortogonale angioina e il disegno delle arterie preesistenti, legate allo spontaneo attraversamento del territorio, segna un primo fondamentale requisito per il restauro e la ricostruzione che, nel ridare solidità e corpo all’abitato, dovrà ancora una volta rispettare la coerenza tettonica, figurativa e materiale, e la continuità delle strade principali e delle piazze, particolarmente significative queste ultime dell’identità aquilana. Inutile aggiungere che vanno inoltre applicati i consueti principi-guida del restauro: quindi il “minimo intervento” e la “compatibilità” fisica e chimica delle nuove integrazioni ed aggiunte. Il rischio sismico si può mitigare soltanto riducendone gli effetti attraverso il miglioramento delle strutture, senza esagerare ad esempio col calcestruzzo, e il loro futuro mantenimento. L’esperienza insegna, infatti, che le strutture in buona efficienza si danneggiano meno, mentre spesso i danni sono aggravati dal guasto, non riparato a tempo debito, di qualche elemento del sistema edilizio, come tiranti spezzati, travi lignei marci, muri fradici. Il crollo e il dissesto di numerose addizioni effettuate nella seconda metà del Novecento su monumenti e edilizia minore richiedono di correggere logiche e tecniche adoperate in passato e pongono diversi problemi di restauro. Si pensi, ad esempio, alle chiese che nel tempo hanno subito riconfigurazioni spaziali, con innalzamenti murari, rimpelli, rifacimenti di coperture e rimozioni di alcune fasi costruttive, soprattutto barocche. Esistono poi alcune specificità costruttive, come la densa sovrapposizione muraria all’interno di una stessa costruzione, la presenza di colonnati e diaframmi murari leggeri, la disposizione dei campanili a vela, l’ampia diffusione di volte in mattoni in foglio o ad incannicciata, che costituiscono innegabili vulnerabilità dell’edificato. Il loro restauro richiede un’effettiva conoscenza della Fabbrica e di tutto il suo ciclo di trasformazione, nonché una calibrata capacità di scelta d’opzioni tecniche e architettoniche, così da garantire l’opportuno miglioramento strutturale di queste componenti deboli evitando lo snaturamento della costruzione stessa. Per risolvere i problemi di infrastrutturazione urbana generati dalle nuove case post-sismiche, secondo gli esperti, si deve intervenire per favorire la mobilità e le connessioni fra capoluogo ed abitati vicini, secondo il concetto di “città-territorio” che vede i diversi centri interagire fra loro e costituirsi in rete. È una sfida impegnativa che può essere superata solo se le diverse componenti sociali, politiche, amministrative, culturali e professionali sanno collaborare. Il Processo agli scienziati (non ai politici) aiuterà? La Società Italiana di Fisica (SIF) ha espresso stupore e profonda preoccupazione per la sentenza che condanna in primo grado i componenti, nel 2009, della Commissione Grandi Rischi. La SIF ricorda con dolore le vittime del terremoto e si sente vicina ai loro parenti. “Il dolore per le vittime e le distruzioni non può però giustificare una sentenza che appare, sulla base di tutte le conoscenze scientifiche disponibili, un grave errore. L’Italia è uno dei Paesi a maggior rischio sismico, ma è anche un Paese che può contare su scienziati, sismologi, geofisici e ingegneri, di assoluta eccellenza mondiale, su strutture di ricerca e monitoraggio di avanguardia quali l’INGV e l’Eucentre di Pavia. La letteratura scientifica internazionale è unanime nell’affermare che la previsione deterministica delle scosse sismiche, anche nel corso di una sequenza come quella del 2009, è, allo stato delle conoscenze, impossibile. La sismologia non è una scienza esatta come la matematica. Ne consegue che nessuno scienziato può rispondere alla domanda di dove e quando una pericolosa scossa potrà colpire. L’unica possibile mitigazione del rischio sismico è quella legata alla prevenzione e alla definizione di normative corrispondenti. È, invece, diritto dovere fondamentale degli scienziati la comunicazione trasparente e sincera dei risultati delle loro ricerche e dei limiti che questi hanno, al pubblico e alle autorità responsabili. Il dubbio è una caratteristica della scienza. Nessuno scienziato, abituato a operare con il metodo scientifico, a differenza dei ciarlatani e degli istrioni, potrà mai esprimere conclusioni che non siano supportate da dati scientifici rigorosi. La condanna inflitta a L’Aquila è quindi anche una condanna del metodo scientifico. La gran parte degli scienziati italiani, nell’ambito delle loro Istituzioni scientifiche, continueranno nel loro impegno quotidiano di servizio alla società, ma certamente in maniera meno serena, col timore di condanne per non aver detto quello che non possono dire”. Per la cronaca, nel corso del BlogFest è stato premiato anche l’Istituto Nazionale di Geofisica e Vulcanologia (Ingv) per i “tweet” più utili. Nell’ambito del riconoscimento per i social network più votati dal pubblico, il premio è andato al servizio Twitter “Ingv Terremoti”, ideato dai ricercatori dell’Ingv Antonio Piersanti, Emanuele Casarotti e Valentino Lauciani. Nato all’inizio del 2010, “Ingv terremoti” ha finora inviato 10.500 tweet e ha raggiunto circa 75.000 followers. È la Democrazia di Internet.

Nicola Facciolini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *