“Strategie di prevenzione più efficaci farebbero non solo risparmiare decine di miliardi di dollari ma salverebbero decine di migliaia di vite”(Kofi Annan). Le Tredici Raccomandazioni dei geoscienziati della International Commission on Earthquake Forecasting for Civil Protection, per sopravvivere alle catastrofi naturali sulla Terra, sono un piccolo vademecum versus le devastanti conseguenze dei terremoti e dell’incompetenza dei politicanti. In occasione dell’AGU Fall Meeting californiano che dal 9 al 13 Dicembre 2013 riunisce al Moscone Center di San Francisco migliaia di scienziati di tutto il mondo, occorre chiedersi con urgenza: a 56 mesi di distanza, la distruzione sismica della città di L’Aquila che cosa ha insegnato? L’Aquila poteva essere salvata sulla base della corretta applicazione della Legge e delle ricerche scientifiche? Il rapporto tra Scienza e Diritto sta diventando sempre più intenso, articolato e complesso. Come entra la Scienza nell’attività dei Tribunali? Quale rapporto si è creato fra Scienza e Giustizia? In che misura la Scienza influisce sulla libertà personale dello scienziato indagato? La Scienza nasconde forse ricerche desaparecidos e scoperte scomode per la società e la classe politico-burocratica? Oggi la Scienza ha assunto un ruolo molto più rilevante rispetto al passato, non soltanto nei Tribunali, al punto che si potrebbe ipotizzare la nascita di una Scienza nella Giustizia, con tutte le sue problematiche specifiche e le differenze epistemologiche. Il linguaggio usato dai giudici e dal legislatore, un linguaggio intrinsecamente pragmatico, amministrato, in cui il significato di molti termini può essere posto da particolari soggetti (il giudice e il legislatore) non è di natura matematica e fisica. Tale linguaggio, a differenza di quello dello scienziato, deve necessariamente fondarsi sull’esposizione ordinaria perché deve essere comprensibile da tutti i cittadini riconosciuti dalla Carta fondamentale “eguali”. E proprio in questo senso il giudice è concepito nel diritto positivo italiano come peritus peritorum. Ma le Tredici Raccomandazioni dei geo-scienziati per la messa in sicurezza delle nostre città, montagne, vallate, fiumi, laghi, isole e coste, erano note in tutto il mondo e in Italia ben prima della catastrofe aquilana di 56 mesi fa. Esperimenti sismologici nel Laboratorio Nazionale del Gran Sasso dell’Infn in corso da anni sotto il massiccio del Re degli Appennini, 15 Km a nord-est di L’Aquila e sicuramente da potenziare, così sensibili da registrare le minime deformazioni mareali prodotte nelle rocce dagli effetti gravitazionali dell’interazione Terra-Luna-Sole, evidenziarono un incremento consistente dell’attività sismica nell’area del Gran Sasso, in particolare sotto forma di micro-terremoti. L’Aquila si accartoccia sotto il violento schianto, dopo mesi di leggeri boati, con la famosa sequenza sismica culminata il 6 Aprile 2009 alle ore 3:32 del mattino, nella tremenda scossa di Magnitudo momento Mw=6.3 che distrugge il Centro storico provocando 311 morti, 1500 feriti e 65mila sfollati. L’eco di quella catastrofe rimbalza dal Giubileo della Perdonanza e dalla candidatura di L’Aquila a Capitale europea della cultura per il 2019, alle aule di tribunale con il processo ai soli sette membri scientifici della Commissione Grandi Rischi, accusati di omicidio colposo plurimo per aver sottovalutato la pericolosità della situazione. La condanna in primo grado a sei anni emessa nell’Ottobre 2012 nei loro confronti, ha una sorprendente eco mediatica nella comunità scientifica internazionale. All’Assemblea Generale dell’American Geosciences Union (Agu Fall Meeting) oltre 12.500 geoscienziati della Terra ogni anno si chiedono: cui bono. Il silenzio e il rumore assordanti delle catastrofi naturali improvvise superano l’umana comprensione: agli sconquassi tettonici bisogna aggiungere l’incompetenza di classi politiche e dirigenti che ovunque nel mondo, non soltanto in Italia, condannano a morte così tante persone sulla base della loro specifica incompetenza e irresponsabilità in materia edilizia. Prima, durante e dopo simili tragedie, naturali fino a un certo punto. La Giustizia faccia il suo dovere nell’esclusivo servizio alla Verità. Al di là della contrapposizione tra innocentisti e colpevolisti, l’analisi della drammatica vicenda scientifica e giudiziaria aquilana ha importanti conseguenze sul futuro di L’Aquila e della comunicazione del Rischio Naturale nel Belpaese. Sì, perché allo choc di una silenziosa città fondata nel 1274 e sempre rinata dalle ceneri delle catastrofi del passato (A.D. 1315, 1349, 1703) si aggiunge il vuoto spinto assordante del silenzio colpevole di chi oggi con lacrime di coccodrillo presume di mostrare il cammino della ricostruzione e della crescita. Che è molto più lungo di quanto si pensi, tra ponteggi e cantieri, lavori chiusi ed aperti, fondi virtuali e reali. Gli effetti fragorosi di quel sisma sono incalcolabili. I giovani sono smarriti. La Città delle 99 Cannelle, dei suoi 72.511 Aquilani, delle 30.755 famiglie (“fuochi”) che amano vivere a 714 metri di quota (più o meno come Gerusalemme, la Città Santa) non si arrende. La Bolla del Perdono di Celestino V, la Perdonanza, il Pallio di Benedetto XVI, Papa Emerito, e la Comunità scientifica mondiale, superano il cataclisma del 2009 e la sconfitta morale della mefitica politica politicante nel Belpaese, e celebrano la grandezza di una città destinata a salvare l’Abruzzo dall’abisso del nulla. Già, ma adesso cosa facciamo? Come comportarsi in caso di terremoti distruttivi, impatti cosmici, incendi dolosi di città della scienza, esplosioni nucleari da accidentale caduta ed attivazione di ordigni imbarcati su droni e bombardieri (“broken-arrow”) d’alta quota, eruzioni vulcaniche, megatsunami (le coste italiane sono così esposte, senza cartelli di allerta e vie di fuga!), frane e crolli di montagne sottomarine? Quanti altri processi contro i soli scienziati bisognerà istruire prima che qualcosa cambi davvero nella mentalità italiana? Perché la Scienza è così lontana dal linguaggio della società e della giustizia? Le previsioni del Rischio Naturale e le indagini scientifiche a tutto campo, sono lo sfondo di un articolo apparso sulla rivista Nature. Fra gli esempi di quella che la prestigiosa pubblicazione chiama la “ricerca a lungo termine”, appare anche l’Osservatorio Vesuviano, la sezione napoletana dell’Ingv. Decenni e spesso secoli sono necessari alla Scienza per conseguire risultati importanti per l’intera umanità e lo stesso dicasi per la comprensione del funzionamento di un vulcano. Dopo 172 anni di attività, la citazione su Nature rende merito al lavoro svolto in campo vulcanologico dall’Ingv sia sul fronte della ricerca sia su quello della sorveglianza. “A far grande l’Osservatorio Vesuviano hanno contribuito, fin dalla sua fondazione nel 1841 – rivela Giovanni Ricciardi, ricercatore geofisico dell’Ingv, autore dell’opera “Diario del Monte Vesuvio” edito da ESA – direttori della grandezza di Macedonio Melloni, annoverato tra i più grandi fisici italiani del XIX secolo, insignito della Rumford Medal, l’equivalente del premio Nobel attuale; Raffaele Matteucci, medaglia d’oro al valore per la gestione dell’eruzione vesuviana del 1906; Giuseppe Mercalli, uno dei più grandi sismologi tra il XIX e il XX secolo e tanti altri scienziati e tecnici in forza all’Osservatorio Vesuviano, che hanno operato e operano tutt’oggi, talvolta in condizioni estreme, sul vulcano napoletano quiescente da circa 70 anni, ma considerato a più alto rischio nel mondo, vista la situazione urbanistica e demografica che caratterizza le aree circostanti”. Sono gli Italiani giusti e saggi. Serendipity è una delle parole più appropriate da usare non soltanto quando si parla di ricerca e comunicazione scientifica: il desiderio di avventurarsi in territori inesplorati per trovare anche quello che non si cerca, è la chiave della nostra sopravvivenza sulla Terra ed altrove. Mentre l’Italia continua a tremare ed esplodere, c’è ancora bisogno di regole, onestà, competenza, responsabilità e investimenti nella ricerca pubblica e privata che consentano di superare la Sentenza di L’Aquila e la dicotomia Allarmismo-Rassicurazione fagocitata e macinata dai media mondiali. L’Antimateria naturale (i 400mila positroni scoperti dal Telescopio Spaziale Ams dalla Iss avrebbero sconvolto tutta la flotta astrale nell’universo di Star Trek X Nemesis, supremo monito universale versus tutti coloro che, a diverso titolo, tentano di distruggere il Senato!) è la chiave di volta per produrre energia elettrica infinita gratuita e i forti campi magnetici necessari a schermare le navi interstellari frutto della liberalizzazione della impresa spaziale privata. La serie di piccole scosse che interessa tutta la Penisola, è l’atro monito supremo: le motivazioni della Sentenza di L’Aquila non hanno risolto il problema della Previsione e Prevenzione degli effetti dei terremoti nel Belpaese. Centinaia di migliaia di persone ogni giorno rischiano la vita sulla Terra, senza contare che la metà della popolazione mondiale (oltre 7 miliardi di persone) vive in megalopoli e città costiere: due miliardi di esseri umani diventeranno “urbani” nei prossimi 30 anni in aree ad altissimo rischio sismico, idrogeologico e vulcanico. Questa filosofia concentrazionaria prepara bollettini di guerra senza precedenti. Mentre in Garfagnana la terra continuava a tremare, il 30 Gennaio 2013, a colpi di magnitudo 3.3, la Protezione Civile diramava un’Allerta e qualche migliaio di persone venivano evacuate durante la notte. Solo la scossa del 12 Febbraio 2013 di magnitudo 3.8, registrata nel distretto sismico delle Prealpi venete, preceduta da altre di minore entità, non aveva dato luogo ad evacuazioni. L’Allarme della Garfagnana e le migliaia di persone che hanno passato la notte all’addiaccio non hanno suscitato grandi polemiche. È stato anzi catalogato come “buona pratica”, perché dicono: “Meglio un allarme inutile che una rassicurazione mortale”. Le scosse della Garfagnana e quelle del Friuli confermano che in una zona in cui sono avvenuti terremoti storici importanti, possono verificarsi altri terremoti. La Garfagnana, come L’Aquila e il Friuli, è considerata zona ad alto rischio sismico, anche in ragione di un evento di magnitudo stimata 6.5 verificatosi il 7 Settembre 1920. Dopo il terremoto di L’Aquila, precisamente il 21 Aprile 2009, con Ordinanza del PCM n. 3757, fu istituita una Commissione Internazionale per fare il punto sulla Previsione Probabilistica dei Terremoti con fini di Protezione Civile. La Commissione di dieci geoscienziati di fama mondiale, fornì tredici preziose indicazioni, mai capillarmente recepite ed applicate sul territorio e nelle nostre città, circa l’opportunità di incoraggiare le attività di previsione probabilistica, di monitoraggio, di ricerca dei precursori diagnostici dei terremoti, nonché di pubblicità alla popolazione sulle ricerche in atto e sui dispositivi di sicurezza di pubblica utilità. Nella Relazione si legge, tra l’altro, che “lo strumento più importante per la protezione dai danni che può causare un terremoto è la Mappa di Pericolosità: questa si può considerare una previsione probabilistica a lungo termine indipendente dal tempo, che individua con quale probabilità dei valori di scuotimento possono essere superati in ogni zona del territorio nazionale. Su questa base è possibile calibrare regole per la costruzione e la ristrutturazione antisismica che mettano in sicurezza la popolazione”. Le Tredici Raccomandazioni dei geoscienziati sono rimaste, dal 6 Aprile 2009, lettera morta! Eppure l’ultimo aggiornamento della Mappa di Pericolosità Sismica in Italia era stato approvato dalla Commissione Grandi Rischi del Dipartimento della Protezione Civile il 6 Aprile 2004, cinque anni prima della catastrofe aquilana. Questa Mappa, poi aggiornata, è diventata ufficialmente la “bibbia” di riferimento per il territorio nazionale con l’emanazione dell’Ordinanza PCM 3519/2006 pubblicata sulla G.U. n.105 dell’11 Maggio 2006. Successivamente, con decreto 14/01/2008 del Ministero delle Infrastrutture, pubblicato sulla G.U. n.29 del 04/02/2008, sono state aggiornate e pubblicate le Norme Tecniche per le Costruzioni che “utilizzano gli stessi nodi su cui sono state condotte le stime di pericolosità sismica da parte di INGV” e sono coerenti con la Mappa della Pericolosità. Nei giorni successivi il terremoto del Maggio 2012 in Emilia, a chi richiedeva un nuovo aggiornamento delle Mappe di pericolosità, l’Ingv indicava la perfettibilità e l’aggiornamento della Mappa con i dati degli ultimi terremoti. Il che non avrebbe certo determinato variazioni significative. Rilevare il ritardo nell’applicazione delle norme sismiche del 2003, con in vigore la possibilità di applicare le normative precedenti, e il ritardo nell’applicazione delle Nuove Norme Tecniche del Febbraio 2008 entrate in vigore solo all’indomani del terremoto di L’Aquila, è un puro esercizio retorico. Fatto sta che, a causa di questi continui e irresponsabili ritardi, nei Comuni interessati dal terremoto emiliano e in un notevole numero di quelli localizzati principalmente nell’Italia settentrionale, ma anche in tutto il Belpaese, “si è accumulato – spiega l’Ingv – un notevole deficit di protezione sismica che è in parte responsabile dei danni avvenuti”. Costruire da zero regole e procedure perché in Italia non esiste una legge che affronti in modo moderno ed efficace l’intervento pubblico nelle grandi calamità, è segno di grande responsabilità. In Turchia è stato varato un Programma ventennale di opere pubbliche che prevede l’abbattimento e la ricostruzione di sette milioni di case, un terzo del tessuto urbano nazionale, con una spesa di oltre 400 miliardi di dollari. Questa è la crescita! Non le chiacchiere dei ridicoli politicanti camaleontici cultori del proprio egoismo. A maggior ragione, per questi motivi, non esistono giustificazioni razionali della distruzione del Senato della Repubblica Italiana, pura espressione di sedizione auspicata dall’anti-Stato e da molti politici, assolutamente da contrastare con ogni mezzo lecito democratico, come insegnano i nostri Padri costituenti e il grande Nelson Mandela. Il sonno della ragione, infatti, genera i mostri della storia. Per mettere in totale sicurezza milioni di case e persone altrimenti condannati alla distruzione. “In Italia questo non si fa e si pretende di poter salvare le persone sulla base di previsioni di breve periodo che noi non possiamo fare – avverte Alessandro Amato, direttore del Centro Nazionale Terremoti dell’Ingv – l’informazione che possiamo dare è di lungo termine, riguarda migliaia di anni, perché noi non siamo in grado di intervenire su scale temporali diverse. In base alla Mappa della Pericolosità che si ottiene, gli amministratori devono predisporre piani di emergenza per le situazioni specifiche di cui i cittadini devono essere a conoscenza”. Questo è il tipo di Previsione che possono fare i sismologi in Italia e nel mondo mentre lo Stato e le amministrazioni locali sono responsabili degli interventi di Prevenzione Strutturale e, attraverso la Protezione Civile nazionale, di Gestione dell’Emergenza. Negli Stati Uniti d’America il National Earthquake Hazards Reduction Program (NEHRP) è attivo dagli Anni Settanta del XX Secolo: con qualche piccola variazione nel tempo ha tuttavia mantenuto inalterati i suoi quattro obiettivi fondamentali, come rivela il famoso sismologo Thomas Jordan: sviluppare le procedure per la riduzione delle perdite dovute al terremoto; migliorare le tecniche per la riduzione della vulnerabilità sismica; migliorare la stima della pericolosità e i metodi di valutazione del rischio; migliorare la comprensione dei terremoti e dei loro effetti. In California, nelle città piccole e grandi, lungo le strade, nei motel, appaiono in bella vista i cartelli informativi sulla Prevenzione del Rischio Sismico. Non in Italia dove si preferiscono ben altri cartelli! Con la famosa Relazione della Commissione Internazionale di L’Aquila, i quattro obiettivi del Nehrp costituiscono un ottimo punto di partenza per la costruzione di un Sistema di regole e procedure atte a ridurre drasticamente il Rischio sismico e vulcanico in Italia. Regole, procedure e investimenti nella ricerca che permettano di andare oltre la Sentenza di L’Aquila, superando la dicotomia Allarmismo-Rassicurazione, consapevoli che l’Italia è un Paese ad altissimo rischio sismico, dove i terremoti sono già storicamente “previsti”, che ha bisogno di ridurre la vulnerabilità sismica degli edifici e delle infrastrutture strategiche esistenti. Il Governo e il Parlamento italiani hanno il dovere di fare qualcosa ben prima della riforma della legge elettorale! Le proposte forti non mancano e prevedono la ricostruzione del nostro Belpaese per migliorare sostanzialmente la qualità della vita degli Italiani, finalizzata alla ripartenza dell’economia reale. In primis con la riqualificazione strutturale, energetica e architettonica del patrimonio edilizio esistente, cui fa seguito il riuso o la sostituzione del costruito esistente e la demolizione (basta con non i mille condoni e proroghe!) del costruito abusivo. D’altra parte la sequenza di terremoti seguita al catastrofico sisma (e megatsunami) di magnitudo 9 dell’11 Marzo 2011 a Tohoku-Oki in Giappone, ha offerto un’opportunità unica per mettere alla prova i modelli probabilistici che, a partire dalla distribuzione di alcune scosse nel tempo e nello spazio, tentano la previsione degli eventi successivi. È quanto hanno fatto tredici sismologi di diversa nazionalità, tra cui l’italiano Giuseppe Falcone dell’Istituto Nazionale di Geofisica e Vulcanologia, in uno studio pubblicato nel 2012 sulla rivista scientifica Geophysical Journal International, dal titolo: Predictability study on the aftershock sequence following the 2011 Tohoku-Oki, Japan, earthquake: first results. I cinque modelli utilizzati per la prevedibilità del terremoto di Tohoku-Oki e della sequenza degli aftershock, hanno fornito una buona occasione di confronto della loro capacità di prevedibilità. I modelli ETES (Epidemic Type of Earthquake Sequence) ed ERS (Epidemic Rate-and-State) applicati alla sequenza in questione da Falcone, sono stati sviluppati in collaborazione con Maura Murru e Rodolfo Console dell’Ingv, le cui prime pubblicazioni sull’argomento risalgono al 2001. Essi si basano su semplici ipotesi di come gli eventi possono interagire tra loro a breve distanza di spazio e di tempo. Il modello ETES fu anche utilizzato dal gruppo nelle recenti crisi sismiche in Italia, dopo il terremoto di L’Aquila del 2009 e dell’Emilia del 2012 e durante la sequenza sismica del Pollino di fine 2011 e inizio 2012, per monitorare in tempo reale la sismicità in corso. Il modello ETES ha fornito per il Giappone, rispetto a tutti gli altri modelli sottomessi, una migliore previsione per il terremoto di Tohoku-Oki ed è riuscito, nel periodo successivo fino al 17 Marzo 2011, a fornire previsioni consistenti con il totale dei terremoti che avvenivano realmente, rispetto ai restanti modelli che invece li sottostimavano. Dati i buoni risultati del test, gli autori dell’articolo auspicano che l’operabilità per la previsione dei terremoti possa essere eseguita come risposta immediata nei casi di crisi sismiche, motivata dalle aspettative scientifiche, sociali e pubbliche. I modelli ETES e ERS del gruppo italiano sono tuttora adoperati per produrre previsioni sismiche presso il Centro di previsione sismica in Giappone, che rappresenta una sezione del Progetto internazionale CSEP (Collaboratory Studies for Earthquake Predictability; www.cseptesting.org/) e partecipano all’esperimento del CSEP in Italia il cui centro ha sede presso l’ETH di Zurigo. Il progetto nasce con lo scopo di definire un esperimento per la verifica e il confronto dei diversi modelli di previsione dei terremoti. Per evitare ogni possibile errore di manipolazione sui risultati, le previsioni sono considerate esclusivamente per i periodi futuri e sono verificate utilizzando le osservazioni successive al momento in cui le previsioni stesse vengono formulate. Thomas Jordan, direttore del Centro terremoti del Southern California University, cita Warner Marzocchi, Maura Murru, Rodolfo Console, Giuseppe Falcone e Anna Maria Lombardi, come i migliori nel campo della prevedibilità a medio termine. Uno dei problemi più interessanti nella ricostruzione della dinamica dei terremoti, consiste nell’individuare la direzione dominante di rottura della faglia che si è messa in movimento. Per i forti terremoti questo problema è più facilmente risolvibile, mentre per i piccoli eventi presenta qualche difficoltà. Due ricercatori dell’Ingv e dell’Università Federico II di Napoli, Vincenzo Convertito e Antonio Emolo, hanno risolto il problema ricorrendo all’analisi di alcuni parametri relativi ai movimenti del suolo, come la velocità e l’accelerazione di picco del terremoto, registrati dalle stazioni della Rete Accelerometrica Nazionale (RAN) e della Rete Ingv. I due studiosi hanno pubblicato in inglese la loro ricerca, dal titolo: “Indagine sulla direzione dominante di rottura per tre terremoti moderati avvenuti nel nord Italia nel 2012 dall’inversione dei parametri di picco” sul Bullettin of the Seismological Society of America. L’attenzione per una più approfondita conoscenza dei terremoti di piccola e media grandezza è giustificata dal fatto che essi non provocano vittime e gravi danni. Tuttavia hanno effetti sociali ed economici notevoli perché portano all’interruzione delle attività economiche e lavorative attraverso la chiusura di scuole e uffici, con la richiesta da parte delle autorità di verifiche scientifiche per meglio valutare i rischi. Durante un sisma si possono udire dei boati durante o anche poco prima della scossa? Patrizia Tosi, Paola Sbarra e Valerio De Rubeis, ricercatori dell’Ingv, hanno pubblicato un interessante lavoro dal titolo: “Earthquake sound perception” (La percezione del rombo sismico) sulla prestigiosa rivista Geophysical Research Letters. Gli scienziati hanno analizzato 77mila questionari macrosismici sugli effetti dei terremoti recenti italiani, compilati dai cittadini attraverso sito Internet www.haisentitoilterremoto.it. Fin dai tempi antichi il rombo era annoverato tra gli effetti del terremoto: antequam terra moveatur, solet mugitus audiri, scrive Seneca. Oggi sappiamo che il rumore è causato proprio dal passaggio delle onde sismiche (primarie e secondarie) dal terreno all’aria. L’effetto acustico, chiamato anche rombo sismico, era stato però trascurato sia da Mercalli sia dagli altri studiosi degli effetti dei terremoti, per le intrinseche difficoltà nel registrare il fenomeno. Oggi, grazie alla diffusione della Rete Internet con le moderne tecnologie, il contributo dei cittadini in tempo reale può sostituire una costosa Rete di sensori pubblici. L’analisi statistica dei dati così ottenuti ha mostrato che l’andamento della percezione del rombo rispetto alla distanza dall’epicentro segue una legge analoga a quella degli altri effetti del terremoto. Per questo motivo è possibile utilizzare anche questo effetto per caratterizzare l’impatto dei terremoti sul territorio. I dati mostrano che il 40 percento delle persone afferma di aver sentito il rombo prima dell’inizio dello scuotimento. Questa osservazione si spiega con la diversa velocità di propagazione delle onde sismiche: le prime onde che arrivano (onde P) a volte sono più difficili da percepire come vibrazione, rispetto alle più lente onde S, ma possono produrre un suono udibile. È questo il motivo per cui gli animali domestici, con l’udito molto più sensibile rispetto all’uomo, possono fuggire spaventati pochi secondi prima dell’inizio dello scuotimento. Ciò vale anche per i terremoti associati alle eruzioni vulcaniche? Il volume curato da Maria Toscano, dal titolo:“Gaetano De Bottis – Ragionamento istorico intorno all’eruzione del Vesuvio che cominciò il dì 29 luglio dell’anno 1779 e continuò fino al giorno 15 del seguente mese di agosto” (2012, pp. 142) presentato nella Collana di testi della cultura filosofica e scientifica meridionale della Denaro Libri, è uno di quei libri che possono essere letti su più livelli. C’è senza dubbio quello della narrazione storica, del piacevole racconto di uno scienziato dell’epoca che descrive con dovizia di particolari e coloriti resoconti gli eventi e le conseguenze di una delle più spettacolari manifestazioni della natura: l’eruzione di un grande vulcano. Dal documento storico si possono ricavare anche molte informazioni, per così dire “segrete”, che permettono di compiere un’analisi tutt’altro che banale o scontata del testo. Dalla quale scaturiscono alcune interessanti osservazioni sulla scienza e il suo rapporto con il potere e la società e sul ruolo del meridione italiano nel contesto europeo della cultura scientifica, in un delicato periodo storico. Questa lettura a più livelli è proprio l’operazione che compie la curatrice nella prefazione/analisi al testo del De Bottis. De Bottis era, come spesso accadeva a quei tempi, un sacerdote-scienziato della Santa Madre Chiesa, un naturalista che dedicò gran parte dei suoi studi al Vesuvio. Ma era un naturalista cui evidentemente cominciava a stare stretto l’approccio alla scienza della natura, come ancora, in parte, lo si intendeva all’epoca e cioè come studio della Philosophia naturalis. È un atteggiamento nuovo, moderno, rivelato da quella parola messa all’inizio del titolo dallo stesso De Bottis: Ragionamento. Come coglie acutamente Maria Toscano,“il Ragionamento evidenzia certamente il rigore di un metodo e lo sforzo di una intera classe intellettuale di adeguare la propria cultura, tradizionale e per molti versi arretrata, alla nascente scienza moderna”. È chiaro fin dall’inizio che il documento non sarebbe stato un mero racconto cronachistico di fatti e fenomeni, ma questi sarebbero stati usati per compiere un vero studio sui meccanismi con cui opera la natura. L’intenzione del De Bottis di compiere un salto di qualità, si inserisce a pieno titolo nel fermento culturale che in quei decenni vedeva in Napoli uno dei centri più attivi e propulsivi della cultura illuministica europea anche in ambito scientifico. Napoli non solo stava vivendo uno dei periodi migliori della politica borbonica (le grandi iniziative di Carlo III e le aperture all’illuminismo del figlio Ferdinando IV) ma anche un momento particolarmente felice per l’affermazione dell’idea che la scienza potesse mettersi, con le sue conoscenze, al servizio del potere e della pubblica utilità e felicità. Fatto ignoto agli speculatori, ai mafiosi ed ai politicanti odierni che hanno permesso la distruzione della Città della Scienza di Napoli alla vigilia della conferma della veridicità della scoperta del Bosone di Higgs (125 GeV) valsa nel 2013 il Nobel all’illustre scienziato scozzese. Se vogliamo, De Bottis appartiene a quella schiera di personaggi (scienziati, artisti e letterati) che in quegli anni, attratti dal Vesuvio e dalle bellezze storiche della Campania, affollavano la scena napoletana, facendone una tappa obbligata del Grand Tour italiano. Richiamati dal misterioso vulcano vi si recarono, quasi in un pellegrinaggio laico, i migliori scienziati e naturalisti d’Europa come Deodat Dolomieu, Lazzaro Spallanzani, Alexander von Humboldt, Humprey Davy, Charles Lyell e Charles Babbage. E, certamente non ultimo, quel famoso Sir William Hamilton che, forse, più di tutti contribuì a creare il mito del Vesuvio e di cui, in fin dei conti, De Bottis può essere considerato l’alter ego indigeno. Quest’atmosfera festosa fatta di persone, viaggiatori, scienziati e scoperte si ritrova nel libro curato dalla Toscano. Ci sono altre possibili chiavi di lettura, non ultima quella del ruolo della Scienza nella società civile e del suo rapporto con il Potere: due temi di grandissima modernità per quel tempo e oggi di enorme attualità, come ricorda la recente vicenda degli scienziati condannati per il terremoto di L’Aquila. Nel suo scritto, il De Bottis si rivolge direttamente alla persona del re, cosa non insolita per quei tempi ma senza dubbio più diffusa per le opere letterarie o artistiche. Era utile la dedica al signore o al committente di turno. In questo caso si parla di scienza e il De Bottis, rivolgendosi “Alla sacra Real Maestà di Ferdinando Re delle Sicilie”, individua nel sovrano un nuovo interlocutore al quale offrire questo sapere. Anzi, leggendo la dedica che egli premette al suo scritto, si capisce che in precedenza ha già prodotto altri lavori simili, che il re ha letto e gradito e che la relazione in oggetto è stata a sua volta espressamente richiesta dal sovrano. Insomma si capisce che al re (il potere di Dio in terra) la scienza interessa e, molto probabilmente, interessa anche per un modernissimo criterio di utilità sociale e nazionale. Il re a cui si rivolge De Bottis è quello stesso Ferdinando IV di Borbone (il famoso, ignorante e lazzaro “Re Nasone”) che qualche anno dopo manderà in giro per mezza Europa sei giovani scienziati meridionali a studiare mineralogia ed a raccogliere migliaia di campioni, per costituire a Napoli una grande collezione che servisse ad avviare l’industria estrattiva e metallurgica nel regno, così da sottrarlo alla dipendenza dall’estero. Forse anche grazie al lavoro del De Bottis, il re aveva capito che bisognava puntare sulle conoscenze scientifiche e investire su di esse, per far uscire dal sottosviluppo il suo Regno di Napoli. Non sembra un concetto piuttosto moderno e familiare alla luce della gravissima crisi economica italiana dei mille suicidi imprenditoriali che alla fine la cronaca sarà costretta a registrare a causa della Politica latitante? Silenzi e rumori sono il comune respiro di ogni vulcano. Come rivelano le Analisi multidisciplinari delle relazioni tra strutture tettoniche e attività vulcanica, a cura dell’OGS e dell’Osservatorio Etneo che applica metodologie per il calcolo della pericolosità sismica a scala locale dell’Etna. È una ricerca “applicata” di particolare rilevanza considerata l’elevata antropizzazione dei versanti Est e Sud del megavulcano, attraversati da faglie attive capaci di generare forti terremoti, con brevi periodi di ritorno, e frane epocali per l’intero Mar Mediterraneo. Questi eventi distruttivi, con annessi tsunami, sono storicamente accaduti sia in concomitanza di eruzioni laterali sia in periodi non-eruttivi. L’obiettivo è quello di realizzare Mappe probabilistiche di pericolosità sismica per periodi di esposizione di 5-10 anni, molto più brevi di quelli considerati nella Mappa Sismica Nazionale che per le aree tettoniche usa un periodo standard di 50 anni. Attualmente gli scienziati stanno lavorando nella fase di input dei dati nel sistema, dopo un’attenta selezione e valutazione. Un uso pratico della Mappa di Pericolosità Sismica per l’Etna, è quello di costituire uno strumento-obiettivo per definire le priorità di intervento sui Comuni dell’area circa le opere di adeguamento sismico (ristrutturazione di scuole e edifici strategici) in un momento economico in cui è impensabile procedere indistintamente su tutto l’Etna. Ulteriori informazioni sono disponibili nel saggio “Vulcanologia e Sismologia: Il Giappone e Napoli”, a cura di Elena Cubellis (Ov-Ingv), pubblicato nella rivista Il Giappone, fondata e diretta dal Professor Adolfo Tamburello dell’Università degli Studi di Napoli “L’Orientale”. Non vi sono grandi disparità tettoniche tra l’arcipelago giapponese e la penisola italiana: infatti si sviluppano entrambi in zone di subduzione con la formazione di catene montuose caratterizzate da sismicità intensa e dal vulcanismo, come dimostra la recente nascita di una nuova isola nipponica. A questi fenomeni si aggiungono manifestazioni termali molto diffuse, in paesaggi straordinari. Nel saggio la ricercatrice Elena Cubellis riporta le analogie geofisiche tra l’arcipelago giapponese, in particolare l’isola di Kyushu nella parte meridionale del Giappone, e il Golfo di Napoli, che porterà al gemellaggio tra la città partenopea e Kagoshima negli Anni ’60 del secolo scorso. Tra le due aree si rilevano le corrispondenze morfologiche degli apparati vulcanici, del paesaggio terramare tra il Vesuvio (Campania) e Sakurajima (Isola di Kyushu) e le problematiche sulla mitigazione del rischio vulcanico in entrambe le aree, designate dalle Nazioni Unite tra le aree più pericolose del mondo. Così scopriamo che in Giappone, come in Italia, città densamente popolate si sviluppano spesso in aree vulcaniche attive! Nel tomo della Cubellis si possono apprezzare le pagine sugli scambi culturali tra studiosi italiani e giapponesi, che risalgono alla seconda metà dell’Ottocento, nonché gli interessanti confronti scientifici sulla difesa dai terremoti e dalle eruzioni. “Due terre – rivela Elena Cubellis – con tali caratteristiche, non potevano non incontrarsi, per i comuni interessi, nella crescita della conoscenza dei fenomeni vulcanici e sismici e per la mitigazione dei loro effetti sulle popolazioni esposte”. Geologo e naturalista scozzese, Charles Lyell è una delle figure più importanti della storia della geologia. Il suo lavoro, Princìpi di Geologia (1831-1833), rappresenta una pietra miliare delle Scienze della Terra. I suoi viaggi in Europa e la sua intuizione scientifica gli permisero di costruire un nuovo paradigma geologico: l’attualismo, principio secondo il quale i processi naturali che hanno operato nei tempi passati sono gli stessi che possono essere osservati nel tempo presente. Il padre, avvocato, conosciuto come botanico, tradusse in inglese la “Vita Nuova” e “l’Inferno” di Dante Alighieri. Darwin fu profondamente influenzato dai “Princìpi” che ebbe modo di leggere durante il suo viaggio intorno al mondo. Per Lyell e Darwin, i dati geologici vanno considerati incompleti; essi sono, nella metafora classica sviluppata da Lyell e divulgata da Darwin, come un libro di cui siano rimaste poche pagine. Questo era il modo di lavorare di Lyell e di Darwin: interpretare i dati e colmare le lacune. Fu in Sicilia che Lyell trovò prove a sostegno delle sue teorie dell’attualismo. Nella zona dell’Etna trovò evidenze dell’azione lenta e continua dei processi naturali, studiando i resti marini negli strati del Terziario. Nel 1831 Darwin intraprese il suo viaggio attorno al mondo e portò con sé l’opera di Lyell, appena pubblicata. Darwin nei suoi studi e osservazioni fu molto influenzato dagli scritti di Lyell. Darwin e Lyell diventarono amici e corrispondenti. Lyell fu uno degli scienziati più affermati a sostenere il lavoro di Darwin “L’origine delle Specie”, benché egli non abbia mai completamente accettato la selezione naturale come il motore-guida dell’evoluzione sulla Terra. Gli scienziati sanno che il campo magnetico terrestre, o campo geomagnetico, è una proprietà caratteristica del nostra pianeta vivente che ha permesso, per mezzo della bussola, l’avvio della grande epoca delle navigazioni esplorative e delle scoperte geografiche. A marcare simbolicamente l’inizio di questa età, è la traversata dell’Atlantico alla scoperta dell’America effettuata da Cristoforo Colombo nel 1492, assistita proprio dall’uso sistematico delle prime bussole magnetiche per la navigazione. Superando nei secoli l’aspetto puramente legato alla navigazione, il Geomagnetismo è divenuta una disciplina che muovendo dagli abissi della Terra, si spinge a includere lo spazio circumterrestre (le tre Fasce di Van Allen, compresa l’ultima appena scoperta dalla Nasa) ed oltre, rimanendo sul fronte della geofisica moderna. Tra le applicazioni più note del geomagnetismo troviamo l’esplorazione mineraria, le ricostruzioni paleo-continentali, lo Spaceweather e il magnetismo ambientale. Senza considerare poi il contributo offerto dal geomagnetismo alla geofisica nella conoscenza delle profondità abissali della Terra e del nucleo terrestre in particolare. In Italia l’Ingv effettua misurazioni del campo magnetico terrestre con diverse modalità e finalità. Gli osservatori geomagnetici sono le strutture nelle quali si svolge l’attività di misura che consente il monitoraggio continuativo dell’evoluzione del “livello assoluto” del campo. Ogni 5 anni su una rete di oltre 110 stazioni di ripetizione, l’Ingv arricchisce le misure di osservatorio con altre di dettaglio su punti-chiave della nostra Penisola e delle nostre Isole, per fotografare il campo in tutta l’area d’interesse. Mentre negli osservatori viene misurato il campo in maniera continuativa, le misure di dettaglio sulla rete vengono effettuate periodicamente. L’ultima ripetizione è stata effettuata su oltre 110 punti in un arco di tempo che va dalla fine del 2009 ai primi mesi del 2010. Mediante le misure di osservatorio questi dati sono stati ridotti ad una epoca unica, il 1° Gennaio 2010. Tra gli scopi principali di quest’attività, la determinazione della variazione secolare e in particolare l’aggiornamento della cartografia magnetica d’Italia, una vera e propria fotografia del campo magnetico alla data indicata. In collaborazione con l’Istituto Geografico Militare Italiano di Firenze i dati raccolti nelle misure sono stati utilizzati per produrre quattro Carte magnetiche, rispettivamente per la declinazione, le componenti orizzontale e verticale, e per il campo magnetico totale. Le carte sono inserite in un apposito contenitore che comprende anche una pubblicazione, con le specifiche tecniche delle misure effettuate e delle relative elaborazioni, e un CD-Rom che consente di ottenere una visualizzazione grafica della cartografia italiana e di muoversi interattivamente per ricevere informazioni sul valore delle componenti, sulla variazione secolare ed altro ancora, semplicemente accedendo con il mouse del computer. Questo lavoro è stato curato dall’UF Geomagnetismo della Sezione Roma2, Geomagnetismo Aeronomia e Geofisica Ambientale. Molto significative sono le influenze dei processi di degassamento nelle aree marine intorno ai vulcani. Fulvio Boatta, Walter D’Alessandro, Lisa Gagliano, Sergio Calabrese, Marcello Liotta, Marco Milazzo e Francesco Parello, sono gli studiosi dell’Ingv e del Dipartimento di Scienza della Terra e del Mare dell’Università di Palermo, che hanno presentato un interessante lavoro sull’acidificazione dell’acqua di mare in aree vulcaniche attive. Questa problematica è stata studiata sia dal punto di vista dell’impatto delle emissioni vulcaniche sull’ambiente e sulla salute umana, sia dal punto di vista della modellizzazione dell’acidificazione dell’acqua di mare e delle sue conseguenze ecologiche. La Baia di Levante dell’isola di Vulcano, che è la più meridionale delle isole Eolie e che si trova nel Mar Tirreno Meridionale, a circa diciotto miglia al largo della costa nord-est della Sicilia, si è rivelata un ottimo laboratorio naturale per questo tipo di studi. Nell’area esistono molte emissioni sottomarine che rilasciano anidride carbonica di origine vulcanica. Quest’ultima si discioglie formando acido carbonico che contribuisce all’abbassamento del pH, dell’acidificazione dell’acqua di mare. Attraverso le indagini geochimiche, avvenute durante il 2011-2012, il team di esperti ha evidenziato come la zona della Baia del Levante possa essere considerata un laboratorio naturale dove molti dei processi bio-geochimici, legati alla acidificazione degli oceani, possono essere studiati. “La Baia di Levante – spiega Walter D’Alessandro – si presta bene per varie ragioni. La prima è che la baia rappresenta un ambiente relativamente protetto, con uno scambio con il mare aperto sufficiente per mantenere condizioni chimico-fisiche e ambientali stabili nel tempo. Inoltre è abbastanza grande perché si trovino condizioni relative ad un ampio intervallo di livelli di acidificazione. Questo punto è importante perché consente di studiare livelli di acidificazione dell’oceano riferibili a differenti periodi futuri e con vari scenari di incremento dell’anidride carbonica atmosferica ed anche condizioni estreme legate a input localizzati di questo gas. Inoltre, da non trascurare, vi è pure una ragione logistica. L’isola è facilmente raggiungibile e la presenza del Centro Carapezza gestito dall’Ingv dà la possibilità di alloggiare e di approntare un rudimentale ma funzionale laboratorio”. L’aumento esponenziale di anidride carbonica in atmosfera, che il pianeta Terra sta vivendo, farà sì che nel futuro degli oceani ci sarà un differente pH rispetto al normale. “Sicuramente, ed i primi effetti sono già stati registrati dal momento che il pH medio degli oceani è già sceso di circa 0.1 unità rispetto ai livelli preindustriali. Tale differenza, che potrebbe essere considerata trascurabile dalla maggior parte delle persone, in realtà sta già cominciando a creare dei problemi a tutti gli organismi marini che costruiscono strutture carbonatiche quali ad esempio le conchiglie dei molluschi ed i rami del corallo. Tali problemi ovviamente aumenteranno col diminuire del pH” – rivela D’Alessandro. Dalla piccola scala di emissioni di anidride carbonica a Vulcano, si capisce la grande scala dell’atmosfera della Terra. Il quarto rapporto dell’IPCC (Intergovernmental Panel On Climate Change) stima che entro la fine del XXI Secolo il pH marino passerà dal livello attuale di 8,1 al 7,8 a causa della crescente concentrazione di anidride carbonica nell’atmosfera. “Nonostante le polemiche che hanno caratterizzato il lavoro svolto dal IPCC e dall’incertezza che caratterizza alcuni dei risultati delle modellizzazioni future – osserva Marcello Liotta – noi siamo convinti della sostanziale correttezza delle previsioni effettuate sull’acidificazione degli oceani. A tal proposito le condizioni ritrovate nella Baia di Levante, nella parte più lontana dalle emissioni gassose più abbondanti, presentano un intervallo di pH tra 8,1 e 7,8 che sono riferibili a concentrazioni atmosferiche di anidride carbonica comprese tra gli attuali 380 ppm e i 650 ppm previsti per fine del secolo con uno scenario intermedio di emissioni antropiche. Ma nella Baia si ritrovano anche valori di pH molto più bassi che potrebbero rivelarci le conseguenze sia di un’acidificazione dell’oceano più spinta (scenari di emissione più pessimistici) sia quelle dovute per esempio ad una perdita di anidride carbonica da un sito di stoccaggio sottomarino. Quest’ultimo caso, pur avendo effetti arealmente molto più ristretti, può avere come conseguenza un abbassamento molto più vistoso (pH <6) come quello registrato nella Baia, nelle zone di emissione dell’anidride carbonica. Valori così bassi possono favorire la mobilità e la biodisponibilità di metalli pesanti con importanti ricadute sulla qualità ambientale e la salute umana”. L’acidificazione dei mari ha pesanti conseguenze sulla vita. “Tra i metalli pesanti – fa notare Liotta – si annoverano alcuni tra gli elementi più tossici per l’ambiente in genere e per gli organismi superiori in special modo. La loro tossicità però dipende molto dalla forma chimica in cui si presentano. Spesso questi sono immobilizzati in fasi solide relativamente innocue. La loro biodisponibilità e quindi la loro tossicità generalmente aumenta nelle loro forme più mobili, come per esempio gas e particelle sottili in atmosfera e specie disciolte in acqua. In quest’ultimo caso soluzioni molto acide favoriscono il rilascio di elementi tossici dalle fasi solide e la loro dissoluzione in acqua. Da questo punto di vista l’attività vulcanica in genere, rilasciando oltre all’anidride carbonica anche molte altre specie acide, favorisce la mobilità di elementi tossici e può quindi avere un impatto non indifferente sull’ambiente circostante”. I sensori dell’Ingv sono sempre più sensibili ed attenti su scala planetaria. Una singolare coincidenza ha voluto che mentre il governo della Corea del Nord annunciava, Martedì 12 Febbraio 2013, la terza esplosione nucleare sotterranea effettuata in un sito non meglio precisato di una zona montuosa a nord-est del Paese, un gruppo di ricercatori italiani dell’Istituto Nazionale di Geofisica e Vulcanologia diffondesse i risultati di un nuovo studio sulla precisa localizzazione ed altre caratteristiche del sito. Pubblicato sulla rivista internazionale “Pure and Applied Geophysics” col titolo: A Multidisciplinary Study of the DPRK Nuclear Test (12/2012), la ricerca è stata condotta da dieci ricercatori dell’Ingv (R. Carlucci, A. Giuntini, V. Materni, S. Chiappini, C. Bignami, F. D’Ajello Caracciolo, A. Pignatelli, S. Stramondo, R. Console e M. Chiappini) che collaborano con il Ministero degli Esteri italiano nell’ambito dell’Autorità nazionale per il Comprehensive Nuclear-Test-Ban Treaty, il Trattato internazionale per la messa al bando dei test nucleari, adottato dalle Nazioni Unite fin dal 1996, ma non ancora ratificato da tutti i Paesi. E, quel che peggio, non applicato da alcune nazioni. “L’obiettivo della nostra ricerca – spiega il geofisico Massimo Chiappini, a capo del gruppo – è quello di effettuare la caratterizzazione delle esplosioni nucleari nord-coreane per ottenere non soltanto una più precisa localizzazione geografica del sito, ma anche le caratteristiche della roccia incassante all’interno della quale sono effettuati i test, la geometria della cavità, la potenza dell’ordigno, le deformazioni subite dal rilievo topografico in conseguenza dell’esplosione, l’eventuale rilascio di radionuclidi nell’ambiente”. Per localizzare un sito in cui sono realizzate esplosioni nucleari sotterranee, di solito si adottano le stesse tecniche usate per il calcolo degli epicentri dei terremoti naturali, misurando i tempi di arrivo delle onde sismiche alle varie stazioni della rete mondiale di monitoraggio. Prima dell’esplosione del 12 Febbraio 2013, i comunisti nord-coreani ne avevano effettuate altre due, rispettivamente il 9 Ottobre 2006 e il 25 Maggio 2009. Relativamente a questi due eventi, i geofisici dell’Ingv hanno constatato che le localizzazioni ricavate da altri gruppi di ricerca internazionali, apparivano disgiunte, come se i siti fossero due ben distinti e distanti fra loro alcuni chilometri. Applicando un nuovo algoritmo e selezionando solo le stazioni che avevano registrato entrambi gli eventi, il gruppo di ricerca Ingv ha constatato, invece, che le due localizzazioni risultavano praticamente coincidenti. Per stabilire, con una precisione mai raggiunta prima, le coordinate del sito, i ricercatori Ingv hanno deciso di ricorrere a un’altra tecnica di indagine geofisica, chiamata Differential Interferometric Synthetic Aperture Radar (DInSAR) che utilizza le numerose immagini radar riprese da alcuni satelliti artificiali in successivi passaggi sopra una determinata zona. Mettendo a confronto le immagini DInSAR è possibile costruire degli interferogrammi e valutare dislocazioni del terreno anche di appena un centimetro. La stessa tecnica è stata applicata nei giorni successivi al disastroso terremoto di L’Aquila del 6 Aprile 2009 ricavando una deformazione del terreno di circa 25 centimetri su un’area estesa alcune centinaia di chilometri quadrati attorno alla città capoluogo della Regione Abruzzo, che il Presidente Barack Hussein Obama ha promesso di aiutare a ricostruire. “Applicando la tecnica DInSAR alla zona utilizzata dai nord-coreani per i loro test nucleari sotterranei, dopo l’esplosione del Maggio 2009 – rivela Chiappini – abbiamo misurato un abbassamento del terreno di 4,5 centimetri in una località di coordinate 129.1 di Longitudine Est e 41.4 di Latitudine Nord, che si trova circa 10 Km più a nord della più accurata localizzazione sismica. Poiché riteniamo che la precisione della determinazione con metodi sismici sia condizionata dalle anomalie di propagazione delle onde, siamo del parere che quella interferometrica rappresenti la migliore localizzazione attualmente disponibile”. Circa le altre caratteristiche del sito, lo studio multidisciplinare dei ricercatori Ingv lascia ipotizzare che la cavità sotterranea dove avvengono le esplosioni nucleari nord-coreane abbia una configurazione orizzontale, come una galleria scavata ai piedi di un alto massiccio montuoso, costituito da antichissime rocce granitiche risalenti all’era mesozoica. Il contenimento dei prodotti radioattivi all’interno della galleria sembra perfetto, tanto che i sensori di particelle radioattive non hanno rilevato alcun tipo di radionuclide sfuggito nell’atmosfera. In termini di energia liberata, le prime due esplosioni del 2006 e del 2009 hanno generato, rispettivamente, scosse di magnitudo 4.0 e 4.5 Richter. Quella del 12 Febbraio 2013 ha raggiunto, invece, 5.1 Richter. Da questi valori si può desumere che le bombe nucleari nord-coreane sono piccole ma in crescendo, con potenze comprese tra 5 e 15 chilotoni (la bomba americana sganciata su Hiroshima il 6 Agosto 1945 fu di 12,5 chilotoni). D’altra parte tutti possono rendersi effettivamente conto della pericolosità legata all’attività tettonica nell’area vesuviana ed etnea, che rappresenta un elemento importante nella delicata valutazione nella pianificazione del territorio. Le faglie etnee oltre ad essere spesso sismogenetiche possono produrre dislocazioni del suolo lente ma continue nel tempo, che deteriorano rapidamente qualunque manufatto costruito sulle faglie. Inoltre, molte faglie attraversano centri abitati densamente popolati, aumentando il loro potenziale distruttivo. Queste considerazioni hanno suggerito la necessità di realizzare un database georiferito di tutti i principali sistemi di faglie etnee attive, utilizzabile sia in ambito puramente scientifico sia dai tecnici addetti alla pianificazione territoriale operanti negli uffici pubblici. Una sorta di anagrafe delle faglie attive, ove esse possano essere registrate, catalogate e visualizzate anche in funzione di tutta una serie di parametri utili per la prevenzione e pianificazione, ma anche per la gestione delle emergenze. Il cuore del lavoro, pubblicato sulla rivista internazionale Journal of Volcanology and Geothermal Research, è stato infatti la parametrizzazione delle strutture da inserire nel database. Oltre alle informazioni prettamente geografiche e geometriche di ciascuna struttura tettonica, sono stati definiti e creati per tutte le faglie tutti gli appositi campi numerici e testuali necessari per descriverne e caratterizzarne la tipologia, il movimento, la potenzialità di generare terremoti e l’eventuale connessione tra il movimento della struttura e l’attività eruttiva del vulcano. Il documento (www.sciencedirect.com/science/article/pii/S0377027312002612) consente di rappresentare i dati delle faglie direttamente tramite Google Map. Si tratta di una cosa tutt’altro che banale, in quanto l’individuazione documentata ed inequivocabile di queste faglie mette un punto fermo sulla loro ubicazione (particolarmente quelle poco visibili in superficie) molto utile per gli uffici del Genio Civile e di altre Istituzioni preposte a rilasciare pareri autorizzativi sull’edificazione di manufatti ed infrastrutture e per quelle preposte ad intervenire e pianificare gli interventi durante le emergenze. Il database è realizzato in modo da poter essere implementato in ogni momento con nuove informazioni che possono essere acquisite in futuro. Il documento rappresenta una sorta di stato dell’arte delle conoscenze acquisite sulle faglie etnee, catalogate in un database aperto ai contributi: il gran numero di campi descrittivi previsti è appositamente disegnato per accogliere tutte le informazioni necessarie, anche se non ancora disponibili. Il database è sviluppato utilizzando il software ArcGIS ® che è tra i più completi e diffusi ed è fornito sotto forma di file in formato “shape”(.shp) universalmente riconosciuti da tutti i software GIS. Si compone di diversi set di dati tematici, sia geografici sia numerici, che analizzano e rappresentano i cinque sistemi di faglie principali che si sviluppano nella regione etnea. Tutti i dati sono georiferiti sul sistema di riferimento globale WGS84, su cui si basano ormai tutti i dispositivi di localizzazione e mappatura che utilizzano il GPS. Per facilitare ulteriormente l’utilizzo e la lettura dei dati geografici, le coordinate sono fornite in proiezione piana (UTM zona 33N) cioè in metri (Nord e Est) piuttosto che gradi (Latitudine e Longitudine) in modo da rendere tutto di più facile e immediata lettura. Attraverso specifiche interrogazioni, inoltre, il database è in grado di produrre una grande varietà di mappe di pericolosità e vulnerabilità. Autori del documento scientifico sono i vulcanologi Giovanni Barreca, Alessandro Bonforte e Marco Neri. Pare ragionevole pensare che la geofisica abbia molto da guadagnare dalla fisica quantistica. L’interazione di campo descritta nel lavoro dei fisici dell’Università del Texas, pubblicato su Science, è la potenziale candidata, secondo alcuni ricercatori, ad assumere il ruolo di Quinta Forza Fondamentale della Natura. Che andrebbe ad aggiungersi alle Quattro Forze già note: gravitazionale, elettromagnetica, nucleare debole e forte. Se così fosse, si dovrebbe contemplare anche la presenza di qualche nuova, inaspettata, o forse già nota, particella elementare. I fisici sanno che il Modello Standard della Fisica, la Teoria dei Campi che “sposa” Meccanica quantistica e Relatività ristretta, consacrata dall’esistenza del Bosone di Higgs scoperto al Cern di Ginevra grazie al superacceleratore Lhc, prevede l’esistenza di nuove particelle virtuali, scambiate da coppie di elettroni attraverso un’interazione a lunga distanza. L’ipotesi della Quinta Forza non è fantascienza! La Quinta Forza è stata avanzata diverse volte in passato: prevede un’intensità pari a quella della gravità e un raggio d’azione che va da pochi millimetri fino a distanze misurate su scale cosmiche. Se gli Ufo alieni extraterrestri esistono, allora, ne faranno gran uso! Tuttavia, l’ipotesi è rimasta finora tale, supportata solo dall’apparato teorico del Modello Standard. Il team di ricercatori guidato da Larry Hunter, professore di Fisica dell’Amherest College, è partito dall’interazione teorica spi-spin a lunga distanza per cercare in profondità la nuova forza fondamentale. Dal livello in superficie dei loro laboratori, i ricercatori americani hanno puntato gli strumenti in basso, a migliaia di chilometri verso il mantello terrestre, cioè quello strato geologico che separa la crosta dal nucleo centrale del pianeta. Dalla geologia sappiamo che il mantello è costituito in gran parte di materiale ferroso, immerso nel campo gravitazionale terrestre che fornisce agli elettroni degli atomi, di cui è composto, una specifica orientazione di spin. “Partiamo dal presupposto che un dipolo magnetico (un magnete) ha un’energia più bassa quando è orientato parallelamente al campo magnetico terrestre. Quello che facciamo nei nostri esperimenti – spiega Hunter – è eliminare quest’interazione per stabilire se ci sono altre interazioni analoghe, tra gli elettroni del laboratorio in superficie e quelli del mantello terrestre”. I geo-elettroni sono i valori di intensità e direzione che Hunter ha assegnato alle particelle descritte nella simulazione di calcolo degli elettroni delle viscere della Terra, sviluppata nella prima fase del lavoro. Questi dati sono stati incrociati con quelli ottenuti da Jung-Fu “Afu” Lin, professore associato della Jackson School of Geosciences, a riguardo di spin di elettroni di atomi sottoposti a condizioni di stress simili a quelle del mantello. La stima delle energie delle particelle in superficie in funzione dell’orientazione col campo magnetico terrestre ha indicato, per il momento, solo uno scarto di circa un millesimo tra l’intensità di interazione spin-spin tra due elettroni e la forza gravitazionale. “La cosa più sorprendente e gratificante di questo lavoro – rivela Jung Lin commentando i dati – è stato capire che la fisica delle particelle può essere utilizzata per studiare la geofisica”. Nel frattempo sull’Etna fontane di lava alte più di due grattacieli Empire State Building lanciano al cielo altri sinistri segnali. La Terra è viva. Sotto la crosta terrestre, nello strato del mantello, Uranio e Torio radioattivi funzionano come una stufa che riscalda il pianeta. Sono, almeno in parte, responsabili dei movimenti della crosta, delle attività dei vulcani, dei terremoti, della formazione di nuovo fondale marino che poi sprofonda negli abissi per essere riciclato nelle fosse oceaniche. Se la vita è possibile in superficie, quindi, lo dobbiamo anche all’Uranio ed al Torio. Ce lo confermano direttamente i geo-neutrini provenienti dalle profondità della Terra e rilevati dall’esperimento Borexino ai Laboratori del Gran Sasso dell’Istituto Nazionale di Fisica Nucleare. Dopo una prima scoperta nel 2010, Borexino ha continuato lo studio di queste preziose particelle apparentemente invisibili, raggiungendo nuovi traguardi. Le più importanti indicazioni ottenute dagli scienziati Infn sono essenzialmente tre. Nel mantello terrestre sono presenti in quantità rilevanti gli elementi radioattivi appartenenti alle famiglie dell’Uranio-238 e del Torio-232. La presenza dei due più importanti elementi radioattivi nel mantello, permette di valutare quale sia la continua produzione di energia termica e magnetica nella Terra. Il rapporto dei contenuti di Uranio e Torio nel mantello sembra andare d’accordo con quanto si trova analizzando le meteoriti che arrivano sulla Terra dallo spazio. Questa corrispondenza è un’importante conferma delle teorie sull’origine del Sistema Solare e sul nostro futuro, il territorio inesplorato. Queste due prime indicazioni permettono di sostenere che i decadimenti radioattivi sono responsabili di circa la metà dell’energia termica della Terra. I nuovi dati di Borexino smentiscono con più precisione l’ipotesi che al centro del nostro pianeta agisca anche un enorme reattore naturale, il cosiddetto geo-reattore tanto caro alla fantascienza di Atto di forza (alias Total Recall), che sfrutti giacimenti di Uranio presenti intorno al nocciolo centrale della Terra. Gli elementi più pesanti infatti sprofondano come i dannati. L’enorme energia termica presente all’interno della Terra ha un impatto fondamentale sulla nostra vita. Non si conosce con precisione la composizione chimica del mantello terrestre, spesso 2000 chilometri, che sta sotto la sottile crosta. Ma è il luogo fisico dove avvengono i movimenti di materia viscosa, causati dal calore distribuito in modo disomogeneo. Questi movimenti convettivi sono la causa dei vulcani e degli spostamenti delle placche tettoniche, quindi dei terremoti. Oltre a muovere la superficie del nostro pianeta attraverso il calore, i decadimenti radioattivi di Uranio e Torio emettono particelle di massa piccolissima, i geo-neutrini, che sono capaci di attraversare indisturbati la Terra ed arrivare fino ai nostri esperimenti. Questi segnali permettono di carpire informazioni su cosa avvenga all’interno del mantello senza l’esplorazione diretta in situ (film Core). Il Torio è stato proposto dal fisico premio Nobel, Carlo Rubbia, Senatore della Repubblica Italiana a vita, per alimentare i motori nucleari delle astronavi interstellari e per produrre energia elettrica ecologica nelle nuove centrali a fissione intrinsecamente sicure. Per osservare questi geo-neutrini occorrono strumenti estremamente sensibili e tecnologicamente molto avanzati come il rivelatore Borexino nel silenzio cosmico del Gran Sasso: uno strumento che ha ottenuto già grandi successi nel 2010 con la prima reale evidenza sperimentale dell’esistenza dei geo-neutrini, prima rivelati solamente da un altro esperimento al mondo, il giapponese Kamland. In una grande nazione che ben conosce i terremoti, gli tsunami, le eruzioni vulcaniche e la messa in sicurezza dei suoi cittadini. “La nostra economia, immensamente produttiva, esige che facciamo del consumo il nostro stile di vita. Abbiamo bisogno che i nostri oggetti si logorino, si brucino, e siano sostituiti e gettati a ritmo sempre più rapido” – scrisse Victor Lebow nel 1950. “Il rapporto della Commissione Internazionale sulla Previsione dei Terremoti per la Protezione Civile – scrive Thomas H. Jordan, Presidente della Commissione il 30 Maggio 2011 – risponde alla richiesta da parte del Governo italiano di accertare le conoscenze scientifiche sulla predicibilità dei terremoti e fornire linee guida per l’implementazione di previsioni probabilistiche operative. Le “previsioni probabilistiche operative” implicano due attività-chiave: il continuo aggiornamento delle informazioni da parte di fonti autorevoli sul futuro accadimento di terremoti potenzialmente dannosi, e la diffusione ufficiale di queste informazioni per accrescere la preparazione al terremoto nelle comunità soggette a rischio sismico. Sebbene una considerevole attività di ricerca venga destinata alla scienza della previsione probabilistica a breve termine dei terremoti, la standardizzazione di procedure operative è in una fase di sviluppo nascente. Il problema è impegnativo, perché i terremoti forti non possono essere predetti in modo affidabile per regioni specifiche su scale temporali minori di decenni. Pertanto, i risultati delle previsioni probabilistiche a breve termine di tali eventi – osserva Thomas H. Jordan – non consistono mai in alte probabilità, e il conseguente incremento dei benefici in chiave di protezione civile – per esempio rispetto alle analisi di pericolosità sismica a lungo termine – non sono stati dimostrati in modo convincente. Date queste circostanze, le agenzie governative che hanno responsabilità stabilite per legge in materia di previsione probabilistica dei terremoti sono state caute nello sviluppo di capacità operative del tipo descritto in questo rapporto. Tuttavia, le aspettative pubbliche circa il fatto che qualsiasi informazione valida su un aumento del rischio sismico sia resa disponibile ed effettivamente utilizzata sono chiaramente in aumento. L’esperienza mostra che vuoti di informazione possono lasciare spazio a predizioni deterministiche informali e disinformazione, e che basarsi solo su comunicazioni informali tra scienziati e pubblico provoca confusione. In questo contesto – avverte Thomas H. Jordan – deve essere seriamente considerato il dispiegamento di procedure sistematiche e trasparenti per la previsione probabilistica operativa dei terremoti. Gli esperti italiani di terremoti sono in prima linea nella ricerca necessaria per l’implementazione della previsione probabilistica operativa dei terremoti. Questo rapporto mette in risalto i loro successi e fornisce un percorso futuro di sviluppo basato sui loro sforzi attuali. Anche se la Commissione ha redatto il proprio rapporto con questo proposito, essa spera che il suo studio sia utile non solo in Italia, ma anche in altre regioni sismicamente attive, dove una previsione probabilistica operativa dei terremoti potrebbe essere garantita. Il rapporto – spiega Thomas H. Jordan – è stato scritto prima dell’aftershock distruttivo del 22 Febbraio 2011 a Christchurch, in Nuova Zelanda, e prima del catastrofico terremoto di Tohoku dell’11 Marzo 2011, al largo della costa Pacifica del Giappone, e non è stato fatto alcun tentativo di rivedere il suo contenuto alla luce di questi eventi. Tuttavia, essi mettono in luce la necessità di un’informazione autorevole circa le diverse pericolosità sismiche in dipendenza dal tempo, specialmente a seguito di forti terremoti, e le implicazioni di questi eventi, per quanto al momento compreso, non contraddicono risultanze e raccomandazioni della Commissione. Molti scienziati di numerosi Paesi hanno contribuito a questo rapporto, e la Commissione è grata per il loro aiuto. Questo rapporto è stato migliorato da numerose revisioni critiche e noi siamo grati per le relative indicazioni”.
Nicola Facciolini
Lascia un commento