E fu il Diluvio universale! Nuove analisi di sedimenti provenienti dai margini del continente antartico dimostrano che l’espansione e il successivo ritiro della calotta polare hanno innescato e messo fine al prosciugamento del Mar Mediterraneo. È quanto emerge dai risultati di uno studio pubblicato su Nature Communications, coordinato da Ingv e firmato da un team internazionale di ricercatori (Christian Ohneiser, Fabio Florindo, Paolo Stocchi, Andrew P. Roberts, Robert M. DeConto e David Pollard). Circa 5-6 milioni di anni fa, il Mediterraneo era completamente diverso da come lo vediamo oggi: non solo il collegamento con l’Oceano Atlantico era chiuso ma il mare si presentava come una valle profonda e arida con uno spesso strato di sale sul fondale. Questa fase, nota in letteratura come “crisi di salinità del Messiniano”, è durata circa 270mila anni. A stabilire l’importante ruolo della crescita e riduzione della calotta polare antartica nelle varie fasi di questa trasformazione, è lo studio “Antarctic glacio-eustatic contributions to late Miocene Mediterranean desiccation and reflooding”, realizzato dall’Istituto Nazionale di Geofisica e Vulcanologia. “Le cause che hanno portato al prosciugamento sono state oggetto di un acceso dibattito scientifico in questi ultimi anni – osserva Fabio Florindo, direttore della Struttura Ambiente dell’Ingv e coautore della pubblicazione – le prime teorie, pubblicate negli Anni ‘70, imputavano la chiusura del Mediterraneo ai movimenti relativi delle Placche litosferiche africana, araba ed euroasiatica che avrebbero chiuso lo stretto di Gibilterra. Altri ricercatori ipotizzarono, invece, che la causa principale poteva essere riconducibile a una glaciazione, con conseguente riduzione del livello globale degli oceani. L’abbassamento del livello degli oceani, infatti, fu tale che scese al di sotto di una soglia posta in corrispondenza dello stretto di Gibilterra, causando l’isolamento del Mediterraneo dall’Atlantico. In entrambi gli scenari la limitazione di apporto idrico, rispetto all’evaporazione, avrebbero, quindi, reso il Mediterraneo un grande lago destinato poi a prosciugarsi completamente. Lo studio conferma questa ricostruzione, mettendo però in luce un sistema di cause molto più complesso”. Il team mondiale di ricerca ha analizzato 60 perforazioni effettuate lungo il margine del continente antartico e nell’Oceano Meridionale. Dall’analisi di queste sequenze sedimentarie è emerso che, durante il periodo della crisi di salinità del Messiniano, si è sviluppata una fase erosiva e non di sedimentazione. “L’erosione, attribuita all’aumento di ghiaccio sul continente antartico, avrebbe progressivamente ridotto il livello degli oceani – rivela lo scienziato Ingv – durante questa fase si è ridotta di molto la differenza di altezza tra la superficie del mare e il fondale e l’influenza della corrente superficiale è diventata così grande che il processo di sedimentazione si è trasformato in erosione”. I dati mettono in evidenza il ruolo della fase glaciale e interglaciale come causa primaria per l’inizio e la fine del prosciugamento del Mediterraneo avvenuto più di 5 milioni di anni fa. Il movimento delle placche litosferiche avrebbe anch’esso svolto un ruolo, ma non è stata questa la causa primaria. A completamento della ricerca “è stato sviluppato un modello complesso al supercalcolatore, sviluppato da Paolo Stocchi, ricercatore del Royal Netherland Institute for Sea Research e cofirmatario del lavoro, che simula la dinamica della calotta polare e la conseguente oscillazione del livello degli oceani. L’influenza della crescita della calotta antartica sul livello del mare – spiega Fabio Florindo – non è uniforme su tutto il pianeta, in quanto il suo sviluppo comporta una complessa interazione tra effetti gravitazionali, rotazionali e le deformazioni della litosfera terrestre”. I ricercatori hanno dimostrato che, in conseguenza dell’evaporazione del Mar Mediterraneo, la litosfera intorno lo Stretto di Gibilterra ha iniziato a sollevarsi a causa della rimozione del carico d’acqua sovrastante mantenendo il Mediterraneo isolato dall’Oceano Atlantico. Successivamente la calotta antartica ha avuto una fase di ritiro contribuendo così al sollevamento del livello medio degli oceani. Circa 5.33 milioni di anni fa il livello crescente dell’Atlantico era appena sufficiente per scavalcare una esigua barriera posta in corrispondenza dello stretto di Gibilterra, causando una catastrofica inondazione che in pochi anni ha riempito nuovamente il bacino del Mediterraneo. E fu il Diluvio Universale di memoria biblica! “Una delle implicazioni di questa ricerca – rileva Florindo – è la comprensione del fatto che alla crescita o riduzione delle calotte polari le oscillazioni degli oceani avvengono con modalità irregolare. Una fusione parziale delle calotte potrebbe, quindi, determinare una variazione complessa del livello degli oceani, dando vita a nuovi scenari di cambiamento climatico”. L’incertezza scientifica è sempre una misura, a dispetto delle “certezze” dei profeti di (s)ventura e dei pifferai magici. Terremoto sì, terremoto no. Eruzione vulcanica sì, eruzione no. Tsunami sì, tsunami no. Impatto cosmico sì, impatto no. Frana sì, frana no. Supernova sì, Supernova no. Diluvio sì, diluvio no. Gamma Ray Burst sì, GRB no. Se c’è una cosa che il sisma di magnitudo 6.3 del 6 Aprile 2009, le raccomandazioni scientifiche dei geoscienziati e il processo di L’Aquila hanno insegnato in scienza e coscienza, è il concetto di Resilienza che l’onesta, rigorosa e compresibile informazione scientifica è chiamata a illustrare sul tema del Rischio Naturale, non soltanto alle autorità civili, ma a tutti, prima delle catastrofi. Sapete quali variazioni sono state integrate? Vi sentite sicuri grazie ai cambiamenti introdotti? Conoscete il livello di Rischio sismico e vulcanico (tsunami) attribuito all’area in cui vivete? Conoscete le norme edilizie applicate nella costruzione e ristrutturazione dell’edificio in cui vivete? Sapete chi ha costruito e ristrutturato l’edificio in cui vivete? Avete fiducia in lui? Sapete come scoprirlo? Come pensate di aggiornarvi? Sono soltanto alcuni dei quesiti ispirati e proposti dal libro “Terremoti, comunicazione, diritto. Riflessioni sul processo alla Commissione Grandi Rischi” (edito da Franco Angeli) che crediamo non mancherà nella biblioteca mobile degli scienziati in partenza per la 31esima Campagna estiva del Programma Nazionale di Ricerche in Antartide (PNRA). Attività scientifiche condotte dall’Italia (www.italiantartide.it/) nel continente antartico, finanziate dal Ministero dell’Istruzione, dell’Università e della Ricerca (Miur) secondo gli indirizzi strategici della Commissione Scientifica Nazionale per l’Antartide (Csna). La 31.ma Spedizione è affidata alla gestione logistica dall’Agenzia nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile (Enea), posta sotto il coordinamento scientifico del Consiglio Nazionale delle Ricerche (Cnr). L’avvio della Campagna 2015-16 è coinciso anche quest’anno con la riapertura della Stazione italiana “Mario Zucchelli”, la base abitativa, logistica e scientifica per le attività dell’Italia in Antartide, situata nella Baia di Terranova, lungo la costa settentrionale di Terra Vittoria, a sud della Nuova Zelanda. Il ripristino della piena funzionalità della Stazione, dopo la lunga pausa invernale, è assicurato da un primo gruppo di persone condotto dal capo spedizione, Gianluca Bianchi Fasani, e da 12 tecnici specializzati dell’Enea, oltre a due ufficiali delle Forze Armate addetti alla sala operativa, un medico, un cuoco e tre piloti di elicottero neozelandesi. Il team scientifico si arricchisce in questi giorni con l’arrivo di oltre 200 persone tra tecnici e ricercatori italiani e stranieri. Durante i quattro mesi di Campagna, i partecipanti dovranno affrontare condizioni ambientali particolarmente rigide, abituandosi alle basse temperature che si registrano lungo le coste, con medie comprese tra 0 e meno 35 gradi Celsius, adattandosi alle 24 ore di luce diurna che scandiscono l’estate antartica. Le attività di ricerca spaziano dallo studio di biodiversità, evoluzione e adattamento degli organismi antartici alle scienze della Terra; dalla Glaciologia all’indagine delle contaminazioni ambientali; dalle scienze dell’atmosfera e dello spazio alle attività di monitoraggio negli osservatori meteo-climatici, astronomici e geofisici permanenti di cui è dotata la Mario Zucchelli. Alla Spedizione partecipa anche la nave Italica che dal porto di Ravenna si dirige prima verso la Nuova Zelanda per poi giungere in Antartide. La motonave italiana sarà protagonista, in particolare, di una campagna idrografica nel Mare di Ross che vedrà il coinvolgimento di esperti della Marina Militare Italiana e di una campagna oceanografica per attività scientifiche nell’Oceano Meridionale. L’impegno dell’Italia in Antartide, durante l’estate australe 2015-2016, non si limiterà alle attività nella Baia di Terranova. Il 7 Novembre, un gruppo composto da tecnici italiani e francesi ha avviato la campagna estiva nella Stazione italo-francese “Concordia” (http://blogs.esa.int/concordia/), dando il cambio al personale rimasto isolato nella base durante la precedente stagione invernale. Situata nel plateau antartico, a circa 1000 chilometri dalla costa e 3300 metri di altezza sul livello del mare, la base Concordia è un avamposto scientifico unico al mondo, nato dagli sforzi congiunti di Italia e Francia, e presidiato anche durante il gelido inverno australe, quando le temperature possono arrivare ai meno 80 gradi Celsius. Sono previsti studi e ricerche nei settori della Fisica dell’atmosfera, dell’Astrofisica e della Glaciologia. La Campagna nella base Concordia terminerà l’8 Febbraio 2016, mentre la 31esima Spedizione estiva italiana si concluderà il 12 Febbraio 2016, con la chiusura della stazione Mario Zucchelli e la partenza della nave Italica alla volta della Nuova Zelanda. Trenta spedizioni sui ghiacci a cui hanno preso parte più di 3000 persone, conducendo alla realizzazione di centinaia di progetti scientifici. Sono questi alcuni numeri dell’attività di ricerca condotta dall’Italia nell’ambito del Programma Nazionale di Ricerche in Antartide, istituito dal Parlamento italiano nel 1985 e tuttora finanziato dal Miur. Più di un’avventura scientifica che interroga su priorità e linee di azione future insieme alla Santa Russia. Grazie anche alla totale liberalizzazione della industria e della impresa spaziale pubblica e privata, in vista della conquista del Cosmo dalle orbite polari, applicando la Relatività di Albert Einstein. Uno dei capitoli più affascinanti della storia recente riguarda le ricerche di pace in Antartide, il continente più sconosciuto, remoto e incontaminato della Terra. Dalla fine degli Anni Cinquanta, questo mondo sommerso dai ghiacci, unico sotto molti aspetti geologici, ambientali, climatici, geografici e politici, espressione viva e feconda delle Nazioni Unite, è diventato un luogo privilegiato per l’osservazione e la sperimentazione scientifica, da cui ricavare informazioni preziose sull’origine e la storia profonda della Terra, e in cui cercare risposte ad alcune domande sul futuro climatico e ambientale che ci aspetta. A questa impresa scientifica l’Italia partecipa da trent’anni con un ruolo da protagonista. In occasione dei festeggiamenti del trentennale del Pnra, la comunità scientifica italiana specializzata nella ricerca polare si è riunita a Roma, all’Accademia dei Lincei, nella Conferenza programmatica sulla ricerca in Antartide. Un evento per celebrare i momenti salienti di tre decenni di sforzi logistici, politici e scientifici nel continente antartico e per condividere le priorità della ricerca polare di pace nel prossimo futuro. In trent’anni di vita del Pnra sono state realizzate trenta spedizioni, centinaia di progetti scientifici e due stazioni di ricerca, con un coinvolgimento totale di oltre 3000 tra scienziati, tecnologi e ingegneri italiani. Dietro questi numeri si nascondono importanti ricadute per l’innovazione delle conoscenze, la valorizzazione tecnologica e la cooperazione scientifica italiana nel contesto internazionale. Oggi un Leonardo da Vinci del XXI Secolo che fine farebbe in Italia? Sarebbe davvero libero di inventare e realizzare le proprie macchine straordinarie? L’impegno del Miur è di assicurare continuità di finanziamenti alla ricerca in Antartide che per il 2015 può contare su uno stanziamento di 23 milioni di euro nell’ambito del Fondo ordinario per gli enti e le istituzioni di ricerca (Foe). Alcuni dei numerosi progetti scientifici antartici a cui hanno partecipato i ricercatori italiani, in totale circa 110 per ciascun triennio, hanno ottenuto importanti riconoscimenti. Come “Epica-European Project for Ice Coring in Antarctica” che si è aggiudicato nel 2008 il prestigioso Premio Descartes dell’Unione Europea, per aver consentito di ricostruire, mediante l’analisi dei ghiacci, l’evoluzione delle variazioni climatiche in centinaia di migliaia di anni. E il progetto “Boomerang–Balloon Obervations of Millimetric Extragalactic Radiation and Geophysics”, condotto da un team guidato dal fisico Paolo De Bernardis, vincitore nel 2006 del Premio Balzan per aver catturato la Radiazione Cosmica di Fondo, la sfuggente “cenere” a microonde del Big Bang che permea l’Universo, lanciando in volo un pallone di alta quota. Qual è il futuro della ricerca polare? Temi scientifici e campi di applicazione tecnologica prioritari non mancano tra le questioni individuate dalla Comunità Antartica Internazionale nell’ambito di una consultazione promossa dallo “Scientific Committee on Antarctic Research” (Scar). L’obiettivo finale è l’elaborazione di un Documento per identificare linee di priorità del Pnra, insieme alla Russia, condivise e scaturite dalla comunità scientifica italiana. Lo Scar, rappresentato dal Presidente, il professor Jerónimo López, è un comitato interdisciplinare del Consiglio Internazionale per la Scienza (Icsu) con il compito di avviare, sviluppare e coordinare la ricerca scientifica internazionale di alta qualità nella regione antartica e di fornire consulenza scientifica obiettiva e indipendente durante le riunioni consultive del Trattato Antartico e altre organizzazioni come l’UNFCCC e IPCC sui temi della Scienza e della Conservazione che riguardano la gestione dell’Antartide e il suo ruolo nel sistema Terra. Lo Scar ha individuato 80 priorità scientifiche per la salvaguardia dell’Antartide e dell’Oceano Antartico, in attesa del 48.mo Agu Fall Meeting di San Francisco (14-18 Dicembre 2015, #AGU15). Mentre ha avuto inizio la fase di implementazione di Epos, l’infrastruttura di ricerca integrata che permetterà agli scienziati di tutta Europa di avere accesso a dati e strumenti di ricerca relativi alle Scienze della Terra, utili per lo studio di terremoti, vulcani e maremoti. A coordinare il progetto, finanziato dalla Commissione Europea con oltre 18 milioni di euro nell’ambito di Horizon 2020, è l’Italia con l’Istituto Nazionale di Geofisica e Vulcanologia (Ingv). Una nuova piattaforma tecnologica per la comprensione dei processi fisici che generano terremoti, eruzioni vulcaniche e tsunami, capace di mettere in contatto i ricercatori di tutta Europa, Russia compresa, unendo assieme le informazioni provenienti da circa 5mila stazioni sismiche e 118 laboratori di ricerca, per un totale di alcuni Petabyte (10 elevato alla 15.ma potenza di byte) di dati scientifici disponibili. Si tratta di “European Plate Observing System”, già presente nella roadmap del Forum Strategico Europeo per le Infrastrutture di Ricerca (Esfri), e inserita nel 2014 tra le prioritarie da implementare da parte del Consiglio di Competitività dell’Unione Europea. Dopo aver terminato con successo i quattro anni della sua fase preparatoria, Epos è ora pronta a iniziare la sua fase di implementazione sotto il coordinamento italiano dell’Ingv. “Epos è un’infrastruttura di ricerca aperta a tutti i ricercatori europei delle Scienze della Terra solida e non solo – osserva Massimo Cocco dell’Ingv, coordinatore del progetto – che consentirà la condivisione virtuale dei risultati delle ricerche teoriche e sperimentali e l’accesso a dati, prodotti scientifici e laboratori. La visione di Epos e la sua missione sono condivise da 25 Paesi europei che stanno collaborando alla costituzione di un soggetto legale: il consorzio Europeo Epos-Eric (European Research Infrastructure Consortium) la cui sede legale sarà ospitata in Italia presso l’Ingv”. La nuova infrastruttura di ricerca sarà operativa dall’Anno Domini 2019 e consentirà alle Università e agli enti di ricerca di avere libero accesso a un enorme patrimonio di dati osservativi, esperimenti scientifici e software di calcolo nell’ambito delle Scienze della Terra. Epos faciliterà inoltre iniziative di formazione didattica a distanza e contribuirà a promuovere le ricerche interdisciplinari e l’innovazione in ambito scientifico e tecnologico. La fase di implementazione ha preso ufficialmente il via il 1° Ottobre 2015. Oltre all’Ingv, partecipano altri enti di ricerca e università italiani, tra cui il Consiglio Nazionale delle Ricerche, l’Istituto Superiore per la Protezione e la Ricerca Ambientale, l’Istituto Nazionale di Oceanografia e di Geofisica e le Università degli Studi di Trieste, Genova e Roma Tre. “Attraverso l’integrazione di dati, prodotti e laboratori – rivela Massimo Cocco – Epos permetterà alla comunità scientifica internazionale di sviluppare nuove idee e strumenti per rispondere in modo sempre più accurato alle sfide riguardanti i rischi ambientali e lo sfruttamento sostenibile dell’ambiente e delle sue risorse”. Nel mese di Settembre 2015 la Rete Sismica Nazionale dell’Ingv ha registrato 1200 terremoti, in linea con i mesi estivi del 2015. La media è stata di 40 eventi localizzati in un giorno. Il 16 Settembre (le ore 00:54 in Italia del 17 Settembre) un forte terremoto di magnitudo 8.2 ha colpito la zona costiera del Cile, a circa 54 km da Illapel e a 233 km a nord di Santiago. A causa della magnitudo elevata e della posizione della faglia, piuttosto superficiale, il sisma ha generato uno tsunami che si è propagato in tutto l’Oceano Pacifico. In Italia anche a Settembre, come altre volte durante il 2015, non sono stati localizzati eventi di magnitudo maggiore o uguale a 4. I due terremoti maggiormente risentiti, entrambi di magnitudo M 3.8, sono stati localizzati nella notte tra il 12 e il 13 a sud di Firenze tra le province di Siena e Firenze e nella notte tra il 20 e il 21 Settembre al largo della costa orientale della Sicilia nei pressi di Siracusa. Si nota l’assenza di terremoti di magnitudo maggiore o uguale a 4, mentre sono stati 11 gli eventi di magnitudo compresa tra 3.0 e 3.9 e 129 quelli tra magnitudo 2.0 e 2.9. Anche in questo mese la quasi totalità dei terremoti registrati e localizzati ha avuto una magnitudo inferiore a 2.0. I due terremoti di magnitudo maggiore (M 3.8) sono avvenuti in Sicilia e in Toscana. Il primo, registrato nella notte tra 12 e il 13 Settembre, è stato localizzato tra le province di Firenze e Siena ad una profondità di appena 9 Km, in un’area interessata da una sequenza sismica nel Dicembre 2014 e successivamente nel Marzo 2015. Il risentimento per questo evento è stato notevole soprattutto nella città di Firenze e nella parte a nord dell’epicentro. Il secondo evento di magnitudo Mw 3.8 (Ml 3.9) si è verificato sempre di notte tra il 20 e il 21 Settembre ed è stato localizzato in mare al largo della Costa Siracusana ad una profondità di 23 Km. Il sisma è avvenuto molto vicino ad un’area interessata storicamente da forti terremoti e per questo considerata una delle zone a maggiore pericolosità sismica di tutta l’Italia. Dalla Mappa del Risentimento Sismico si nota un impatto sicuramente minore, data la profondità e la lontananza dalla costa, ma abbastanza diffuso tra le province di Catania e Siracusa. Un altro evento significativo è stato quello di magnitudo M 3.7 verificatosi la mattina del 19 Settembre e localizzato nelle Marche (provincia di Pesaro e Urbino) al confine con l’Umbria e la Toscana. Nel mese di Settembre in quest’area è stata registrata una piccola sequenza sismica con oltre 230 eventi la maggior parte di magnitudo molto bassa ad una profondità inferiore ai 10 Km. In questa sequenza solo un altro terremoto di magnitudo M 3.5 avvenuto la sera prima del 19 Settembre con epicentro quasi coincidente con l’evento di magnitudo M 3.7. Sabato 17 e Domenica 18 Ottobre 2015, in oltre 400 Comuni su tutto territorio nazionale, sono tornati in piazza i punti informativi di “Io non rischio 2015”. Quasi 5mila volontari di associazioni nazionali di volontariato di protezione civile, gruppi comunali e associazioni locali sono stati coinvolti in questa campagna per le buone pratiche di Protezione Civile, promossa dal Dipartimento di Protezione Civile, in collaborazione con l’Istituto Nazionale di Geofisica e Vulcanologia, l’Associazione Nazione delle Pubbliche Assistenze e la Rete dei Laboratori Universitari di Ingegneria Sismica. L’obiettivo principale della campagna sui rischi naturali che interessano l’Italia e il Mediterraneo, è quello di promuovere il ruolo attivo dei cittadini nella Prevenzione e nella Riduzione del Rischio. Attori principali sono proprio i volontari di protezione civile presenti, con le loro associazioni in tutta Italia, che vivono e operano sul proprio territorio, lo conoscono e, a loro volta, sono conosciuti dalle istituzioni locali e dai cittadini. I volontari, dopo un lungo percorso di formazione che per tutto l’anno impegna i tanti funzionari, ricercatori e tecnici del Dpc, dell’Ingv, di Anpas e ReLuis, allestiscono i punti informativi “Io non rischio” per sensibilizzare i propri concittadini sul Rischio sismico, alluvionale, eruttivo e da tsunami (www.iononrischio.it), per consultare le mappe interattive realizzate dall’Ingv e i materiali informativi su cosa sapere e cosa fare per proteggersi dai Rischi Naturali. È consiliabile consultare le mappe interattive, uno strumento utile per conoscere i terremoti, i maremoti o le alluvioni che hanno storicamente interessato i Comuni d’Italia producendo danni. Le conseguenze di questi eventi possono essere, infatti, ridotte se conosciamo la pericolosità dei fenomeni che possono interessare i nostri territori, se diventiamo consapevoli delle possibili conseguenze e se ci impegniamo fin da subito a trasformare questa consapevolezza in scelte di vita diverse (Resilienza). La sezione delle mappe dedicata al Rischio sismico permette di navigare il territorio italiano in base alla sismicità recente (terremoti italiani dal 2005 al 2015 con magnitudo maggiore o uguale a 3.5), alla storia dei fenomeni che si sono verificati nei Comuni teatro della campagna, alla pericolosità sismica e ai terremoti del passato con magnitudo stimata maggiore o uguale a 5.0. In quella sui maremoti sono invece rappresentati terremoti, frane, eruzioni vulcaniche all’origine degli tsunami italiani che si sono verificati in passato nel nostro Belpaese. La sezione alluvione offre una mappa interattiva con la distribuzione geografica degli eventi di inondazione che hanno causato danni diretti alla persone negli ultimi 50 anni (1965-2014) e il numero di eventi di inondazione per chilometro quadrato per ciascuna regione italiana nel periodo 1918-2001. Quest’anno i promotori della campagna #iononrischio hanno attivato una mobilitazione virtuale su Twitter per realizzare un “tweetstorm”, un flusso di tweet simultaneo con un l’hashtag #iononrischio2015 insieme ad una lista di tweet corredati da foto, immagini e infografiche. La Natura non fa salti, ma se si scatena, non perdona chi la ignora. Alle 22:54 UTC del 16 Settembre 2015, un forte terremoto di magnitudo 8.2 ha colpito la zona costiera del Cile, a circa 54 km da Illapel e a 233 km a nord di Santiago, causato dallo scorrimento di circa 5 metri di una faglia lunga 240 km e larga 90 km. I ricercatori del Centro Allerta Tsunami (CAT) dell’Ingv hanno ricostruito la propagazione delle onde di maremoto attraverso l’Oceano Pacifico, utilizzando un modello di faglia semplificato nel quale vengono mostrate le altezze massime e i tempi di propagazione delle onde nel Pacifico. Il terremoto è avvenuto nella zona di contatto tra la Placca di Nazca sul lato del Pacifico, a Ovest, e quella sudamericana a Est. La prima scivola sotto la seconda a una velocità di circa 8 cm l’anno, una delle velocità maggiori tra le placche del pianeta Terra, che costituisce il motivo dell’elevata sismicità cilena. A causa della magnitudo elevata e della posizione della faglia, piuttosto superficiale, il terremoto ha generato uno tsunami “irradiato” in tutto l’Oceano Pacifico. Secondo i dati del Centro Allerta Tsunami dell’Ingv, che opera in fase sperimentale e calcola in maniera rapida e automatica i parametri di tutti i forti terremoti che avvengono sulla Terra, il terremoto cileno aveva il potenziale per produrre uno tsunami. L’andamento dei tempi di propagazione della prima onda di maremoto è stato calcolato automaticamente pochi minuti dopo il sisma. I dati dei mareografi e delle boe nella regione pacifica sudamericana hanno effettivamente rilevato onde di tsunami di qualche metro, con un picco di circa 4.5 metri a Coquimbo. La prima onda di tsunami non è la più alta, come spesso accade. La maggiore è arrivata a Coquimbo circa un’ora dopo la prima. Dagli Anni ’60 il Cile è dotato di un buon sistema di Early Warning per gli tsunami, che ha dato prova di efficacia negli ultimi anni, dopo che nel terremoto del 2010 (M8.8) ci furono dei problemi nell’Allerta. Al suono delle sirene, immediata è stata l’evacuazione delle zone costiere. I Cileni, come evidenziano i video pubblicati su Youtube, hanno dato prova di grande coraggio, ordine e dignità. Le animazioni mostrano la propagazione delle onde di maremoto dalle coste del Sud America fino al lato opposto dell’Oceano Pacifico. Le onde di tsunami in oceano aperto vengono amplificate enormemente all’avvicinarsi della costa. La simulazione dello tsunami è stata eseguita su un’architettura di calcolo basata su Gpu utilizzando il software HySEA, un codice numerico per la modellazione della propagazione di onde di tsunami sviluppato dal gruppo EDANYA dell’Università di Malaga, Spagna (De la Asunciòn et al., 2013). Secondo l’Usgs, il Servizio Geofisico statunitense, dopo il primo scossone si sono verificati più di 40 eventi di magnitudo pari o superiore a 4.7, tra i quali 7 hanno avuto magnitudo maggiore di 6. Le repliche più forti, anche di magnitudo 7, a 10 Km di profondità, proseguono nella stessa zona del Pacifico a ridosso di Coquimbo (http://earthquake.usgs.gov/earthquakes/eventpage/us10003x9g#general_summary). Il Cile ha una lunga storia di forti terremoti, incluso il sisma di Maule del 2010 (magnitudo 8.8) nel Cile centrale, che ha provocato una rottura di una sezione lunga circa 400 km del bordo di Placca a Sud dell’evento del 16 Settembre 2015. Questa zona di subduzione ha anche subito il terremoto più forte di sempre al mondo (1960), di magnitudo 9.5 nel Cile meridionale. Negli ultimi cento anni, la regione attorno all’evento del 16 Settembre 2015 ha avuto altri 15 terremoti di magnitudo maggiore di 7.0, uno dei quali si è verificato il 1° Aprile 2014 (magnitudo M 8.2) al largo delle coste settentrionali del Cile. Il terremoto del 16 Settembre 2015 ha generato uno tsunami che ha colpito le coste cilene in 15 minuti, raggiungendo la Nuova Zelanda alle ore 14 italiane e le Isole Hawai poco dopo le 15. Il Centro Allerta Tsunami dell’Ingv, attivo in via sperimentale per il monitoraggio del Bacino del Mediterraneo, ricevendo i dati di tutto il mondo, ha calcolato i parametri del terremoto del Cile del 16 Settembre 2015 alle ore 22.54 UTC, attraverso il Sistema Early-Est. La prima localizzazione era disponibile dopo circa 6 minuti dal sisma e già dopo 10 minuti l’Early-Est aveva stimato il valore della magnitudo in 8.2. I mareografi e le boe nella regione pacifica sudamericana, i cui dati vengono visualizzati in tempo reale al CAT, hanno rilevato onde di tsunami di qualche metro lungo le coste cilene, con un picco di circa 4.5 metri a Coquimbo. Il Sistema Nacional de Alarma de Maremotos (SNAM) ha dato l’allerta 8 minuti dopo il terremoto, l’ha cancellata in alcune regioni dopo 2 ore e 20 minuti e l’ha cancellata totalmente dopo circa 7 ore e 30 minuti (alle 06.19 UTC). I sismi cileni confermano ancora una volta come solo una seria Prevenzione e una logica Resilienza ci possono difendere dai danni dei terremoti. I Cileni sanno subito che strada inforcare quando suonano le sirene di Allerta Tsunami. Sono strade segnalate e illuminate. Il Cile, dopo il disastroso terremoto del 1960, di magnitudo 9.5, ha adottato norme per le costruzioni molto rigorose, per le quali tutti gli edifici devono resistere a magnitudo molto elevate. Ha anche introdotto norme per invogliare la popolazione ad adeguare la propria abitazione. Di fatto oggi il Cile ha una vulnerabilità degli edifici molto bassa, uno Stato di diritto che funziona, ma anche una popolazione educata al terremoto e questo spiega il bassissimo numero di vittime nonostante una magnitudo così elevata: in termini di energia liberata, il sisma cileno del 16 Settembre 2015 è stato circa 5mila volte maggiore di quello avvenuto in Emilia Romagna il 20 Maggio 2012. E in Italia? Il 7 Ottobre 2015 è stato registrato uno sciame sismico nell’area dei Campi Flegrei a partire dalle ore 7:20 UTC (ore 9:20 italiane) con circa 33 eventi, l’ultimo alle ore 11:16 italiane. Gli scuotimenti hanno raggiunto la magnitudo massima Md 2.5 e profondità massime di circa 2.5 km. L’area epicentrale dello sciame è quella di Pisciarelli, il bordo orientale della Solfatara. I terremoti nell’area vulcanica dei Campi Flegrei sono per la maggior parte superficiali e di bassa energia e l’area epicentrale è compresa tra Pozzuoli e la Solfatara e in minima parte nel Golfo di Pozzuoli. La sismicità aumenta notevolmente nei periodi di più intensa deformazione del suolo (tasso di sollevamento) sia come magnitudo degli eventi sia come frequenza di accadimento dei terremoti o degli sciami sismici. I Campi Flegrei sono stati caratterizzati da due forti crisi sismiche in corrispondenza dei recenti fenomeni bradisismici del 1970-72 e del 1982-84 (Md max=4.0 del 4/10/1983, I=VII MCS, Branno et al., 1984; De Natale e Zollo, 1986; Marturano et al., 1988). Crisi sismiche di minore entità si sono succedute nel 1989, 1994, 2000 con oltre 10 sciami sismici di magnitudo Md<1. Dal 2004, con la ripresa del fenomeno del sollevamento del suolo, è stata registrata un’attività sismica caratterizzata da sismicità a sciami con magnitudo massime più elevate. Lo sciame sismico del 30 Marzo del 2010 con 120 eventi in 40 minuti (Md max=1.3) e quello registrato il 7 Settembre 2012 con circa 200 eventi (con i due più forti di magnitudo pari a Md=1.2 e Md=1.7 entrambi avvertiti dalla popolazione) sono quelli più rilevanti. Un terremoto di magnitudo 7.5 è avvenuto alle ore 09:09 UTC (le 10:09 italiane) del 26 Ottobre 2015 nella regione montuosa dell’HinduKush, in Afghanistan nord-orientale (il più violento sisma dal 1949), vicino a Pakistan, India, Ukbekistan, Tajikistan e Kyrgyzstan, in una zona a elevata sismicità, generato dalla collisione della Placca indiana con quella euro-asiatica. Il bilancio provvisorio è di oltre 350 morti e 2000 feriti. I senzatetto oltre 6500. La crisi umanitaria è sempre più grave. La profondità ipocentrale dell’evento è di circa 200 km, tipica per quel settore della catena Hymaliana. In precedenza, la zona era stata colpita da numerosi forti terremoti di profondità confrontabile, tra i 100 e i 250 km. Qui si trova infatti, secondo le ricostruzioni effettuate con la tecnica della tomografia sismica, un residuo dell’Antico Oceano presente prima che l’India raggiungesse la grande Placca euro-asiatica. Nella zona dell’HinduKush, situata poco a Nord-Ovest del margine di placca, un terremoto analogo era avvenuto il 3 Marzo 2002, con magnitudo 7.4, a profondità di circa 225 km, causando oltre 150 vittime. E si ricordano anche gli eventi del 1905 (M7.5, Kangra), del 1934 (M8.1, Bihar) e del 2005 (M7.6, Kashmir). Pur localizzato lungo lo stesso margine di placca del terremoto del Nepal dell’Aprile 2015 (M 7.8, 8mila morti), i due eventi sono molto diversi sia per la profondità ipocentrale (il sisma del Nepal era superficiale) sia per la dinamica dei processi. Il terremoto del 26 Ottobre 2015 è un fenomeno legato allo sprofondamento (subduzione) dell’Antico Oceano, con eventi che avvengono fino a 300 km di profondità; mentre nel caso del Nepal si tratta di un terremoto per sovrascorrimento (thrust) superficiale, in pratica uno scivolamento della parte più pellicolare tra le due placche. Dunque più catastrofico negli effetti che genera su un’area più limitata. A causa dell’elevata profondità ipocentrale, oltre che ovviamente della magnitudo, il terremoto del 26 Ottobre 2015 è stato avvertito fino a oltre 2000 km dall’epicentro. In generale, i terremoti intermedi, di profondità compresa tra i 70 e i 300 km, e quelli profondi (oltre i 300 km), sono seguiti da un numero inferiore di repliche (aftershock) rispetto a quelli superficiali. L’evento del 2002 (profondità 225 km) ha avuto solo una dozzina di aftershock di Magnitudo superiore a 4 nei due mesi successivi, tra i quali il maggiore, di magnitudo 4.9. Nelle prime 5 ore dal terremoto del 26 Ottobre 2015 sono stati registrati tre aftershock di M maggiore di 4, il massimo di M 4.8 (http://earthquake.usgs.gov/earthquakes/eventpage/us10003re5#general_summary). La Storia sismica e vulcanica del Belpaese docet. La regione etnea, come larga parte della Sicilia orientale, è un’area ad elevata pericolosità sismica essendo esposta agli effetti di terremoti di elevata magnitudo, anche superiore a 7. Gli eventi di riferimento, negli ultimi mille anni, sono quelli degli Anni Domini 1169 e 1693 con epicentro nel settore sud-orientale ibleo, e il terremoto calabro-messinese del 1908, come riportato nel Catalogo Parametrico dei Terremoti Italiani. Queste scosse hanno prodotto grandi devastazioni anche alle falde dell’Etna, soprattutto tra Catania e il settore orientale del vulcano. Molto più frequente ma altrettanto distruttivo può essere il danneggiamento legato ai cosiddetti terremoti vulcano-tettonici. Anche se di basso livello energetico rispetto agli eventi regionali (la magnitudo massima non supera il quinto grado Richter) essi causano danni anche molto gravi e, localmente, distruzioni, con intensità che nell’area epicentrale possono raggiungere il decimo grado della Scala Macrosismica Europea (EMS, Grünthal, 1998). Fortunatamente a causa della superficialità degli ipocentri (profondità uguale e inferiore ai 3 km) e della forte attenuazione dell’energia sismica, già a pochi chilometri dall’epicentro gli effetti maggiori si concentrano in zone di pochi chilometri quadrati, in prossimità della faglia che ha generato il terremoto. Il settore dell’Etna più soggetto a questo tipo di sismicità è il versante orientale, oggi il più densamente urbanizzato del vulcano, che è attraversato da numerose faglie attive (Azzaro, 2010). L’area più frequentemente colpita da questa tipologia di eventi è quella compresa tra Acireale, Zafferana e Giarre. Dove tra gli eventi maggiori il Catalogo Macrosismico dei Terremoti Etnei riporta quelli del 1865, 1911 e 1914 che hanno provocato distruzioni di frazioni e borgate rurali, e quelli del 1879, 1984 e 2002, che hanno interessato maggiormente i centri abitati più grandi. È questo il contesto drammatico in cui va inquadrato il terremoto del 1911, tra i più forti che hanno colpito l’area etnea negli ultimi secoli. Il sisma avvenne alcune settimane dopo la fine di un’eruzione laterale che interessò a Settembre il fianco settentrionale del vulcano: le bocche si aprirono lungo il Rift di Nord-Est e la colata lavica danneggiò estese zone coltivate a valle, interrompendo anche la ferrovia Circumetnea tra Linguaglossa e Randazzo. Il periodo sismico inizia il 6 Ottobre 1911 con varie scosse di piccola entità avvertite nel settore orientale dell’Etna. A partire dal 14 Ottobre l’attività si intensifica nel basso versante orientale sino a quando il giorno di Domenica 15 Ottobre, alle ore 9.52, le contrade ad Ovest di Giarre, dell’Etna, vengono scosse violentemente. Fondo Macchia ed altre borgate limitrofe come Baglio, Fago, Rondinella e Mangano subiscono la distruzione pressoché totale. Le vittime sono 13. Danni minori si registrano anche a S. Venerina, S. Alfio, S. Giovanni Bosco ed in altre località a Nord di Acireale. Il terremoto viene avvertito in quasi tutto il versante orientale del vulcano. Nell’area epicentrale l’intensità massima raggiunge il grado VIII-IX Ems, valore a cui le tipologie edilizie estremamente scadenti, presenti all’epoca nella zona etnea pedemontana, subiscono nella totalità dei casi il crollo totale. A questo si aggiunga la vulnerabilità diffusa anche di costruzioni più qualificate, indebolite dalla presenza di lesioni preesistenti dovute a terremoti precedenti. Il periodo sismico si conclude dopo una decina di giorni. I terremoti vulcano-tettonici, particolarmente quelli più energetici, sono spesso accompagnati da vistosi effetti di fagliazione superficial: cioè estesi campi di fratture al suolo provocati dal movimento cosismico (improvviso, veloce) della faglia. Tale fenomenologia produce effetti sul terreno, quali gradini morfologici, fenditure e depressioni, con spostamenti relativi delle parti dislocate anche significativi, di varie decine di centimetri, e lunghezze complessive del campo di fratture sino a 6-7 km (Azzaro, 1999). Nel caso del terremoto del 1911 si aprirono profonde ed estese fenditure nel terreno alla base della scarpata della faglia di Moscarello, nel tratto tra Fondo Macchia e l’abitato di S. Giovanni Bosco posto 6 chilometri più a Sud. Generalmente queste evidenze tendono a scomparire rapidamente a causa del rimaneggiamento del suolo dovuto a processi erosivi o attività antropica. Alle volte fenomeni erosivi particolarmente intensi dovuti a piogge torrenziali mettono in luce zone di dislocazione in cui è possibile vedere lo spostamento cumulato nel tempo dalla faglia. Un caso del genere è documentato per la faglia di Moscarello già nel 1911 e, più recentemente, nel 1995 per un’altra faglia della stessa zona. L’area interessata dall’evento sismico del 1911 era caratterizzata dalla presenza di insediamenti sparsi formati da piccole borgate e abitazioni rurali isolate (Guidoboni et al., 2007). Il territorio, del tutto votato all’agricoltura, era intensamente popolato ma nonostante le distruzioni estese, il numero delle vittime fu tuttavia limitato dal fatto che la popolazione si trovava già in gran parte fuori dalle abitazioni, ma i feriti furono una cinquantina. I primi interventi di soccorso e di sgombero delle macerie furono operati dalle autorità civili e militari locali (Acireale e Giarre) che istituirono anche dei presidi per evitare atti di sciacallaggio nelle abitazioni abbandonate. Due giorni dopo il terremoto furono allestite le tendopoli per dare ricovero agli sfollati. La particolarità del terremoto del 1911 è di aver lasciato un segno anche nel territorio, cancellando del tutto ciò che rimaneva dell’insediamento rurale di Fondo Macchia. Questa località era stata rasa al suolo nel 1865 da un altro fortissimo evento sismico che qui produsse una sessantina di vittime (Grassi, 1865). Anche questo terremoto ebbe la medesima area epicentrale e determinò sul territorio uno scenario di danneggiamento pressoché analogo all’evento del 1911 che segna quindi la scomparsa definitiva di Fondo Macchia come insediamento abitativo permanente. Da quel momento assume infatti un carattere definitivamente agricolo. Come molti forti terremoti italiani accaduti ad inizio Novecento, anche il terremoto etneo del 1911 contribuì a sviluppare le norme legislative di tipo antisismico e ad ampliare la lista dei Comuni classificati sismici. Curiosamente, tuttavia, furono solo alcuni Comuni del messinese (Alì, Nizza di Sicilia, Rometta, Saponara, Villafranca Tirrena) ad essere classificati in 2° Categoria nel 1912, ma nessuno di quelli etnei! A questo punto è bene ricordare il glossario essenziale per la Resilienza sismica e vulcanica. L’Accelerazione orizzontale su suolo rigido e pianeggiante, è il principale parametro descrittivo della pericolosità di base, utilizzato per la definizione dell’azione sismica di riferimento per opere ordinarie (Classe II delle Norme Tecniche per le Costruzioni). Convenzionalmente è l’Accelerazione orizzontale su suolo rigido e pianeggiante che ha una probabilità del 10% di essere superata in un intervallo di tempo di 50 anni. L’Amplificazione locale è una modificazione in ampiezza, frequenza e durata dello scuotimento sismico dovuta alle specifiche condizioni litostratigrafiche e morfologiche di un sito. Si può quantificare mediante il rapporto tra il moto sismico in superficie al sito e quello che si osserverebbe per lo stesso evento sismico su un ipotetico affioramento di roccia rigida con morfologia orizzontale. Se questo rapporto è maggiore di 1, si parla di amplificazione locale. La Classificazione sismica è la suddivisione del territorio in zone a diversa pericolosità sismica. Attualmente il territorio italiano è suddiviso in Quattro Zone, nelle quali devono essere applicate delle speciali norme tecniche con livelli di protezione crescenti per le costruzioni (norme antisismiche). Quella più pericolosa è la Zona 1, compresa la limitrofa Zona 2: qui in passato si sono avuti danni gravissimi a causa di forti terremoti. Tutti i Comuni italiani ricadono in una delle Quattro Zone sismiche: Zona 1 (pericolosità molto elevata) dove forti terremoti sono molto probabili; Zona 2 (pericolosità elevata) e Zona 3 (pericolosità media) con eventi forti e mediamente poco frequenti, o terremoti moderati ma frequenti; Zona 4 (pericolosità moderata) con rari eventi di energia moderata. Forti terremoti, seppur molto rari, sono comunque possibili. La Crosta terrestre è l’involucro più esterno della parte solida della Terra. Il suo spessore varia tra i 10 e i 70 chilometri. Gli Effetti locali o di sito sono dovuti al comportamento del terreno in caso di evento sismico per la presenza di particolari condizioni lito-stratigrafiche e morfologiche che determinano amplificazioni locali e fenomeni di instabilità del terreno. L’Epicentro è il punto sulla superficie terrestre al di sopra dell’ipocentro, il punto in profondità dove inizia a rompersi o a scorrere la faglia e dal quale le onde sismiche si propagano in tutte le direzioni. Quando si verifica un terremoto, lo scorrimento non avviene tutto in una volta. Il terremoto inizia in un punto e rompe la faglia. La rottura si propaga a circa 3 km al secondo e quindi un terremoto più forte dura per un tempo più lungo. L’Esposizione è il numero di unità (“valore”) di ognuno degli elementi a rischio presenti in una determinata area, come le vite umane o gli insediamenti. La Faglia è la superficie attraverso cui due blocchi di crosta scorrono durante un terremoto. In funzione del movimento che si osserva lungo la superficie si parla di faglie normali, inverse e trascorrenti. Questa superficie piana può intersecare la superficie della Terra ed avere quindi una traccia di faglia identificabile. Le dimensioni delle faglie variano da alcuni centimetri a migliaia di chilometri di lunghezza. Una zona di faglia può essere una serie complicata di fratture larga fino a centinaia di chilometri. La grandezza (energia liberata) di un terremoto è proporzionale all’area della faglia che scorre e a quanto scorre. Un terremoto di magnitudo 3.0 avviene su una superficie di faglia di 1-10 metri quadrati. Un terremoto di magnitudo 5.0 avviene su una faglia di pochi chilometri, mentre un terremoto di magnitudo 8.0 lungo una faglia lunga diverse centinaia di chilometri. Grandi terremoti si verificano solo su grandi faglie, ma un piccolo terremoto potrebbe verificarsi lungo una grande faglia che scorre solo in parte. Piccoli terremoti possono verificarsi anche su una piccola faglia “secondaria” vicina ad una grande faglia o su una piccola faglia. L’Intensità misura gli effetti di un terremoto sulle costruzioni, sull’uomo e sull’ambiente, classificandoli in Dodici Gradi attraverso la Scala Mercalli, dal nome del sismologo italiano che, all’inizio del XX Secolo, diffuse a livello internazionale la classificazione dei terremoti secondo gli effetti e i danni che producono: più alto è il grado, più disastroso è il terremoto. Questa scala è stata successivamente modificata da Cancani e Sieber. Per stimare l’intensità di un terremoto bisogna osservare e valutare gli effetti che esso ha causato in tutta l’area interessata. Per questo squadre di tecnici specializzati compiono ricognizioni nella zona colpita da un terremoto e raccolgono dati per realizzare le mappe macrosismiche con l’indicazione dell’intensità del sisma nelle diverse località colpite. La magnitudo di un terremoto è solo una, mentre l’intensità può cambiare da luogo a luogo, secondo quel che è successo a cose e persone. In genere, più ci si allontana dall’epicentro e più diminuisce. La magnitudo Richter ML e la scala Mercalli-Cancani-Sieberg sono due misure estremamente diverse: la prima è ottenuta utilizzando i sismometri; la seconda è una classificazione degli effetti del terremoto su ambiente, persone e cose. Sono misure non sempre correlabili. Terremoti forti in zone disabitate o con edifici antisismici non causano danni e hanno quindi gradi bassi di Intensità. Viceversa, piccoli terremoti in aree con costruzioni non adeguate possono provocare danni e determinare gradi alti di Intensità. L’Ipocentro è la zona in profondità dove, in seguito ai movimenti delle placche litosferiche, le rocce della crosta terrestre si rompono dando origine al terremoto. In Italia i terremoti avvengono generalmente entro i 30 km di profondità, mentre nel Tirreno meridionale si possono registrare terremoti con Ipocentro profondo fino a 600 km. Un terremoto comincia a rompere la crosta all’Ipocentro, definito come il punto in profondità dove inizia la rottura delle rocce o lo scorrimento della faglia e dal quale le onde sismiche si propagano in tutte le direzioni. L’Ipocentro è definito da una posizione in latitudine e longitudine sulla superficie della Terra (Epicentro) e da una profondità al di sotto di questo punto (Profondità focale). Le coordinate dell’Epicentro sono infatti espresse in unità di latitudine e longitudine. La latitudine è il numero di gradi Nord (N) o Sud (S) dall’Equatore e varia da 0 gradi all’Equatore a 90 gradi ai Poli. La longitudine è il numero di gradi Est (E) o Ovest (W) dal primo meridiano che attraversa Greenwich, in Inghilterra. La longitudine varia da 0 gradi (a Greenwich) a +/-180 gradi a seconda se a Est o Ovest di Greenwich, rispettivamente. Sui siti Ingv le coordinate sono date nel sistema di riferimento WGS84. La Magnitudo è un numero che rappresenta l’energia totale rilasciata durante un terremoto e si calcola attraverso l’ampiezza delle oscillazioni del terreno provocate dal passaggio delle onde sismiche, registrate dai sismometri (sismogrammi). Si possono registrare terremoti anche di magnitudo negativa (come la temperatura, anche la magnitudo può essere negativa), mentre il più forte terremoto registrato sulla Terra è quello del Cile del 1960 di magnitudo 9.5, sebbene non ci sia alcun limite teorico alla stima della magnitudo. Ogni unità di magnitudo rappresenta un aumento di 32 volte dell’energia rilasciata dalla faglia. Quindi, un terremoto di magnitudo 7 libera 32 volte più energia di un terremoto di magnitudo 6, e mille volte (32 x 32) più energia di un terremoto di magnitudo 5.0, e un milione di volte più energia di un terremoto di magnitudo 3.0. Esistono varie tipologie di magnitudo, ognuna basata sull’analisi delle onde sismiche in un diverso intervallo di frequenza. La Magnitudo “Mb” è ottenuta dalle onde di volume (“b” sta per “body-wave”) ed è calcolata per i terremoti che si sono verificati a più di 2000 chilometri di distanza dalla stazione sismica. Può essere calcolata abbastanza velocemente, perché il suo valore si basa sull’ampiezza dell’arrivo dell’onda P. Le onde P viaggiano all’interno della Terra e sono il primo segnale che raggiunge una stazione sismica. Per i grandi terremoti (magnitudo maggiore di 6) la Mb “satura” (anche se la dimensione effettiva del terremoto è più grande) e il valore di Mb non aumenta più. In tali casi, i sismologi devono basarsi su altri tipi di magnitudo. La Magnitudo momento “Mw” si calcola sull’intero sismogramma ed è più rappresentativa della grandezza del terremoto: infatti si ottiene a partire dalla stima delle caratteristiche geometriche della faglia ovvero della sua superficie totale e dello scorrimento lungo il piano di faglia. La Magnitudo Richter ML, chiamata anche Magnitudo Locale, è ottenuta a partire dall’ampiezza massima delle oscillazioni registrate da un sismometro standard Wood-Anderson, particolarmente sensibile a onde sismiche con frequenza relativamente elevata di circa 1 Hz. Il Mantello è una parte della Terra compresa tra la crosta e il nucleo. Si estende fino a circa 2.900 chilometri di profondità. Il Maremoto (tsunami) è una serie di onde marine prodotte dal rapido spostamento di una grande massa d’acqua. Le cause principali sono i forti terremoti con epicentro in mare o vicino alla costa. I maremoti possono essere generati anche da frane sottomarine o costiere, da attività vulcanica in mare o vicina alla costa e, molto più raramente, da meteore che cadono in mare. La Microzonazione sismica è la suddivisione di un territorio, su scala comunale, in aree a comportamento omogeneo sotto il profilo della risposta sismica locale, prendendo in considerazione le condizioni geologiche, geomorfologiche, idrogeologiche in grado di produrre fenomeni di amplificazione del segnale sismico e/o deformazioni permanenti del suolo (frane, liquefazioni, cedimenti e assestamenti). Il Nucleo è la parte centrale della Terra, sotto i 2.900 chilometri di profondità. È a sua volta suddiviso in nucleo esterno (fuso) e nucleo interno (solido). La Normativa antisismica è l’insieme delle norme tecniche obbligatorie che devono essere applicate nei territori classificati sismici quando si realizza una nuova costruzione o quando si migliora una costruzione già esistente. Costruire rispettando le norme antisismiche significa garantire la protezione dell’edificio dagli effetti del terremoto: in caso di terremoto, infatti, un edificio antisismico può subire danni, ma non crolla, salvaguardando la vita dei suoi abitanti. Le Onde P di volume (Prime) sono dette anche longitudinali perché vibrano parallelamente alla direzione dell’onda. Sono le più veloci tra le onde sismiche, quindi le prime ad essere registrate in occasione di un terremoto. Hanno una velocità di propagazione che varia a seconda dei materiali che attraversano: nel granito la velocità di propagazione delle Onde P è di circa 5.5 km/s, mentre nell’acqua la velocità è circa di 1.5 km/s. Le Onde S (Seconde) di volume sono dette anche trasversali o di taglio, perché vibrano perpendicolarmente alla direzione dell’onda. Non si propagano nei liquidi e hanno velocità circa 1.7 volte inferiore alle onde P, con una velocità di propagazione che varia a seconda dei materiali che attraversano: nel granito la velocità di propagazione delle Onde S è 3.0 km/s, mentre non si possono propagare nei mezzi fluidi. Le Onde sismiche si generano dalla zona in profondità in cui avviene la rottura delle rocce della crosta terrestre (Ipocentro). Si propagano dall’Ipocentro in tutte le direzioni fino in superficie, come quando si getta un sasso in uno stagno. Esistono vari tipi di onde che viaggiano a velocità diversa. Quelle che si propagano per ultime causano le oscillazioni più forti. L’Ora UTC è il Tempo Coordinato Universale, il fuso orario di riferimento da cui tutti gli altri fusi orari del mondo vengono calcolati. Esso è derivato dal Tempo Medio di Greenwich (“Greenwich Mean Time”) con il quale coincide a meno di approssimazioni infinitesimali, e perciò talvolta è ancora chiamato GMT. Le Placche tettoniche o litosferiche sono porzioni della crosta terrestre nelle quali è suddiviso l’involucro più esterno della Terra. Le placche si muovono le une rispetto alle altre, avvicinandosi, allontanandosi o scorrendo lateralmente e i movimenti relativi determinano spinte ed accumulo di sforzi in profondità. Quando gli sforzi superano la resistenza delle rocce, queste si rompono generando il terremoto. La Prevenzione antisismica è l’insieme di azioni che la comunità intraprende per attenuare i danni causati dai terremoti: la costruzione di edifici antisismici, l’individuazione dei piani di emergenza e l’educazione al Rischio. La Prevenzione antisismica è il cardine della Resilienza. La Profondità dell’Ipocentro è il punto dove inizia la rottura delle rocce o lo scorrimento della faglia. Questa profondità è relativa al livello medio del mare. A volte, quando la profondità è scarsamente vincolata da dati sismici disponibili, il sismologo della Sala Operativa di Monitoraggio Sismico imposta la profondità a un valore fisso: ad esempio, 10 km è spesso usato come una profondità predefinita per i terremoti che si pensa siano superficiali, quando la profondità non può essere calcolata in modo soddisfacente dai dati. Il Raggio sismico è la direzione di propagazione dell’energia trasportata dalle onde sismiche. La Rete Sismica Nazionale di monitoraggio è distribuita sull’intero territorio nazionale e gestita dall’Istituto Nazionale di Geofisica e Vulcanologia. Costituita da circa 350 stazioni sismiche, svolge funzioni di studio e di sorveglianza sismica, fornendo i parametri ipocentrali al Dipartimento della Protezione Civile per l’organizzazione degli interventi di emergenza. Il Rischio sismico è la stima del danno che ci si può attendere in una certa area e in un certo intervallo di tempo a causa del terremoto. Il livello di rischio dipende dalla frequenza con cui avvengono i terremoti in una certa area e da quanto sono forti, ma anche dalla qualità delle costruzioni, dalla densità degli abitanti e dal valore di ciò che può subire un danno (monumenti, beni artistici, attività economiche). Il “Run-up” è l’altezza (quota) massima raggiunta dall’acqua durante un maremoto, rispetto al livello del mare. La Scarpata di faglia è la deformazione permanente della superficie terrestre, prodotta dallo scorrimento di una parte della faglia rispetto all’altra. Questo movimento è la causa di un terremoto. Lo Sciame sismico, un termine che proviene dall’inglese “seismic swarm”, è stato definito probabilmente per la prima volta dai sismologi giapponesi negli Anni ’60 del Novecento (Mogi, 1963; Utsu, 2002). Come per l’inglese “swarm”, anche in italiano il termine sciame viene usato generalmente per indicare un folto gruppo di insetti o più generalmente una moltitudine di individui o cose in movimento. Sciame sismico e sequenza sismica non sono due termini alternativi: il primo è un tipo particolare della seconda, categoria più ampia usata per indicare un addensamento spazio-temporale di terremoti. Risulta sempre difficile stabilire se una sequenza può essere definita uno sciame perché, come scrive Utsu (2002) “non esiste una definizione esatta universalmente accettata di aftershocks, foreshocks e seismic swarms”. Lo stesso Utsu fornisce la seguente definizione: “uno sciame sismico è una concentrazione (cluster) di terremoti in cui non c’è un singolo terremoto di magnitudo predominante (predominantly large)”. Uno sciame si distingue da una classica sequenza mainshock–aftershocks per avere molti terremoti di diverse magnitudo distribuiti irregolarmente nel tempo. Lo Scorrimento (“slip” in inglese) è il movimento che si verifica tra i due lati della superficie di faglia durante un terremoto. Lo scorrimento può variare da pochi centimetri per un terremoto di magnitudo 4.0 fino a decine di metri o più per un terremoto di magnitudo 8.0. Per terremoti più piccoli questo scorrimento può verificarsi in profondità e non raggiungere la superficie. La Sequenza sismica è una serie di terremoti localizzati nella stessa area e in un certo intervallo temporale, caratterizzata da una scossa principale seguita da repliche più piccole che diminuiscono nel tempo in numero e magnitudo seguendo un andamento tipico definito come Legge di Omori (1894). Il Sismogramma è la registrazione delle oscillazioni del terreno provocate dal passaggio delle onde sismiche. Nel corso degli anni sono cambiati i modi con i quali si ottengono queste registrazioni: dai primi sismogrammi tracciati su carta affumicata, si è passati a registrazioni su carta fotografica e poi su carta termosensibile. Oggi le oscillazioni rilevate dai sismometri vengono registrate da strumenti digitali e i dati possono, così, essere elaborati dai computer, riducendo i tempi necessari per calcolare la magnitudo e l’epicentro dei terremoti. Il Sismometro è lo strumento che consente di registrare le oscillazioni del terreno provocate dal passaggio delle onde sismiche. La Stazione sismica è l’insieme di strumenti che rilevano e registrano i movimenti del terreno. È composta dal sismometro e dai sistemi di registrazione e trasmissione, opportunamente “isolati”, posti in un luogo geologicamente adatto e lontano da fonti di rumore e disturbo, come attività industriali e urbane. Il Tempo origine del terremoto indica la data e l’ora in cui inizia la rottura lungo il piano di faglia. I grandi terremoti possono avere processi di rottura che durano molte decine di secondi. I sismologi usano l’UTC per uniformarsi ad una unica misura temporale e, quindi, evitare confusione causata dai fusi orari locali e dall’ora legale. È disponibile anche il tempo origine in base all’ora italiana e per i terremoti che avvengono in zone con fuso orario diverso da quello italiano viene indicato anche l’orario all’Epicentro. Le rocce che formano la crosta terrestre subiscono continuamente giganteschi sforzi che sono il risultato di lenti movimenti tra le grandi Placche in cui è suddiviso lo strato più superficiale della Terra. Quando gli sforzi superano il limite di resistenza delle rocce, queste si rompono all’improvviso liberando energia che si propaga, sotto forma di onde sismiche, dall’Ipocentro in tutte le direzioni, generando il Terremoto. Che è quindi un improvviso scorrimento di un blocco di crosta terrestre rispetto ad un altro. Lo Tsunami Warning System funziona anche in Italia e nel Mediterraneo. I sistemi di allertamento da rischio maremoto hanno la funzione di raccogliere, distribuire e interpretare, in maniera continuativa, tutti i segnali sismici disponibili e i dati relativi al livello del mare per individuare l’eventuale esistenza e propagazione di un’onda di maremoto. In base alle informazioni acquisite, predispongono tempestivi e chiari avvisi di allertamento per l’area di loro competenza, condividono e scambiano dati e informazioni con altri centri di competenza. La Vulnerabilità è l’attitudine di una determinata componente ambientale (popolazione umana, edifici, servizi, infrastrutture) a sopportare gli effetti di un evento naturale, in funzione dell’intensità dello stesso. La Vulnerabilità esprime il grado di perdite di un dato elemento (o di una serie di elementi) causato da un fenomeno di una data forza. È espressa in una scala da zero a uno, dove zero indica che non ci sono state. Le Zone di subduzione sono aree dove una delle placche che compongono la crosta terrestre scivola sotto una placca confinante. Ai fini di Prevenzione, fino al 2008, i valori probabilistici di pericolosità sono stati semplificati in classi, ad ognuna delle quali corrispondevano i parametri per la progettazione degli edifici. Successivamente le Norme Tecniche per le Costruzioni hanno imposto invece criteri di progettazione riferiti direttamente ai valori della Mappa di Pericolosità per ogni luogo del territorio nazionale. La Zonazione sismica resta in vigore come strumento amministrativo delle Regioni, per politiche di Prevenzione, interventi di riduzione del rischio, studi sulla valutazione della vulnerabilità degli edifici o di risposta del terreno (microzonazione). Le Regioni, secondo indirizzi e criteri stabiliti a livello nazionale, possono modificare la classificazione del proprio territorio. Il territorio italiano è suddiviso in 4 zone: generalizzando, gli edifici in Zona 1 e Zona 2 devono essere capaci di resistere, senza crollare, ad un forte terremoto e ancor più a terremoti di energia inferiore. In Zona 4 è necessario almeno tutelare la sicurezza di edifici strategici e di elevato affollamento. Undici tra Enti di ricerca europei e industrie si sono dati appuntamento a Heraklion, in Grecia, per celebrare l’avvio del progetto di potenziamento e ottimizzazione del flusso di dati acquisiti dagli Osservatori sottomarini dell’infrastruttura di ricerca europea a scala continentale nel settore delle scienze ambientali “Emso” che renderà più facile analizzare gli effetti dei cambiamenti climatici e dell’inquinamento sull’ambiente marino profondo e offrirà strumenti migliori per affrontare i rischi naturali (www.emso-eu.org). Dieci Paesi (Italia, che ne ha il coordinamento, Spagna, Francia, Romania, Grecia, Regno Unito, Irlanda, Portogallo, Germania, Olanda) partecipano al consorzio europeo “Emso Eric” che gestisce “Emso” sotto l’egida della Commissione Europea e con il supporto finanziario dei ministeri della ricerca dei Paesi Membri partecipanti, tra cui il Ministero dell’Istruzione, dell’Università e della Ricerca. L’Ingv, incaricato dal Miur, rappresenta l’Italia nel consorzio e coordina la partecipazione degli enti di ricerca italiani interessati e la gestione degli osservatori di competenza italiana.
Emso ha al suo attivo 11 Osservatori marini e 4 siti per test in acque basse dedicati al monitoraggio di lungo periodo di processi ambientali che interessano la geosfera, la biosfera e l’idrosfera e le loro interazioni in mare profondo con trasferimento a terra dei dati anche in tempo reale. Gli Osservatori, posizionati in acque europee dall’Artico all’Atlantico al Mediterraneo fino al Mar Nero, formano una infrastruttura su scala continentale al servizio della comunità scientifica internazionale. “Emsodev nasce per dare un grande impulso all’operatività di Emso – osserva Paolo Favali dell’Ingv, coordinatore di Emso e Emsodev – ma il progetto ha anche un potenziale di sviluppo industriale notevole di prodotti e di servizi relativi al monitoraggio in ambiente marino”. Emsodev rappresenta una fase significativa nel processo di costruzione di Emso e ha come obiettivo principale lo sviluppo e l’installazione negli Osservatori di Emso di un nuovo modulo di monitoraggio multidisciplinare denominato Egim (Emso Generic Instrument Module). L’Egim sarà costituito da una serie di sensori e dispositivi che renderanno omogenei gran parte dei dati acquisiti dai vari Osservatori facilitandone il loro confronto. I dati saranno così gestiti e resi fruibili in maniera unificata per realizzare servizi e prodotti utilizzabili da un vasta platea di utenti. Non solo, a regime l’Egim sarà un prodotto utilizzabile anche da altri centri di ricerca e attraente per alcuni settori industriali. Il progetto Emsodev, che durerà tre anni, è finanziato dalla Commissione Europea (4,3 milioni di euro) nell’ambito del Programma Quadro Europeo per la Ricerca e l’Innovazione Horizon 2020. Partecipano al progetto Emsodev enti di ricerca da Italia (Ingv, coordinatore) Francia (Ifremer), Grecia (Hellenic Centre for Marine Research), Spagna (Consejo Superior de Investigaciones Cientificas), Regno Unito (National Oceanographic Center Southampton), Irlanda (Marine Institute), Germania (University of Bremen – Marum), Portogallo (Instituto Português do Mar e da Atmospfera) e Romania (GeoEcomar), e due imprese private con sede in Irlanda (Slr Consulting) e Italia (Engineering – Ingegneria Informatica SpA). Numerosi sono stati i geo-eventi organizzati dall’Istituto Nazionale di Geofisica e Vulcanologia in occasione della terza edizione della Settimana del Pianeta Terra (18-25 Ottobre 2015). La manifestazione, ideata e promossa dalla Federazione Italiana Scienze della Terra (FIST) è stata interamente dedicata alla scoperta delle Geoscienze con ben 237 appuntamenti in tutta Italia. A iniziare i lavori, Domenica 18 Ottobre, con un’apertura straordinaria, è stato il Museo Geofisico di Rocca di Papa, presso il quale è stata allestita una sezione della mostra dedicata all’approfondimento del Terremoto della Marsica del 1915 con la proiezione del docufilm “Le radici spezzate”, realizzato da Ingv ed Europe Consulting Onlus (www.youtube.com/watch?v=Fa_7dF5AoLs). Il filmato ricorda il sisma attraverso le storie di quattro luoghi simbolo, ponendo particolare attenzione a uno degli effetti più macroscopici del terremoto: la delocalizzazione degli abitanti a seguito della distruzione e l’abbandono forzato degli insediamenti originari. A seguire, un aperitivo scientifico con i sismologi Gi
nluca Valensise sul tema: “Cento anni fa, la catastrofe: fatti e personaggi del grande terremoto marsicano del 1915” e Fabrizio Galadini sul tema: “Le tracce del terremoto del 1915 nel paesaggio naturale”. Quindi conversazioni e approfondimenti sul terremoto della Marsica e sul percorso culturale del mondo scientifico e tecnologico in questo secolo. Questa è la Cultura della Prevenzione e dell’Informazione. A concludere la settimana una giornata dedicata al tema “Terremoti, storia e musica” nella sede Ingv di Roma. Le attività hanno coinvolto il pubblico di tutte le età: i più piccoli hanno preferito costruire un vulcano per scoprirne i suoi molteplici segreti partecipando al laboratorio vulcanico. Quindi l’incontro con Graziano Ferrari, sismologo Ingv e storico della scienza, sul tema “Terremoto in Val D’Agri del 16 Dicembre 1857: da un terremoto laboratorio a laboratori sul territorio”. A seguire, la conversazione tra il pubblico, i ricercatori Ingv e il giornalista scientifico Franco Foresta Martin sul tema degli allarmi e delle psicosi nelle “previsioni” di terremoti imminenti e sull’importanza della prevenzione. A chiudere la giornata, un “Viaggio musicale tra i terremoti storici in Italia”, per ricordare alcuni dei più importanti eventi sismici che hanno interessato l’Italia. Un racconto accompagnato dalla musica e dai canti popolari delle zone a maggiore pericolosità sismica del territorio italiano, con la partecipazione degli artisti Nora Tigges, Massimiliano Felice e Silvano Boschin. Un ricercatore del Politecnico di Torino è per la prima volta ospite della base brasiliana in Antartide, per acquisire parametri atmosferici attraverso l’osservazione dei segnali (dopo 100 anni grazie alla Relatività di Einstein!) satellitari Gps e Galileo nell’ambito del progetto CS-base-guardia costieraDemoGrape, coordinato dall’Istituto Nazionale di Geofisica e Vulcanologia, in collaborazione con il Politecnico di Torino e un gruppo di ricerca dell’Istituto Superiore “Mario Boella”. Preparazione fisica, addestramento e formazione specifica per affrontare l’ambiente antartico: queste sono solo alcune delle attività a cui si è sottoposto l’ingegner Nicola Linty del Dipartimento di Elettronica e Telecomunicazioni del Politecnico di Torino, in l’Antartide insieme a una spedizione del PNRA. L’arrivo alla base brasiliana “Comandante Ferraz” in Antartide, l’8 Novembre 2015, dopo giorni di viaggio fra spostamenti aerei e marittimi “spartighiaccio”. Dopo 3 giorni di viaggio, attraverso il canale di Drake, Nicola ha finalmente raggiunto, alle 6 ora locale, la baia di fronte alla base antartica “Comandante Ferraz”, in attesa di essere sbarcato, insieme agli altri ricercatori, con gli elicotteri. “Infatti c’è ancora troppo ghiaccio per raggiungere terra con i gommoni. Mare mosso, cattivo tempo, iceberg e ghiaccio – si legge sul blog “Frozen Navsas” – hanno reso il viaggio un’interessante esperienza. Avremo maggiori dettagli direttamente da Nic una volta che avrà raggiunto la base. Nel frattempo possiamo vedere alcune foto del viaggio che Nicola ha postato sull’account twitter @frozen_nic. E abbiamo anche il certificato del comandante della nave che Nicola ha effettivamente attraversato il parallelo 60 Sud!”. Compito del ricercatore è di installare e monitorare sofisticati e innovativi apparati di misurazione, realizzati anche con il supporto del Joint Research Center della Commissione Europea con sede a Ispra (VA) all’interno del progetto “Demostrator of GNSS Research and Application for Polar Environment” (DemoGrape). La strumentazione permette di elaborare i segnali con algoritmi innovativi che non sono normalmente implementati sugli attuali ricevitori commerciali e, quindi, di ricavare parametri atmosferici utili per studiare il fenomeno della scintillazione ionosferica. Che crea un disturbo sul segnale trasmesso dai satelliti, in grado di compromettere sia i sistemi di posizionamento sia di comunicazione satellitare e le relative applicazioni come la delicata navigazione aerea. Il disturbo si origina a seguito di anomalie che si verificano nella ionosfera e il fenomeno si osserva spesso nelle regioni polari dove le interferenze elettromagnetiche, causate dalle tempeste solari (e non dagli Ufo!), sono più intense e frequenti, come testimonia la comparsa delle aurore boreali e australi, a seconda dell’emisfero in cui si verificano. Poter disporre di strumenti di monitoraggio e sviluppare modelli di previsione diventa cruciale, in quanto le anomalie elettromagnetiche in ionosfera compaiono prima alle alte latitudini e poi, anche, ad altre latitudini. Le problematiche connesse interessano qualsiasi continente, con impatti sulle applicazioni e sulla civiltà umana. Infatti, i modelli attualmente in uso per prevedere o, almeno, mitigare gli effetti di disturbo sui segnali satellitari, non sono ancora ritenuti sufficientemente affidabili quando vengono applicati alle alte latitudini. In particolare, l’Antartide, essendo ancora scarsamente monitorata, costituisce una vera e propria sfida scientifica e tecnologica per le applicazioni basate sui sistemi di navigazione satellitare. Il progetto DemoGrape (www.demogrape.net) ambisce proprio a dare un contributo nel settore, dimostrando la potenzialità delle misure acquisite in Antartide tramite un dimostratore che sta sviluppando su piattaforma “cloud” l’Area di Ricerca “Advanced Computing and Electromagnetics” dell’Istituto Superiore Mario Boella. Il dimostratore si tradurrà in uno strumento software disponibile su web per gli utenti pubblici e privati interessati a comprendere le potenzialità del sistema, sia in vista di un futuro servizio di assistenza alle applicazioni tecnologiche sia per supportare la ricerca di base. La missione in Antartide è anche l’occasione per il gruppo di ricerca NavSas del Politecnico, a cui appartiene l’ingegner Nicola Linty, per mettere a frutto le competenze sull’elaborazione del segnale del nuovo sistema europeo Galileo, per la prima volta sfruttato in Antartide, sempre grazie alla Relatività di Einstein. L’avventura oltre il Parallelo 60° Sud può essere seguita sul blog “Frozen Navsas” (www.navsas.polito.it/it/) dove oltre a contenuti sulle attività scientifiche, Nicola Linty inserirà informazioni sul “Vivere in Antartide” e sulla sua personale esperienza, a cominciare dall’addestramento. L’Ingv non si occupa soltanto di terremoti, vulcani, tsunami, frane e inondazioni. L’Uomo di Neanderthal è comparso in Italia 250mila anni fa, molto prima di quanto sinora creduto. A rivelarlo è uno studio condotto dall’Ingv in collaborazione con le Università “La Sapienza” di Roma e “Madison” del Wisconsin (Usa), pubblicato su Quaternary Science Reviews. Grazie all’applicazione di una metodologia di indagine geologica basata sullo studio delle variazioni del livello del mare durante le epoche glaciali e la loro influenza sui processi di deposizione dei sedimenti fluviali nell’area romana, si è giunti a una revisione dell’età del sito della valle dell’Aniene di Saccopastore a Roma, dove nel 1929 e nel 1935 furono rinvenuti due crani di Homo Neanderthalensis. A questi resti fu attribuita un’età di circa 125mila anni che li rendeva la più antica testimonianza della presenza del Neanderthal in Italia, almeno fino alla recente datazione (circa 150mila anni) dei resti rinvenuti in Puglia, in una grotta ad Altamura (Bari). A scoprirlo è un team di geologi, geocronologi, paleontologi e paleoetnologi. “I risultati del nuovo lavoro – rivela Fabrizio Marra dell’Ingv, primo autore della pubblicazione – hanno dimostrato che i resti di Saccopastore sono più vecchi di oltre 100mila anni rispetto a quanto sinora ritenuto, portando l’età del Neanderthal in Italia a 250mila anni fa, contemporanea quindi a quella riscontrata in Europa centrale dove furono rinvenuti i primi resti attribuiti a questa specie umana” che ha vissuto insieme all’Homo Sapiens. Due razze umane sulla Terra! I depositi sedimentari all’interno dei quali furono rinvenuti i crani, erano stati interpretati dalla comunità scientifica come un terrazzo fluviale originatosi durante l’ultimo stadio interglaciale di 125mila anni fa, chiamato “Tirreniano”, precedente l’ultima glaciazione. “In particolare i crani sono stati ritrovati in una cava di ghiaia fluviale sulle sponde dell’Aniene – spiega lo scienziato – poi sepolta per costruire gli edifici che oggi costeggiano la Tangenziale Est all’altezza di Via Asmara, poco prima del Ponte delle Valli. Oggi, a seguito delle modifiche antropiche dell’area, non è più possibile osservare la stratigrafia evidenziata allora. Anche se proprio i tagli per la costruzione della Tangenziale hanno consentito di mettere in luce i terreni circostanti l’area di Saccopastore e i rapporti tra sedimentazione e oscillazione del livello del mare durante i periodi glaciali nell’area di Roma”. Lo studio, realizzato attraverso l’ausilio di datazioni radiometriche su livelli vulcanici intercalati ai sedimenti, ha permesso di dimostrare che il terrazzo Tirreniano nell’area romana si trova a quote più alte di quelle dei depositi di Saccopastore e che i depositi del ciclo sedimentario precedente, corrispondente al penultimo stadio interglaciale di oltre 200mila anni fa, si rinvengono a quote analoghe a quelle a cui si trova il sito di Saccopastore. In particolare, i depositi ghiaiosi contenenti i crani dell’Uomo di Neanderthal corrispondono alla prima fase di deposizione del ciclo sedimentario, avvenuta alla fine della penultima glaciazione attorno a 250mila anni fa. “Dal riesame critico dei reperti fossili e delle industrie litiche preistoriche, rinvenute all’epoca della scoperta assieme ai resti umani – osserva Marra – si è inoltre evidenziato che nessuno di questi reperti presenta caratteri tali da implicare un’età di 125mila anni, mentre risultano del tutto compatibili e oltremodo simili a quelli rinvenuti nell’area romana all’interno di sedimenti attribuiti e datati 250mila anni”. Gli studiosi avevano sempre rimarcato il carattere “arcaico” dei crani di Saccopastore, ma nessuno aveva finora pensato di mettere in dubbio la loro datazione, sebbene questa fosse stata effettuata con i criteri e secondo le conoscenze geologiche dell’inizio del secolo scorso. “Lo sviluppo degli studi sui caratteri geologici dell’area romana – rileva lo scienziato – che ha avuto grande impulso negli ultimi quindici anni dalle ricerche condotte dall’Ingv attraverso collaborazioni interdisciplinari con studiosi italiani e internazionali, ha permesso di acquisire nuovi metodi di indagine ed elementi che hanno notevolmente accresciuto le conoscenze scientifiche su quest’area. La nuova età dell’Uomo di Neanderthal in Italia ne è una diretta conseguenza”. La Scienza è sempre pronta a mettersi in discussione. Oggi, un Leonardo da Vinci del XXI Secolo che fine farebbe in Italia? Sarebbe davvero libero di inventare e realizzare le proprie macchine straordinarie? La Ricerca nazionale pubblica e privata necessita di un vigoroso sforzo comunitario per mettere in Rete risorse umane, infrastrutture e competenze, in modo da affrontare la crescente competizione internazionale. Il cuore del successo di un ente e di un laboratorio di ricerca è tutto concentrato nella qualità del suo capitale umano. In Italia occorre favorire la meritocrazia a ogni livello, per attrarre i migliori, supportare la mobilità e costruire un ambiente scientifico stimolante, libero e dinamico. Non si deve scoraggiare la ricerca non statale, in vista della totale liberalizzazione dell’industria e dell’impresa spaziale privata. Se si riescono ad applicare questi principi, pur in uno storico e incerto contesto di riferimento nazionale, si possono ottenere risultati importanti, attirando finanziamenti e risultati scientifici incoraggianti. Le chiacchiere a zero servono a poco. Occorrono progetti. Le potenzialità di un ente e di una impresa sono direttamente collegate alle proprie capacità di trasformare la sua dimensione media, l’interdisciplinarietà e la forte competenza tecnico-scientifica in un modello riconosciuto di buone prassi, in una visione di sviluppo a medio-lungo termine basata su chiare priorità, in linea con gli indirizzi europei e nazionali: lavoro, eccellenza scientifica, investimenti nel capitale umano, infrastrutture di ricerca, internazionalizzazione, collaborazione pubblico-privato, efficienza ed efficacia dell’azione pubblica amministrativa. La forte attenzione alla collaborazione con il settore privato rappresenta sicuramente uno dei punti di forza della Ricerca pubblica e fa parte di una strategia da sempre orientata a valorizzare al meglio i risultati delle scoperte che poi si traducono in Brevetti, spesse volte custoditi nel cassetto, come il Motore Nucleare di Carlo Rubbia, utilissimo per il volo interstellare, inventato nel 1998, ma ancora sulla carta. Perchè in Italia certa “politica” delle “crisi” permanenti non sa che farsene! In attesa di decisioni “straniere”. Dal punto di vista scientifico-tecnologico le attività di ricerca e innovazione in Italia devono fare riferimento a due principali grandi sfide globali: la Crescita Blu (l’Economia del Mare) e la Crescita Stellare (L’Economia nello Spazio) con una focalizzazione geografica mirata principalmente a Russia, Mediterraneo, Balcani e Poli, in vista della fondazione degli Stati Uniti di Europa. Una delle eccellenze scientifiche italiane è la nave OGS Explora, protagonista di numerose missioni nazionali e internazionali, attualmente l’unica nave da ricerca con capacità oceaniche e polari di proprietà di un ente pubblico italiano. È di proprietà di OGS dal 1989 e ha effettuato spedizioni in tutti i mari del mondo, incluse varie campagne di acquisizione di dati sismici crostali e progetti di ricerca multidisciplinari nel Mediterraneo, in Antartide e nella regione artica alle Isole Svalbard. La nave svolge anche servizi per l’industria dell’offshore e per conto di nazioni estere e fa parte della flotta “Eurofleets”, un programma nato per facilitare il coordinamento e l’uso efficiente delle infrastrutture marine e favorire così il progresso della ricerca scientifica sul mare. Nel 2016 la nave sarà sottoposta a una profonda ristrutturazione che consentirà di migliorarne ancora la sicurezza operativa e la possibilità di accogliere un numero maggiore di personale scientifico, incrementando la sua capacità operativa e la multidisciplinarietà di impiego. Tra le tante attività di rilevanza internazionale, l’OGS gioca un ruolo centrale anche nelle infrastrutture di ricerca europee. OGS opera in un contesto fortemente internazionale dedicando estrema attenzione alla valorizzazione delle infrastrutture di ricerca incluse le “e-infrastrutture”, nella piena consapevolezza che esse rappresentino uno strumento straordinario per incoraggiare la collaborazione e la multidisciplinarietà, promuovere la mobilità delle persone e mettere in rete i migliori scienziati di tutto il mondo. OGS è promotore e referente nazionale di tre infrastrutture di ricerca inserite nella Roadmap Europea ESFRI. In particolare l’infrastruttura EuroArgo, riconosciuta ufficialmente con l’accordo europeo (Eric) sottoscritto nel 2014, rappresenta la componente europea del più grande sistema mondiale di osservazione in-situ degli oceani. Per questa infrastruttura, OGS ricopre il ruolo di Referente Scientifico per Mediterraneo e Mar Nero e, con i dati forniti, rappresenta una risorsa fondamentale di informazione per studiare il ruolo del Mar Mediterraneo nel sistema climatic terrestre. Le ulteriori due infrastrutture europee sono rappresentate da: “Prace”, di cui OGS è referente nazionale assieme al consorzio interuniversitario “Cineca” e che ha l’obiettivo di supportare la ricerca scientifica di eccellenza con strumenti innovativi di calcolo ad alte prestazioni (High Performance Computing) e “Eccsel” (European Carbon Dioxide Capture and Storage Laboratory Infrastructure) che mira all’avvio di un’infrastruttura europea multicentrica per le ricerche sulla cattura e lo stoccaggio geologico della CO2 (CCS). Quale nodo nazionale, OGS ha aperto nel 2015 l’innovativo laboratorio “Eccsel NatLab Italy” a Panarea, finalizzato a studiare i potenziali effetti di fuoriuscite di CO2 sull’ecosistema marino. I dati raccolti e gestiti da OGS sono “open access” e rappresentano uno straordinario patrimonio comune di conoscenze. “Chi racconta l’innovazione – osserva Federico Ferrazza, direttore di Wired – ha una grande responsabilità. A volte l’innovazione viene raccontata sui media italiani come qualcosa che sicuramente cambierà il mondo, che sicuramente avrà un impatto: molto spesso è così, altre volte non lo è. Il compito di chi racconta l’innovazione è proprio quello di saper pesare la notizia, nel nostro caso quella sull’innovazione. Non dobbiamo raccontare che tutte le start-up avranno successo o che saranno la panacea per tutti mali del nostro Paese. Dobbiamo invece saper dire che alcune di quelle soluzioni avranno sicuramente un successo e risolveranno alcuni dei problemi dell’Italia e non solo, mentre altre non avranno quel peso. E non bisogna raccontare l’innovazione solo per il gusto di farlo, ma perché c’è necessità di raccontare un pezzo di Paese che spesso non viene presentato sui giornali. Il nostro compito è quindi quello raccontare il più fedelmente possibile ciò che accade, secondo i criteri classici del giornalismo, andando cioè a verificare ciò che l’innovazione è in grado di portare. Il primo e più comune errore è proprio quello di non saper comunicare. Molto spesso, quando si pensa all’idea per una start-up o un’azienda con un grande contenuto d’innovazione, ci si preoccupa solamente dell’idea. Ci sono invece altri due pezzi fondamentali che non vanno trascurati: uno è la sostenibilità economica di quell’idea, senza la quale non si va da nessuna parte, l’altro è il saper raccontare e comunicare la propria idea. Senza il marketing e la comunicazione è difficile poter avere successo, come ci testimonia la storia degli ultimi 30 anni. Poi ci sono alcuni casi in cui l’idea è talmente forte da uscire fuori da sola, anche senza un piano di comunicazione: si tratta però di casi eccezionali. Il suggerimento che dò a chi vuole realizzare un’idea è di pensare anche a come raccontarla, individuare il proprio target di riferimento e comunicare l’idea a quel target. Il digitale ha effettivamente portato tantissime novità, alcune disastrose per i modelli di business dei giornali, basti pensare che il quotidiano si compra, mentre sul web le notizie sono gratuite per il lettore. Secondo me dobbiamo provare a pensare a un prodotto cartaceo diverso da quello tradizionale, e cioè non obbligatorio, ma complementare ad altri prodotti e servizi. Se il prodotto di carta viene pensato come qualcosa di diverso dal contenuto sul web, che ha una sua ragione d’esser al di fuori di quello che succede nel web, e anzi direi in competizione con il digitale, può avere un senso continuare a proporlo, se la carta viene utilizzata per inseguire il web perde, perché la quantità, la facilità di fruizione e la tempestività del digitale non sono raggiungibili da un prodotto cartaceo. Le difficoltà ci sono, secondo me però la questione va vista dall’alto, tenendo presente che siamo al centro e all’inizio di una rivoluzione cominciata vent’anni fa con la nascita di Internet, ma ancora in atto. Avere tutte le soluzioni pronte già ora sarebbe impossibile, così come sarebbe stato impensabile, a cinque anni dall’invenzione dell’automobile, prevedere il futuro della mobilità. Diverse cose sono in corso di assestamento. Già oggi, per esempio, la pubblicità sul web comincia a mostrare degli scricchiolii, lasciando spazio a nuovi modelli come il “native advertising”. Si tratta di capire quale modello di business si affermerà, sapendo che alla fine di questa transizione, che non sappiamo ancora quanto durerà, potrebbero comparire sulla scena dei nuovi attori, come è già accaduto con il digitale in altri campi. Credo che in futuro potranno esserci degli editori che prima non lo erano, per esempio provenienti dal mondo dei social network o da altre aziende, che faranno informazione come la facevano nel secolo scorso i giornali”. Mancano ormai pochi giorni al termine dell’Anno Internazionale della Luce, più propriamente “Anno Internazionale della Luce e delle tecnologie basate sulla luce”, indetto dall’Unesco per attuare una decisione dell’Assemblea Generale delle Nazioni Unite del 20 Dicembre 2013. Tra le numerose iniziative intraprese per celebrarlo, anche in Italia, un vivo interesse hanno suscitato le repliche di esperimenti storici come quelli relativi alla misurazione della velocità della luce compiuti dal fisico francese Jean Bernard Léon Foucault (Parigi, 1816-1868). È avvenuto ad Arezzo nell’ambito del XXXV Convegno degli Storici della Fisica e dell’Astronomia, che al tema della luce ha dedicato ben due sessioni. Alcuni fenomeni talvolta rimangono un po’ in disparte e relegati fra le curiosità. Data la vastità del campo è logico che sia così ma a proposito di repliche, si può sempre rimediare anche in casa propria. Il fenomeno in questione è la fractoluminescenza e consiste nell’emissione di luce a seguito della frattura di un materiale, anche non cristallino, come succede per il vetro. Si tratta di un caso particolare di meccanoluminescenza e, talvolta, può essere confuso con altri appartenenti al gruppo delle triboluminescenze. Benché se ne parli almeno dal 1605, quando Francis Bacon lo citò a proposito dei cristalli di zucchero (Of the Proficience and Advancement of Learning, Divine and Human, Libro IV, Cap. III) anche i fisici l’hanno considerato una semplice curiosità almeno fino agli Anni ’80 del secolo scorso. La svolta è avvenuta dopo il suo sfruttamento tecnologico in diversi settori, come nella costruzione di sensori. Per quanto riguarda il vetro, il fenomeno fu osservato, quasi per caso, dal bolognese Filippo Schiassi (1763-1844). La luce che compariva nel buio quando si gettavano per terra piccoli sferoidi di vetro fabbricati con una tecnica particolare, lo impressionò a tal punto che dedicò loro nel 1832 un’apposita dissertazione: “De luce quam corpora diffracta in tenebris emittunt: dissertatio complectens partes duas in quarum altera de sphaeris et phialis vitreis in altera de aliis quibusdam corporibus agitur”. Era noto da circa novant’anni (Belgrado, Bianconi) che tali sfere, quando andavano in frantumi, provocassero un “gran fragore” ma pare che alla luce nessuno avesse fatto caso! Schiassi studiò in modo sistematico il fenomeno e cercò di interpretarlo ricorrendo all’elettricità. Oggi ne sappiamo un po’ di più e sono stati pubblicati studi in proposito. Chi volesse replicare in casa la fractoluminescenza con mezzi semplici, può ricorrere ad alcuni tipi di caramelle tipo “Polo”, contenenti un olio essenziale che tra i componenti annovera il salicilato di metile: frantumandole al buio, anche queste caramelle possono emettere fotoni come i “globi di Schiassi”, destando pari meraviglia tra grandi e piccini. Siamo tutti polvere di stelle e fotoni. Il Sistema Solare alieno DI Cha (HST) con 4 astri, due binari, ci ricorda che qui sulla Terra non siamo affatto speciali. Memento!
© Nicola Facciolini
Lascia un commento