“Non posso credere che Dio giochi a dadi! Non basta essere pacifisti, bisogna essere pacifisti militanti. L’unica razza che conosco è quella umana” (Albert Einstein). Tempus fugit. Il passato, il presente e il futuro non sono predeterminati, sono delle variabili, come insegna da 30 anni Doc Brown, il buon vecchio scienziato di “Back to the future”. Il Continuum spaziotemporale può essere “ingannato” dal viaggiatore del tempo. Se Madre Natura protegge il regolare flusso degli eventi intrappolando il viaggiatore in universi paralleli (10 alla 500ma potenza, secondo Stephen Hawking, dunque maggiori delle nove linee temporali del film!) che possono essere percorsi in tutte le “direzioni” possibili e immaginabili, davvero è sempre garantito il ritorno a casa? Allora, Marty McFly è solo un giovane temponauta fortunato? I Fotoni viaggiano nello spazio e nel tempo. Questo è certo. I Quanti di luce sono le particelle più diffuse nell’Universo. Essi attraversano tutta la Creazione in lungo e in largo a velocità costante (300mila Km/sec) ma impiegano pochissimo tempo per farlo! Per essi infatti il tempo, così come lo concepiamo sulla Terra a basse velocità, sembra quasi non esistere! È in effetti un eterno “presente” spalmato come il miele su una fetta biscottata multistrato. Sembra uno scherzo. Ma l’interazione istantanea delle particelle nel Cosmo è un fatto molto serio in fisica quantistica. Il 18 Aprile del 1955, qualche mese prima dell’esperimento temporale di Doc a base di 1.21 GigaWatt, il grande fisico Albert Einstein lascia la Terra. Lo scienziato che, per riconoscimento unanime, raggiunge le massime vette della conoscenza scientifica universale, offre all’Umanità la possibilità del volo interstellare e del viaggio nel tempo , avendo elaborato del Mondo, dell’Universo e del suo modo di esistere una visione generale e unitaria che traduce, per la prima volta, la continuità tra Spazio e Tempo, tra Materia e Energia (Continuum). Einstein offre di questa continuità una dimostrazione razionale che, come tale, sarebbe stata confermata anche dall’esperienza, senza tuttavia poter superare la contraddizione con la teoria corpuscolare discontinua che pressoché parallelamente si era affermata nel mondo della Fisica. Un dualismo che Einstein suo malgrado accetta perché quella teoria ha tutti i numeri per essere verificata. Suo è il potere mentale di superare la ricerca di una unità nella lettura e nella interpretazione della Natura. È il lavoro di Einstein dopo l’elaborazione nel 1905 della Teoria della Relatività Speciale con la scoperta del Fotone (su cui “viaggia” fin dall’età di 16 anni!) e poi nel 1915 della Teoria della Relatività Generale. Esattamente 100 anni fa, nel Novembre 1915, in quattro lezioni all’Accademia delle Scienze, Albert Einstein presenta la sua Teoria della Relatività Generale, il frutto di dieci anni di studi, in cui il celebre scienziato cerca di raccordare la Relatività (scoperta da Galileo Galilei) Speciale con la Teoria della Gravitazione Universale di Newton che ci è servita per conquistare la Luna e inviare sonde interplanetarie. La formula alla base della nuova teoria, chiamata Equazione di Campo di Einstein, dipinta su t-shirt, magliette, muri, libri e locomotive, si basa sul Principio di Equivalenza, un esempio particolare di Simmetria locale. La proporzionalità tra massa gravitazionale e massa inerziale, infatti, fa sì che per gli osservatori all’interno di una cabina in caduta libera la forza gravitazionale sia, come per “magia”, cancellata! In effetti gli sfortunati occupanti sperimentano per pochi istanti, prima della loro tragica fine, l’assenza di peso degli astronauti sulla Stazione Spaziale Internazionale. Tuttavia, ciò non è vero in assoluto, se si tiene conto del fatto che il campo gravitazionale non è uniforme: infatti, l’enunciato completo del Principio di Equivalenza fa riferimento a corpi di piccola estensione, tali che effetti legati ai gradienti gravitazionali interni ed esterni ad essi possano essere trascurati. La località di questo principio è una conseguenza della dipendenza dalla distanza dal campo gravitazionale. Nel diagramma spazio-temporale di un corpo che si muove in assenza di forze e cade in un campo gravitazionale uniforme, si deduce immediatamente che in assenza di forze il corpo traccia linee rette nello spaziotempo, mentre la Gravità curva queste linee. Ciò spinge Einstein a rappresentare l’interazione gravitazionale attraverso le caratteristiche geometriche delle linee dello spaziotempo descritte dai corpi, che non costituiscono più un reticolato rigido di rette, ma sono un insieme di linee che si curvano in funzione della distribuzione della materia o dell’energia. Per farlo Einstein usa i Fotoni dal cui punto di vista l’Universo non sembra esattamente come ci appare. La grandezza che permette di calcolare la distanza tra punti in uno spaziotempo curvo e, quindi, esprime in termini matematici le proprietà geometriche dello spaziotempo, è il Tensore metrico, una matrice di 4 per 4 componenti. Ciascun termine della matrice si può indicare con “gμν”, dove gli indici “μ” e “ν” vanno da 1 a 4 e rappresentano le coordinate dello spaziotempo. I termini gμν, in un sistema di riferimento qualsiasi, possono assumere valori diversi da punto a punto: ciò è la conseguenza del Principio di Località su cui si fonda l’equazione della Relatività Generale. A sinistra del segno di uguaglianza, oltre a gμν, compare “Rμν”, una matrice che rappresenta la curvatura dello spaziotempo e che dipende dalle derivate seconde del Tensore metrico gμν. A destra, l’altra matrice “Tμν” rappresenta la sorgente dell’interazione gravitazionale che per Einstein non è soltanto la densità della materia, ma anche la densità e il flusso dell’impulso e dell’energia della materia stessa, ovvero il suo stato di moto. Tμν rappresenta quindi il Tensore energia-impulso della meccanica relativistica. Il coefficiente che moltiplica la matrice sorgente rivela quanto sia debole l’effetto della Gravità sulla geometria dello spaziotempo flessibile: una significativa curvatura dello spaziotempo si ottiene quando entrano in gioco forze che compensano il piccolissimo fattore “G/c4”. In senso figurato, si usa dire che la materia e il suo stato di moto (Tμν) determinano la struttura locale delle linee dello spaziotempo (Rμν e gμν) che a loro volta determinano lo stato di moto della materia. In termini matematici, la formula rappresenta un sistema di equazioni accoppiate non lineari, la cui soluzione in genere è ricavabile solo per via numerica. La Gravitazione di Einstein descrive fenomeni non previsti dalla teoria di Newton e in particolare apre il nuovo capitolo della Gravitodinamica: partendo da questa equazione, il 22 Giugno 1916 Albert Einstein presenta all’Accademia prussiana come si trasforma questa equazione nell’ipotesi di una piccola perturbazione di uno spaziotempo in cui la Gravità sia assente. Ricava così la ben più nota equazione delle onde di D’Alembert, che rappresenta la propagazione della perturbazione. È la prima e completa teorizzazione dell’esistenza di onde gravitazionali, vere e proprie perturbazioni dello spaziotempo, in attesa di essere confermate sperimentalmente. Tuttavia, occorre attendere i lavori di Bondi e Pirani della fine degli Anni Cinquanta per avere un’analisi rigorosa dell’effetto prodotto da un’onda su masse liberamente gravitanti. Si dimostra così che questo effetto è osservabile. È su queste basi che Jo Weber raccoglie la sfida di costruire il primo rivelatore di onde gravitazionali. Edoardo Amaldi dà impulso alla ricerca sui rivelatori di onde gravitazionali in Italia, che poi si è sviluppata nell’Infn, esplorando diverse strategie di misura che hanno portato alla realizzazione dell’attuale interferometro Virgo. Nella sua configurazione iniziale, pur non rivelando nessun segnale gravitazionale, Virgo ha già ottenuto significativi risultati scientifici, ponendo limiti a una vasta categoria di modelli cosmologici basati sulla Teoria delle Stringhe e deducendo i limiti superiori di deformazione dalla forma sferica di alcune stelle Pulsar. Come dire, un limite sull’altezza di improbabili “montagne” eventualmente presenti su stelle di neutroni! Ma la sfida sperimentale per la prima rivelazione, continua con Advanced Virgo (Adv). Il nuovo interferometro è progettato per ottenere una sensibilità di circa un ordine di grandezza superiore a quella di Virgo, con un aumento di circa tre ordini di grandezza del tasso di segnali gravitazionali emessi nella fase finale della vita di un sistema di due stelle di neutroni che, spiraleggiando l’una attorno all’altra, finiscono per collidere liberando un’enorme quantità di energia gravitazionale. Esso è uno dei tre rivelatori della rete internazionale di cui sono parte integrante i due analoghi interferometri del progetto Ligo negli Stati Uniti d’America con il famoso fisico del colossal “Interstellar”, Kip Thorne. Advanced Virgo è ora nella fase di integrazione dei suoi componenti fondamentali, realizzati nei laboratori dell’Infn, del Cnrs e di Nikhef. Adv ha una configurazione ottica diversa da Virgo e dei nuovi specchi. Per ridurre l’impatto del rumore termico e le fluttuazioni della pressione di radiazione, la massa degli specchi è ora di 42 kg rispetto ai 22 kg di Virgo ed è stata aumentata la dimensione del fascio laser che vi incide. Pertanto, a differenza di Virgo, la sezione più stretta del flusso fotonico nelle cavità principali sarà posizionata vicino al centro delle cavità Fabry-Perot di 3 km di lunghezza. Specchi più pesanti e fasci luminosi che investono una porzione più vasta della loro superficie hanno richiesto un grande sforzo tecnologico che ha portato allo sviluppo di nuove macchine di deposizione di film sottili, sospensioni degli specchi più performanti, connessioni da vuoto più grandi nella zona centrale e nuovi telescopi ottici all’ingresso e all’uscita dell’interferometro, il cui allineamento è un’ulteriore sfida sperimentale per gli scienziati. La fase di integrazione è ormai prossima alla conclusion. La rete dei rivelatori Ligo-Advanced Virgo sarà completata nel 2016 con l’obiettivo dichiarato di rivelare il primo segnale di onde gravitazionali prima della fine di questo decennio e dare così un’ulteriore conferma sperimentale della Relatività Generale di Einstein. Il Mondo è fatto di noi stessi e dell’ambiente in cui viviamo, vicino e lontano, visibile e invisibile, creato da Dio come preghiamo nel Credo. Nell’ambiente ci sono oggetti e fenomeni che si svolgono nello spazio e nel tempo, offrendocene la percezione con un certo “ritardo” nei segnali ottico-elettrici interpretati dal cervello. Tutto questo sembra evolvere seguendo regole precise che sin dall’antichità chiamiamo Leggi di Natura benché, con la Meccanica Quantistica, anche il puro “caso” sembra essere entrato nel novero dei motori del cambiamento, delle vere “riforme”, accanto ai rapporti di causa-effetto che oggi sembrano “giustificare” la perversa azione dei Warlords sulla Terra. La descrizione degli eventi richiede una tecnica di registrazione che, come requisito generale minimo, ha bisogno di un sistema di riferimento spaziale, in tre dimensioni, più un insieme di orologi disseminati in tutto lo spazio e sincronizzati, e altri strumenti di misura. È diffuso l’uso di adottare, per lo spazio, una terna di assi cartesiani realizzati con l’incrocio di superfici piane rigide ortogonali, anche se questa non è la sola possibilità. Per il tempo, la misura si basava in passato sulla regolare scansione di fenomeni astronomici periodici, mentre oggi fa riferimento a oscillazioni atomiche e, tra breve, sulle pulsazioni stellari. Ci sono poi strumenti che misurano la massa, l’elasticità dei corpi, la fluidità dei liquidi, le forze (spinte, attrazioni), le frequenze e altre quantità. Il che richiede l’adozione di un vasto sistema convenzionale di unità di misura per ciascun tipo di grandezza misurata. Le Leggi di Natura sono espresse matematicamente da relazioni tra grandezze fisiche del tipo A uguale a B oppure A maggiore di B. Un’importante disuguaglianza è il Principio di Indeterminazione di Heisenberg, vero protagonista del celebre universo di “Star Trek The Next Generation” di Gene Roddenberry. A e B sono combinazioni o funzioni di altre grandezze e, nel caso delle leggi di evoluzione, contengono delle derivate, cioè delle variazioni temporali e spaziali. Un carattere universalmente valido che si applica a tutte le leggi è il Principio di Omogeneità: A e B devono avere le stesse unità di misura, il che significa che il loro rapporto deve essere un numero puro. Questo principio, lungi dall’essere una banale astrazione, porta in certi casi a risultati concreti attraverso ragionamenti di scala che rappresentano una generalizzazione della nozione geometrica di similitudine. Il prototipo di tutte le leggi matematiche della Natura è la Legge della Gravitazione Universale di Newton. Essa afferma che la Forza di Gravità tra due corpi è proporzionale alle masse “m” e “m1” dei corpi e inversamente proporzionale al quadrato della loro distanza. In notazione moderna, la scriviamo come: F=Gmm1/r², dove G è la costante di Newton. Combinata con l’equazione fondamentale della dinamica F=ma (Forza=massa per accelerazione), la legge newtoniana della Gravità permette di calcolare con grande precisione i moti planetari e per secoli è stata alla base della meccanica celeste e, quindi, del volo spaziale interplanetario. Solo nel 1915 è stata soppiantata dalla Legge della Gravitazione di Einstein che la incorpora come caso limite valido quando il campo gravitazionale è debole e non modifica sensibilmente lo spaziotempo. Affinché il primo e il secondo membro dell’equazione della Gravità di Newton siano espressi entrambi nelle unità di misura della forza, in base al principio di omogeneità, è necessario che la costante G non sia un numero puro, ma abbia anch’essa delle opportune unità di misura. Se ponessimo infatti G uguale a 1, analogamente a quel che si fa in Relatività dove si pone la velocità della luce nel vuoto “c” uguale a 1, caratterizzando le lunghezze in tempi-luce, dovremmo misurare le masse in metri e secondi, anziché in chilogrammi! Fino all’inizio del XIX Secolo si riteneva che tutti i fenomeni fisici fossero riconducibili al moto di corpi materiali soggetti ad azioni a distanza, come la forza di Gravità e altre modellate su questa. Le entità fondamentali erano quindi particelle, ossia oggetti localizzati la cui posizione spaziale è specificata da tre coordinate cartesiane funzioni del tempo: x(t), y(t), z(t). Le equazioni della dinamica permettevano, una volta risolte, di determinare queste leggi temporali. Nel corso dell’Ottocento emerse un’altra importantissima nozione, quella di Campo, di cui siamo debitori soprattutto al grande James Clerk Maxwell. L’Elettromagnetismo è una Fisica di Campi, cioè di entità diffuse nello spazio, rappresentate da funzioni del tipo A(x,y,z,t) che dipendono dalle coordinate spaziali e dal tempo. I campi sono retti anch’essi da equazioni di evoluzione che ne permettono di prevedere la configurazione in un qualunque istante futuro, una volta che sia nota la sua configurazione nell’istante iniziale. Sebbene siano tutte riconducibili a uguaglianze o disuguaglianze tra grandezze, del tipo A=B e A>B, le Leggi della Natura sono molto diverse tra loro, sia per la matematica che coinvolgono sia per il loro status fisico. Esistono leggi universali e leggi di applicabilità limitata, leggi che permettono di predire l’evoluzione nel tempo dei sistemi e leggi che descrivono il Mondo così com’è in un determinato istante. È impossibile classificare in maniera esauriente tutte le leggi fisiche che magari un giorno saranno rappresentate da un singolo semplice simbolo. L’equazione di Newton “F=ma” combinata con la legge di gravitazione universale, le equazioni di Maxwell, l’equazione di Dirac e l’equazione della Relatività Generale, sono esempi di leggi di evoluzione, leggi di grande generalità che governano un vasto numero di fenomeni. Da un punto di vista matematico, si tratta di equazioni differenziali in cui compaiono le variazioni istantanee (le derivate) di funzioni che descrivono lo stato di un sistema: posizione e velocità delle particelle in meccanica classica, i campi nell’elettromagnetismo, la funzione d’onda in meccanica quantistica. Per risolvere le equazioni dinamiche bisogna conoscere le condizioni iniziali, cioè lo stato del sistema in un istante iniziale. Queste condizioni sono in genere aleatorie e non soggette ad alcuna regolarità, ma determinano, assieme alle leggi di evoluzione, gli stati successivi del sistema. La relazione tra energia e massa, il Principio di Indeterminazione di Heisenberg, la relazione tra energia e temperatura e l’equazione di Boltzmann, sono esempi di Leggi di stato, perché evidenziano delle connessioni stabili tra diverse proprietà di un sistema. In alcuni casi queste leggi convertono certe grandezze in altre: E=mc² converte masse in energie e viceversa, mentre le leggi della meccanica statistica (E=kT e S=klogW) convertono grandezze macroscopiche (la temperatura T e l’entropia S) in grandezze microscopiche (energia delle particelle E e numero di stati microscopici W). A differenza che nelle società democratiche, nella Fisica c’è qualcosa che sta al di sopra delle leggi: sono i Principi di Simmetria che svolgono il ruolo di Super Leggi. Come insegna il fisico teorico Eugene Wigner, “le simmetrie sono leggi che le leggi di natura devono rispettare”. I principi di simmetria stabiliscono che le leggi di evoluzione devono essere invarianti rispetto a certe trasformazioni. Rispetto agli spostamenti spaziali e temporali, rispetto alle rotazioni, rispetto alle trasformazioni di Lorentz, che fanno passare da un sistema di riferimento a un altro (Principio di Relatività) o rispetto ad alcune trasformazioni della funzione d’onda. Come dimostra la matematica tedesca Emmy Noether nel 1918, le simmetrie hanno come necessaria conseguenza le Leggi di Conservazione, un’altra importante classe di leggi fisiche. Queste stabiliscono che nel corso dei fenomeni alcune grandezze (energia, quantità di moto, momento angolare, carica elettrica e così via) non variano. Sono gli strumenti più utili e più comodi del fisico, perché permettono di ottenere informazioni sui processi per mezzo di una matematica elementare. Già le ricerche di Michael Faraday, Georg Ohm, André-Marie Ampère e molti altri, provvedono a rimpolpare la fenomenologia dell’elettromagnetismo, ma è Maxwell a scrivere le equazioni definitive del campo elettrico e del campo magnetico che hanno spalancato le porte all’Elettronica. In particolare, egli capì che l’aggiunta di un termine correttivo, la cosiddetta Corrente di Spostamento consistente nella variazione temporale del campo elettrico, alla legge di Ampère, garantisce la conservazione della carica elettrica e genera l’equazione delle onde. Il “miracolo” delle equazioni di Maxwell sta nel fatto che esse contengono i presupposti della Relatività di Albert Einstein. Perché, a differenza delle equazioni della meccanica newtoniana, godono della simmetria relativistica, cioè sono invarianti rispetto alle trasformazioni di Lorentz dei sistemi di riferimento. Ciò può essere reso evidente introducendo un oggetto matematico chiamato Tensore, una generalizzazione dei vettori ordinari, che incorpora il campo elettrico e il campo magnetico. Scritte in termini di tensori, le equazioni di Maxwell assumono una forma particolarmente compatta e soprattutto simmetrica a colpo d’occhio. Dopo la fisica newtoniana dei corpuscoli e delle forze a distanza, e la fisica maxwelliana dei campi, nella seconda metà del Novecento si realizza la grande sintesi: le particelle e le forze sono entrambe descritte da Campi Quantizzati. Nasce l’Elettrodinamica Quantistica (Qed), la teoria degli Elettroni e dei Fotoni, le cui implicazioni tecnologiche pacifiche (volo interstellare) sono per lo più ancora sconosciute. Uno dei protagonisti di questa svolta è il fisico Richard Feynman, il quale pubblica nel 1948 un lavoro che produrrà una sorta di insospettabile riconciliazione tra il vecchio e il nuovo: una riformulazione della Teoria Quantistica diversa da quella di Werner Heisenberg e da quella di Erwin Schrödinger, e basata su un principio della meccanica classica, il Principio di Minima Azione. Questo stabilisce che la traiettoria di un corpo è quella che rende minima una quantità chiamata Azione che possiamo immaginare come il prodotto dell’energia del corpo per la durata del moto. Nella meccanica classica, il principio di minima azione permette di derivare l’equazione del moto di un corpo, una volta che siano note le sue interazioni. Feynman mostra che in meccanica quantistica la probabilità che una particella si propaghi da un punto a un altro dello spaziotempo si può calcolare sommando tutti i possibili cammini (storie) della particella tra i due punti, con un opportuno peso per ogni cammino, dipendente dall’azione. Questo approccio, applicato alla Teoria Quantistica dei Campi, conduce a una specie di Fisica a fumetti, ovvero a una rappresentazione dei processi elementari e delle loro equazioni mediante figure chiamate “diagrammi di Feynman” che interpretano tali processi ordinandoli secondo un numero crescente di Mediatori dell’interazione. Nel caso della elettrodinamica quantistica, i Fotoni, cioè le particelle di luce scoperte da Einstein. In un diagramma si rappresenta l’urto di due elettroni con scambio di un fotone e di due fotoni. Si tratta in entrambi i casi di fotoni virtuali, cioè di fotoni che vivono per un brevissimo intervallo di tempo. Un’altro mostra invece il diagramma dell’annichilazione Elettrone-Positrone in cui si produce un fotone virtuale che si materializza poi in altre coppie di particelle cariche. Ancora un Elettrone e un Positrone, oppure un Muone positivo e un Muone negativo, o altre particelle più pesanti, a seconda dell’energia disponibile. L’intensità dell’interazione elettromagnetica è espressa da una costante di struttura fine, chiamata Alfa (α). Ogni diagramma di Feynman corrisponde a un’equazione proporzionale a una potenza di α, il cui esponente è dato dalla metà del numero di punti di interazione contenuti nel diagramma: così i due diagrammi sono, rispettivamente, di ordine α e di ordine α2. Per calcolare esattamente un processo reale, bisognerebbe sommare un numero infinito di diagrammi. Fortunatamente la piccolezza di α che è un numero inferiore a 0,01 fa sì che i pochi diagrammi degli ordini più bassi diano già un’ottima approssimazione. L’elettrodinamica quantistica è attualmente la teoria fisica più precisa. Le sue predizioni si accordano con i dati sperimentali fino alla nona cifra significativa, cioè con un errore inferiore a una parte su un miliardo. Per conseguire questi successi, la Teoria Quantistica dei Campi ha dovuto annientare un nemico: l’infinito numerico. Appena si considerano diagrammi che descrivono un dato processo oltre l’ordine più basso in α, infatti, le equazioni danno valori infiniti. Il problema, in un certo senso, era presente già in fisica classica: l’energia potenziale dovuta al campo elettrico generato da un elettrone cresce man mano che ci si avvicina alla sorgente e diventa infinita nel punto in cui si trova l’elettrone stesso che è una particella puntiforme ma anche un’onda. Nell’ambito della Teoria Quantistica dei Campi, il problema è che il Vuoto Quantistico non è vuoto, ma pullula di Fotoni e di cariche prodotte in coppie, complessivamente neutre, di Elettroni e Positroni, virtuali, effimeri, che vengono prodotti e riassorbiti dall’Elettrone originario e producono guai alla teoria. Ma un complesso sistema di trucchi nella cosiddetta “rinormalizzazione”, basata sulla ridefinizione dei Campi e dei parametri della teoria, sempre ideata da Feynman assieme a Julian Schwinger e Sin-Itiro Tomonaga negli Anni ’40 del XX Secolo, permette di cancellare gli infiniti. L’esito finale è quella straordinaria capacità predittiva dell’Elettrodinamica Quantistica che rende possibile l’impossibile come Alice nel Paese delle Meraviglie. Negli Anni ’70, gli olandesi Gerardus ‘t Hooft e Martinus Veltman hanno dimostrato che la rinormalizzazione funziona anche con le teorie che descrivono le altre Forze fondamentali del mondo subnucleare, quelle che compongono il Modello Standard. La storia delle leggi e delle equazioni, e dello sforzo dei fisici per calcolare il Mondo, ha raggiunto così il suo temporaneo successo. Ci saranno sicuramente altri capitoli, ma per il momento sono ancora bozze. Nel libro di Pietro Greco su Albert Einstein, si offre un’avvincente ricostruzione della vicenda personale dello scienziato Einstein non solo ripercorrendo una storia durata svariati decenni, ma anche attraverso una preziosa introduzione in cui si legge di quella mania del ricercatore moderno, che inizia da Galilei e Newton. Cioè da quando la Scienza perde la sua natura metafisica in cambio dell’assunzione di valori razionali come la dimostrazione, la verifica, la coerenza, conservando, tuttavia, nel caso di Einstein, quella concezione derivante dalla seduzione ionica, cioè dalla metafisica dell’intima unità della Natura. Una “fede” che ovviamente non può essere accettata dal nostro scienziato per il quale è necessaria una concezione e una dimostrazione scientifica. La mancata unificazione tra la teoria del continuo e quella corpuscolare, il “marmo pregiato e il legno scadente” come ironicamente le definisce Einstein, non è tuttavia un errore attribuibile all’una o all’altra, ma semplicemente indica la necessità di superare, nel caso della teoria corpuscolare, il punto cui era arrivata, che non può essere considerato come conclusivo. Il lavoro dei fisici avrebbe dovuto essere questo anche in Italia dove Enrico Fermi avrebbe potuto costruire la sua prima Pila nucleare. La probabilità che dopo il 1905 proprio Einstein potesse essere il fisico pregiudicato per un tale successo, dipendeva anche dal fatto che il “giovane fisico pensa e agisce al di fuori di ogni costrizione di pensiero. Non ha vincoli accademici. Non ha problemi di carriera. Non ha maestri né piste di ricerca prestabilite. Può pensare alla grande. Può sciogliere come crede le briglie della sua creatività e della sua visione del mondo”, come ricorda l’Autore. Un’attività, quella della ricerca scientifica, che si regge non sul nepotismo ma nel rispetto rigoroso di alcuni princìpi ovvi: la razionalità, la coerenza, la dimostrazione, senza i quali non solo non ci sarebbe sviluppo della conoscenza, ma nemmeno la ricerca stessa della conoscenza. E quindi la prosperità e la libertà. Tuttavia tutte quelle altre condizioni di cui, come osserva Greco, Einstein gode, giocano, non solo nel caso di Einstein, una parte rilevante nella creazione e intuizione di ipotesi interpretative tali da costituire dei passaggi storici nella costruzione della nostra conoscenza. Questo bagaglio complessivo ha una dimensione etica che si riflette nella qualità della società e della vita di tutti. Questa qualità etica non è una deviazione ma un necessario arricchimento senza il quale una personalità come quella di Einstein perde una componente essenziale. Non sono solo le nuove scoperte della fisica che ci dicono che Einstein aveva ragione. In qualche modo anche la Storia e la Politica ci portano alla stessa constatazione, ancora oggi sulla Terra che sembra quasi impazzita a causa dei Signori della Guerra che non sono scienziati. Albert Einstein non è stato solo un genio della fisica, il più grande in assoluto. È stato anche un ispiratore della Politica e della Vita sulla Terra. Non di quella politicante che, ahinoi, ben conosciamo in Italia, in Europa e nel Mondo ormai rassegnato al caos delle guerre permanenti, ma di quella alta, visionaria, ordinata dei grandi personaggi che hanno forgiato il XX Secolo, da Roosevelt a Gandhi, da Russel a Nehru, da JFK a Putin in pieno Obamismo! Dunque, “Einstein aveva ragione. Mezzo secolo di impegno per la pace” (ScienzaExpress, 2012), è un libro per tutti. Sì, la Pace, prima di tutto. Nato in Germania, a Ulma, il 14 Marzo 1879 e morto a Princeton (NJ, Usa) il 18 Aprile 1955, l’ebreo non praticante Albert Einstein compie un percorso a suo modo esemplare attraverso due guerre mondiali, la rivoluzione dei Soviet, l’Olocausto del Popolo Ebraico per mano nazifascista, la sconfitta di Hitler grazie alla Russia, la nascita dello Stato di Israele, le due bombe nucleari (non “atomiche”!) americane sulle citta nipponiche di Hiroshima e Nagasaki (che inaugurano la Guerra Fredda), lo Stalinismo, il Maccartismo, l’Equilibrio Nucleare del Terrore e la nascita dell’Unione Europea. Formidabili sì quegli anni, vissuti da Einstein da protagonista sia per aver scosso dalle fondamenta l’edificio della fisica newtoniana con la messa a punto in due riprese della Relatività, Speciale nel 1905 e Generale nel 1915, con la prima conferma sperimentale nel 1919 per via astronomica, sia per aver dato un contributo determinante alla nascita delle Politiche di Pace moderne tra Usa e Urss, abbandonando le pericolose teorie settecentesche. L’inutile insensata carneficina della Prima Guerra Mondiale fa maturare in Albert Einstein, prima impiegato all’Ufficio brevetti di Berna, poi docente in diverse università in Svizzera e in Germania, una volontà di pace istintiva, via via sempre più radicale. Al punto da spingere il già noto professore di fisica a prendere posizione, in piena guerra, per l’obiezione di coscienza totale. “Non basta essere pacifisti – sostiene Einstein – bisogna essere pacifisti militanti”. Il suo ragionamento era che se una moltitudine di giovani si fosse rifiutata di arruolarsi nell’esercito, lo Stato avrebbe avuto difficoltà a punirli tutti con il carcere o il plotone di esecuzione, e lo spirito bellico si sarebbe dileguato. Esemplare lezione evidentemente poco conosciuta alle Nazioni Unite e ad alcuni analisti geopolitici. Ancora oggi. Ingenuo e geniale allo stesso tempo, fin dalle prime riflessioni, in Einstein la pace è un valore non negoziabile, come apprende nelle sue letture giovanili di Kant, in particolare del suo scritto sulla “Pace perpetua”, oltre che della “Critica della ragion pura” che legge a 13 anni. Einstein è convinto che per difendere la pace serve l’unione di tante volontà. L’esempio individuale non basta. Ecco allora la necessità che le politiche di pace escano dalla sfera della coscienza individuale per farsi movimento politico. La Prima Guerra Mondiale termina con la disfatta e l’umiliazione a Versailles della Germania costretta a cedere Alsazia e Lorena e a pagare straordinari debiti di guerra in oro. Matura pericolosamente in quegli anni lo spirito di vendetta e il cieco nazionalismo che troverà un maligno interprete nel caporale austriaco Adolf Hitler. Ma prima dell’avvento del nazismo nel 1933, la Germania conosce le favole del socialismo, la vertiginosa libertà intellettuale della Repubblica di Weimar, l’illusione spartachista di Rosa Luxemburg rapita e assassinata nel 1919 insieme al sodale Karl Liebknecht. In questa temperie, Einstein si fa portavoce mondiale di pace, solidarietà e democrazia che lo metteno al riparo dal fascino esercitato dalla cosiddetta “democrazia popolare” dei Soviet, rendendolo inviso sia ai regimi comunisti sia a quelli liberali che in fondo furono responsabili dei due disastri bellici europei e della Rivoluzione di Lenin in Russia contro lo Zar Nicola II e la Famiglia Imperiale dei Romanov oggi canonizzati dalla Chiesa Ortodossa. Verso la fine degli Anni ‘20 l’Europa, messa in ginocchio dalla crisi economica, è percorsa dal veleno dell’antisemitismo nazista, che spinge Einstein e tanti altri scienziati europei (come Enrico Fermi, subito dopo il Premio Nobel per la Fisica nel 1938) a lasciare la Germania per la Svizzera e in seguito, a partire dal 1933, per Princeton negli Stati Uniti d’America, dove resterà fino alla morte. La Seconda Guerra Mondiale (1939-1945) muta le condizioni di contorno inducendo Einstein a cambiare atteggiamento verso una opzione pacifista e non-violenta, predicata da Gandhi in quegli anni di resistenza al dominio della Corona britannica in India. Viene infatti giudicata inadatta a fronteggiare le “forze del Male” che sempre più chiaramente si delineano in Europa e che egli coglie da subito, senza i tentennamenti, quando non i tradimenti, di molti altri intellettuali, primo fra tutti il “nazificato” Martin Heidegger. Per quanto i campi di sterminio tedeschi siano ancora di là da venire dopo quelli stalinisti, la persecuzione degli Ebrei è già una realtà in Germania, che genera come antidoto il movimento sionista e un nuovo esodo verso la Palestina. Einstein aderisce al movimento, ma a modo suo, accettando la necessità di una terra d’asilo ma rifiutando la costituzione di un nuovo Stato. Albert resta, in cuor suo, un uomo di libertà, allergico a ogni nazionalismo, politicamente corretto e statolatria. Come insegna Kant, “la pace si potrà pure installare sulla Terra a patto che i popoli superino le chiusure nazionaliste federandosi sotto un unico ordine mondiale a cui rimandare almeno l’uso legittimo della forza”. È oggi il pensiero del Presidente russo Vladimir Putin pronunciato all’Onu per il 70.mo anniversario di fondazione, limitatamente all’Alleanza contro il Male che imperversa sulla Terra. Ma all’epoca le armate del Fuhrer dilagano in Europa, rendendo sempre più insostenibile il credo pacifista. Einstein, per usare l’espressione di Greco, si “autosospende” da pacifista militante. Anche perché proprio in quegli anni dal cilindro della fisica esce l’idea della bomba nucleare. Prima Otto Hahn e Lise Meitner, poi Enrico Fermi, osservano il fenomeno della fissione nucleare: l’Uranio, opportunamente bombardato da Neutroni, si spezza, decadendo in Bario, un atomo di massa notevolmente più piccola. Dov’è finita la massa mancante? Sarà Lise Meitner a suggerire che la chiave sta proprio nella celebre formula di Einstein, E=mc². Il resto della Massa si trasforma in Energia. In un solo grammo di Uranio che subisce teoricamente una fissione totale, l’energia è pari alla combustione di 3 tonnellate di carbone. Ma l’efficienza delle prime bombe americane sarà nettamente inferiore, grazie a Dio! L’amico Leo Slizard è fra i primi a comprendere le conseguenze di quella scoperta peraltro temuta dal fisico italiano Ettore Majorana: in pochi anni si potrebbe produrre una bomba capace di distruggere un’intera città. I suoi inviti a non divulgare i particolari delle sperimentazioni, che si moltiplicano a cavallo fra il 1939 e il 1940 tra Francia, Stati Uniti d’America e Germania, restano inascoltati. E il guaio è che il Terzo Reich ha gli scienziati (come Heisenberg) e i laboratori adatti per arrivare prima degli altri a confezionare questo inusitato strumento di morte, attraverso la produzione di Acqua Pesante, il Deuterio. Einstein coglie al volo l’entità della nuova minaccia, sospende il suo impegno pacifista e si decide a scrivere la famosa lettera indirizzata al Presidente degli Stati Uniti Franklin Delano Roosevelt. È il 2 Agosto 1939. “Signor Presidente – scrive Einstein – alcune ricerche svolte recentemente da E. Fermi e L. Szilard, mi inducono a ritenere che l’uranio possa essere trasformato nell’immediato futuro in una nuova e importante fonte di energia. Negli ultimi quattro mesi è stata confermata la probabilità (grazie all’opera di Joliot in Francia, oltre che di Fermi e Szilard in America) che diventi possibile avviare in una grande massa di uranio una reazione nucleare a catena capace di generare enormi quantità di energia e grandi quantitativi di nuovi elementi simili al radio. Attualmente è quasi certo che si possa pervenire a questo risultato nell’immediato futuro. Questo nuovo fenomeno porterebbe anche alle costruzione di bombe, ed è concepibile (anche se molto meno certo) che si possano costruire in tal modo bombe estremamente potenti di tipo nuovo. Una sola bomba di questo tipo, trasportata da un’imbarcazione e fatta esplodere in un porto, potrebbe benissimo distruggere l’intero porto e una parte del territorio circostante. Può darsi tuttavia che tali bombe si rivelino troppo pesanti per essere trasportabili per via aerea. Gli Stati Uniti dispongono soltanto di moderati quantitativi di minerale uranifero molto povero. Si trova minerale buono in Canada e nell’ex-Cecoslovacchia, mentre la più importante fonte di uranio è il Congo Belga. Potrà appariLe opportuno istituire un collegamento permanente tra l’Amministrazione e il gruppo di fisici che si occupano di reattori a catena in America. Uno dei modi di assicurare tale collegamento potrebbe consistere nell’affidare questo compito a persona che goda della Sua fiducia, e che potrebbe eventualmente agire in veste non ufficiale. Il suo compito potrebbe consistere in quanto segue: a) prendere contatto con i dicasteri governativi mantenendoli informati sugli ulteriori sviluppi, e formulare raccomandazioni per interventi governativi, con particolare riguardo al problema di assicurare agli Stati Uniti un approvvigionamento di minerale uranifero; b) accelerare il lavoro sperimentale che si svolge attualmente nei limiti dei bilanci dei laboratori universitari, fornendo finanziamenti – ove necessario – tramite contatti con privati disposti a contribuire a questa causa, e anche eventualmente procurando la cooperazione di laboratori industriali che dispongano dell’attrezzatura necessaria. Mi risulta che la Germania ha effettivamente bloccato la vendita di uranio da parte delle miniere cecoslovacche di cui si è impadronita. La decisione di agire così tempestivamente si può forse spiegare con la circostanza che il figlio del Sottosegretario di Stato tedesco, von Weizsàcker, lavora al Kaiser-Wilhelm-Institut di Berlino, dove vengono attualmente compiute, in parte, le stesse ricerche sull’uranio che si svolgono negli Stati Uniti. Sinceramente Suo, Albert Einstein”. La lettera di Einstein invita il Presidente alla massima vigilanza. Ma ci vorranno ancora tre anni con l’attacco giapponese a Pearl Harbour il 7 Dicembre 1941 e la conseguente entrata in guerra degli Stati Uniti d’America, nonché la dimostrazione della reazione a catena da parte di Enrico Fermi, realizzata in uno scantinato a Chicago il 2 Dicembre 1942, perché maturino le condizioni scientifiche e politiche per l’avvio del Progetto Manhattan diretto da Robert Oppenheimer. Il resto è storia ancora ben impressa nella coscienza mondiale sempre più abituata alle guerre permanenti: il 16 Luglio 1945 viene fatta esplodere la prima bomba nucleare al Plutonio ad Alamogordo, simile a quella che annienterà parzialmente Nagasaki, il 9 Agosto 1945, benché il Terzo Reich fosse già caduto nell’operazione a tenaglia delle truppe americane e sovietiche. Tre giorni dopo la prima bomba nucleare fatta eplodere su Hiroshima. Inizia la Guerra Fredda. Ma gli scienziati non demordono e non si dividono. Anzi. Condividono sempre tutte le loro scoperte, animati dallo spirito di Einstein, nonostante le pressioni ideologiche dei due blocchi. Lo spettro di una probabile Apocalisse Nucleare era ormai uscito dal Vaso di Pandora. Rimettercelo diventa la missione degli ultimi dieci anni di Albert Einstein sulla Terra. Il fisico, ormai vera e propria icona pop della cultura e del costume al pari di Gandhi e Charlie Chaplin, più volte finito in copertina su Time e intervistato dai media di mezzo mondo, chiude il periodo di autosospensione per forgiare un pacifismo del tutto nuovo, all’altezza delle nuove sfide che si trova a fronteggiare. Il mondo gioca con la possibilità reale, che si affaccia per la prima volta nella storia grazie anche allo sviluppo tecnico-scientifico, della sua completa autodistruzione assicurata. Sull’orlo del baratro, Einstein si chiede, e ci chiede oggi, che direzione vogliamo prendere. Il bivio è chiaro, almeno nella sua mente: da una parte la proliferazione nucleare governata da politici, militari, industria e scienziati acquiescenti, teso a instaurare l’Equilibrio del Terrore che guarda caso oggi viene alimentato dal Terrorismo Globale a colpi di decapitazioni; dall’altra il disarmo e il libero esercizio della Scienza finalizzato all’innovazione, alla prosperità e alla pace sulla Terra e altrove. Inutile dire che, almeno fino a quando domina la contrapposizione fra Usa e Urss, è la prima via ad avere la meglio. Quanto peggiore e pericoloso sarebbe stato lo scenario mondiale senza la testimonianza di Einstein! Senza di lui, senza Bertrand Russel e tanti altri scienziati che firmarono il famoso “Appello per la pace e il disarmo”, a pochi giorni dalla sua morte nel 1955, forse il Movimento per il disarmo nucleare (come il Pugwash) non avrebbe avuto la stessa forza. L’Agenzia atomica internazionale non avrebbe forse varato negli stessi termini il programma “Atom for peace”. E la Scienza avrebbe sicuramente subito fatica a salvaguardare la propria autonomia dai programmi di secretazione della ricerca sul nucleo parte dei militari. Firmano il Manifesto scienziati e intellettuali di prestigio: Albert Einstein, Bertrand Russell, Max Born (Premio Nobel per la fisica), Percy W. Bridgman (Premio Nobel per la fisica), Leopold Infeld (Professore di fisica teorica), Frédéric Joliot-Curie (Premio Nobel per la chimica), Herman J. Muller (Premio Nobel per la fisiologia e medicina), Linus Pauling (Premio Nobel per la chimica), Cecil F. Powell (Premio Nobel per la fisica), Józef Rotblat (Professore di fisica) e Hideki Yukawa (Premio Nobel per la fisica). “Nella tragica situazione che l’umanità si trova ad affrontare – si legge nell’importante Dichiarazione in favore del disarmo nucleare e della scelta pacifista per l’umanità – riteniamo che gli scienziati debbano riunirsi per valutare i pericoli sorti come conseguenza dello sviluppo delle armi di distruzione di massa e per discutere una risoluzione nello spirito del documento che segue. Non parliamo, in questa occasione, come appartenenti a questa o a quella nazione, continente o credo, bensì come esseri umani, membri del genere umano, la cui stessa sopravvivenza è ora in pericolo. Il mondo è pieno di conflitti, e su tutti i conflitti domina la titanica lotta tra comunismo e anticomunismo. Chiunque sia dotato di una coscienza politica avrà maturato una posizione a riguardo. Tuttavia noi vi chiediamo, se vi riesce, di mettere da parte le vostre opinioni e di ragionare semplicemente in quanto membri di una specie biologica la cui evoluzione è stata sorprendente e la cui scomparsa nessuno di noi può desiderare. Tenteremo di non utilizzare parole che facciano appello soltanto a una categoria di persone e non ad altre. Gli uomini sono tutti in pericolo, e solo se tale pericolo viene compreso vi è speranza che, tutti insieme, lo si possa scongiurare. Dobbiamo imparare a pensare in modo nuovo. Dobbiamo imparare a domandarci non già quali misure adottare affinché il gruppo che preferiamo possa conseguire una vittoria militare, poiché tali misure ormai non sono più contemplabili; la domanda che dobbiamo porci è: “Quali misure occorre adottare per impedire un conflitto armato il cui esito sarebbe catastrofico per tutti?”. La gente comune, così come molti uomini al potere, ancora non ha ben compreso quali potrebbero essere le conseguenze di una guerra combattuta con armi nucleari. Si ragiona ancora in termini di città distrutte. Si sa, per esempio, che le nuove bombe sono più potenti delle precedenti e che se una bomba nucleare è riuscita a distruggere Hiroshima, una bomba all’idrogeno potrebbe distruggere grandi città come Londra, New York e Mosca. È fuor di dubbio che in una guerra con bombe all’idrogeno verrebbero distrutte grandi città. Ma questa non sarebbe che una delle tante catastrofi che ci troveremmo a fronteggiare, e nemmeno la peggiore. Se le popolazioni di Londra, New York e Mosca venissero sterminate, nel giro di alcuni secoli il mondo potrebbe comunque riuscire a riprendersi dal colpo. Tuttavia ora sappiamo, soprattutto dopo l’esperimento di Bikini, che le bombe nucleari possono portare gradatamente alla distruzione di zone molto più vaste di quanto si fosse creduto. Fonti autorevoli hanno dichiarato che oggi è possibile costruire una bomba 2500 volte più potente di quella che distrusse Hiroshima. Se fatta esplodere a terra o in mare, tale bomba disperde nell’atmosfera particelle radioattive che poi ridiscendono gradualmente sulla superficie sotto forma di pioggia o pulviscolo letale. È stato questo pulviscolo a contaminare i pescatori giapponesi e il loro pescato. Nessuno sa con esattezza quanto si possono diffondere le particelle radioattive, ma tutti gli esperti sono concordi nell’affermare che una guerra con bombe all’idrogeno avrebbe un’alta probabilità di portare alla distruzione della razza umana. Si teme che l’impiego di molte bombe all’idrogeno possa portare alla morte universale – morte che sarebbe immediata solo per una minoranza, mentre alla maggior parte degli uomini toccherebbe una lenta agonia dovuta a malattie e disfacimento. In più occasioni eminenti uomini di scienza ed esperti di strategia militare hanno lanciato l’allarme. Nessuno di loro afferma che il peggio avverrà per certo. Ciò che dicono è che il peggio può accadere e che nessuno può escluderlo. Non ci risulta, per ora, che le opinioni degli esperti in questo campo dipendano in alcuna misura dal loro orientamento politico e dai loro preconcetti. Dipendono, a quanto emerso dalle nostre ricerche, dalla misura delle loro competenze. E abbiamo riscontrato che i più esperti sono anche i più pessimisti. Questo dunque è il problema che vi poniamo, un problema grave, terrificante, da cui non si può sfuggire: metteremo fine al genere umano, o l’umanità saprà rinunciare alla guerra? È una scelta con la quale la gente non vuole confrontarsi, poiché abolire la guerra è oltremodo difficile. Abolire la guerra richiede sgradite limitazioni alla sovranità nazionale. Ma forse ciò che maggiormente ci impedisce di comprendere pienamente la situazione è che la parola “umanità” suona vaga e astratta. Gli individui faticano a immaginare che a essere in pericolo sono loro stessi, i loro figli e nipoti e non solo una generica umanità. Faticano a comprendere che per essi stessi e per i loro cari esiste il pericolo immediato di una mortale agonia. E così credono che le guerre potranno continuare a esserci, a patto che vengano vietate le armi moderne. Ma non è che un’illusione. Gli accordi conclusi in tempo di pace di non utilizzare bombe all’idrogeno non verrebbero più considerati vincolanti in tempo di guerra. Con lo scoppio di un conflitto armato entrambe le parti si metterebbero a fabbricare bombe all’idrogeno, poiché se una parte costruisse bombe e l’altra no, la parte che ha fabbricato le bombe risulterebbe inevitabilmente vittoriosa. Tuttavia, anche se un accordo alla rinuncia all’armamento nucleare nel quadro di una generale riduzione degli armamenti non costituirebbe la soluzione definitiva del problema, avrebbe nondimeno una sua utilità. In primo luogo, ogni accordo tra Oriente e Occidente è comunque positivo poiché contribuisce a diminuire la tensione internazionale. In secondo luogo, l’abolizione delle armi termonucleari, nel momento in cui ciascuna parte fosse convinta della buona fede dell’altra, diminuirebbe il timore di un attacco improvviso come quello di Pearl Harbour, timore che al momento genera in entrambe le parti uno stato di agitazione. Dunque un tale accordo andrebbe accolto con sollievo, quanto meno come un primo passo. La maggior parte di noi non è neutrale, ma in quanto esseri umani dobbiamo tenere ben presente che affinché i contrasti tra Oriente e Occidente si risolvano in modo da dare una qualche soddisfazione a tutte le parti in causa, comunisti e anticomunisti, asiatici, europei e americani, bianchi e neri, tali contrasti non devono essere risolti mediante una guerra. È questo che vorremmo far capire, tanto all’Oriente quanto all’Occidente. Ci attende, se lo vogliamo, un futuro di continuo progresso in termini di felicità, conoscenza e saggezza. Vogliamo invece scegliere la morte solo perché non siamo capaci di dimenticare le nostre contese? Ci appelliamo, in quanto esseri umani, ad altri esseri umani: ricordate la vostra umanità, e dimenticate il resto. Se ci riuscirete, si aprirà la strada verso un nuovo Paradiso; altrimenti, vi troverete davanti al rischio di un’estinzione totale. Invitiamo questo congresso, e per suo tramite gli scienziati di tutto il mondo e la gente comune, a sottoscrivere la seguente mozione: In considerazione del fatto che in una futura guerra mondiale verrebbero certamente impiegate armi nucleari e che tali armi sono una minaccia alla sopravvivenza del genere umano, ci appelliamo con forza a tutti i governi del mondo affinché prendano atto e riconoscano pubblicamente che i loro obbiettivi non possono essere perseguiti mediante una guerra mondiale e di conseguenza li invitiamo a trovare mezzi pacifici per la risoluzione di tutte le loro controversie”. Per alcuni anni subito dopo la Seconda Guerra Mondiale l’immagine di Einstein risente della paternità della bomba nucleare che qualcuno vuole accordargli. Cosa storicamente non vera, giacché il fisico di Princeton non vuole partecipare al Progetto Manhattan e si limita a schierarsi con gli Alleati negli anni del grande scontro con l’Asse nazifascista. Ma su di Einstein quell’ombra rimane indelebile e lo porta ad accollarsi la sua parte di responsabilità per l’innocenza perduta della Scienza. Lo strenuo impegno per la pace e l’utopia di un Governo Mondiale che togliesse ai singoli Stati l’uso legittimo della forza, è il suo modo di riscattare più che se stesso una intera comunità di scienziati. Il libro di Greco narra tutto questo non tralasciando aneddoti gustosi, quelli sull’infanzia di Einstein e sui problematici matrimoni, e approfondimenti di aspetti meno noti al pubblico, come la farsa della fisica nazista che si scaglia violentemente contro la teoria ebraica della relatività. O come l’invito del governo ebraico a diventare Presidente dello Stato di Israele dopo la morte di Chaim Weizmann, che Einstein declina con un certo imbarazzo. O come lo straordinario sviluppo del movimento pacifista internazionale e dei “fisici atomici per la pace”, che ancora oggi è alle prese con il rallentamento del disarmo dopo le speranze accese da Gorbaciov, da Reagan, dalla caduta del Muro di Berlino e dalla fine dell’Urss. Einstein aveva pienamente ragione e il libro mostra molto bene quanto poco gli si attagliasse il cliché del fisico perso nei suoi pensieri e distaccato dal mondo. Paul Adrien Maurice Dirac è senza dubbio uno fra i massimi fisici di tutti i tempi. Dal 1926 al 1928, in tre articoli, getta le basi della Meccanica Quantistica, della Teoria Quantistica dei Campi e, con l’equazione che porta il suo nome, della moderna teoria delle particelle elementari (Modello Standard). La famosa Equazione di Dirac per l’Elettrone appare nel 1928. È difficile non provare ammirazione di fronte alla bellezza di una tale equazione: conciliando la Meccanica Quantistica e la Relatività di Einstein, introduce un nuovo formalismo a quattro componenti (gli Spinori) che va al di là del concetto di Tensore. Permettendo di descrivere il moto dell’Elettrone libero, ma anche di entità composite libere come Protoni e Neutroni, prevede un moto di “rotazione” intrinseco dell’Elettrone, il cosiddetto spin, con valori quantizzati seminteri (l’elicità dell’elettrone, ossia la componente dello spin lungo la direzione di moto, può prendere solo due valori, +1/2 ovvero -1/2), associato a un momento magnetico, che permette di spiegare alcuni aspetti misteriosi degli spettri atomici. Ma pone anche un problema nuovo, quello delle energie negative. Infatti, se si risolve l’equazione di Dirac per un singolo Elettrone, si ottengono due soluzioni, una positiva e una negativa, allo stesso modo per cui la radice quadrata di 49 è +7 e -7. La soluzione negativa era preoccupante: l’energia negativa, che era in sé un’idea imbarazzante, implicava, per la famosa equazione della Relatività Speciale di Einstein, E=mc², una massa negativa: una cosa chiaramente assurda! All’epoca, ovviamente nessuno aveva mai visto questi oggetti con energia negativa. Si racconta che un teorico li chiamò “elettroni asini” che “se li tiri in avanti, si muovono all’indietro”! Forse, il Tempo e l’Anti-Tempo? Capita spesso nell’ambito della ricerca scientifica che la soluzione di un problema ne faccia emergere uno nuovo, completamente inaspettato, la cui soluzione rappresenta un progresso significativo della conoscenza. Capita così anche a Dirac che lotta con le energie negative per l’intero 1929, finché non giunge alla conclusione che esse non possono essere evitate. La spiegazione che offre è che gli stati a energia negativa non si vedono, perché occupano lo stato di minima energia possibile che è lo stato di vuoto. Gli Elettroni a energia positiva non possono cadere in questo mare senza fondo, perché non vi è spazio per loro. Però può succedere, così come ogni tanto un pesce salta fuori dall’acqua, che un Elettrone presente in questo mare, investito da un fascio di luce, possa saltar fuori, acquistando un’energia positiva e lasciando una buca nella posizione originaria. Questa buca apparirebbe come una sorta di elettrone “opposto”: stessa massa, ma con carica positiva corrispondente a un’assenza di carica negativa ed energia positiva. È così che l’equazione di Dirac predice un nuovo tipo di materia: l’Antimateria, del tutto simile alla materia ma con carica opposta. Per un bel po’ di tempo, però, Dirac fu riluttante ad accettare la predizione dell’esistenza di un Anti-Elettrone, a tal punto da identificarlo con il Protone! Qualche anno più tardi l’Antielettrone, chiamato Positrone, viene scoperto da Carl D. Anderson nei raggi cosmici. Scoperta che gli valse il premio Nobel per la fisica del 1936. È un vero trionfo per l’Equazione di Dirac. “L’equazione – afferma lo scienziato in seguito – era stata più intelligente di me”. Ma il trionfo sperimentale ancora maggiore è la produzione di Anti-Protoni da parte di Emilio Segré e Owen Chamberlain nel 1956, la produzione di Antideutoni da parte di Antonino Zichichi e altri nel 1965, per arrivare alla produzione dell’Anti-Idrogeno al Cern di Ginevra alla fine del secolo scorso. Oggigiorno i Positroni vengono prodotti e utilizzati quotidianamente sia in ambito scientifico sia medicale (nella Pet, la Positron Emission Tomography). L’Equazione di Dirac ha inoltre un’altra conseguenza ancora più sorprendente, destinata a cambiare radicalmente il modo di concepire la materia: le particelle elementari non sono enti immutabili come secondo la filosofia di Democrito, ma possono trasformarsi tra loro, così come un Fotone, un quanto di luce, che interagisse con la materia può trasformarsi in una coppia Elettrone-Positrone. Le loro caratteristiche, come la carica e la massa, sono determinate dalla presenza del vuoto quantistico con il quale esse interagiscono. Un’altra predizione dell’Equazione di Dirac è il valore pari a due per il fattore giromagnetico “g” dell’Elettrone o di qualsiasi altra particella elementare di spin pari a 1/2. Si tratta del rapporto opportunamente “normalizzato” tra il momento magnetico e quello angolare di spin. Classicamente, un corpo carico rotante intorno a un asse di simmetria produce un momento di dipolo magnetico (come una spira percorsa da corrente) e un momento angolare. Si può dimostrare che in questo caso g=1, uguaglianza che rimane valida anche nella Meccanica Quantistica. Nel 1925 Samuel Goudsmit e George Eugene Uhlenbeck mostrano come l’introduzione di un campo magnetico associato allo spin dell’Elettrone possa spiegare gli spettri atomici osservati nel Litio e nel Sodio, se si assume per “g” il valore empirico g=2. Questo valore ha la sua naturale giustificazione solo nel 1928, come predizione dell’Equazione di Dirac. Devono passare circa altri 20 anni prima che misure sperimentali, condotte da John Nafe, Edward Nelson e Isidor Rabi sulla struttura iperfine dell’Idrogeno e del Deuterio, e da Polykarp Kusch e Henry Foley su atomi di Gallio, mostrino nel 1947 che “g” invece differisce da 2 per circa lo 0,1%, ossia che esiste un contributo “extra” anomalo al momento magnetico dell’Elettrone, espresso dall’anomalia del momento magnetico (a) nella semplice formula a=(g−2)/2. Cosa provoca questo contributo anomalo al momento magnetico dell’Elettrone? Non possono che essere le correzioni radiative, il ribollire del “vuoto”, quel vuoto quantistico pieno di particelle virtuali (le particelle fantasma, presenti ma invisibili, che sono un carattere centrale della Teoria Quantistica dei Campi) a permettere all’Elettrone di emettere e assorbire un Fotone virtuale. Detto in altre parole, i demoni di Dirac che si agitano nello stato di vuoto avevano degli effetti tangibili e misurabili! Non è Dirac o la prima generazione di fisici che fondarono la Meccanica Quantistica, a calcolare gli effetti delle fluttuazioni del vuoto quantistico, ma una nuova generazione di fisici tra cui Julian Schwinger, enfant prodige della fisica teorica del Dopoguerra, che all’età di quattordici anni ha modo di assistere a una conferenza di Dirac sulla teoria delle buche. Nel 1948 egli calcola il contributo anomalo al momento magnetico dell’Elettrone trovando un ottimo accordo con il valore sperimentale di Kusch e Foley. Per la misura del momento magnetico anomalo dell’Elettrone, Kusch riceve il premio Nobel nel 1955 e Schwinger, assieme a Richard Feynman e Sin- Itiro Tomonaga, nel 1965 per lo sviluppo dell’Elettrodinamica Quantistica. La storia delle misure del momento magnetico dell’Elettrone e poi, successivamente, del Muone è uno dei capitoli più belli della fisica sperimentale. Esperimenti di precisione sempre maggiore hanno messo in evidenza come all’anomalia dell’Elettrone e del Muone, che data la massa 200 volte superiore a quella dell’Elettrone, ha una sensibilità maggiore alle fluttuazioni del vuoto quantistico e ai possibili contributi di Nuova Fisica, contribuiscano non solo le coppie di Elettroni e Positroni, ma anche i Quark e i portatori delle interazioni forti e anche i Bosoni W+, W–, Z°, messaggeri delle interazioni deboli. Anche il Bosone di Higgs dà il suo contributo all’anomalia del Muone. All’inizio degli Anni 2000, misurando il momento magnetico anomalo del Muone a una precisione di 540 parti per miliardo, che equivale a conoscere il fattore giromagnetico “g”, paragonato al diametro della Terra, con un’incertezza pari alle dimensioni di una formica, i fisici del Brookhaven National Laboratory di Upton, nello Stato di New York, hanno trovato che il valore misurato si discosta da quello teorico di tre deviazioni standard e la probabilità che questo accada a causa di una fluttuazione statistica è dello 0,3%. Questa discrepanza, per quanto non conclusiva, potrebbe essere spiegata dal contributo all’anomalia del Muone di particelle tuttora ignote, come le Particelle Supersimmetriche che si cercano ora nel supercollisore Lhc, o dei Nuovi Fotoni, particelle di spin pari a 1, con una massa diversa da zero, che potrebbero spiegare la Materia Oscura. Decisivi per le future astronavi interstellari a propulsione fotonica! Per poter capire se si tratta di una crepa nel Modello Standard o di una fluttuazione statistica o di un eventuale effetto strumentale, è in fase di costruzione al Fermilab di Chicago (Usa) un nuovo esperimento (Muon g-2) che misurerà l’anomalia del Muone con una precisione di 140 parti per miliardo. Anche grazie al risultato di questo esperimento, a cui partecipa per l’Italia anche l’Infn, tra qualche anno sapremo se il Modello Standard debba essere abbandonato a favore di una teoria più completa. Come tutti gli esseri umani, anche gli scienziati e i ricercatori discutono tra loro, a volte litigano, per difendere le proprie teorie e i propri risultati. Forse in pochi conoscono la storia del duello tra scienziati, forse il più importante e famoso. Comincia nell’Anno Domini 1927. Ventidue anni prima, nel suo annus mirabilis, Albert Einstein aveva rivoluzionato la fisica, introducendo idee davvero incredibili, come il fatto che lo spazio e il tempo possano accorciarsi o allungarsi, o che la luce viaggi in pacchetti di quanti ben definiti chiamati Fotoni. Le scoperte di Einstein e di altri portano alla nascita di un nuovo tipo di fisica, detta Quantistica, che presto dimostra la sua solidità spiegando molti fenomeni sino allora incomprensibili. In soli 22 anni però la Fisica Quantistica arriva a conclusioni così stupefacenti da essere difficili da digerire anche per lo stesso Einstein che pure aveva contribuito alla sua nascita. Secondo il Principio di Indeterminazione, colonna portante della Fisica Quantistica, ogni oggetto è sia una particella sia un’onda, e non è possibile determinarne la posizione e la velocità allo stesso tempo. Una conseguenza di ciò è che non si possono misurare certe cose oltre una data precisione, e particelle come Elettroni o Fotoni vanno considerate non come oggetti con una precisa posizione nello spazio, ma come semplici Distribuzioni di Probabilità. Einstein si mostra sin dall’inizio scettico su queste conclusioni: è sicuro che ci sia qualcos’altro sotto, una teoria ulteriore che permetta di misurare tutto con assoluta precisione. Con queste idee, nell’Ottobre 1927 si reca al Congresso Solvay a Bruxelles. Per dare un’idea del livello della Conferenza, basti dire che tra i 27 partecipanti si possono incontrare 17 premi Nobel o futuri premi Nobel. Tra i partecipanti, oltre ad Einstein, figurano Schrodinger, Pauli, Heisenberg, Brillouin, Bragg, Dirac, de Broglie, Langmuir, Planck, Marie Curie, Langevin oltre a Niels Bohr, il fisico danese che aveva descritto per primo la struttura dell’atomo. E proprio tra Einstein e Bohr comincia una discussione di vari giorni sulla validità del Principio di Indeterminazione. Come spesso accade in questi casi, le discussioni più importanti non avvengono durante i seminari ufficiali, ma a tavola o al bar, mentre si mangia! Allo stesso modo è nata la Teoria Olografica che ha messo a dura prova le idee di Hawking. Ogni mattina a colazione Einstein presenta a Bohr un esperimento (sic!) immaginario che sembra contraddire il Principio di Indeterminazione. Bohr lo studia fino a che riesce a controbattere la critica di Einstein, solo per trovare Einstein il giorno dopo pronto con un nuovo diverso esperimento intellettuale immaginario. Uno dei più astuti proposti da Einstein immagina di avere una scatola da cui in un preciso momento esce un raggio di luce. Pesando la scatola prima e dopo e sfruttando la relazione di Einstein che collega la massa all’energia, si può ottenere l’energia del raggio di luce emesso. Conoscendo l’energia del raggio e il momento esatto in cui è uscito, si riuscirebbe a contraddire il Principio di Indeterminazione! È un esperimento davvero ben congegnato. Bohr rimane sconvolto dalla sua apparente perfezione. Un’altro scienziato del Congresso descriverà la scena come “un vero shock per Bohr che all’inizio non riuscì a trovare una soluzione. Estremamente agitato, andò per tutta la sera da uno scienziato all’altro, provando a convincere tutti che non poteva essere, che sarebbe stata la fine della Fisica. Ma non riuscì a trovare nessuna soluzione per risolvere il paradosso. Non dimenticherò mai l’immagine dei due scienziati mentre lasciavano il club: Einstein, alto e autorevole, che camminava tranquillamente con un sorriso ironico e soddisfatto, e Bohr che gli trotterellava dietro, agitatissimo”. Bohr passa probabilmente una notte insonne temendo di aver perso il duello, ma il giorno dopo trova una soluzione sfruttando, paradossalmente, proprio la Teoria della Relatività di Einstein. In particolare, Bohr dimostra che la forza di Gravità necessaria a pesare la scatola influenzerà anche, proprio secondo le teorie di Einstein, lo scorrere del tempo e quindi la misura dell’attimo esatto in cui la particella lascia la scatola! Alla fine, Bohr vince il duello. Einstein continuerà per vari anni a provare a confutare il Principio di Indeterminazione. Non riuscirà mai a convincersi che non sia possibile, per l’Uomo, arrivare alla verità assoluta. I fatti dimostrano, per ora, che Einstein aveva torto. Non dobbiamo immaginare però il dibattito tra Einstein e Bohr come un litigio tra due persone che vogliano avere ragione ad ogni costo, per non ammettere di aver sbagliato. I due si stimano e sono amici, ed ognuno di loro difende strenuamente la propria opinione non per amor proprio, ma per sete di conoscenza. Entrambi vogliono, assolutamente, arrivare alla Verità. Ciò non toglie che, nella foga, essi cercassero con ogni mezzo di confutare le idee dell’altro. La migliore conferma della Teoria di Einstein giunge dai Premi Nobel per la Fisica 2015 conferiti al giapponese Takaaki Kajita e al canadese Arthur B. McDonald, per il loro contributo chiave agli esperimenti che hanno dimostrato l’Oscillazione del Neutrino, studiata anche ai Laboratori Nazionali del Gran Sasso dell’Infn. Questa metamorfosi richiede che i neutrini abbiano massa: la scoperta ha cambiato la nostra comprensione dei meccanismi più intimi della materia e può rivelarsi cruciale non solo per la nostra visione dell’Universo ma anche per la
onquista del volo interstellare grazie alla totale liberalizzazione dell’industria e dell’impresa spaziale privata. La fisica delle particelle celebra un altro straordinario successo dopo quello del Bosone di Higgs con un riconoscimento a chi è riuscito a misurare esattamente il flusso di neutrini atmosferici che presentava un’anomalia, suggerendo quindi che essi si trasformano durante il percorso tra specie diverse. Ossia a chi sperimentalmente ha dimostrato che sommando su tutte le specie di neutrini solari il conto torna! Due esperimenti fondamentali, SuperKamiokande in Giappone e Sudbury Neutrino Observatory (SNO) in Canada, che insieme a quelli realizzati ai Laboratori Nazionali del Gran Sasso in Italia (Macro, Gallex/Gno, Borexino e Opera) hanno permesso di chiarire tutti gli aspetti delle oscillazioni del neutrino che possono avvenire solo se i neutrini sono massivi, contrariamente a quanto veniva affermato dal Modello Standard. Una scoperta epocale, dunque, ma anche l’apertura a un intero campo di ricerca che vedrà protagonisti ancora, tra gli altri, i Laboratori di Nuova Fisica Subnucleare dell’Infn (Lngs) sotto il Gran Sasso d’Italia, impegnati a risolvere il dilemma sulla natura di questa particella come ipotizzato da Majorana. A tal fine è stato significativo il contributo dell’esperimento Macro allo studio dei neutrini atmosferici, le misure di Opera per dimostrare l’esistenza dell’oscillazione dei neutrini “mu” in neutrini “tau”, il ruolo centrale di Gallex nella comprensione dei neutrini solari e le successive misure di precisione condotte da Borexino sulle componenti del flusso dei neutrini solari. Le misure condotte da Arthur McDonald e dalla collaborazione SNO hanno portato una soluzione completa al trentennale enigma dei neutrini solari. È un successo scientifico fondato anche su tecniche di riduzione estrema di contaminanti radioattivi naturali, ambito in cui oggi eccellono a livello mondiale Snolab e Lngs. Un premio meritatissimo per due fisici che hanno verificato oltre ogni dubbio la correttezza dell’ipotesi elaborata dal nostro Bruno Pontecorvo tra il 1957 e il 1967, e corroborata nei decenni scorsi dai risultati condotti al Gran Sasso. La Scienza, sempre pronta a mettere in discussione se stessa e i propri scienziati quando si comportano male, oggi trova particolarmente degni di lode il coraggio e la tenacia dei fisici giapponesi che hanno completato con Super-Kamiokande l’esperienza iniziata con l’esperimento predecessore KamiokaNDE, risultati entrambi vincitori di Nobel, oggi Takaaki-Kajita, nel 2002 Masatoshi Koshiba assieme a Ray Davis e Riccardo Giacconi. Questa scoperta avviene in un campo di ricerca vivacissimo che si avvantaggia di un fruttuoso legame tra investigazioni sperimentali e teoriche, e che vede molti ricercatori italiani impegnati in prima linea. Le sue ripercussioni sulle ricerche in corso in tutto il mondo, sia di fisica delle particelle sia di astrofisica sia di tecnologia nucleare di pace, sono profondissime e di effetto duraturo. Insomma, alla Star Trek e Star Wars! Infatti l’esistenza delle oscillazioni di neutrino dimostra che il Modello Standard di riferimento delle particelle elementari, giustamente riconosciuto dai premi Nobel del 1979, 1984, 1999 e 2013, non descrive tutti i fatti noti in Natura. La fisica del neutrino potrebbe riservarci in futuro altre sorprese. L’Istituto Nazionale di Fisica Nucleare è infatti impegnato attivamente su questo fronte. Non è un caso che due esperimenti ai Laboratori Nazionali del Gran Sasso, Borexino e Opera, abbiano confermato con tecniche diverse, rispettivamente nel 2007 e nel 2014, lo stesso risultato premiato oggi con il Nobel 2015, e che i risultati sulle oscillazioni dei neutrini atmosferici annunciati da SuperKamiokande nel 1998 fossero accompagnati, alla stessa Conferenza in Giappone nel 1998, da un analogo risultato da parte dell’esperimento Macro ai Laboratori del Gran Sasso. I risultati ottenuti anche con reattori nucleari, hanno avuto come prima indicazione la carenza dei neutrini dal Sole, con un contributo determinante dall’esperimento Gallex e più recentemente Borexino. Arthur McDonald è il responsabile con l’esperimento SNO, svoltosi in Canada, della scoperta che i neutrini solari interagiscono anche tramite le correnti neutre scoperte al Cern di Ginevra nell’esperimento Gargamelle. Con questo contributo si è confermata la Teoria del Sole dovuta a John Bahcall recentemente scomparso. I due fisici premiati hanno frequenti contatti con l’Italia, tant’è che Arthur McDonald è stato membro del Comitato Scientifico dei Laboratori Nazionali del Gran Sasso. Il riconoscimento va idealmente anche al fisico italiano Bruno Pontecorvo, allievo di Fermi e scomparso nel 1993, che formulò per primo nel 1957 l’ipotesi dell’oscillazione del neutrino. Era passato appena un anno da quando F. Reines e C.L. Cowan avevano fornito la prova dell’esistenza di questa particella, ipotizzata da Pauli nel 1930 e pochi anni dopo ribattezzata da Enrico Fermi. Il neutrino è una delle particelle più numerose, dopo i fotoni, nell’Universo di materia conosciuta. È all’incirca un miliardo di volte più diffuso dei protoni e dei neutroni di tutte le stelle dell’Universo. Elusivi come fantasmi, i neutrini interagiscono pochissimo e sono quindi in grado di attraversare indenni la terra, lo spazio, arrivando sino a noi dagli angoli più remoti e nascosti dell’Universo. Il neutrino è una particella elementare elettricamente neutra, appartenente al gruppo dei lepton. Ne esistono tre diverse specie identificate per il loro “sapore”: neutrino elettronico, muonico e tau. Il Modello Standard delle particelle elementari li inquadra tra i mattoni fondamentali che assieme alle particelle che agiscono da mediatori delle forze, danno luogo alla straordinaria varietà della materia nota visibile. “Viva il Re MS”, esclamarono felici i fisici nel 2012 all’annuncio della scoperta del Bosone di Englert-Higgs, l’anello mancante di questa straordinaria teoria. “Il Re MS è morto”, sembra annunciare nel 2015, il Comitato del Nobel che ha assegnato il premio per la scoperta dei neutrini con massa! In effetti, il meccanismo di Englert-Higgs che spiega come quark, leptoni carichi e mediatori delle forze acquistino massa, non richiede per nulla che i neutrini siano massivi. L’aver dimostrato che viceversa hanno massa, fornisce la prova sperimentale di come sia necessario andare oltre l’armonica descrizione della Natura data dal MS e immaginare una Nuova Fisica. Per comprendere le motivazioni e i contributi specifici apportati da T. Kajita nel campo dei neutrini atmosferici e da A. McDonald in quello dei neutrini solari, può essere utile ripercorrere la storia di questa straordinaria avventura scientifica e intellettuale che ricorda un po’ l’impresa del dottor Emmett Lathrop Brown, Ph.D., chiamato Doc, il personaggio immaginario coprotagonista a Hill Valley insieme al giovane studente Marty McFly della fortunata trilogia cinematografica di Ritorno al futuro (regia di Robert Zemeckis), con la loro macchina del tempo, nel trentennale festeggiato in tutto il mondo dal 21 Ottobre 2015. La prima famosa data di destinazione della mitica DeLorean (dalla carrozzeria in acciaio inossidabile) è il 26 Ottobre 1985; quindi il 5, 12 e 16 Novembre 1955; il 21 Ottobre 2015; il 1° Gennaio 1885 e il 2-7 Settembre 1885. La storia si conclude il 27 Ottobre 1985. Christopher Lloyd e Michael J. Fox (le nuove scarpe fotoniche auto-allaccianti “Mag” della Nike, in produzione dal 2016, serviranno a debellare tutte le malattie neurologiche degenerative come il morbo di Parkinson, che affligge Michael J. Fox, grazie alla Medicina Rigenerativa, finanziando direttamente Fondazioni di Ricerca Scientifica come la sua) sono da allora due grandi star del Cinema. Il Messaggio di Michael J. Fox è chiarissimo: “We’ve come a long way since 1985. When Marty McFly and Doc Brown traveled 30 years into the future, we could only imagine the innovations we take for granted today, new ideas and technologies that have completely changed the way we live, learn, and work. Back then, if you’d have told me that I’d go from talking on a cell phone to talking cell biology, I would never have believed you. But today, The Michael J. Fox Foundation is helping to spearhead research collaborations to speed a future in which we can treat, cure, and even prevent brain diseases like Parkinson’s. So what’s possible in another 30 years? Call me an optimist, but I believe that by 2045 we’ll find the cures we seek, especially because of all the smart, passionate people working to make it happen. Doctors and researchers around the world are developing new tools to improve the diagnosis and treatment of brain diseases, to tailor treatments, for all illnesses, through precision medicine, and to make life better for millions of people. This truly is the stuff of the future. Today, on “Back to the Future Day”, I challenge you to imagine the world you want to live in thirty years from now. The White House is hosting a series of online conversations with innovators across the country all day long. We can’t all be brain scientists, but all of us can get involved. One reason Parkinson’s research has come so far in the past 15 years is that people and families living with the disease have stepped up as advocates and innovators themselves, working to build the future we all want. Together, we’ll make neurological illness a thing of the past. And if we all eventually get hoverboards, well, that’s a bonus”. La scoperta delle caratteristiche intrinseche del neutrino e del fenomeno delle oscillazioni, cioè della loro capacità di trasformarsi come camaleonti da un “sapore” a un altro, può essere visualizzata come un grande puzzle che i fisici hanno iniziato a costruire negli Anni Sessanta del XX Secolo. Esattamente come un gioco, il disegno della Natura si è svelato solo quando sono state incastrate un numero sufficiente di tessere in grado di attivare il “flusso canalizzatore” della conoscenza. I tanti tasselli inseriti nella “macchina del tempo” sono il risultato delle ricerche effettuate nei laboratori sotterranei di Giappone, America settentrionale, Russia e Italia. Il puzzle tuttavia non è ancora completo perché molto rimane ancora da scoprire. La storia comincia negli Anni ’60 con la misura dei neutrini solari effettuata da R. Davis in una miniera del Sud Dakota con cui dà inizio a un vera e propria caccia al tesoro in giallo. Il flusso dei neutrini misurati era, infatti, significativamente inferiore a quello predetto dal modello solare. Il deficit sarà poi confermato dall’esperimento Kamiokande in Giappone. Il dibattito all’epoca verte su due ipotesi opposte: o il modello solare è sbagliato e non di poco, oppure il neutrino ha qualche caratteristica ignota. I due esperimenti non erano però in grado di misurare i neutrini di energia più bassa (pp) dello spettro di emissione solare, che sono anche i più numerosi. Una tessera successiva viene inserita dall’esperimento Gallex/GNO ai Lngs, negli Anni ’90, che fornisce la prova decisiva: anche il flusso dei più rilevanti neutrini “pp” era notevolmente inferiore a quello predetto. La fenomenologia è ormai chiara. L’ipotesi dominante è che la spiegazione del deficit sia nella trasformazione dei neutrini elettronici solari in neutrini di altri sapori nel viaggio dal Sole alla Terra. Intanto entra in gioco il gigante Super-Kamiokane in Giappone, ma la prova conclusiva della “ipotesi oscillazione” si ottiene solo all’inizio del nuovo terzo millennio con i risultati dell’esperimento Sudbury Neutrino Observatory guidato da Arthur McDonald. L’esperimento, la cui parte più interna è costituita da 1000 tonnellate di Deuterio, può misurare le interazioni dei neutrini di tutti i sapori in modo da verificare che complessivamente il flusso totale sia quello previsto dal Modello Solare Standard. L’importanza dell’esperimento viene meritatamente coronata dall’assegnazione del Nobel 2015. Il puzzle solare continua tuttavia ad arricchirsi di nuove tessere. L’esperimento Borexino ai Lngs migliora la conoscenza in tempo reale dello spettro solare di bassa energia e si spera che possa fornire la prima misura dei neutrini provenienti dal ciclo secondario CNO, importanti per i modelli predittivi in condizioni stellari diverse da quelle solari. Neutrini di più alta energia rispetto a quelli solari sono un elemento della pioggia incessante di raggi cosmici secondari che colpisce la superficie terrestre, prodotti nell’impatto con l’atmosfera principalmente da Protoni “alieni” provenienti dallo spazio cosmico. Già alla fine degli Anni ’80 l’esperimento IMB negli Usa e Kamiokande in Giappone osservano un deficit di neutrini muonici atmosferici rispetto a quelli attesi, in contrasto però con altri esperimenti basati su tecniche di rivelazione diverse. Agli inizi degli Anni ’90 anche l’esperimento Macro ai LNGS cominciano a misurare eventi da neutrini atmosferici e un deficit di quelli muonici. L’ipotesi oscillazione è sul tavolo e circolane progetti dettagliati per la realizzazione di fasci di neutrini artificiali negli acceleratori di particelle per verificare l’ipotesi in modo più controllato rispetto ai neutrini atmosferici. In particolare si comincia a progettare il Cngs, un fascio di neutrini da realizzare al Cern di Ginevra e da indirizzare verso il Gran Sasso. Purtroppo il progetto viene approvato solo nel 1999. I tempi della Scienza e della Politica non sempre coincidono! Nel 1996 entra in funzione Super-Kamiokande, un gigante di 50mila tonnellate di acqua ultrapura e 13mila fotomoltiplicatori. Al Congresso sui neutrini del 1998, T. Kajita, che lo guida, può presentare prove statisticamente significative che l’andamento in funzione dell’angolo di Zenith dei neutrini muonici di alta energia è dovuto alla loro trasformazione in neutrini tau. L’annuncio della scoperta e le successive pubblicazioni di Super-Kamiokande valgono nell’Ottobre 2015 il meritato riconoscimento a T. Kajita. Nello stesso Congresso del 1998 anche l’esperimento Macro mostra i suoi risultati a favore dell’ipotesi dell’oscillazione, ma forse con qualche incertezza dovuta alla minore qualità dei dati. Successive conferme giungono poi anche da MINOS, K2K, T2K e altri. Infine nel 2015 l’esperimento Opera annuncia la conclusiva scoperta dell’oscillazione dei neutrini muonici in modo diretto, misurando cioè con buona significanza statistica alcuni neutrini tau prodotti dalla trasformazione dei neutrini muonici del Cngs. Molto rimane ancora da scoprire sul neutrino. Ai fisici piacerebbe ad esempio scoprire se coincide con la sua antiparticella secondo l’ipotesi formulata da Ettore Majorana. Il Decadimento Doppio Beta senza neutrini, finora mai osservato, è la via per dimostrarlo. La caccia è aperta ai Laboratori del Gran Sasso e in altri cunicoli sotterranei. Forse potrà essere utile per una più logica impostazione della strategia europea sulla fisica del neutrino insieme alla Russia, rileggere criticamente la storia della scoperta delle oscillazioni nel settore leptonico e riflettere su tentennamenti, ipotesi teoriche non corrette, ritardi nelle decisioni occorsi in questi decenni all’interno della comunità europea dei fisici del neutrino. L’idea che i neutrini possono avere una massa è nata con i neutrini stessi. Nella famosa lettera del 1930 indirizzata ai “cari signore e signori radioattivi”, Wolfgang Pauli sostiene che queste particelle “differiscono dai quanti di luce, in quanto non viaggiano alla velocità della luce”. Seguendo queste idee e grazie alla supernova SN1987A, la prima e unica finora osservata come sorgente di neutrini, mezzo secolo dopo l’affermazione di Pauli, i fisici hanno imparato che la massa dei neutrini non può superare i sei (6) elettronVolt. Tre anni dopo la lettera di Pauli, il grande Enrico Fermi propone di investigare una regione specifica del processo nucleare in cui i neutrini sono emessi: quella in cui l’energia cinetica dei neutrini è piccola e dove, pertanto, gli eventuali effetti dovuti alla loro massa vengono amplificati. Ma anche questo metodo di indagine, nel corso degli anni, non offre che dei limiti sulla massa dei neutrini, mostrando che essa deve essere più piccola di 2 eV. I limiti più restrittivi disponibili provengono dalla Cosmologia che vincola la somma della massa dei tre tipi di neutrini conosciuti (elettronico, muonico e tau) ad essere inferiore a 0,6 eV. Grazie ai dati della missione spaziale Planck Surveyor, dovremmo sapere che cosa succede sotto questo limite. Per ora l’unico metodo che ha fornito delle misure anziché dei limiti superiori è quello proposto da Bruno Pontecorvo nel 1957. La spiegazione del fenomeno oscillatorio neutrinico, offerta dalla Meccanica Quantistica, è che il neutrino di un dato tipo sia un mix di neutrini (1, 2 e 3) di masse diverse. Poichè questi neutrini, che si propagano come onde, hanno una diversa velocità, essi acquistano “fasi” diverse. Pertanto, durante la propagazione, la composizione del neutrino si modifica. Dallo studio delle oscillazioni si possono desumere informazioni sulla massa dei neutrini, dato che le differenze di fase delle onde sono proporzionali alle differenze dei quadrati delle masse. Le differenze misurate sono molto piccole in confronto ai limiti sperimentali, che sono intorno all’eV, e addirittura minuscole quando le si confronta con la massa delle particelle cariche. Basti pensare che la più leggera di esse, l’Elettrone, pesa circa mezzo milione di eV. Nel prossimo futuro, lo studio dell’oscillazione verrà approfondito. Per prima cosa si mirerà a capire qualcosa di più sulla massa dei neutrini noti. I fisici vogliono sapere se le loro masse sono disposte gerarchicamente, come avviene per le altre particelle elementari (nel caso dei leptoni, il Muone è circa 200 volte più pesante dell’Elettrone e il tau circa 3500 volte) ma al momento non si può escludere che esista una coppia di neutrini di massa quasi uguale e un terzo neutrino più leggero. Un secondo problema dibattuto è se il fenomeno dell’oscillazione coinvolga solo i tre neutrini noti o se esistano nuovi tipi di neutrini. Le indicazioni al riguardo sono confuse e la Cosmologia pone vincoli stringenti, ma scoprire una nuova particella elementare avrebbe un effetto dirompente sulle ricerche. Avendo a disposizione un fascio di neutrini la cui composizione iniziale sia ben nota, è possibile verificare la presenza di oscillazioni in due modi diversi. Nel primo si osserva una scomparsa di neutrini: vari esperimenti hanno verificato che i neutrini elettronici provenienti dal Sole sono meno numerosi del previsto, mentre altri esperimenti hanno constatato che lo stesso avviene ai neutrini muonici prodotti nell’atmosfera terrestre. Nel secondo si osserva una comparsa di neutrini di tipo diverso da quello iniziale. L’osservazione di questo fenomeno è l’obiettivo principale dell’esperimento Cern Neutrinos to Gran Sasso che coinvolge il Cern di Ginevra, da dove viene inviato un fascio di neutrini muonici, e di nuovo i Laboratori del Gran Sasso, dove i due rivelatori Opera e Icarus hanno registrato l’arrivo dei neutrini, identificandone il tipo. Il rivelatore Opera ha mostrato la presenza di neutrini di tipo tau, offrendo così un’ulteriore conferma dell’esistenza delle oscillazioni e del fatto che il neutrino abbia una massa. Icarus, invece, ha posto un limite al coinvolgimento di neutrini di tipo elettronico nello stesso fenomeno. La scoperta del Bosone di Higgs, sempre sulla scia di Einstein, celebra il trionfo del Modello Standard delle particelle elementari. Ma questo MS prevede che la massa dei neutrini sia nulla, contraddicendo l’esistenza delle oscillazioni. In altre parole, gli esperimenti hanno già dimostrato che il Modello Standard non è una descrizione completa del mondo delle particelle elementari. Non è difficile proporre qualche sua estensione che spieghi la massa dei neutrini. È tuttavia difficile farlo in modo convincente e verificabile. Un contributo importante viene proprio dallo studio sperimentale della massa dei neutrini. È opinione diffusa tra i fisici che i neutrini siano dotati di una massa di origine particolare, detta di Majorana. Se così fosse, sarebbe possibile un nuovo tipo di transizione nucleare, in cui un nucleo atomico cambia di due unità la carica elettrica, creando due elettroni e nient’altro (doppio decadimento beta senza neutrini). Cosa che nel MS è impossibile. Dalla misura della probabilità di questa ipotetica transizione, si potrebbe determinare la massa dei neutrini in modo indipendente. L’esperimento Heidelberg- Moscow dei Laboratori del Gran Sasso è l’unico a sostenere di aver osservato questa transizione, anche se la probabilità misurata indica un valore della massa oltre il limite stabilito dalla Cosmologia. Le verifiche finora effettuate dall’esperimento statunitense Exo e da quello giapponese Kamland-Zen non hanno dato riscontro positivo, ma le prove regina saranno quelle effettuate dagli esperimenti Gerda e Cuore nei Laboratori del Gran Sasso dell’Infn. Nei prossimi mesi sapremo se bisognerà avviare radicali e stimolanti ripensamenti o se il quadro teorico esistente ne uscirà rafforzato. Al giorno d’oggi, i teorici si adoperano per costruire estensioni predittive del Modello Standard, in cui i neutrini abbiano massa; dibattono se quegli stessi modelli siano capaci di spiegare l’asimmetria cosmica tra materia e antimateria (per usare termini più evocativi, l’origine della materia) e valutano le implicazioni per Lhc. In ogni caso, le masse dei neutrini restano uno dei principali strumenti sperimentali per investigare la Fisica oltre il Modello Standard. I neutrini quindi sono le particelle elementari conosciute più misteriose. Le loro caratteristiche di interazione ne hanno determinato, storicamente, la formulazione, ma a tutt’oggi, ottantacinque anni dopo l’ipotesi di Wolfgang Pauli e cinquantanove anni dopo la prima osservazione sperimentale da parte di Clyde L. Cowan e Frederick Reines, non si conoscono ancora alcune delle loro proprietà fondamentali: il valore delle masse, la loro natura (se si tratta di cosiddetti neutrini di Dirac o di Majorana) e il loro numero (se ci sono dei neutrini non-interagenti detti “sterili”, in aggiunta ai tre neutrini interagenti conosciuti, elettronico, muonico e del tau, detti “attivi”). Esistono quindi buoni motivi per pensare che le caratteristiche sconosciute dei neutrini siano legate a una Nuova Fisica oltre il MS. Una quantità di fondamentale importanza per ogni particella, come per ogni corpo, è la sua massa, che ne determina le proprietà di propagazione e interazione. Attualmente conosciamo il valore delle masse di tutte le particelle del Modello Standard eccetto dei neutrini. Le cui masse sono talmente piccole che fino a circa quindici anni fa non esisteva neanche una prova inconfutabile del fatto che la loro fosse non nulla. Questa prova è arrivata dall’osservazione dell’oscillazione dei neutrini, il mescolamento tra neutrini di diverso tipo o sapore che porta alla trasformazione di un neutrino elettronico in muonico. Il fenomeno, proposto indipendentemente negli Anni ’60 da Pontecorvo e da Ziro Maki, Masami Nakagawa e Shoichi Sakata, dipende dalla distanza percorsa dal neutrino, dalla sua energia e dalla differenza di massa. Nel 1930 Pauli propone l’esistenza del neutrino per spiegare il fatto che nei decadimenti nucleari dovuti all’interazione debole, che avvengono con tempi molto più lenti di quelli dovuti alle interazioni forte ed elettromagnetica, gli Elettroni vengono emessi con uno spettro continuo di energia. Questo è possibile solamente se i prodotti finali del decadimento sono almeno tre: il nucleo finale, l’elettrone e un neutrino che ha a lungo eluso i tentativi di osservazione, perché è elettricamente neutro e interagisce con la materia solamente attraverso le interazioni deboli, mentre particelle cariche come l’elettrone lasciano tracce nei rivelatori dovute alla ionizzazione degli atomi. L’ipotesi di Pauli consente la formulazione della Teoria delle Interazioni Deboli da parte di Enrico Fermi nel 1934, il quale però prevede che le interazioni dei neutrini siano talmente deboli che sarebbe stato molto difficile, se non impossibile, verificare direttamente la loro esistenza. Per fortuna questa previsione pessimistica è stata smentita grazie al fatto che ci sono sorgenti di neutrini che ne producono un flusso enorme. Un tipico reattore nucleare produce circa 10 alla 20ma potenza di neutrini al secondo per ogni GigaWatt di potenza termica, tanto preziosa al dottor Emmett Lathrop Brown per alimentare la sua macchina del tempo, e dal Sole arriva un flusso di circa 10 alla 11ma potenza di neutrini al secondo per centimetro quadrato. Così anche se la maggior parte dei neutrini attraversa un rivelatore come se fosse trasparente, dato l’enorme flusso di queste elusive particelle, si possono osservare alcune interazioni che ne rivelano l’esistenza. Questa misura viene eseguita per la prima volta da Cowan e Reines nel 1956 utilizzando un rivelatore posto vicino a un reattore nucleare. Cowan e Reines stabiliscono definitivamente l’esistenza di un neutrino elettronico emesso insieme a un elettrone nei decadimenti nucleari che avvengono all’interno di un reattore. Nel 1937 viene scoperto il Muone, che è una particella carica simile all’elettrone, ma 200 volte più pesante. Bruno Pontecorvo ipotizza nel 1960 l’esistenza di un secondo tipo di neutrino che viene prodotto in associazione con un muone. Questa previsione viene brillantemente confermata nel 1962 dall’esperimento di Leon Lederman, Melvin Schwartz e Jack Steinberger, anch’essi premiati con un Nobel per aver dimostrarono che i neutrini prodotti da interazioni deboli insieme a muoni non producono elettroni quando interagiscono con la materia, come farebbero invece i neutrini elettronici. Essi sono quindi delle particelle diverse, dette neutrini muonici. Nel 1975 viene individuato un terzo leptone carico chiamato tau, che è il fratello più pesante dell’elettrone e del muone, ossia 17 volte più pesante del muone, e il corrispondente neutrino del tau viene osservato nell’Anno Domini 2000. Questo completa la lista dei tre neutrini finora conosciuti, che sono attivi nei processi nucleari di interazione debole, permettendone quindi la rilevazione. Resta aperta la possibilità dell’esistenza di ulteriori tipi di neutrini sterili che non sono associati a una particella carica del Modello Standard. Dalle misure di oscillazione si conoscono le differenze tra la massa di neutrini diversi. Queste sono piccolissime e così i fisici sanno che essi hanno una massa, ma non è ancora stato possibile misurarne il valore assoluto. Il limite superiore stabilito sperimentalmente è di circa 250mila volte più piccolo della massa dell’elettrone che è la particella di materia più leggera del Modello Standard a parte i neutrini. La piccolezza delle masse dei neutrini rispetto alle altre particelle del MS richiede una spiegazione che però non può essere trovata in maniera naturale all’interno del modello stesso, perché richiederebbe l’imposizione di un vincolo artificialmente piccolo sui parametri del MS che determinano le masse dei neutrini. Si pensa invece che la piccolezza delle masse dei neutrini sia dovuta alla loro connessione con la Nuova Fisica, attraverso la proprietà dei neutrini di essere particelle di Majorana (fatte cioè di materia e antimateria!) invece che particelle di Dirac, come invece i quark e i leptoni carichi (elettrone, muone e tau). Come può esistere qualcosa di coincidente con la materia e l’antimateria allo stesso “tempo”? È come dire di viaggiare in due direzioni opposte simultaneamente? Nel 1928 Paul Dirac formula la teoria quanto-relativistica dei Fermioni, come l’Elettrone, che per questo motivo sono detti Particelle di Dirac. Una caratteristica fondamentale di una particella di Dirac è che allo stato di particella (l’elettrone ha una carica elettrica negativa) corrisponde sempre uno stato di antiparticella con carica elettrica opposta: il Positrone nel caso dell’elettrone, che ha una carica elettrica positiva. I quark e i leptoni carichi (elettrone, muone e tau) sono particelle di Dirac, mentre per i neutrini (neutri) esiste la possibilità che siano particelle di Majorana, secondo la teoria sviluppata nel 1937 dal grande fisico Ettore Majorana, il più grande di tutti dopo Einstein. Per le particelle di Majorana lo stato particellare coincide con quello antiparticellare. Ciò è possibile solamente per particelle neutre come i neutrini, mentre per particelle cariche gli stati di particella e antiparticella sono necessariamente distinti avendo questi carica elettrica opposta. Nell’ambito del Modello Standard i neutrini massivi possono essere solamente particelle di Dirac, perché il meccanismo di Higgs che dà massa alle particelle può farlo solamente per particelle di Dirac. È per questo motivo che risulta estremamente interessante determinare sperimentalmente se i neutrini massivi sono particelle di Majorana, perché in questo caso le masse dei neutrini devono essere generate da un meccanismo di Nuova Fisica degno del prossimo Premio Nobel. Inoltre, se i neutrini sono particelle di Majorana, è possibile spiegare la piccolezza delle loro masse con il meccanismo di “see-saw” (Star Trek) che si basa sull’esistenza di una Nuova Fisica oltre il Modello Standard a una scala di energia molto più grande, che può essere ad esempio quella della Teoria della Grande Unificazione (GUT) della Forza forte con quella elettrodebole, ovvero dell’ordine dei 10 alla 15ma – 10 alla 16ma potenza di GeV, estremamente più alta della scala elettrodebole di energia che è dell’ordine di 100 GeV, dove si verifica l’unificazione delle interazioni elettromagnetica e debole del MS. Secondo il meccanismo di see-saw, le masse dei neutrini sono proporzionali al rapporto tra il quadrato della scala di energia elettrodebole e la scala di energia GUT, il quale vale circa un centesimo di eV (10 alla -2 eV), proprio il valore atteso per le masse dei neutrini. Se sono particelle di Majorana, quindi, le masse dei neutrini stabiliscono un legame tra la fisica del Modello Standard e la Nuova fisica. Gli esperimenti che sono più sensibili alle piccole masse di neutrini di Majorana sono quelli che cercano di misurare un processo estremamente raro chiamato Doppio Decadimento Beta senza neutrini, di alcuni nuclei pesanti, come ad esempio gli isotopi del Germanio e del Tellurio, utilizzati negli esperimenti Gerda e Cuore nei Laboratori Nazionali del Gran Sasso dell’Infn. C’è anche la possibilità che la nuova fisica si manifesti con nuove particelle molto leggere che, essendo neutre e non interagenti con la forza debole del modello standard, ci appaiono come neutrini sterili (nome inventato da Pontecorvo nel 1967). In questo caso i tre neutrini attivi, che “rispondono” all’interazione debole, attraverso la quale vengono prodotti e rivelati dai fisici, possono oscillare in neutrini sterili, che eludono la capacità di rivelazione sperimentale. Questo fenomeno potrebbe spiegare recenti indicazioni di una mancata rivelazione del flusso misurato di neutrini prodotti in reattori nucleari e in sorgenti radioattive. L’esperimento Sox, che utilizza il rivelatore Borexino ai Laboratori del Gran Sasso, controllerà nei prossimi anni la correttezza di queste indicazioni utilizzando sorgenti radioattive di neutrini. È chiaro che questa misura è di estrema importanza per lo studio della fisica oltre il modello standard, perché un risultato positivo darebbe informazioni dirette sull’esistenza di una nuova particella, il neutrino sterile, che non appartiene al modello standard e la cui piccola massa deve essere generata da un meccanismo di nuova fisica. Lo studio delle proprietà dei neutrini, uniche tra quelle delle particelle del modello standard, offre una finestra sulla nuova fisica che è difficile aprire a causa dell’elusività dei neutrini, ma l’inventiva e la tenacia dei fisici fanno ben sperare per il futuro prossimo. Ogni secondo il nostro corpo è attraversato da decine di migliaia di miliardi di neutrini, le particelle più elusive che conosciamo. Sono passati più di 50 anni dalla loro scoperta, ma le loro proprietà fondamentali sono ancora ignote. Gli intensi sforzi sperimentali dell’ultimo decennio hanno evidenziato che hanno una massa estremamente piccolo, almeno 500mila volte più piccola di quella dell’elettrone. Ad affascinare gli scienziati non è solo il valore della massa dei neutrini, ma anche la sua natura intima che potrebbe essere diversa da quella di tutte le altre particelle note. Infatti, i neutrini appartengono alla classe di particelle chiamate Fermioni, i quali, in accordo con la Teoria di Dirac che li descrive, hanno un partner distinto, chiamato antifermione, con la stessa massa ma con carica opposta. Il neutrino è l’unico fermione elementare ad essere privo di carica e per questo potrebbe essere l’antiparticella di se stesso. Il modo più promettente per verificare questa suggestiva ipotesi, formulata da Majorana negli Anni ’30, consiste nella ricerca di un processo estremamente raro, il doppio decadimento beta senza (anti-)neutrini. Un decadimento beta semplice consiste nella trasformazione di un Neutrone in un Protone, con l’emissione di un Elettrone e di un Antineutrino. È possibile anche il processo inverso, in cui un Neutrino collide con un Neutrone producendo un Protone e un Elettrone. Se il neutrino è una particella di Majorana, cioè coincide con l’antineutrino, allora l’antineutrino prodotto nel primo decadimento beta potrebbe a sua volta interagire, nei panni di un neutrino, con un neutrone ed emettere un altro protone e un secondo elettrone. È questo il doppio decadimento beta senza neutrini: due Neutroni si trasformano in due Protoni e due Elettroni, senza che vi siano neutrini nello stato finale. Questo affascinante processo è permesso solo nella Teoria di Majorana e la probabilità che ciò accada è proporzionale a due diverse quantità: alla probabilità di avere due decadimenti beta simultanei e al quadrato della massa del neutrino. Il secondo aspetto implica anche che l’osservazione di questo processo fornirebbe allo stesso tempo una misura della massa del neutrino. Insomma la scoperta del decadimento doppio beta senza neutrini, anche al Gran Sasso, è una delle sfide più importanti della fisica delle particelle, visto che aprirebbe definitivamente le porte alla Nuova Fisica oltre il Modello Standard, confermando in un colpo solo la correttezza dell’ipotesi di Majorana, quindi la natura speciale dei neutrini, e misurandone anche la massa. Insomma, un doppio Nobel coi fiocchi! La vera difficoltà è che la probabilità che ciò si verifichi è piccolissima, così piccola che i fisici si aspettano di vedere meno di un evento ogni dieci milioni di miliardi di miliardi di anni, mentre l’Universo in cui viviamo ha poco più di tredici miliardi di anni! Pare ragionevole pensare che sia una misura senza speranza. Senza alcuna possibilità di riuscita. Ma non è così. Affinché il doppio decadimento beta senza neutrini possa avvenire è necessario che i due Neutroni siano molto vicini, come lo sono all’interno del nucleo atomico e nelle stelle di neutroni. I nuclei in cui è più probabile che avvenga il decadimento doppio beta senza neutrini sono quelli con un egual numero di protoni e di neutroni: in particolare, si usano isotopi del Tellurio, del Germanio, dello Xenon, del Molibdeno e del Selenio. Il Tellurio (Te) è l’elemento più usato perché quello che si trova in Natura contiene più del 30% dell’isotopo 130Te, utile alla misura, a differenza degli altri che contengono solo piccole percentuali dell’isotopo necessario. A questo punto l’osservazione sperimentale del doppio decadimento beta senza neutrini è apparentemente semplice: il decadimento dei due neutroni all’interno del nucleo padre (il Tellurio) produce due protoni che rimangono nel nucleo figlio (lo Xenon, nel caso del Tellurio) e l’emissione di due elettroni. Non essendoci altre particelle prodotte, i fisici sanno che la somma delle energie degli elettroni deve essere uguale alla differenza tra la massa del nucleo padre e del nucleo figlio. Per evitare di aspettare più dell’età dell’Universo, grazie all’immediata immortalità, è necessario osservare molti nuclei insieme: ad esempio 100 kg di Tellurio corrispondono a quasi un miliardo di miliardi di miliardi di atomi. Con un così alto numero di atomi nel tempo di vita tipico di un esperimento, tra i cinque e i dieci anni, si dovrebbero osservare una decina di eventi. Veramente non pochi per un fenomeno naturale ma quasi impossibile! Per riconoscere questi pochi eventi basterà misurare l’energia dei due elettroni emessi e controllare che la somma sia quella giusta. La realtà è però assai più complicata a causa del problema di fondo: la mancanza di silenzio cosmico! Questo consiste di tutti quegli eventi che, pur essendo di natura completamente diversa, danno luogo a un segnale indistinguibile da quello degli elettroni emessi nel doppio decadimento beta senza neutrini: due elettroni con la somma giusta di energia. Tale segnale può essere causato da decadimenti radioattivi di materiali vicini ai rivelatori oppure dalle interazioni di particelle provenienti dall’ambiente in cui il rivelatore si trova a operare. Se all’energia a cui ci si aspetta il segnale vi sono molti altri “disturbi” dovuti al fondo, osservare i pochi eventi di segnale sarebbe come cercare di captare le note di un violino all’interno di uno stadio di calcio al momento del gol. Il mistero che si cela nella massa del neutrino affascina i fisici di tutto il mondo da sempre. Sono stati ideati rivelatori all’estremo limite della tecnologia conosciuta, per riuscire a trovare un evento così raro come il doppio decadimento beta senza neutrini. Già agli inizi degli Anni 2000, la ricerca è stata condotta da alcuni esperimenti: da Cuoricino, il prototipo di Cuore, e Heidelberg-Moscow, entrambi ai Laboratori Nazionali del Gran Sasso, e da Nemo3 nei laboratori sotterranei del Fréjus in Francia. In tutti questi esperimenti sono state usate specie atomiche e tecniche sperimentali diverse che hanno permesso di sviluppare e mettere a punto i metodi innovativi impiegati dagli esperimenti che inizieranno a prendere i dati nei prossimi anni. Oltre a Cuore, che usa il Tellurio e inizia a prendere dati nel 2015, ci sono: Gerda, sempre nei Laboratori del Gran Sasso, che impiega Germanio e scherma il rivelatore usando Argon liquid; il giapponese Kamland-Zen che impiega Xenon e, infine, Exo negli Stati Uniti d’America, che usa le proprietà scintillanti dello Xenon insieme a un ingegnoso sistema di tracciamento degli elettroni. È ben possibile che nei prossimi anni i fisici riusciranno a scoprire almeno un decadimento doppio beta senza neutrini, chiara indicazione di Nuova Fisica oltre il MS, che aprirà la strada a una stagione di nuove scoperte e misure. Potrebbe anche succedere che nessuno degli esperimenti in funzione riesca nel suo scopo. In entrambi i casi sarà necessario sviluppare rivelatori ancora più sensibili al segnale e sempre più capaci di filtrare il fondo “inquinato”: il progetto Lucifer ha già raccolto questa sfida del domani e svilupperà, ai Laboratori del Gran Sasso, un prototipo di rivelatore innovativo. Molti degli esperimenti alla ricerca del decadimento doppio beta senza neutrini, come Cuore, operano in condizioni di estremo freddo ma, come ci ricorda l’inquientate nome di Lucifer, la sfida si preannuncia molto calda e sofferta. Perchè la competizione scientifica e tecnologica mondiale giustamente è molto “feroce” vista la posta in gioco! L’Italia merita il Nobel se non altro per onorare la memoria dei sui Grandi. Cuore, nei Laboratori del Gran Sasso dell’Infn, è un esperimento ideato per studiare il decadimento doppio beta senza neutrini. Il rivelatore è costituito da circa mille cristalli di diossido di Tellurio, equivalenti a circa 200 kg dell’isotopo 130Te, ciascuno funzionante come un bolometro. Ossia come uno strumento capace di misurare l’innalzamento di temperatura prodotto dal passaggio al suo interno di una particella carica, per esempio un elettrone. La variazione di temperatura è determinata dalla capacità termica del bolometro stesso. Più quest’ultima è piccola, più la variazione di temperatura provocata dal passaggio dell’elettrone sarà grande e quindi più facile da misurare. A basse temperature, la capacità termica diminuisce come il cubo della temperatura stessa: i cristalli di Cuore sono dunque tenuti a una temperatura molto bassa, 10 millesimi di Kelvin (non proprio come in Star Trek!), condizione necessaria per misurare le piccolissime variazioni di temperatura indotte dal passaggio degli elettroni emessi nel doppio decadimento beta senza neutrini. I Laboratori Nazionali del Gran Sasso, ideati dal Professor Antonino Zichichi, si trovano in grandi sale scavate accanto a una delle gallerie autostradali (A24) che attraversano il Re degli Appennini, la montagna del Gran Sasso, in Abruzzo. La roccia, con uno spessore equivalente a circa 3500 metri di acqua, assorbe le particelle di origine cosmica e riduce drasticamente (silenzio cosmico) il contributo inquinante dovuto all’ambiente esterno. Luogo ideale per la ricerca di eventi rari, ma non ancora sufficiente per la misura del decadimento doppio beta senza neutrini e il Nobel. Infatti, le medesime rocce che proteggono dal fondo esterno, al Gran Sasso producono la cosiddetta radioattività naturale dovuta a isotopi radioattivi contenuti nelle rocce stesse. Cuore è stato schermato da questo fondo, usando diversi materiali radiopuri, caratterizzati cioè da una radioattività naturale molto bassa. In particolare lo strato più vicino al rivelatore di segnale, i cristalli di diossido di Tellurio, è stato realizzato con Piombo antico di origine romana, recuperato dal fondo del mare sardo, dov’era rimasto sommerso per più di duemila anni dopo un naufragio, al riparo dai raggi cosmici. Quanto basta per renderlo lo schermo più radiopuro oggi disponibile. Di che cosa è fatto l’Universo e come si è originato? Sono queste alcune domande fondamentali a cui cercano di rispondere i fisici del Cern, il pacifico Centro di Ricerca Nucleare Europeo per la fisica delle particelle nato nel 1954 sul confine franco-svizzero. Da allora, il Cern ha prodotto risultati scientifici di grande portata, tra cui la prima osservazione, nel 2012, del Bosone di Higgs, la famosa particella elementare diversa da tutte le altre perchè capace di “donare la massa”. Il Cern è l’incarnazione stessa degli Stati Uniti di Europa con la Russia. Ad annunciare quel traguardo fu la scienziata italiana Fabiola Gianotti, allora coordinatore internazionale dell’esperimento Atlas. Dal 1° Gennaio 2016 la Professoressa Fabiola Gianotti sarà Direttore generale del Cern. Il Large Hadron Collider (Lnc), il potente collisore di particelle al Cern, dopo una pausa di circa due anni, è stata potenziato ed è ripartito per il “Run2”, la nuova fase di attività ad energie estremamente più elevate della precedente. Nuovi scenari si prospettano per la comprensione dell’Universo. “Da una parte continueremo a studiare il Bosone di Higgs con una maggiore quantità di dati – rivela Fabiola Gianotti – perché questa particella, essendo stata scoperta in epoche relativamente recenti, è la meno conosciuta delle particelle del Modello Standard, è molto speciale, quindi può essere una porta verso la Nuova Fisica. In parallelo continueremo ad affrontare le domande aperte in fisica fondamentale che ci accompagnano ormai da decenni, per esempio la natura della Materia Oscura o l’asimmetria fra materia e antimateria nell’Universo, cioè perché c’è tanta materia e dov’è finita l’antimateria, i problemi legati alle famiglie di quark e leptoni e tanti altri quesiti a cui vorremmo dare risposta e che richiedono fisica nuova, quindi fisica al di là del Modello Standard”. In un discorso successivo alla sua nomina, avvenuta circa un anno fa, la Gianotti ricorda che il Cern, oltreché Centro di eccellenza e luogo di ispirazione per i fisici di tutto il mondo, è anche una culla di innovazione tecnologica. Un Centro volto allo studio della fisica fondamentale ha molte implicazioni sulla vita di tutti noi. “Vari aspetti di ricadute. Innanzitutto, per perseguire i nostri scopi di fisica, per esempio scoprire il Bosone di Higgs, scoprire Nuova Fisica – osserva Fabiola Gianotti – abbiamo bisogno di sviluppare nuovi strumenti come l’acceleratore e i rilevatori che sono di altissima tecnologia. Queste tecnologie vengono poi trasferite alla società. Innovazioni che il Cern ha trasferito alla società spaziano dal World Wide Web agli acceleratori che vengono utilizzati oggi in Adroterapia, quindi per la cura dei tumori, alla strumentazione in campo medico e tante altre. Poi direi che, più in generale, ogni volta che si fa un passo avanti nella conoscenza, anche nella conoscenza di base, prima o poi, queste conoscenze hanno un impatto sul progresso. Esempi celebri che amo citare sono la Meccanica Quantistica o la Relatività Generale, di cui quest’anno ricorre il centesimo anniversario: sono delle teorie che sembrano essere molto astratte e lontane dalla vita di tutti i giorni, eppure senza Meccanica Quantistica non ci sarebbero i transistor, quindi la nostra vita sarebbe molto diversa, e senza Relatività i nostri strumenti Gps non funzionerebbero. Quindi ogni volta che si fa un passo avanti nella conoscenza, c’è sempre poi un progresso anche per l’umanità e per la vita di tutti i giorni”. La sua nomina è fonte d’orgoglio anche per l’Italia, poiché mostra come il sistema di educazione e ricerca italiano riesca a volte a produrre eccellenze riconosciute a livello mondale. “Il sistema di ricerca italiano ha delle ottime scuole di formazione anche a livello universitario – rileva Fabiola Gianotti – parlo in particolare del campo della fisica delle particelle, in cui i nostri giovani che escono dalle università non sono secondi a nessuno nel mondo, e anche degli enti di ricerca di primissimo piano, come l’Istituto Nazionale di Fisica Nucleare e molti altri. Il problema numero uno, a mio avviso, è il futuro per i giovani, cioè il fatto che il precariato spinge i nostri giovani o ad abbandonare la ricerca o a emigrare all’estero. Bisogna assolutamente fermare questa emorragia e trattenere i nostri giovani, anzi attirare altri giovani e altre menti intelligenti dall’estero. Il problema numero due riguarda invece l’investimento nella ricerca, che in Italia è sotto la media europea. Quindi bisogna per lo meno allinearsi alla media europea”. Uno degli obiettivi più ambiziosi della fisica delle particelle è la creazione e la scoperta di particelle non previste nel MS. Pur descrivendo con grande precisione la quasi totalità dei fenomeni naturali osservati, fatta eccezione per la strana “passione” umana per la guerra, la violenza e la distruzione, il Modello Standard lascia inevase domande fondamentali che le osservazioni sperimentali suscitano: qual è il meccanismo che ha creato l’asimmetria osservata tra materia e antimateria nell’Universo? Quale natura ha la Materia Oscura, i cui effetti gravitazionali sono stati osservati? Da quale meccanismo sottostante derivano le enormi differenze di massa tra le particelle elementari che conosciamo? Per farlo, i fisici delle particelle utilizzano le conseguenze sperimentali dell’Equazione della Relatività Speciale, formulata da Albert Einstein nel 1905. In essa la lettera “E” rappresenta l’Energia di una o più particelle, la “p” la loro quantità di moto complessivo (in meccanica classica, la quantità di moto di un corpo è data dal prodotto di velocità e massa), la “m” è la massa del sistema. Infine, la non meno fondamentale “c” che è la velocità della luce, costante nel nostro Universo. Cosa significa in realtà? La risposta dipende dal sistema considerato. Nel caso di una singola particella a riposo, “p” è nulla e l’equazione stabilisce l’uguaglianza tra massa a riposo ed energia, espressa nella famosa equazione E=mc². Questa è già una relazione ricchissima di significato: in Relatività, ogni corpo dotato di massa ha un’energia intrinseca. Di converso, si può trasformare l’energia in massa. Per trovare nuove particelle, i fisici cercano di fornire delle risposte con esperimenti di laboratorio: l’idea è di accelerare le particelle facendole interagire ad energie sempre più elevate, al fine di produrre, nello stato finale del sistema, nuove e più pesanti particelle, trasformando quindi l’energia cinetica delle particelle interagenti in massa, come descritto nell’equazione della Relatività Speciale di Einstein. È così che i fisici sono riusciti a produrre in laboratorio, già a partire dagli Anni ’60, particelle leggere come i Muoni e i Pioni che si potevano rivelare direttamente solo come prodotto delle interazioni dei raggi cosmici con l’atmosfera. Al crescere delle energie delle macchine acceleratrici si è arrivati alla fine del secolo scorso a produrre e identificare anche il più pesante dei quark, il Top, che ha massa di circa 170 GeV, pari a 180 volte quella del protone. La presenza di queste particelle potrebbe essere però effimera: appena create, esse potrebbero decadere, trasformandosi in particelle stabili. Anche in questo caso l’equazione di conservazione di massa-energia aiuta gli scienziati a individuarle: misurando l’energia e, separatamente, la quantità di moto complessiva dei prodotti di decadimento, si può valutare la differenza tra E² e p²c² in un gran numero di interazioni e misurare, così, la massa del sistema. Se, considerando gli errori di misura, essa ricorre con maggiore frequenza intorno a uno stesso valore, si potrebbe trattare di una nuova singola particella. La cui massa è data dal valore del picco osservato. È seguendo questa strada, che i fisici degli esperimenti Atlas e Cms nel 2012 hanno individuato il Bosone di Higgs. Tra i moltissimi “eventi” di interazione tra due fasci di protoni del supercollisore Lhc a un’energia complessiva di 7-8 TeV, ne avevano selezionati alcuni nel cui stato finale erano presenti due fotoni emessi in coincidenza temporale. Il picco si riferisce a quella piccola frazione di casi in cui i due fotoni sono proprio il risultato del decadimento di una singola nuova particella. Si tratta del risultato di vent’anni di ricerca e sviluppo di migliaia di ricercatori. Per farle interagire, una tecnica comune consiste nell’accelerare particelle cariche tramite campi elettrici, confinarle in una traiettoria stabilita tramite campi magnetici, per scagliarle infine verso un bersaglio in quiete (“fixed target”, cioè fisso). Si possono considerare le particelle come dei proiettili. Esse si comportano anche come delle onde: maggiore è la loro energia, più corta è la lunghezza che riescono a mettere a fuoco mentre procedono nel bersaglio. Se entro questa distanza si trova un elemento in grado di interagire, si avrà un’interazione. Se l’elemento sensibile del bersaglio sia un atomo, un elettrone, un protone, un neutrone, un quark e altro, dipende dall’energia considerata e dalla distanza caratteristica della forza di interazione. Talvolta, in questo processo, sia il proiettile sia l’elemento sensibile del bersaglio possono cambiare il proprio stato e trasformarsi in altri elementi o persino annichilirsi. La varietà e complessità delle possibilità è notevole. Un punto fermo però rimane: la differenza di E² e p²c² è invariante. Essa cioè rappresenta la massa complessiva disponibile a seguito dell’interazione, come insegna Albert Einstein. Spesso la quantità di moto del proiettile è molto maggiore della sua massa a riposo. In questo caso, la massa invariante complessiva è proporzionale alla radice della quantità di moto del proiettile e questa è una conseguenza fisica scoraggiante: la fatica e il costo profusi per aumentare la quantità di moto del proiettile del 100%, porta a un misero aumento del 40% della massa invariante disponibile. Per sfruttare pienamente l’energia disponibile, nell’approccio alternativo si prevede di accelerare due insiemi distinti di proiettili, facendoli scontrare l’uno contro l’altro in direzioni opposte. In questo caso, la macchina è detta collisore, la quantità di moto netta del sistema è zero (quantità di moto uguali in modulo e opposti in direzione) e l’equazione predice che l’energia totale, pari alla somma delle energie dei due proiettili, può trasformarsi interamente in massa a seguito dell’interazione: un raddoppio delle energie dei proiettili conduce a un raddoppio della massa invariante disponibile. La complessità di questo secondo approccio è però notevole: nella configurazione a “fixed target” il bersaglio in quiete è un oggetto macroscopico e la molteplicità di elementi sensibili in esso contenuti è dell’ordine del Numero di Avogadro. In un collisore occorre muovere un numero estremamente grande di proiettili per ottenere un numero di interazioni confrontabile. Occorre inoltre che le traiettorie dei fasci collidenti siano accuratamente controllate, affinché non sia troppo esigua la possibilità di far passare due proiettili sufficientemente vicini da interagire tra loro. Sfide come queste sono tecnologicamente molto ardue. Per questo motivo, di solito occorre un’intera generazione umana per ottenere un aumento consistente dell’energia disponibile, insomma quanto il trentennale di Ritorno al futuro. Non sorprende quindi l’entusiasmo dei fisici in alcuni di questi rari momenti pionieristici alla Doc Brown! Ad Einstein sono debitori anche tre scienziati con tre storie diverse accomunate solo da una semplice cassetta per gli attrezzi. È il Nobel per la Chimica 2015 conferito allo svedese Tomas Lindahl, l’americano Paul Modrich e il turco-americano Aziz Sancar per “aver scoperto e mappato a livello molecolare come le cellule riparano il Dna danneggiato e preservano l’informazione genetica. Il loro lavoro ha fornito conoscenze fondamentali su come funziona un cellula vivente e può essere usato per lo sviluppo di nuove cure per il cancro”. È la motivazione della Royal Swedish Academy of Sciences. Il mantenimento della stabilità del Dna è di fondamentale importanza per il suo ruolo di Molecola Regina depositaria dell’informazione genetica di una cellula. Tuttavia, contrariamente a quanto era stato inizialmente ipotizzato, la struttura del Dna è intrinsecamente molto fragile. A soli 37 gradi Celsius circa 18mila basi azotate al giorno sono perse da ogni cellula, a causa della rottura del legame glicosidico che le collega con la molecola dello zucchero deossiribosio. Ogni cellula umana, a temperatura e pH fisiologico, subisce in 24 ore ben 100-500 eventi di deamminazione che causano la trasformazione di una citosina in uracile. Inoltre, una serie di reazioni biochimiche necessarie per il metabolismo stesso della cellula producono specie reattive dell’Ossigeno (ROS) che alterano l’integrità del Dna. Questi sono soltanto alcuni dei possibili danni che, in condizioni fisiologiche di danni intrinseci, possono alterare la struttura del Dna. Ma il Dna è continuamente soggetto anche all’attacco di agenti chimico-fisici esterni che possono causare una serie di danni estrinseci sulla Molecola. Ad esempio, le radiazioni ultraviolette presenti nella luce stellare (Sole) ed altri eventi cosmici distruttivi (Supernovae, esplosioni gamma) producono sul Dna una serie di fotoprodotti che determinano una distorsione della Doppia Elica. Radiazioni ionizzanti presenti nei raggi cosmici, o generate da prodotti radioattivi naturali o da tecnologie utilizzate nella pratica medica, possono provocare rotture del legame fosfodiesterico su uno o entrambi i filamenti del Dna. Infine, una serie di composti chimici utilizzati in lavorazioni industriali, presenti nel fumo di sigaretta o anche in componenti della dieta quotidiana, possono causare lesioni e danni sul Dna. Agli inizi degli Anni ’70, la comunità scientifica era convinta che il Dna fosse un molecola molto stabile. A quei tempi Tomas Lindahl lavorava nei laboratori Princeton University sulla molecola di Rna. I suoi esperimenti consistevano nel riscaldare l’Rna, processo che portava inevitabilmente alla degradazione della molecola. Già allora era ben noto che l’Rna era più sensibile del Dna, ma se l’Rna veniva distrutto così rapidamente, quando sottoposto a calore, le molecole di Dna potevano essere veramente così stabili per tutta la vita? Lo scienziato, tornato al Karolinska Institutet di Stoccolma, incominciò subito a fare esperimenti per cercare di rispondere a questa domanda e i risultati non tardarono ad arrivare. Lindahl dimostrò che la Doppia Elica di Dna decade a un ritmo che avrebbe dovuto rendere impossibile lo sviluppo della vita sulla Terra. Ci dovevano essere, allora, dei sistemi molecolari per la riparazione di tutti questi difetti del Dna e, proprio da questa considerazione partì la sua caccia al “fattore” che impedisse il degrado dell’informazione genetica. Fondamentali per la Medicina Rigenerativa. Gli studi degli anni successivi portarono Lindahl a individuare il meccanismo di riparazione per escissione di basi (“Base Excision Repair”) primo fondamentale passo per la comprensione dei modi in cui il Dna conserva le proprie informazioni. Un pioniere, dunque, lo scienziato svedese che ha fatto luce su questo fondamentale aspetto della Biologia Molecolare ed è sopratutto alla luce e alla sua magia che deve le sue ricerche Aziz Sancar. Lo scienziato turco si avvicinò allo studio del Dna proprio perché, durante la tesi di dottorato nel 1973, notò che i batteri resi morenti da un’esposizione ai raggi UV riuscivano a riprendersi se esposti alla luce blu. Approfondì la cosa e riuscì a identificare l’enzima responsabile della riparazione del Dna danneggiato dai raggi UV, in seguito trovò anche il modo di fare produrre ai batteri quantità maggiori dello stesso enzima. La sua ricerca, oggetto della tesi di dottorato, non fece molta impressione e Sancar faticò molto prima di trovare un incarico come tecnico di laboratorio alla Scuola di Medicina dell’Università di Yale. E fu proprio lì che iniziò gli studi per conquistare il Nobel. Il sistema scoperto da Sancar, che va sotto il nome di Riparazione per Escissione di Nucleotidi (NER) è un meccanismo simile a quello studiato da Lindahl, ma coinvolge un tratto più esteso del filamento di Dna. Questo meccanismo non è solo coinvolto nel contrastare gli effetti dei raggi ultravioletti sulle cellule ma viene utilizzato dalle cellule anche per correggere difetti causati da sostanze mutagene che alterano la composizione del Dna. “You should learn about this DNA stuff”, esclamava nel 1963, in una piccola cittadina in New Mexico, il padre di Paul Modrich alla notizia dell’assegnazione del Nobel per la Medicina a James Watson e Francis Crick. Pochi anni dopo, lo studio di quella “roba” divenne lo scopo nella vita del figlio che identificherà un terzo meccanismo di riparazione del Dna oltre a quelli descritti da Lindahl (BER) e da Sancar (NER): il “MissMatch Repair” (MMR). Un meccanismo diverso dato che i precedenti sistemi di riparazione, descritti finora, cercano strutture anormali come nucleotidi modificati, legami crociati tra nucleotidi dello stesso filamento ma non possono correggere gli appaiamenti sbagliati che risultano da errori nel processo di replicazione, perché il nucleotide appaiato male non è anormale. Siccome questi nucleotidi sono come tutti gli altri, il sistema scoperto da Modrich, che corregge gli errori di replicazione, non deve identificare il nucleotide male accoppiato, bensì l’assenza di un appaiamento tra i filamenti. Una volta che viene individuato un “MissMatch”, il sistema di riparazione scinde una parte di filamento-figlio e riempie lo spazio in maniera simile a quelle che abbiamo già visto con la riparazione per escissione di basi e di nucleotidi. Un Nobel utile non solo per la grande importanza dal punto di vista della cura delle patologie genetiche ma che “ci dà anche indicazioni enormi nell’ambito della biologia evolutiva – osserva Carlo Alberto Redi – per esempio sull’origine della vita o sulla comparsa delle prime forme di riproduzione sessuale. Molte delle molecole coinvolte nei processi di riparazione del Dna si sono, infatti, evolute parallelamente alle stesse molecole custodi del codice della vita, come Dna e Rna e, quindi, alla comparsa delle prime forme di vita”. È un Nobel 2015 che parla un po’ “italiano” dato che Tomas Lindahl dal 2010 è Presidente del Consiglio Scientifico di IFOM, con un ruolo fondamentale nell’impostazione della visione scientifica e delle strategie di ricerca dell’Istituto fondato da FIRC-AIRC nel 1998. Pochi istanti dopo l’annuncio del Nobel, Lindahl ha rivolto un pensiero proprio all’Istituto italiano: “l’interazione con IFOM è molto importante per me, sono estremamente felice dell’opportunità di essere il Presidente del Comitato scientifico dell’IFOM, un Istituto che ha avuto un successo rapido e importante non solo in Italia ma anche all’estero ed è riconosciuto tra gli Istituti in cui si fa una grande ricerca a livello internazionale. Ho sempre avuto un’interazione veramente unica e produttiva con tutti i ricercatori dell’IFOM e con la Fondazione FIRC”. I giornali hanno informato sul fatto che sono state premiate le loro scoperte di meccanismi e proteine che riparano il Dna, senza i quali il nostro codice genetico sarebbe in balia delle mutazioni provocate dalla ambiente e dalla proibitiva necessità di ricopiare esattamente i circa tre miliardi di basi del Dna umano ogni volta che nel nostro corpo una cellula si divide. La cosa si stima accada all’impressionante ritmo di un trilione di volte al giorno e ciò non è sorprendente visto che ognuno è essenzialmente formato da una comunità molto ben organizzata di una quarantina di trilioni di cellule. Con questi numeri esorbitanti anche il più piccolo errore (esistono più o meno 10 alla 21ma potenza di possibilità di errore al giorno!) se non corretto da una sofisticata batteria di “forbici” e “colle” molecolari di vario tipo, ha conseguenze disastrose che vanno dallo sviluppo di tumori all’invecchiamento precoce. Ecco perchè siamo tutti dei miracoli viventi! La meraviglia che questi numeri destano può aiutare a comprendere l’importanza delle scoperte premiate. C’è però qualche altro aspetto su cui riflettere. Il primo è che le Scienze della vita anche nel 2015 hanno rubato la scena alla Chimica pura. Le scoperte premiate hanno identificato pur sempre enzimi e attività biochimiche che tagliano, sbrogliano e ricuciono il Dna, la Molecola che tramanda la vita sulla Terra da più di tre miliardi di anni. Questo accade sempre più spesso e dà l’idea di quanto impatto abbia la Biologia sulla conoscenza e sui suoi futuri sviluppi pratici, tecnici e medici rigenerativi. La seconda considerazione è che molti addetti ai lavori si aspettavano un Nobel per la Chimica agli scopritori del sistema CRISPR/Cas9 che ha recentemente aperto le porte del “taglia e cuci molecolare su misura”, ossia dell’Alta Sartoria Molecolare! L’enzima Cas9 è un parente batterico di alcuni enzimi al centro delle ricerche premiate. Essenzialmente lo si usa come “cavallo di Troia” per tagliare il Dna e creare mutazioni o modifiche su misura. Le lesioni provocate da Cas9 vengono riparate dai sistemi premiati oggi, in un modo che non è ancora interamente compreso, ma che è necessario comprendere bene per garantire che le applicazioni mediche di CRISPR/Cas9 siano efficaci e sicure. Il Nobel aiuterà a riportare alla ribalta gli studi sulla Riparazione del Dna che possono illuminare la via per usare la tecnologia in campo medico, abbandonando definitivamente le molecole tossiche sintetiche! Si può anche dire che il Comitato del Nobel abbia ancora una volta voluto saggiamente premiare chi ha fatto la necessaria Ricerca di Base senza curarsi dell’importanza e delle ricadute applicative di una scoperta, che per Cas9 sono per altro già condite di conflitti su chi ne debba fare profitto. Il premio Nobel per la Medicina e Fisiologia 2015 è stato assegnato all’irlandese William C. Campbell, al giapponese Satoshi Ōmura e alla cinese Youyou Tu. Ai primi due per le loro scoperte sulle infezioni causate dai nematodi, al terzo per le sue scoperte legate alle terapie contro la malaria. “Queste due scoperte hanno dato al genere umano nuovi e potenti mezzi per combattere queste malattie debilitanti che colpiscono centinaia di milioni di persone ogni anno. Le conseguenze in termini di miglioramento della salute umana e ridurre la sofferenza sono incommensurabili”, motiva il Comitato di assegnazione. Smentite ancora una volta sono state le previsione della vigilia che davano tra i possibili vincitori Alexander Y. Rudensky, Shimon Sakaguchi e Ethan M. Shevach. Gli scienziati che, con i loro studi, hanno permesso una migliore comprensione delle cellule T e del loro ruolo nello sviluppo di malattie autoimmuni, allergie, infiammazioni e altri processi degenerativi. Quello per la Medicina e la Fisiologia è un premio Nobel 2015 alla lotta contro le malattie della povertà. Le malattie causate da parassiti hanno, infatti, afflitto l’Umanità per millenni e costituiscono ancora oggi, purtroppo, un grave problema di salute globale. In particolare, le malattie parassitarie col
iscono le popolazioni più povere del mondo e rappresentano un enorme ostacolo per migliorare la salute umana e il benessere. Campbell e Ōmura hanno messo a punto nuove armi contro malattie che affliggono un terzo della popolazione mondiale, concentrata in Africa sub-sahariana, Sud Asia e Centro-Sud America. I due scienziati hanno scoperto un nuovo farmaco (Ivermectina), medicinale ad ampio spettro in grado di combattere i nematodi, parassiti che possono portare alla cecità e altre malattie. Il loro è stato un vero e proprio lavoro di squadra. Ōmura, esperto nell’isolamento di prodotti naturali, si è focalizzato su un gruppo di batteri, gli streptomiceti, che vivono nel terreno e sono noti per produrre una pletora di agenti con attività antibatteriche. Grazie alle sue straordinarie abilità nello sviluppare metodi unici per la coltura su larga scala e la caratterizzazione di questi batteri, Ōmura ha isolato nuovi ceppi di streptomiceti da campioni di terreno e li ha coltivati con successo in laboratorio. Campbell, esperto in biologia dei parassiti alla Drew University, acquistò le colture di Ōmura e cominciò a studiarle, mostrando che uno dei componenti era notevolmente efficace contro parassiti in animali domestici e di allevamento. L’agente bioattivo fu purificato e chiamato avermectina, e successivamente modificato a livello chimico fino ad arrivare alla più efficace ivermectina. Questo farmaco fu poi testato sull’uomo con successo contro infezioni parassitarie. Curiosa è stata la risposta di Ōmura all’annuncio del premio Nobel: lo scienziato, raggiunto dalla telefonata del Comitato mentre era impegnato sul campo da golf, ha scherzato dicendo che molti pensano che abbia trovato gli streptomiceti direttamente sul “green” poiché è un appassionato di questo sport. Youyou Tu è la dodicesima donna a ricevere il premio Nobel. Anche la sua storia parte da lontano e trae ispirazione dalla medicina tradizionale cinese. Siamo a metà del secolo scorso e la cura della malaria, tradizionalmente trattata con clorochina o chinina, subisce una battuta d’arresto. È in quel periodo (1969) che Mao dà il via a un progetto per studiare le erbe tradizionali cinesi. La giovane farmacologa Tu si concentra sull’erbologia classica cinese, in particolare sulle erbe usate tradizionalmente contro la malaria, selezionando un composto, l’artemisia annua.
I primi risultati però si dimostrano inconsistent. Tu non si scoraggia, ma fa ricorso nuovamente alla tradizione studiando l’antica letteratura cinese. Qui si imbatte in indizi che la guidano all’artemisia annua. Incomincia così a testare gli estratti di artemisia sui topi: effettivamente i vecchi testi di medicina cinese trovano riscontro positivo nel contrastare la malaria, ma c’è un problema. Secondo la tradizione, l’erba doveva essere bollita ma questo passaggio rende l’estratto nocivo. Dopo molti tentativi l’équipe di Tu riesce ad eliminare dal processo di estrazione le tossine ottenendo così una sostanza pura, artemisinina o Qinghaosu ovvero il nuovo farmaco contro la malaria. Il contributo di questa medicina ha permesso la riduzione dei casi di malaria del 20-30% nei bambini, cifre che in Africa significano 100mila vite salvate ogni anno. È una cosa bellissima che il Premio Nobel sia andato a William C. Campbel, Satoshi Omura e a Youyou Tu per scoperte che riguardano soprattutto le malattie dei Paesi più poveri dell’Asia, dell’Africa e del Sud America. Troppo spesso la medicina è lontana dalla povertà e dalle disuguaglianze sociali e così si finisce per aumentare la distanza tra chi può studiare e curarsi, e chi lo può fare poco o per niente. È un grave errore. Si perdono straordinarie opportunità di crescita per i Paesi poveri e si mette a rischio anche chi per via della tecnologia e dei formidabili passi avanti della medicina di oggi pensa di essere al riparo da rischi. Nel frattempo la Commissione Europea ha adottato il Programma di lavoro per il 2016-2017 relativo al Programma Quadro Horizon 2020. Quasi 16 miliardi di euro saranno investiti nei prossimi due anni per sostenere la ricerca e l’innovazione a livello europeo. In linea con le priorità strategiche della Commissione, le opportunità messe a disposizione da Horizon 2020 contribuiranno in modo rilevante al lavoro, alla crescita, alla realizzazione del mercato unico digitale, all’Unione dell’energia e alle politiche in materia di cambiamenti climatici, insieme alla Russia, mediante il rafforzamento dell’industria europea e la promozione di un ruolo centrale del nostro Continente sullo scenario globale. Il Programma di lavoro 2016-2017 offre possibilità di finanziamento a ricercatori, scienziati, inventori, organizzazioni e imprese attraverso una serie di inviti a presentare proposte, appalti pubblici e altre azioni come i premi Horizon, che nel complesso coprono quasi 600 temi. La struttura riflette quella generale del Programma Horizon 2020, focalizzata sulle priorità a lungo termine dell’Unione Europea e sulle sfide più urgenti che chiamano in causa la fondazione degli Stati Uniti di Europa con la Russia. Il Programma destinerà fondi anche in diverse iniziative relative ad ambiti e obiettivi trasversali, come l’Ammodernamento dell’Industria Manifatturiera Europea (1 miliardo di euro), le Tecnologie e le Norme per la Guida Automatica (più di 100 milioni di euro); Internet degli Oggetti per il sostegno alla Digitalizzazione delle Industrie Europee (139 milioni di euro); Industria 2020 e l’Economia circolare per lo sviluppo di Economie sostenibili e forti (670 milioni di euro); Città intelligenti e sostenibili per il miglioramento dell’integrazione di Reti ambientali, digitali, di trasporto e dell’energia negli ambienti urbani dell’Unione Europea (232 milioni di euro). Almeno 8 milioni di euro di finanziamento saranno destinati alla ricerca per la sicurezza delle frontiere esterne dell’Unione Europea, con l’obiettivo di migliorare le procedure di identificazione e prevenire il traffico e la tratta di esseri umani; 27 milioni di euro saranno orientati verso le nuove tecnologie per prevenire la criminalità e il terrorismo, mentre 15 milioni di euro andranno alla ricerca sull’origine e l’impatto dei flussi migratori in Europa. Muovendo dai recenti successi ottenuti dalla ricerca in campo sanitario, con le fondamentali scoperte sui virus Ebola, rese possibili anche grazie ai finanziamenti di Horizon 2020, il Programma investirà 5 milioni di euro per far fronte ai focolai critici di Xylella fastidiosa, il batterio che attacca gli olivi. Il Programma di lavoro 2016-2017 punta anche a migliorare l’impatto dei finanziamenti di Horizon 2020: in primo luogo garantendo una maggiore disponibilità di fondi per le imprese innovative grazie alle nuove opportunità di mobilitazione delle risorse mediante il Fondo Europeo per gli Investimenti Strategici (FEIS), in aggiunta agli oltre 740 milioni di euro destinati a sostenere le attività di ricerca e innovazione in quasi 2000 piccole e medie imprese (PMI). Il tutto senza tralasciare l’impegno a migliorare le sinergie tra Horizon 2020 e altri Programmi di finanziamento dell’Unione Europea. La Commissione Europea ha lanciato “Digital4Science”, una nuova piattaforma in cui condividere e discutere opinioni sulla Scienza nell’era digitale. L’iniziativa punta a raccogliere le voci di tutti i soggetti interessati alla ricerca e all’innovazione in tema di politiche e programmi europei di supporto alla ricerca, coinvolgendo la Russia anche nel processo di liberalizzazione dell’industria e dell’impresa spaziale pubblica e privata. La parola d’ordine alla base dell’iniziativa è il coinvolgimento di tutti i cervelli: la piattaforma dà l’opportunità a chiunque, infatti, di promuovere o prendere parte a discussioni con scienziati, tecnologi, ricercatori e innovatori. Consentendo un costante confronto sulle attività relative alla Scienza di eccellenza nell’era digitale, “Digital4Science” si propone come luogo pubblico in cui intervenire e ascoltare, raccogliere dati ed evidenze su attività ordinarie, pubblicare eventi o creare sondaggi. Tutti sono invitati a raccontare le proprie aspettative, esperienze e visioni sul presente e sul futuro della ricerca nel campo della Scienza di eccellenza, esprimendo le proprie idee sui temi relativi alle tecnologie emergenti future, alla scienza aperta e alle infrastrutture digitali. Compresa l’industria spaziale commerciale. È possibile creare nuove discussioni o contribuire a conversazioni già aperte, rispondendo a domande del tipo: “qual è il futuro per le pubblicazioni ad accesso aperto? Come contribuire alla responsabilizzazione dei cittadini sui temi relativi alla Scienza? Come possono le tecnologie emergenti future promuovere l’innovazione a livello europeo? In che modo è possibile sostenere gli ecosistemi per il calcolo a elevate prestazioni (HPC)? Quale contributo le infrastrutture digitali possono offrire nel campo delle scienze umane e sociali? Di quali nuove competenze e professioni c’è bisogno per supportare le infrastrutture digitali? Quali infrastrutture digitali possono contribuire ad affrontare le sfide ambientali di domani?”. Per partecipare alle attività della comunità online è necessario registrarsi alla piattaforma. Attribuire ai materiali proprietà innovative utilizzando le più avanzate tecnologie laser è la sfida di “Laser4Fun”, progetto europeo a cui l’Italia partecipa con l’Istituto di Fotonica e Nanotecnologie del Cnr in collaborazione con l’Università degli Studi “Aldo Moro” e il Politecnico di Bari. L’obiettivo è promuovere l’uso delle tecnologie laser, teorizzate da Einstein, per la lavorazione delle superfici dei materiali: un campo promettente per diverse applicazioni in ambito industriale. Finanziato con le azioni Marie Skłodowska-Curie di Horizon 2020, il progetto prevede il coinvolgimento di 14 giovani studiosi in un programma di ricerca e formazione finalizzato a sostenere una nuova generazione di ricercatori creativi e intraprendenti, specializzati nell’ingegneria laser. Per sviluppare materiali più performanti ed evoluti da impiegare nei diversi settori produttivi, il mondo dell’industria potrà contare su promettenti alleati: i laser a impulsi corti e ultracorti. Queste tecnologie possono consentire di attribuire alle superfici alcune proprietà desiderate in modo versatile e poco costoso, senza necessità di applicare speciali strati di rivestimento ai materiali da trattare. La parola “Fun” contenuta nel nome del progetto, si riferisce a “funzionalizzazione”. Laser4Fun si focalizzerà sull’interazione tra l’energia laser e materiali di diverso tipo, come metalli, semiconduttori, polimeri, vetri e materiali avanzati, in vista dell’ottenimento di caratteristiche innovative dal punto di vista tribologico, ossia del modo in cui le superfici si comportano a contatto con le altre. Le ricerche in questo campo sono in corso, come mostrano i risultati ottenuti dai gruppi di ricerca diretti da Antonio Ancona dell’IFN-CNR e da Giuseppe Carbone del Politecnico di Bari, entrambi partecipanti a Laser4Fun, nell’attribuire alle superfici speciali proprietà antibatteriche, idrofobe, oleofobe e anti-ghiaccio per applicazioni in campo biomedicale, aeronautico, automobilistico o nell’industria dell’imballaggio e conservazione. Quindi per impermeabilizzare orologi e computer. Per sfruttare al massimo le potenzialità delle tecnologie laser a servizio della lavorazione dei materiali, però, secondo i promotori di Laser4Fun, c’è bisogno di una nuova generazione di studiosi orientati all’ingegneria delle superfici. Con questo obiettivo, il progetto prevede la realizzazione di un programma formativo innovativo destinato a giovani ricercatori interessati ad affrontare le nuove sfide dell’ingegneria laser. Finanziato con circa 3,5 milioni di euro dalle azioni Marie Skłodowska-Curie (MSCA), lo schema di Horizon 2020 volto a sostenere opportunità di formazione e scambio per i ricercatori, Laser4Fun consente il reclutamento di 14 giovani studiosi per un programma di dottorato. I partecipanti potranno condurre attività di ricerca e formazione presso i 10 partner industriali ed accademici del progetto arricchendo le loro conoscenze in settori differenti e sviluppando abilità e conoscenze spendibili nel mondo del lavoro. L’obiettivo è preparare i giovani ricercatori, al termine del programma di durata triennale, ad affrontare le nuove sfide dell’ingegneria laser. Al consorzio partecipano 6 Paesi: oltre all’Italia, la Spagna con la società Bsh Electrodomesticos Espana a guida del progetto e l’Università Politecnica di Madrid, la Germania con la società Fraunhofer per lo sviluppo della ricerca applicata, l’Istituto Leibniz per la ricerca sui polimeri di Dresda e le società Airbus Defence and Space e Robert Bosch, il Regno Unito con l’Università di Birmingham, i Paesi Bassi con l’Università di Twente e la Francia con il Centro Tecnologico Alphanov. Nel progetto sarà utilizzata la strumentazione delle reti di laboratori pubblici di ricerca della Regione Puglia “TRASFORMA” e “MICROTRONIC” disponibili al Dipartimento di Fisica “Michelangelo Merlin” dell’Università di Bari e al Dipartimento di Meccanica, Matematica e Management del Politecnico di Bari. Saranno impiegate, in particolare, sorgenti laser con impulsi di durata estremamente breve, pari a millesimi di miliardesimo di secondo (picosecondi) e a milionesimi di miliardesimo di secondo (femtosecondi), capaci di rompere i legami chimici minimizzando il danno termico alla superficie trattata, e di rimuovere il materiale “a freddo”, consentendo di asportare gli atomi con precisione nanometrica. Ricerche tutte debitrici di Einstein. Anche l’importanza dell’equazione S=klogW non potrà sfuggire a chiunque visiti la tomba del suo scopritore, Ludwig Boltzmann, indelebilmente incisa nel marmo della lapide tombale. L’equazione cattura una relazione, profonda e sorprendente, tra realtà macroscopica e microscopica. S è l’entropia, grandezza fisica che compare in entrambe le leggi fondamentali della Termodinamica, espressione delle proprietà generali dei sistemi macroscopici, cioè di quei sistemi costituiti da un numero molto grande di costituenti elementari. Sono sistemi macroscopici un gas, una scheggia di vetro o una qualunque porzione non artificialmente piccola della materia che ci circonda. Nella nostra percezione tipica della realtà fisica, basata su un’osservazione grossolana, i sistemi macroscopici sono descritti da un numero ridotto di grandezze fisiche, quali la temperatura e il volume. La conoscenza di queste quantità termodinamiche è sufficiente per determinare l’Entropia o qualunque altra proprietà grossolanamente rilevabile del sistema macroscopico. Ma questo piccolo numero di variabili non è sufficiente per caratterizzare accuratamente il sistema, cioè per individuare precisamente lo stato di tutti i suoi costituenti elementari. Esiste tipicamente un numero molto grande di configurazioni microscopiche descritte dagli stessi parametri termodinamici: un bicchiere d’acqua a una data temperatura può corrispondere a una qualunque tra dieci elevato a dieci elevato a 25 possibili micro-configurazioni o microstati. Questo numero è il W che compare al secondo membro dell’equazione di Boltzmann celebrata pure da Star Trek. La costante k esprime il fattore di proporzionalità tra l’energia media di ogni grado di libertà elementare del sistema macroscopico e la sua temperatura. Nonostante porti il nome di Boltzmann, non fu lui, ma probabilmente Max Planck, il primo a determinarne il valore. In effetti, l’equazione incisa sulla lapide tombale non fu mai scritta dal fisico austriaco in quella forma. La sostanziale attribuzione a Boltzmann della formula è però indiscussa. Si deve certamente ai suoi lavori l’intuizione che l’Entropia conta il numero di stati microscopici possibili per un certo stato macroscopico. Alla luce di questo, uno stato di Entropia maggiore ha una probabilità enormemente più grande di realizzarsi di uno stato di minore entropia, ed è per questo che nei processi fisici si osserva sempre un aumento di Entropia, come espresso nella seconda legge della Termodinamica. L’intuizione che la seconda legge abbia un’origine probabilistica e non sia derivabile esclusivamente dalle leggi della meccanica è strabiliante, se si pensa che è stata formulata in un periodo in cui neppure l’esistenza dei costituenti elementari della materia, atomi e molecole, era ancora universalmente accettata. È altrettanto fantastico che, dopo più di un secolo, l’equazione di Boltzmann giochi ancora un ruolo centrale nello sviluppo della fisica teorica: fornendo un legame tra proprietà microscopiche e macroscopiche di un sistema, può rappresentare uno stringente vincolo di coerenza per una teoria. Un ambito sorprendente dove l’equazione di Boltzmann gioca un ruolo cruciale è nello studio teorico dei Buchi Neri e, dunque, nello sviluppo di una teoria coerente di Gravità Quantistica. A prima vista una Stella Nera ha poco a che spartire con un sistema termodinamico: la Relatività Generale descrive un Buco Nero come una soluzione classica caratterizzata da una Singolarità centrale e da un Orizzonte degli Eventi da cui nessun segnale può sfuggire, e non offre certamente motivi per pensare che sia formato da un numero molto grande di costituenti microscopici. Eppure il fisico Jacob Bekenstein ha fatto notare che, per essere in accordo con la seconda legge della Termodinamica, un Buco Nero debba possedere un’Entropia. Quando un qualunque corpo macroscopico, con un’Entropia S, viene inghiottito dall’Orizzonte di una Stella Nera, l’Entropia del mondo esterno all’Orizzonte diminuisce di una quantità S. Il Buco Nero nello stato finale, d’altra parte, appare molto simile a prima, soltanto un po’ più grande e massiccio, avendo inglobato la massa-energia del corpo. Si può infatti provare che la geometria di un Buco Nero è unicamente determinata dalla sua massa e da eventuali altre cariche globali, quantità che giocano il ruolo di variabili termodinamiche per il Buco Nero. Poiché l’Entropia dell’Universo non può diminuire, è necessario ammettere che l’Entropia del Buco Nero sia aumentata. Dal momento che l’unica variazione nella Stella Nera, dopo aver inglobato il corpo con entropia S, è un aumento dell’area dell’Orizzonte, l’Entropia e l’area dell’Orizzonte devono essere proporzionali. Se S è non nulla, la formula di Boltzmann richiede che W sia maggiore di uno: il logaritmo di 1, infatti, è zero; e W non può essere minore di uno, poiché corrisponde al numero di stati microscopici. In effetti, il numero di microstati previsto per un Buco Nero con la massa del Sole è esorbitante: 10 elevato alla 10 elevato alla 77ma potenza! Però nella descrizione classica dei Buchi Neri, secondo la Teoria della Relatività Generale di Einstein, non vi è nessuna traccia di microstati. Il problema si infittisce alla luce del celebre risultato di Stephen Hawking che ha mostrato come i Buchi Neri non sono del tutto neri, ma che emettono una Radiazione termica, come ogni corpo macroscopico a una temperatura superiore allo Zero Assoluto, chiamata in suo onore Radiazione di Hawking. Nel caso dei Buchi Neri ciò avviene perché, in prossimità dell’Orizzonte degli Eventi, le fluttuazioni quantistiche possono creare una coppia di particelle, di cui una può raggiungere l’infinito ed essere rivelata come radiazione, mentre l’altra viene assorbita nel Buco Nero. Attraverso questo meccanismo il Buco Nero dovrebbe perdere massa, che viene trasportata al di fuori dalle particelle emeses, e poco alla volta “evaporare”. L’aspetto cruciale del calcolo di Hawking è dato dalla “forma” dello stato quantistico che descrive la coppia prodotta: questa costituisce uno stato “entangled”, in cui lo stato della particella uscente è correlato con quello della particella che cade nel Buco Nero! L’estrapolazione di questo risultato allo stadio finale dell’evaporazione del Buco Nero però sembra paradossale: infatti, ciò che resta è la sola radiazione uscente che non può più essere correlata con nulla, dato che il Buco Nero è scomparso. Di conseguenza, non si può attribuire alla radiazione emessa uno stato quantistico definito, ma solo assumere che essa possa trovarsi in un numero grande di stati possibili, associato, dalla formula di Boltzman, a un’Entropia. Questa Entropia non è che un’altra manifestazione della misteriosa Entropia di Bekenstein e la soluzione del paradosso di Hawking non può dunque prescindere dalla comprensione di tale entropia e dei microstati ad essa associati. Negli anni questo rompicapo, meglio noto come “La Guerra dei Buchi Neri”, si è rivelato sorprendentemente ostico e stimolante. Recentemente, soprattutto grazie alle osservazioni di Samir Mathur, sono state isolate le alternative possibili per evitare il paradosso: o nuovi effetti introducono inaspettate correlazioni tra l’interno e l’esterno dell’Orizzonte degli Eventi ovvero si modifica la natura “entangled” della coppia di particelle emessa. Questa seconda ipotesi è possibile solo al prezzo di modificare drasticamente la geometria dell’Orizzonte di un Buco Nero rispetto a quella predetta dalla Relatività Generale. È la Teoria Olografica elaborata da Leonard Susskind. Quale sia la natura di queste modifiche è ancora oggetto di aperto dibattito: forse l’Orizzonte non è un luogo pacifico, come Albert Einstein farebbe pensare, ma è circondato da un Muro di Fuoco che magari fotocopia tutto e tutti. “Piantala di dire a Dio che cosa fare con i Suoi dadi”, risponde Niels Bohr. Grande Giove! Doc Brown sviene. Il Re MS è morto, viva il Re della Nuova Fisica!
© Nicola Facciolini
https://www.youtube.com/watch?v=ZU2PmhFxwVE
… [Trackback]
[…] There you will find 60518 more Infos: improntalaquila.org/2015/i-100-anni-della-relativita-generale-di-albert-einstein-nel-segno-di-ritorno-al-futuro-87069.html […]
… [Trackback]
[…] Read More: improntalaquila.org/2015/i-100-anni-della-relativita-generale-di-albert-einstein-nel-segno-di-ritorno-al-futuro-87069.html […]
… [Trackback]
[…] Informations on that Topic: improntalaquila.org/2015/i-100-anni-della-relativita-generale-di-albert-einstein-nel-segno-di-ritorno-al-futuro-87069.html […]
… [Trackback]
[…] There you will find 41231 more Infos: improntalaquila.org/2015/i-100-anni-della-relativita-generale-di-albert-einstein-nel-segno-di-ritorno-al-futuro-87069.html […]