La seconda rivoluzione scientifica: fisica e chimica. La scienza del macromondo

Storia della Scienza (2004)

La seconda rivoluzione scientifica: fisica e chimica. La scienza del macromondo

Norriss S. Hetherington

La scienza del macromondo

Nella seconda metà del XX sec. l'attività scientifica è stata caratterizzata in misura sempre crescente dalla cosiddetta Big science, contraddistinta da équipe di scienziati su larga scala, da grandi finanziamenti erogati da agenzie governative e dal ruolo di primo piano di tecnologie costose, divenute perno dell'organizzazione della ricerca; tutto ciò per risolvere problemi scientifici, o sfruttare opportunità, che erano chiaramente percepiti dall'opinione pubblica e dalla classe politica. Più difficile risulta valutare i vantaggi e gli svantaggi legati al passaggio dalla scienza su piccola scala, fatta di individui isolati e sottofinanziati, a questa Big science, favorita dalle burocrazie elefantiache di grandi nazioni e da ampie disponibilità finanziarie. La storia ci darà senz'altro la giusta prospettiva, ma per ora le 'morali' da trarre sembrano altrettanto incerte e contraddittorie degli esiti completamente diversi di vari progetti di Big science della seconda metà del XX sec.: l'Anno Geofisico Internazionale, il progetto Mohole, la tettonica delle placche e l'astronomia radar ('radarastronomia') dei pianeti.

L'Anno Geofisico Internazionale

L'Anno Geofisico Internazionale (IGY, International geophysical year), avviatosi apparentemente in uno spirito di cooperazione internazionale, sfociò alla fine nella corsa allo spazio tra Unione Sovietica e Stati Uniti. Tra il 1882 e il 1883, e tra il 1932 e il 1933, c'erano stati due Anni Polari Internazionali, durante i quali enti scientifici e associazioni internazionali di scienziati avevano coordinato programmi comuni di ricerca allo scopo di raccogliere grandi quantità di dati. Sebbene non fossero organizzati a livello nazionale, i progetti furono finanziati dai singoli governi. In seguito, i progressi ottenuti, sia nelle conoscenze scientifiche sia nel campo delle strumentazioni, suggerirono di abbreviare l'intervallo tra gli Anni Polari: l'International Council of Scientific Union sviluppò e coordinò di conseguenza programmi di ricerca da svolgersi nel periodo 1957-1958.

Con 35 basi allestite in Antartide da 11 paesi, non si può certo dire che le ricerche polari fossero state sottovalutate; ora però l'IGY riguardava l'intero pianeta, non soltanto i poli. Sessantasette nazioni programmarono di spendere oltre 100 milioni di dollari per ricerche su le aurore e la luminescenza atmosferica, i raggi cosmici, il geomagnetismo, la glaciologia, lo studio della ionosfera, la meteorologia, la sismologia e l'attività solare ecc., oltre allo sviluppo di razzi e satelliti. Furono in realtà questi ultimi a produrre i risultati più eclatanti.

Fin dal XII sec. i cinesi erano in grado di allestire rudimentali razzi a propellente solido, tuttavia il primo primitivo razzo a propellente liquido dell'era moderna fu lanciato nel 1926 da Robert Goddard (1882-1945) negli Stati Uniti. La Seconda guerra mondiale vide grandi progressi in numerosi settori della scienza e della tecnologia, compresa la missilistica. Wernher von Braun (1912-1977) durante la guerra fu alla guida del programma missilistico tedesco e, nel decennio successivo, contribuì a gestire il programma missilistico americano. Nel 1955 gli Stati Uniti si preparavano ormai alla costruzione di missili balistici intercontinentali, che erano in grado di trasportare testate nucleari a 8000 km di distanza.

Anche il lancio di satelliti artificiali in grado di trasportare strumentazione scientifica era tecnicamente fattibile, e l'IGY fornì un incentivo scientifico a percorrere questa strada, che si univa al potenziale vantaggio militare, al prestigio nazionale e alle opportunità commerciali, almeno per i costruttori di missili e satelliti. Gli Stati Uniti annunciarono, sempre nel 1955 (e l'Unione Sovietica l'anno seguente), l'intenzione di mettere in orbita dei satelliti nel quadro dell'IGY.

Alcuni percepirono tale occasione un esempio di quanto gli scienziati potessero, in un mondo diviso, ridurre le barriere tra le nazioni e lavorare insieme in armonia. Nel frattempo, von Braun spingeva gli Stati Uniti affinché convogliassero tutti gli sforzi per giungere per primi a costruire una fortezza orbitante che potesse costituire una base di lancio inespugnabile dei missili atomici. Lo United States National Committee per l'IGY era sotto la direzione della National Academy of Sciences, un'organizzazione privata che ottenne fondi governativi dalla National Science Foundation. Il dipartimento della Difesa fu incaricato di progettare il satellite e metterlo in orbita.

La messa in orbita del satellite Sputnik I, una sfera di 56 cm ca. di diametro e del peso di 84 kg ca., il 4 ottobre del 1957, creò allarme negli Stati Uniti; il presidente Eisenhower inizialmente resistette a coloro che chiedevano a gran voce un intervento del governo federale, ma la comparsa di un secondo satellite russo nel mese di novembre accrebbe la preoccupazione dell'opinione pubblica. Due giorni dopo il lancio dello Sputnik II, in un discorso al popolo americano sulla scienza e la sicurezza nazionale, trasmesso dalla televisione e dalla radio, Eisenhower annunciò la ricostituzione dello Scientific Advisory Committee presidenziale. Nell'aprile del 1958, dopo aver messo in orbita con successo l'Explorer I a gennaio, Eisenhower propose la creazione di quella che sarebbe poi diventata la NASA; la portata della sua autorità e la sua capacità di dirigere un programma scientifico americano di ricerca spaziale erano però tutt'altro che certe. La NASA comunque colse subito l'opportunità, in un'accesa competizione con i militari, con l'industria, con la ricerca universitaria e con lo Space Science Board della National Academy of Sciences dell'IGY. Eisenhower era determinato nel ritenere che dovesse essere un'agenzia civile a condurre il programma spaziale nazionale, e quindi il programma satellitare, compreso il settore dei veicoli di lancio, fu trasferito dai militari alla NASA.

Non era certo l'indagine scientifica la motivazione principale del programma spaziale, come si può evincere dai pressanti appelli rivolti nei primi anni agli scienziati, affinché fornissero esperimenti da affidare ai missili dei quali era stato già programmato il lancio. Ciononostante l'IGY fece alcune rilevanti scoperte scientifiche. James Van Allen, della Iowa State University, raccolse alcune strane letture dai contatori Geiger collocati su satellite: al di sotto dei 1000 km, i conteggi erano coerenti con le teorie sui raggi cosmici, mentre ad altezze superiori i conteggi di attività elevata si alternavano improvvisamente a zone di attività praticamente nulla. Van Allen aveva scoperto delle particelle energetiche intrappolate in orbite geomagnetiche: le fasce di Van Allen. I dati raccolti nell'ambito dell'IGY permisero agli scienziati di scoprire le asimmetrie della forma della Terra, che la sua atmosfera si estende molto oltre quello che si pensava, e che la pressione di radiazione della luce proveniente dal Sole influenza l'atmosfera della Terra e il moto dei satelliti che l'attraversano. Durante l'IGY furono forse altrettanto importanti i progressi tecnici nella missilistica e nella strumentazione, come pure l'acquisita capacità di gestione e amministrazione di grandi progetti scientifici.

Ben presto, la corsa allo spazio si trasformò in una corsa alla Luna. Per gran parte degli studi sul Sistema solare, le osservazioni da terra erano state più decisive delle sonde planetarie. Nel caso della Luna, però, i campioni riportati nel 1969 dall'Apollo 11 influenzarono significativamente le conoscenze scientifiche. Prima della spedizione Apollo erano state proposte tre teorie per spiegare l'origine della Luna: (1) la cattura della Luna in seguito alla sua formazione, avvenuta altrove; (2) il coaccrescimento graduale e contemporaneo alla formazione della Terra, con condivisione del materiale; (3) la fissione, in cui la Luna sarebbe stata espulsa dalla Terra formatasi in precedenza. I campioni lunari contenevano pochissima acqua, e ciò escludeva l'ipotesi della cattura, contraddetta peraltro anche dalle abbondanze isotopiche dell'ossigeno. Le concentrazioni di altri elementi erano d'altra parte abbastanza diverse da rigettare l'ipotesi della fissione. Eppure, le abbondanze di alcuni elementi, in particolare di quelli concentrati nel mantello terrestre, erano simili. I dati si potevano forse spiegare con un urto tra una Terra giovane e un pianeta delle dimensioni di Marte, e la successiva creazione della Luna da materiale proveniente dal pianeta e dal mantello terrestre. Gli scienziati però erano riluttanti ad adottare teorie catastrofiche per spiegare la storia del Sistema solare: l'origine della Luna rimase così incerta.

Il Progetto Mohole

Contemporaneamente all'inizio della corsa allo spazio fu messo in atto il Progetto Mohole, riguardante un tentativo di trivellare la crosta terrestre fino al mantello. Il Progetto era finanziato dalla National Science Foundation, la principale agenzia civile di finanziamento scientifico, fondata nel 1950. Il Progetto Mohole iniziò nel 1957 e fu concluso con un decreto dal Congresso degli Stati Uniti nel 1966, tra enormi lievitazioni dei costi, accuse di favoritismi politici nell'assegnazione dei contratti e liti aspre tra gli scienziati. Le radici culturali del Progetto Mohole si possono far risalire quasi all'inizio del XX sec., quando il meteorologo iugoslavo Andrija Mohorovičić, studiando un terremoto nella zona di Zagabria nel 1909, scoprì un bordo di separazione tra la crosta terrestre e il mantello: la velocità di alcune onde sismiche diminuiva improvvisamente al di sotto di quella che fu chiamata discontinuità di Mohorovičić.

La crosta terrestre ha uno spessore di 35 km ca. in corrispondenza dei continenti, ma di soli 5 km nei bacini oceanici; gli scienziati pensarono inizialmente che la crosta scivolasse sul mantello, tuttavia studi successivi indicarono che la crosta e la parte superiore del mantello formano un guscio rigido, la litosfera, di uno spessore che raggiunge 270 km ca. al di sotto dei continenti e 70 km ca. al di sotto degli oceani.

Il finanziamento del Progetto Mohole ebbe inizio, come già detto, nel 1957, grazie a una commissione della National Science Foundation riunita allo scopo di valutare circa 60 proposte di ricerca provenienti da geologi, geofisici e geochimici. La commissione rilevò con una certa frustrazione che nessuno dei progetti proposti era veramente fondamentale per la comprensione della Terra, né era in grado di attrarre l'attenzione del grande pubblico o di attirare i giovani verso le scienze della Terra. Un progetto davvero stimolante sarebbe stato invece la perforazione profonda della crosta terrestre; il prelevamento dei campioni del mantello avrebbe infatti contribuito a trovare la risposta ad alcuni importanti quesiti scientifici. Il Progetto Mohole avrebbe svolto, per gli studiosi di scienze della Terra, un ruolo analogo a quello di una sonda spaziale.

Ben presto la International Union of Geodesy and Geophysics cominciò a insistere affinché tutte le nazioni si mettessero a studiare la fattibilità e i costi necessari per una perforazione fino alla discontinuità di Mohorovičić. Decisioni analoghe furono prese in tempi brevi dalla International Association of Physical Oceanography e dalla International Association of Seismology and Physics of the Earth's interior. Ancor più utili furono le vanterie (mai realizzate) dei russi, i quali affermavano di possedere la strumentazione necessaria per compiere una trivellazione simile, e di cercare soltanto un luogo in cui realizzarla.

Diversi membri della National Science Foundation chiesero alla AMSOC (American Miscellaneous Society), una strana organizzazione cui erano associati molti geofisici americani di rilievo, di organizzare questa campagna di trivellazione. L'AMSOC fu fondata nel 1952 da alcuni geofisici in servizio presso l'Office of Naval Research che, in occasione della selezione di una serie di richieste di finanziamento, avevano raccolto una gran quantità di richieste eterogenee. Questa società non aveva né registri né statuto, funzionari, elezioni, pubblicazioni né teneva riunioni ufficiali. Tra i raggruppamenti disciplinari vi erano la 'ecceterologia', la 'disastrologia', la 'generalogia' e la 'banalogia'. La società intratteneva relazioni con il Committee for Cooperation with Visitors from Outer Space e con la Society for Informing Animals of their Taxonomic Position. Per le riunioni, che si tenevano di solito con il bicchiere in mano al Club Cosmos di Washington, era necessario un quorum di due persone; in occasione di una di queste riunioni, per fare un esempio, si fecero calcoli dettagliati sulla possibilità di rimorchiare iceberg antartici fino a Los Angeles per poi fonderli allo scopo di alimentare il sistema idrico della città.

In un'altra riunione al Club Cosmos, la AMSOC decise di chiedere alla National Science Foundation 30.000 dollari per uno studio di fattibilità relativo a una perforazione da condurre attraverso l'intera crosta terrestre. Avvertita del fatto che la National Science Foundation probabilmente non avrebbe finanziato un'organizzazione di carattere così effimero, la AMSOC si rivolse alla National Academy of Sciences per ricevere una legittimazione. Nel 1958, il neocostituito AMSOC Committee of the Division of Earth Sciences del National Academy of Sciences-National Research Council (NAS-NRC) ricevette la metà dei 30.000 dollari richiesti alla National Science Foundation. L'Accademia Sovietica delle Scienze costituì un comitato analogo. Ogni frivolezza legata al nome dell'American Miscellaneous Society scomparve quando la sigla AMSOC fu adottata come nuova denominazione della società, e non come abbreviazione del nome precedente. La società continuò però a manifestare contrasti abbastanza comici con la scienza ufficiale d'impostazione tradizionale: nel 1959 la prestigiosa rivista "Science" citò due massime della società: 'Quando si va avanti nello spazio è importante andare anche indietro nel tempo', e 'Il fondo dell'oceano è importante per noi almeno quanto il retro della Luna'.

Si pensava che il Progetto Mohole potesse essere portato a termine con 5 milioni di dollari, una gran quantità di denaro, ma pochi in confronto a quelli spesi per l'esplorazione dello spazio e ai miliardi di dollari impegnati per le bombe atomiche. Era iniziata così la corsa verso il mantello terrestre, contro un competitore sovietico immaginario.

Ben presto le stime dei costi e i finanziamenti erogati lievitarono. La National Science Foundation accordò 80.700 dollari per i rilevamenti dei siti di perforazione. La stima di 5 milioni di dollari compiuta alla fine del 1959 lievitò senza spiegazione a 14 milioni di dollari verso la metà del 1960; un consigliere scientifico del presidente diede una rapida occhiata alla cifra e disse "Perché no. Costerà all'incirca quanto un solo lancio spaziale". La National Science Foundation accordò altri 80.500 dollari per i salari e le spese del personale sempre più numeroso della AMSOC, e ne promise almeno altri 1.250.000 per iniziare le perforazioni.

Queste si sarebbero spinte, in mare, a profondità dieci volte maggiori di qualsiasi perforazione petrolifera attuata. Elemento cruciale per il successo dell'impresa era il mantenimento in posizione della nave per le trivellazioni. Essendo l'acqua troppo profonda per consentire l'uso di ancore, era necessario un sistema dinamico di posizionamento della nave, governato da motori collocati intorno allo scafo e controllati in modo centralizzato, capaci di mantenere la nave quasi ferma anche in presenza di correnti forti e con un vento di venti nodi. Un test realizzato nel 1961 fu un successo: in poche settimane, rispettando il budget, un equipaggio della AMSOC perforò fino a 183 m al di sotto del fondo dell'oceano, a oltre 3500 m di profondità, al largo delle coste del Messico, incontrando del basalto a 170 m, al di sotto dei sedimenti del Miocene. Era la prima volta che si prelevavano campioni di quello che sarebbe diventato il secondo strato nella rappresentazione della struttura della crosta oceanica.

Tuttavia, per arrivare al mantello sarebbe stato necessario effettuare perforazioni in acque ancor più profonde, 4,8 km ca., e penetrare attraverso 4570 m ca. nella crosta terrestre; questo avrebbe probabilmente richiesto due o tre anni di trivellazioni ininterrotte. Il presidente John F. Kennedy aveva appena annunciato un programma di spedizioni sulla Luna con uomini a bordo, e l'esibizione spettacolare di tecnologie avanzate veniva percepita come il fattore determinante per l'incremento dei finanziamenti accordati alle attività scientifiche. Il Progetto Mohole fu percepito come la chiave di volta per spalancare le casse del governo alle scienze della Terra.

Nella fase successiva del Progetto Mohole, i rapporti con la National Science Foundation si interruppero, e il personale della AMSOC fu trasferito presso un contraente privato selezionato dalla National Science Foundation. Nella prima tornata di selezioni, effettuate da sei dirigenti del personale, risultò vincitore un consorzio formato da Socony Mobil, General Motors, Texas Instruments e Standard Oil of California, valutato dai selezionatori 'in una classe a parte'. Nella seconda tornata, condotta da quattro funzionari senior della National Science Foundation, il consorzio Socony Mobile si classificò appena dopo il consorzio formato da Global Marine Exploration, Aerojet-General e Shell Oil (per soli quattro punti su un totale di 1000). Entrambi i consorzi inglobavano alcune delle maggiori società americane, e la Global Marine aveva gestito gli impianti di perforazione nell'operazione condotta con successo nel 1961 al largo del Messico. La National Science Foundation prevedeva il completamento del progetto a prezzo di costo, e nessuno dei due gruppi richiese un compenso per la sua gestione; in realtà probabilmente sarebbero stati disposti anche a donare gli impianti, confidando nella prospettiva di raccogliere comunque i vantaggi a lungo termine legati ai progressi nelle tecnologie di perforazione.

All'inizio del 1962 il direttore della NSF annunciò di aver scelto chi avrebbe gestito il progetto, in quel momento stimato tra i 35 e i 50 milioni di dollari, di cui 4,9 milioni stanziati per il successivo anno fiscale. La scelta cadde sulla ditta di progettazione e costruzioni Brown & Root di Houston, in Texas. L'offerta della Brown & Root comprendeva essenzialmente materiale pubblicitario di attrezzature e tecnologie standard, mentre il gruppo Socony Mobil aveva investito quasi 150.000 dollari per preparare la sua offerta, in gran parte per la progettazione di nuove attrezzature in grado di risolvere i problemi tecnici che si presentavano nel Progetto Mohole. L'offerta della Brown & Root prevedeva inoltre una percentuale aggiuntiva di spese generali, tra il 3% e il 5% su tutte le voci di costo, oltre a una voce di 1,8 milioni di dollari per spese di gestione. Il direttore della NSF valutò positivamente questo aspetto, considerandolo indicativo di un atteggiamento più 'manageriale'.

Il presidente della Brown & Root era un sostenitore politico del vicepresidente Lyndon Johnson, texano, e di Albert Thomas, texano anche lui e presidente del sottocomitato del Congresso che controllava il bilancio della NSF. Vi furono molti sospetti sul ruolo delle influenze politiche nella assegnazione del contratto, tuttavia non si trovarono mai prove che Johnson vi fosse coinvolto, o che Thomas avesse esercitato pressioni sulla NSF, o ancora che la NSF avesse corteggiato intenzionalmente un membro del Congresso, in precedenza ostile e diventato molto amichevole.

Il contratto della NSF prevedeva la costruzione di una nave per effettuare la perforazione fino al mantello terrestre. Alcuni scienziati ritenevano tuttavia che il principale obiettivo scientifico del Progetto Mohole dovesse essere l'esplorazione sia dei sedimenti sia dei livelli superiori della crosta terrestre, condotta da una prima nave in un programma di perforazioni intermedio, seguito poi dalla costruzione della nave attrezzata per conseguire la penetrazione della discontinuità di Mohorovičić.

Il gruppo dell'AMSOC che aveva gestito il Progetto Mohole rinunciò a cooperare con la National Academy of Sciences, si costituì come Ocean Science and Engineering (OSE) e si offrì come consulente per il progetto alla Brown & Root. Ricevendo da questa scarso apprezzamento, l'OSE dopo due mesi tornò a Washington come consulente della NSF, situazione che perdurò per dieci mesi.

Un certo disordine gestionale si riscontrava anche a Houston. La Brown & Root non aveva personale tecnico in grado di portare avanti il Progetto Mohole, ma era stata ritenuta in grado di acquisire e dirigere il personale necessario. Nel 1963, comunque, essa si aggiudicò il contratto per la costruzione del Centro per i veicoli spaziali con uomini a bordo della NASA a Houston, progetto ritenuto di maggior portata a cui fu assegnato il responsabile del Progetto Mohole.

Alla Brown & Root si avvicendarono quattro direttori in poco più di un anno, i quali redassero dei programmi che prevedevano una sola nave e una sola perforazione fino al mantello terrestre, con una nuova stima dei costi di 67,7 milioni di dollari.

Il dipartimento del Bilancio ordinò alla NSF di non prendere ulteriori impegni finanziari finché non si fosse chiarita la situazione. La AMSOC, sebbene al corrente della possibilità che non ci fossero fondi sufficienti per due navi, richiese comunque denaro da erogarsi subito per una imbarcazione intermedia, per poi tentare la sorte con una seconda imbarcazione nel futuro. Un piano intermedio avrebbe anche ridotto la possibilità di un fallimento totale. Un critico particolarmente sdegnato, l'amareggiato leader del gruppo AMSOC che aveva resistito soltanto due mesi come consulente della Brown & Root, accusò questa di avere una scarsa comprensione sia degli aspetti scientifici sia di quelli ingegneristici del progetto, e raccomandò che se si doveva mantenere la Brown & Root per motivi politici, lo si doveva fare solamente per commissionarle studi a tempo indeterminato, che costassero meno di mezzo milione di dollari l'anno. Nel 1963, a maggio, la rivista "Fortune" raccontò "come la NSF si fosse persa nel Mohole", e a giugno la rivista "Newsweek" ospitava un articolo intitolato Project No Hole?

Il Progetto Mohole andò avanti con difficoltà ancora per un po', ma nel 1966 il membro del Congresso Thomas si spense e il suo successore negò immediatamente fondi ulteriori al progetto. La NSF, che stimava allora una spesa di almeno 125 milioni di dollari, fece ricorso contro questa decisione, e si assicurò appoggi nel Senato. Contestualmente però un membro repubblicano del Congresso (Donald Rumsfeld, che sarebbe diventato in seguito segretario alla difesa) rivelò che la Brown & Root aveva elargito contributi a un'organizzazione per il finanziamento del Partito democratico, pochi giorni dopo che Johnson, diventato nel frattempo presidente degli Stati Uniti, aveva incoraggiato il Senato a capovolgere la decisione della Camera. Può darsi che la donazione sia avvenuta in quel momento soltanto per caso: la Brown & Root, con i suoi contratti governativi da centinaia di milioni di dollari, specialmente in Vietnam, aveva elargito donazioni sostanziose sia a Johnson sia al Partito democratico. Il Senato però a questo punto concordò con la Camera che si dovesse porre termine al Progetto Mohole.

Era stata persa la battaglia, ma non la guerra, almeno non la guerra per altri progetti di trivellazione, forse meno illuminati e più convenzionali. Due mesi prima della conclusione ufficiale del Progetto Mohole, la NSF assegnò un contratto per la Fase I del Deep Sea Drilling Project (DSDP) a un consorzio capitanato dalla Scripps Institution of Oceanography della University of California a San Diego, che comprendeva altri istituti americani di oceanografia e anche l'Accademia Sovietica delle Scienze. La Scripps aveva partecipato alla gara d'appalto per il Progetto Mohole. Per il progetto DSDP, le perforazioni furono gestite dalla Global Marine.

La nave Glomar Challenger fu varata nel 1967; dopo una fase di test, la Fase II ebbe inizio nel 1968 e durò fino al 1972, con trivellazioni effettuate nell'Oceano Atlantico, Pacifico e Indiano, oltre che nel Mediterraneo e nel Mar Rosso. La stessa Glomar Challenger fu poi impiegata nel successivo Programma oceanico di trivellazione fino al 1983.

Tra i risultati scientifici rilevanti dei programmi di trivellazione figurano alcuni campioni provenienti da una dorsale oceanica tra l'America Meridionale e l'Africa, che fornirono una prova della rigenerazione della crosta oceanica nelle zone di frattura ('rift') e della deriva dei continenti. Quest'ultima era argomento centrale di una rivoluzione scientifica di assoluto rilievo, acquisita in ultimo come teoria della tettonica delle placche (o anche tettonica a zolle).

La tettonica delle placche

Mentre la corsa allo spazio monopolizzava l'attenzione dell'opinione pubblica, e il suo analogo oceanico, il Progetto Mohole, finiva in uno scandalo politico, ebbe luogo in geofisica una notevole rivoluzione nelle conoscenze scientifiche, che coinvolgeva sia la teoria sia gli aspetti pratici di questa disciplina. La tettonica delle placche, sviluppata durante gli anni Sessanta, fu la prima teoria generalmente accettata per la descrizione di continenti e oceani, di montagne e tavolati, e di vulcani e terremoti. Nel contesto di questa teoria, numerosi fenomeni trovarono una spiegazione dettagliata come risultato delle interazioni tra parti in movimento appartenenti allo strato superficiale della Terra, chiamate placche tettoniche.

Un notevole impulso a questo progresso scientifico venne dai finanziamenti militari alla ricerca scientifica a sostegno della sicurezza nazionale. La Marina militare finanziò durante la Seconda guerra mondiale una cartografia dei fondali marini, poiché le mappe topografiche precise potevano fornire ai sommergibili un elemento indipendente di controllo per la navigazione. La Marina sostenne anche la raccolta di dati sul magnetismo dal fondo marino, per la loro importanza ai fini della rilevazione dei sommergibili. A questo scopo servivano dei magnetometri più precisi, e furono costruiti; modelli precedenti erano stati installati su aerei per rilevare sommergibili nemici. Anche la sismologia ricevette finanziamenti crescenti, all'inizio per sostenere l'esplorazione del fondo marino e poi per la necessità di distinguere i terremoti dalle onde sismiche generate dai test nucleari sotterranei, al fine di verificare il rispetto del Trattato per la proibizione parziale degli esperimenti nucleari (Limited Test Ban Treaty) del 1963.

Fin dal XVI sec. i cartografi avevano notato la corrispondenza tra i profili della costa orientale dell'America Meridionale e la costa occidentale dell'Africa, come in un puzzle. Nel XIX sec. i geologi riconoscevano ormai che alcune sequenze di formazioni rocciose, così come alcune piante e animali fossili, erano sorprendentemente simili sulle due sponde dell'oceano. All'inizio del XX sec., il meteorologo tedesco Alfred Wegener avanzò l'ipotesi che i continenti si fossero separati gradualmente nel tempo, in una specie di deriva. Wegener si rese conto che era possibile spiegare i cambiamenti climatici verificatisi nel passato sulla base della migrazione dei continenti attraverso diverse zone climatiche, e interpretare le alterazioni del clima come determinate dalla riconfigurazione dei continenti.

I geologi non erano entusiasti della teoria di Wegener, che non aveva credenziali di geologo, forse anche per un certo sentimento antitedesco dovuto alla recente Prima guerra mondiale. Per comprendere la reazione di ostilità verso la teoria di Wegener, però, è più importante considerare il suo carattere epistemologico scientifico. Wegener partì da un'ipotesi, e poi per verificarla cercò le prove nella letteratura scientifica, in modo da confermare o rigettare la teoria: usava dunque un metodo ipotetico-deduttivo. I geologi, d'altra parte, consideravano la loro come una scienza storica e descrittiva, basata innanzitutto su un lavoro sul campo accurato e completo. Dovendo prendere posizione sul metodo scientifico, essi prendevano le difese di un approccio induttivo, in cui la priorità veniva data alla raccolta di grandi quantità di dati, dai quali poter elaborare per induzione delle teorie in un secondo tempo. D'altronde essi non erano molto interessati alle teorie globali, che ritenevano irrilevanti rispetto al lavoro sul campo, considerato invece di centrale importanza. Wegener brancolava alla ricerca di una teoria generale della Terra, in cui il tutto fosse maggiore delle sue parti, ed era riluttante a preoccuparsi di questioni di dettaglio. I geologi invece analizzavano i dati poco alla volta, e trovavano molti dettagli in contrasto con la teoria di Wegener.

Le reazioni al lavoro di Wegener dipendevano, per così dire, dalla longitudine: i geologi europei, in generale, non erano contrari dal punto di vista metodologico, ma i geologi inglesi criticavano frequentemente i suoi metodi, anche se Arthur Holmes aveva appoggiato la tettonica delle placche fin dagli anni Venti. I geologi americani erano i più critici nei confronti del carattere 'ascientifico' del metodo di Wegener, anche se alla radice della loro avversione per l'ipotesi di Wegener può esserci stato dell'altro. Essi erano infatti più intransigenti dei loro colleghi europei nell'interpretare il concetto di attualismo, secondo il quale il passato geologico si deve spiegare soltanto in base a processi tuttora osservabili. Inoltre, mentre la teoria della deriva dei continenti poteva essere utile, per esempio, agli specialisti che si occupavano della formazione delle Alpi, o ai geologi olandesi in Indonesia, non era chiaro come potesse fornire strumenti interpretativi a un geologo americano interessato alle grandi pianure. Forse, inoltre, i geologi americani erano più diffidenti nei confronti dei sistemi teorici 'chiusi' rispetto ai colleghi europei, e più inclini a una logica antiautoritaria della scoperta scientifica; si può sostenere che abbia giocato un ruolo un certo senso di egualitarismo e di democrazia scientifica in campo americano, opposto a un autoritarismo e a una autocrazia scientifica in Europa.

Fino agli anni Sessanta le idee di Wegener non vennero accettate dai più, ma poi la resistenza fu vinta dall'avvento di nuovi dati che esigevano delle spiegazioni inedite. Indubbiamente tali dati nuovi, svincolati da ogni legame con la vecchia teoria e le controversie passate, favorirono una maggiore flessibilità concettuale. Con l'entusiasmo dei neofiti, i geologi nordamericani divennero i sostenitori più convinti della tettonica delle placche.

I primi dati a richiedere una rivoluzione concettuale provenivano dai fondali marini. I magnetometri al traino delle navi avevano sorprendentemente rivelato che alcune parti dei fondali marini possedevano una magnetizzazione concorde con il campo magnetico terrestre, mentre altre aree erano magnetizzate in senso opposto. Riportando le aree su una carta, queste si disponevano a strisce alternate come in un disegno zebrato o in un codice a barre. I primi risultati furono ottenuti alla fine degli anni Cinquanta quando vennero interrotte delle ricerche già in atto nell'Oceano Pacifico nordorientale da parte dello Scripps Institution of Oceanography, per allestire degli osservatori magnetici provvisori in diverse isole equatoriali del Pacifico a uso di un progetto dell'IGY per studiare i fenomeni magnetici nella ionosfera.

Nel 1963 i geofisici Frederick J. Vine e Drummond Matthews, di Cambridge, riuscirono a spiegare sia i dati dello Scripps, sia altri in possesso di Matthews provenienti da studi condotti nell'Oceano Indiano. Vine era stato stimolato da un seminario tenuto a Cambridge da Harry Hess, professore di geologia presso la Princeton University, il quale aveva sostenuto la possibilità che il fondale oceanico potesse essere soggetto a un'espansione da entrambi i lati della dorsale oceanica. Vine e Matthews sostennero che questo è quello che effettivamente accade, ossia che la polarità del campo magnetico terrestre si inverte di tanto in tanto e che per questo motivo la striscia di fondale oceanico successiva all'inversione, formata da eruzioni sottomarine di basalto, risulta magnetizzata in senso opposto; tale magnetizzazione rimane 'congelata' nelle rocce appena queste si solidificano. Tale magnetismo residuo fossile ha dato origine al paleomagnetismo. I due autori pubblicarono un articolo sulla prestigiosa rivista "Nature"; ciononostante un anno dopo, nel 1964, a un convegno sulla deriva dei continenti che si tenne a Londra, soltanto una persona menzionò l'ipotesi di Vine e Matthews, peraltro per sostenere che probabilmente essa non era in grado di spiegare tutti i dati raccolti.

Nel frattempo Lawrence Morley, direttore della Divisione di geofisica del Geological Survey of Canada, dopo aver analizzato i dati di Vine e Matthews giunse alle stesse loro conclusioni. Morley aveva anche letto un articolo di Robert Dietz, che lavorava allo Scripps e al Laboratorio di elettronica della Marina, sull'espansione del fondale oceanico, in cui esponeva idee simili a quelle di Hess. Secondo l'idea di Morley c'erano delle correnti convettive che risalivano dal mantello al di sotto della dorsale oceanica per poi allontanarsi orizzontalmente da questa e far posto alla fuoriuscita di nuovo materiale. Via via che il materiale si raffreddava si magnetizzava nella direzione del campo magnetico terrestre esistente in quel momento.

Questa nuova teoria legava l'una all'altra, in mutuo sostegno, tre teorie diverse, e non dimostrate: la deriva dei continenti, l'espansione del fondale oceanico e l'inversione periodica del campo magnetico terrestre. Morley spedì un articolo breve a "Nature" nel 1963, prima dell'articolo di Vine e Matthews, ma senza dati propri a sostegno della sua tesi; la rivista rispose che non aveva spazio per pubblicarlo. Morley allora espose la sua idea in un articolo proposto al "Journal of geophysical research". Uno dei referee dell'articolo di Morley disse al direttore della rivista: "Immagino che la sua idea sia interessante, ma sembra più adatta, diciamo, a una bevuta, che alle pagine del "Journal of geophysical research"". Morley ricevette una lettera di rifiuto alla fine di agosto; l'articolo di Vine e Matthews apparve su "Nature" il 7 settembre.

L'ipotesi di Vine e Matthews non ebbe inizialmente una grande accoglienza, ma la situazione cambiò praticamente da un giorno all'altro quando si scoprì una correlazione tra la supposta velocità costante di espansione del fondale e le anomalie magnetiche osservate in relazione alla dorsale Juan De Fuca nell'Oceano Pacifico, a sud-ovest di Vancouver, in Canada. La prima scala temporale di inversione di polarità, calcolata nel 1963, non era compatibile con una velocità di espansione costante, e neanche la seconda, né di fatto quelle calcolate nei primi dieci tentativi. Poi però i geologi trovarono nelle rocce raccolte vicino Jaramillo Creek, nei Monti Jenez del New Mexico, negli Stati Uniti, un breve intervallo di polarità normale del campo magnetico terrestre databile a 0,9 milioni di anni fa. Questo 'evento Jaramillo' costituì la base per il calcolo dell'undicesima versione della scala temporale, nel 1965, la quale si adattava perfettamente a una velocità di espansione costante del fondale.

L'evento Jaramillo fu scoperto quasi contemporaneamente, e indipendentemente, da Neil Opdyke, presso il Lamont Geological Observatory della Columbia University, che peraltro era una roccaforte dei sostenitori della immobilità di oceani e continenti. Il Lamont possedeva una ricca collezione di 'carote' (campioni cilindrici prelevati dai sedimenti oceanici), che mostravano anch'esse nelle diverse profondità le inversioni del campo magnetico, e confermavano le stesse scale di tempo osservate in precedenza al suolo.

Anche il geologo John Tuzo Wilson, della University of Toronto, contribuì a rafforzare le ragioni sostenute dai geologi non ortodossi a favore della tettonica delle placche. Egli ipotizzò un nuovo tipo di faglia, la 'faglia trasforme': l'espansione attiva in corrispondenza della dorsale si trasformava in uno spostamento laterale delle parti della dorsale separate dal piano di faglia per essere ricondotta a espansione esternamente alla distanza di separazione. Il risultato previsto era in buon accordo con le osservazioni e spiegava l'evoluzione dei bordi di confine tra placche rigide.

Nel 1966 presso il Goddard Institute for Space Studies e la Columbia University si tenne un convegno dedicato alla discussione se la mobilità crostale fosse o meno una reale possibilità. Il convegno iniziò con un'aperta ostilità verso tale ipotesi. Il programma prevedeva che alla fine del convegno due oratori riassumessero la ragioni favorevoli e contrarie alla toria della mobilità della crosta terrestre. Quando il convegno giunse alla fine, però, le prove prodotte a favore erano così decisive che l'oratore con il compito di parlare a sfavore rinunciò a prendere la parola, mentre quello favorevole poté presentare un elegante riassunto.

Ben presto giunsero altre dimostrazioni del fatto che la battaglia scientifica era ormai vinta. Wilson incentrò sulle faglie trasformi e sul paleomagnetismo uno dei quattro interventi sulle nuove frontiere al Congresso dell'American Geophysical Union nel 1967, nel quale peraltro furono presentati più di 50 contributi sulla espansione dei fondali oceanici. In un articolo del 1968 su "Geotimes", Wilson proclamò esplicitamente il compimento di una rivoluzione; la geologia descrittiva e storica si era trasformata in una 'scienza della Terra' predittiva e causale. La sua università fu tra le prime a cambiare nome al suo corrispondente dipartimento.

La geologia, disciplina complessa che nel passato non aveva potuto produrre altro che una fase iniziale di raccolta dei dati, era ora in grado di sviluppare previsioni e correlazioni precise, quali non si erano mai viste in precedenza. La genesi della teoria, la formulazione delle previsioni e la verifica di queste, ossia la potente essenza del metodo scientifico, facevano ora parte della nuova geologia.

Radarastronomia dei pianeti

Un'altra rivoluzione scientifica, molto diversa da quella della tettonica delle placche, ebbe luogo con l'avvento di una tecnologia completamente nuova, la radioastronomia, che si intrecciò ben presto con la radarastronomia planetaria. In questo caso la rivoluzione non risiedeva tanto nella comparsa di una nuova teoria complessiva, in grado di abbracciare tutta una serie di nuove osservazioni fino ad allora inspiegabili, quanto nello sviluppo di una nuova tecnica in grado di farci percepire l'Universo in modo nuovo, a lunghezze d'onda diverse da quelle registrate dall'occhio umano, e nelle inedite osservazioni rese possibili dalla nuova strumentazione.

Dal punto di vista del metodo scientifico, lo sviluppo della radarastronomia va grosso modo di pari passo a quello della tettonica delle placche. Come per la geologia prima della tettonica delle placche, la radioastronomia ebbe una fase iniziale perlopiù descrittiva tipica della storia naturale, una raccolta di dati con poco contenuto teorico; inoltre, come la geologia divenne scienza della Terra, la radioastronomia si trasformò nella radarastronomia planetaria sperimentale, in cui gli scienziati trasmettevano attivamente segnali e prendevano il controllo dei parametri sperimentali.

Si può anche paragonare gli inizi della radarastronomia con il Manhattan Project per la costruzione della bomba atomica. La Gran Bretagna investì molto nelle ricerche sul radar durante la seconda metà degli anni Trenta, e gli scienziati avevano già inviato impulsi radio fino alla ionosfera, deducendo dal tempo di ritorno l'altezza dello strato riflettente. Tra il 1926 e il 1938 il numero di articoli pubblicati su ricerche che riguardavano la ionosfera raddoppiò ogni tre anni. L'idea di utilizzare questi impulsi di energia come 'raggi della morte' si riconvertì ben presto nella più realistica rilevazione degli aerei nemici e nella determinazione della loro posizione. Gli aerei da guerra inoltre avevano bisogno della visione radar per poter operare di notte, e gli inglesi svilupparono il magnetron, in grado di generare microonde molto più potenti di quelle prodotte dai tubi a vuoto.

Nel 1940 una missione tecnico-scientifica inglese portò in America quello che fu definito il carico più prezioso di tutti i tempi: uno dei primi dieci magnetron costruiti. Venne rapidamente allestito un Laboratorio delle radiazioni nel Massachusetts Institute of Technology (MIT), presso il quale verso la fine della guerra lavoravano quasi 4000 persone. Vennero anche assegnati contratti ad altri 16 college e università, a istituti di ricerca privati e alle principali società radio-industriali; alcuni settori militari, inoltre, portavano avanti le loro ricerche. La ricerca americana sui radar durante la Seconda guerra mondiale era quasi sulla stessa scala del Progetto Manhattan. Gli strumenti sviluppati durante la guerra erano così potenti che John De Witt, dello U.S. Signal Corps, riuscì nel 1946 a rilevare onde radar riflesse dalla Luna.

Se però le origini della radarastronomia sono quelle della Big science, nella seconda metà del XX sec. essa si trasformò in qualcosa di meglio catalogabile come 'Piccola scienza', in termini di personale, finanziamenti e pubblicazioni, anche se non nella strumentazione: grandi apparati, ma non necessariamente Big science.

Gli sviluppi della radioastronomia giocarono un ruolo anche nelle ricerche sulla ionosfera e si mescolarono a quelli della radarastronomia planetaria. Già nel 1932, Karl Jansky, un ingegnere americano che lavorava presso la Bell Telephone Company, studiando le scariche elettrostatiche nell'atmosfera ai fini delle comunicazioni tra navi e delle trasmissioni radio transatlantiche, rilevò dei 'disturbi elettrici di origine extraterrestre'. Aveva notato che la direzione di provenienza di un sibilo persistente che sentiva in cuffia si muoveva nel cielo e coincideva con il centro della Galassia.

Gli astronomi tuttavia non mostrarono inizialmente alcun interesse nella scoperta delle emissioni radio dal centro della Galassia, né i superiori di Jansky ai Bell Laboratories, di mentalità molto pratica, lo incoraggiarono a proseguire in questa linea di ricerca, e di fatto si rifiutarono di accogliere la sua richiesta di costruire un'antenna più grande, piatta, per uno studio più approfondito.

Grote Reber, un ingegnere americano che si descriveva come 'appassionato radioamatore e fanatico delle comunicazioni a distanza', cominciò a interessarsi alla radioastronomia dopo aver letto gli articoli originali di Jansky del 1932 e 1933. Spendendo poche migliaia di dollari, Reber costruì nel giardino di casa a Wheaton, in Illinois, un'antenna radio orientabile del diametro di una decina di metri, per studiare l'intensità delle radiosorgenti in diverse posizioni nel cielo: si trattava del primo radiotelescopio progettato per osservazioni radioastronomiche. Reber pubblicò i suoi primi risultati nel 1940 sull'"Astrophysical journal", presentando questa nuova radioastronomia agli astronomi, i quali erano d'altronde in gran parte indifferenti a questo nuovo tipo di osservazioni.

Una delle prime applicazioni della radioastronomia fu lo studio dell'atmosfera terrestre. Negli anni Trenta si era ipotizzato che le fluttuazioni osservate nei segnali radio potessero essere causate da elettroni e ioni originati da qualche meteora nel suo cammino. Durante la guerra, poi, si cercava di seguire i razzi V2 tedeschi mediante le loro riflessioni radar, e una delle spiegazioni proposte per spiegare le molte false eco che si producevano si basava sulle scie ionizzate delle comete (le onde radar sono onde radio relativamente corte). James Hey, un fisico inglese, cominciò a studiare l'impatto delle meteore sulla ionosfera, e nel 1946 stabilì una correlazione tra le eco radar e lo sciame meteorico delle Giacobinidi. Nel frattempo anche Bernard Lovell, della University of Manchester, presso i Nuffield Radio Astronomy Laboratory, Jodrell Bank, usando una strumentazione avuta dai militari, nel corso di una ricerca sui raggi cosmici rilevò eco radar dalle scie di ionizzazione delle comete. I risultati di Lovell furono confermati dai ricercatori canadesi della Divisione di ingegneria elettrica e delle comunicazioni del Consiglio delle ricerche della Marina, e dagli americani del Laboratorio di radiotrasmissione della Stanford University, che ricevevano finanziamenti da tutte e tre le Armi delle Forze armate per un ampio ventaglio di ricerche, compreso un programma di studi sulla ionosfera. Il preside di ingegneria a Stanford, Frederick E. Terman, si era trasferito dopo la guerra, proveniente dal Radio research Laboratory della Harvard University.

Negli anni Cinquanta Lovell propose una modifica al progetto del nuovo grande radiotelescopio da lui stesso proposto, che lo dotava di una rete a maglie più fitte e di una piena manovrabilità, contribuendo a renderlo appetibile per i militari in vista di ulteriori finanziamenti. Il telescopio doveva far parte di un sistema per seguire la rotta dei missili balistici, e doveva dar luogo a ricerche rilevanti per lo sviluppo dei sistemi di navigazione per i bombardieri strategici. La richiesta non fu accolta, ma le modifiche al progetto andarono avanti, all'insaputa di Lovell. Il Jodrell Bank fu salvato dal disastro finanziario dallo Sputnik, dalla sonda lunare americana del 1958 e dalla possibilità di seguire la rotta di entrambi.

Oltre alla scia di ionizzazione delle meteore, nel lavoro svolto durante la guerra Hey aveva raccolto anche alcune emissioni radio dal Sole. Gli era stato assegnato il compito di analizzare le tecniche di disturbo radar usate dai tedeschi, dopo che nel 1942 alcune loro navi da guerra erano riuscite a uscire velocemente dalla Manica grazie ai disturbi radar attivati dalla costa francese. Dopo un paio di settimane un radar antiaereo inglese subì una forte azione di disturbo; Hey si rese conto che la massima interferenza sembrava provenire dalla direzione della posizione assunta dal Sole nel suo moto diurno apparente. Consultando il Royal Observatory egli venne a conoscenza del fatto che una macchia solare eccezionalmente attiva stava attraversando proprio allora la superficie del Sole. Fu solo dopo aver scritto una relazione sulla scoperta delle emissioni radio dal Sole che Hey venne a sapere della scoperta precedente, e in qualche misura simile, da parte di Jansky delle emissioni radio dal centro della Galassia. In entrambi i casi l'accertamento di fenomeni nuovi venne dallo studio di effetti di interferenza sul funzionamento di sistemi di interesse pratico.

Un altro modo per studiare la trasmissione delle onde radio attraverso la ionosfera consisteva nell'indirizzarle contro la Luna per poi misurare l'intensità con cui tornavano indietro. L'Aviazione militare americana prese in considerazione la possibilità di usare la Luna come parte di un sistema di comunicazione a lungo raggio e decise di finanziare la ricerca nel settore, compresa quella al Jodrell Bank. Negli anni Sessanta l'impianto del Jodrell Bank era in grado di trasmettere, attraverso la Luna, voce e musica al Sagamore Hill Radio Observatory, del Centro di ricerca dell'Aeronautica militare a Cambridge nel Massachusetts. Anche la sezione di radioastronomia del Laboratorio di ricerca della Marina militare stava sperimentando l'invio di microonde sulla Luna, nella speranza di poter determinare con i segnali di ritorno la posizione relativa di un insieme di punti sulla Terra. Di fatto, però, ai fini del sostegno e della spinta alla ricerca sulla radarastronomia planetaria, l'utilizzazione della Luna per comunicazioni radio servì meno degli studi precedenti sulla ionosfera e sulle scie delle meteore.

Gli studi sulle attenuazioni delle eco radar dalla Luna stimolarono ricerche più approfondite sui meccanismi di diffusione verso la Terra delle onde radar da parte della Luna, e di conseguenza lo sviluppo di tecniche radar specifiche per lo studio dei pianeti, in grado di rivelare le caratteristiche della loro superficie: una superficie molto irregolare allarga lo spettro in frequenza dell'eco più di quanto non faccia una superficie liscia.

Negli anni Sessanta gli apparati e le tecniche erano ormai sufficienti a permettere un rilevamento fine di distanze sulla superficie della Luna con il metodo 'range-Doppler'. Maggiore era la distanza del bersaglio, più lunga l'attesa per il ritorno dell'eco, e la distanza del picco di una montagna era leggermente inferiore a quella del fondo di un cratere. Progressi importanti nella strumentazione si dovettero agli sforzi dei militari, che erano interessati alla possibilità di lanciare un primo allarme tempestivo del lancio di missili balistici intercontinentali; il Lincoln Laboratory del MIT era particolarmente importante in questo settore. Il laboratorio era stato fondato nel 1951 dall'Aviazione militare, dalla Marina militare e dal Signal Corps, in risposta a un test nucleare sovietico del 1949, con l'obiettivo principale di sviluppare un sistema radar di primo allarme, prima contro i bombardieri nemici, e poi contro i missili balistici. Nel 1960 Gordon Pettengill, utilizzando il radar Millstone del MIT, ottenne una rozza immagine range-Doppler della superficie lunare. Il National Astronomy and Ionosphere Center di Arecibo a Porto Rico, messo in funzione nel 1963, aveva un fascio radar molto più sottile, e ben presto fu in grado di produrre una mappa range-Doppler del cratere lunare Tycho di qualità paragonabile all'immagine ottica.

I radioastronomi estesero presto i loro interessi dalla Luna ai pianeti. Nel 1958 il Lincoln Laboratory annunciò di aver raccolto con successo un'eco radar da Venere (in realtà l'annuncio non era corretto, ma questo si sarebbe scoperto dopo molti anni). Durante una conversazione informale a pranzo alcuni ricercatori si erano resi conto che gli strumenti erano ormai abbastanza potenti da provare a raggiungere Venere, e così avevano tentato. L'elemento di novità cruciale era il maser (microwave amplification by stimulated emission of radiation), un nuovo dispositivo di amplificazione a stato solido di importanza paragonabile al magnetron del periodo bellico e al transistor. Il presidente Eisenhower salutò l'esperimento come "un risultato notevole nella nostra avventura pacifica nello spazio". Di certo era un risultato benvenuto dopo il fallimento di tutti e quattro i lanci lunari Pioneer del 1958, che aveva lasciato i sovietici in vantaggio riguardo al numero di successi nei lanci di satelliti. Nel 1959 il Jodrell Bank, con il suo nuovo radiotelescopio da 76 m, annunciò (anche in questo caso erroneamente) di aver riprodotto con successo l'esperimento sulla riflessione radar da Venere. Fu il Jet Propulsion Laboratory (JPL), California Institue of Technology (Caltech), che nel 1961 vi riuscì effettivamente. Il JPL era stato fondato nel 1936 per lavorare sui missili, ma nel 1958 divenne un laboratorio della NASA e cominciò a occuparsi delle reti di comunicazioni satellitari; si occupava anche dell'installazione di antenne per la ricezione di segnali di telemetria dai satelliti militari. L'esperimento che riguardava Venere venne considerato come un test della strumentazione, in particolare in vista della comunicazione con il veicolo spaziale Mariner, che doveva di lì a poco essere inviato su Venere. Il viaggio nello spazio verso Venere era veramente enorme, e implicava trasmittenti molto più potenti e ricevitori estremamente sensibili. Venere si trova a circa 42 milioni di chilometri dalla Terra nel punto di minima distanza, mentre la Luna dista solo 384.000 km circa. Nel 1964 poche caratteristiche topografiche erano rilevabili su Venere, probabilmente solo catene montuose; il suo spesso strato opaco di nubi, che aveva impedito all'astronomia ottica di rilevare il periodo di rotazione, cedeva ora al radar: sorprendentemente, Venere ha una rotazione 'retrograda', ruota cioè in direzione opposta a quella del moto di rivoluzione intorno al Sole.

La prima rilevazione radar di Mercurio, che si trova a una distanza doppia dalla Terra rispetto a Venere, fu annunciata da scienziati russi nel 1962. Gli astronomi americani scoprirono nel 1965 che il periodo di rotazione di Mercurio non era di 88 giorni come si era creduto, ma di 59 giorni.

La prima rilevazione radar di Marte avvenne nel 1963, a oltre cento milioni di chilometri, il 20% in più della distanza di Mercurio. Gli studi su Marte effettuati mediante il radar riuscirono a evidenziare le irregolarità della superficie del pianeta con una precisione maggiore rispetto a quella della strumentazione ottica, e nel 1976 la NASA si rivolse quindi alla radarastronomia come ausilio per la scelta dei possibili siti di atterraggio su Marte per le due sonde Viking. Marte era comunque troppo lontano per ricostruire una cartografia radar, inoltre i dati radar sulle irregolarità medie della superficie erano più difficili da interpretare delle immagini convenzionali e pertanto alla fine non furono quasi utilizzati dalla NASA per la scelta dei siti di atterraggio.

La radarastronomia planetaria fu più utile per raffinare le misure di distanza all'interno del Sistema solare. In precedenza, le distanze dei pianeti erano state calcolate dalla misura angolare della posizione sul piano bidimensionale del cielo. Ora si potevano misurare le distanze direttamente attraverso i dati range-Doppler nella terza dimensione. La competizione che caratterizzò la guerra fredda mise gli scienziati russi molto sotto pressione, analogamente a come aveva spinto gli scienziati americani e inglesi ad annunciare prematuramente di aver rilevato le riflessioni radar da Venere. Nel 1961 gli scienziati russi si precipitarono a pubblicare sulla "Pravda" e sulla "Izvestiia" una stima della distanza di Venere dalla Terra, tanto diversa dalle altre che uno scienziato del JPL si congratulò ironicamente con i russi per la scoperta di un nuovo pianeta, visto che certamente non si poteva trattare di Venere. Nuove misure più precise della distanza erano cruciali per il successo delle correzioni da apportare alla rotta del Mariner 2 di lì a un anno; usando il vecchio valore il Mariner avrebbe oltrepassato Venere. Ben presto l'International Astronomical Union adottò la distanza determinata mediante il radar.

L'uso forse più utile del radar si è avuto nello studio della Terra dai satelliti, a partire dal 1978, sia in geologia sia in agricoltura, idrologia e oceanografia.

Reduce dalla conquista di Venere all'inizio degli anni Sessanta, la radarastronomia planetaria sembrava avere un futuro in espansione. Eppure mai si ebbero, in questo settore, più scienziati attivi, più pubblicazioni, o apparati sperimentali maggiori di quanti ve ne fossero negli anni Sessanta.

A differenza dei raggi X, per esempio, le onde radar vengono scarsamente attenuate dall'atmosfera terrestre, e perciò i telescopi basati a terra sono in genere sufficienti (anche se i dati radar presi durante il passaggio ravvicinato di un veicolo spaziale a un pianeta forniscono informazioni utili). La NASA continuò a finanziare progetti di ricerca con obiettivi specifici, e basati a terra, mentre i grandi finanziamenti prendevano il volo per lo spazio. Finanziò comunque un miglioramento dell'antenna radio e radar della Cornell University di Arecibo a Porto Rico, nel 1971, che costò soltanto 3 milioni di dollari e avrebbe permesso una rilevazione cartografica della superficie di Venere. Il telescopio fu anche di supporto alla missione Viking su Marte del 1975 e alla rilevazione di due delle lune di Giove, già scoperte per primo da Galilei. Il finanziamento per il Viking terminò dopo un anno e la radarastronomia planetaria continuò il suo declino.

Alla fine del decennio c'erano a malapena una decina di radarastronomi planetari attivi negli Stati Uniti. L'Osservatorio di Arecibo era praticamente l'unico telescopio attivo, con il quale lavoravano quattro astronomi, e anche lì la radarastronomia si aggrappava a uno spazio in contrazione all'interno della radioastronomia, che si occupava sempre di più di ricerche cosmologiche, al di là del Sistema solare e della Galassia. La quota di tempo riservata alla radarastronomia per l'uso dell'antenna di Arecibo scese dal 10% ca. della metà degli anni Sessanta a meno del 3% nel 1970. La situazione non era migliore al Jodrell Bank, dove Lovell considerava il declino del radar spiacevole ma inevitabile. Il settore era praticamente andato in rovina, o al più si era attestato su un regime stabile, ma a livelli molto bassi.

Anche il numero di pubblicazioni conferma la fioritura iniziale e la condizione finale della radarastronomia planetaria; l'apice dell'attività nel settore si ebbe negli anni Sessanta. La prima rivista scientifica specialistica del settore, "Planetary and space science", nacque nel 1959, seguita da "Earth and planetary science letters" nel 1966. Nel 1964 l'American Geophysical Union costituì un gruppo al suo interno dedicato alle scienze planetarie.Tra il 1958 e il 1994 sono stati pubblicati circa 272 articoli, di cui oltre 50 apparvero nella prima e nella seconda metà degli anni Sessanta; in seguito il numero di pubblicazioni si attestò a circa 30 per quinquennio, indicando che il settore aveva raggiunto i limiti naturali della sua crescita. Tra il 1961 e il 1964 erano in attività cinque apparati sperimentali importanti; nel 1975 ne erano rimasti solo due, e dal 1978 al 1986 soltanto uno, l'Osservatorio di Arecibo, che con l'avvio delle sue attività aveva provocato un improvviso ma temporaneo incremento nel numero di pubblicazioni. Dagli anni Sessanta, il numero di scienziati coinvolti nella radarastronomia e quello delle loro pubblicazioni è precipitato.

In netto contrasto con la radarastronomia planetaria, i numeri dell'astronomia X continuarono a crescere. Nel 1962 fu pubblicato un solo articolo sull'argomento, ma un decennio dopo furono 311; soltanto 4 dei 507 astronomi americani nel 1962 lavoravano con i raggi X, mentre erano diventati 170 su 1518 dieci anni dopo.

L'astronomia X decollò dopo la Seconda guerra mondiale, inizialmente 'a bordo' delle V-2 tedesche catturate, in grado di innalzarsi al di sopra dell'atmosfera assorbente della Terra. Gli scienziati americani scoprirono che, come previsto, il Sole aveva una debole emissione di raggi X; c'era d'altra parte scarsa fiducia riguardo alla possibilità che ulteriori osservazioni dei raggi X potessero portare altri risultati interessanti.

All'indomani dello Sputnik, comunque, c'era un eccesso di fondi governativi per la ricerca astronomica, rispetto al numero di scienziati creativi in grado di utilizzarli. Fu in questa situazione che lo scienziato italiano Riccardo Giacconi avviò il suo successo. Giacconi aveva completato gli studi in fisica dei raggi cosmici presso l'Università di Milano, lavorò in seguito per la società privata American Science and Engineering, e poi presso l'Harvard-Smithsonian Observatory, prima di diventare il primo direttore dello Space Telescope Institute, dal 1981 al 1993. Dal 1993 al 1999 ha diretto lo European Southern Observatory, per diventare poi presidente della Associated Universities Inc., che gestiva il National Radioastronomical Observatory. Ha ricevuto il premio Nobel per la fisica nel 2002.

Nel 1960, con fondi provenienti dai Laboratori di ricerca dell'Aeronautica militare americana a Cambridge, Giacconi scoprì la prima sorgente cosmica di raggi X. La NASA finanziò allora un programma sistematico di indagine con i missili e un satellite dedicato esclusivamente all'astronomia dei raggi X, che fu lanciato nel 1970. I suoi rivelatori scoprirono le pulsar binarie a raggi X, che sono stelle di neutroni che traggono energia dalla caduta di materia proveniente dalla stella compagna. Egli diresse la costruzione e la messa in opera del telescopio a raggi X Einstein, lanciato nel 1978, grazie al quale si scoprì che la maggior parte della radiazione X di background è dovuta a sorgenti singole. Giacconi avrebbe voluto chiamare questo satellite Pequod, nome tratto dal romanzo Moby Dick di Herman Melville, ma la NASA si rifiutò di associare il suo satellite a una balena bianca. Il paragone inevitabile tra Giacconi e l'egotismo del capitano Achab è indicativo delle doti necessarie a portare al successo un progetto scientifico complesso e di grandi dimensioni.

Sia l'astronomia X sia la radarastronomia planetaria erano in gran parte spinte non tanto dal desiderio di rispondere a specifiche domande scientifiche, quanto dalla disponibilità di tecnologie nuove, in particolare l'accesso a tipi migliori e più grandi di antenne e trasmittenti, e i nuovi osservatori satellitari. Buona parte dei finanziamenti venne inizialmente dai militari e in seguito dalla NASA. Tuttavia, mentre i finanziamenti alla radarastronomia planetaria si limitavano a quanto veniva giustificato dalle necessità delle missioni spaziali, l'astronomia X poté beneficiare dei satelliti della NASA nello spazio.

La prospettiva di ottenere nuove informazioni sui pianeti e sulle lune di Giove e Saturno ormai non sembra più sufficiente a determinare finanziamenti cospicui per la radarastronomia. La scoperta di asteroidi e comete in pericoloso avvicinamento alla Terra potrebbe risultare la migliore opportunità in futuro per raccogliere fondi. Luis W. Alvarez e suo figlio Walter, della University of California, hanno ipotizzato che l'impatto di un gigantesco asteroide sia stato responsabile dell'estinzione di massa dei dinosauri sulla Terra 65 milioni di anni fa. La prova chiave prodotta a favore della loro tesi consiste nella concentrazione eccezionalmente alta di iridio in uno strato argilloso presso Gubbio, in Italia, che risale alla fine del Cretaceo, circa 65 milioni di anni fa: l'iridio è infatti abbondante negli asteroidi. Molto più controversa è la tesi secondo cui estinzioni di massa periodiche sarebbero causate da una stella compagna del nostro Sole, chiamata Nemesis dal nome della dea greca della giustizia. Si ipotizza che quando Nemesis passa attraverso la Nube di Oort, un alone di comete che circonda il Sistema solare, spinga milioni di queste fuori dalle loro orbite; l'attrazione del Sole richiamerebbe quindi le comete verso il centro del Sistema solare, dove alcune di queste entrerebbero in collisione con la Terra.

Retrospettiva

Negli anni Trenta dell'Ottocento, un francese in visita negli Stati Uniti, Alexis de Tocqueville, si disse perplesso sulla compatibilità tra la democrazia e il sostegno alle acquisizioni più teoriche e astratte della conoscenza umana. Fu solo dopo più di un secolo, dopo la Seconda guerra mondiale e la guerra fredda che ne derivò, che il Governo americano divenne un importante mecenate della scienza.

La Seconda guerra mondiale segna la nascita della Big science negli Stati Uniti, con finanziamenti cospicui e con aggregazioni numerose di scienziati e ingegneri che sondano la Natura con strumenti complessi e costosi. Le imprese scientifiche europee che avevano goduto nel passato del patrocinio delle monarchie trovavano ora un sostegno più democratico su una scala più ampia, in analogia con l'esperienza americana. I satelliti dell'Anno Geofisico Internazionale, il Progetto Mohole, la decisiva raccolta di dati che portò alla tettonica delle placche e la radarastronomia planetaria, furono tutti mossi da valutazioni di carattere militare e avviati con fondi militari. I loro risultati non erano però automaticamente garantiti: il Progetto Mohole naufragò tra incidenti politici ed errori di gestione; la radarastronomia planetaria non riuscì a trovare all'interno della NASA una nicchia che le assicurasse una espansione nel lungo periodo e subì un inevitabile declino.

Al contrario, l'astronomia X si è espansa in modo esponenziale, anche se le sue scoperte, principalmente di carattere cosmologico, risultarono poco rilevanti per le missioni della NASA all'interno del Sistema solare. Questa disciplina ha bisogno d'altra parte di osservatori su satellite, al contrario della radarastronomia, basata a terra. Inoltre, mentre spesso negli studi storici si tende a minimizzare il ruolo degli individui a favore di ineluttabilità di carattere economico, sociale e politico, ci si può chiedere che sorte avrebbe potuto avere il Progetto Mohole, o che cosa si sarebbe potuto ricavare da un grande radiotelescopio, nelle mani del tenace scienziato Giacconi. La Big science può anche essere formata da grandi gruppi di scienziati, ma rimane pur sempre il fatto che questi gruppi sono guidati e ispirati, nel bene e nel male, da individui. Infine, la scienza consiste in qualcosa di più di un insieme di strumenti, scoperte e teorie. Con l'avvento della tettonica delle placche, la geologia, scienza descrittiva, fu trasformata in una scienza della Terra causale e predittiva. Alla radice di questa importante rivoluzione scientifica troviamo interessi e finanziamenti militari, che hanno tuttavia determinato un cambiamento radicale nel modo di pensare e di operare degli scienziati.

CATEGORIE