Autori dello studio: Kailash C. Sahu, Jay Anderson, Stefano Casertano, Howard E. Bond, Martin Dominik, Annalisa Calamida, Andrea Bellini, Thomas M. Brown, Henry C. Ferguson, Marina Rejkuba Istituzioni: Space Telescope Science Institute, University of St Andrews, INAF, ESO e altri
Il primo buco nero solitario confermato dalla deflessione astrometrica
Per la prima volta nella storia dell’astronomia, è stata confermata l’esistenza di un buco nero di massa stellare completamente isolato, non legato a nessuna stella compagna. L’oggetto in questione, denominato OGLE-2011-BLG-0462, è stato individuato grazie a una rara combinazione di effetti gravitazionali osservati nel corso di oltre un decennio con il telescopio spaziale Hubble e una rete di 16 telescopi da Terra.
Fino ad oggi, tutti i buchi neri conosciuti nella nostra galassia erano stati scoperti tramite le interazioni con una stella vicina — spesso con emissione di raggi X o onde gravitazionali da sistemi binari in fusione. Ma OGLE-2011-BLG-0462 si è manifestato solo attraverso un lente gravitazionale microlensing, ovvero una temporanea amplificazione della luce di una stella sullo sfondo, provocata dal passaggio del buco nero sulla linea di vista.
Una lente gravitazionale durata quasi un anno
L’evento microlensing è stato eccezionalmente lungo, con una durata di circa 270 giorni. Questo ha permesso ai ricercatori di raccogliere dati con una precisione senza precedenti. Le osservazioni dell’Hubble Space Telescope, distribuite su 11 anni, hanno permesso di misurare lo spostamento apparente della stella di fondo — una deflessione astrometrica prodotta dalla massa del buco nero.
In parallelo, la fotometria raccolta da Terra ha fornito informazioni cruciali sulla parallasse dell’evento, cioè sulla deformazione del segnale dovuta al moto della Terra attorno al Sole. L’unione di questi due approcci ha portato a una misura molto precisa della massa dell’oggetto.
Un corpo invisibile di 7 masse solari
I risultati dell’analisi, aggiornati nel 2025 con nuovi dati Hubble, confermano che il corpo lente è un buco nero con una massa di 7.15 ± 0.83 masse solari, situato a una distanza di circa 1.52 ± 0.15 kiloparsec dalla Terra (circa 5.000 anni luce), nel cuore del rigonfiamento galattico. La sua velocità rispetto alle stelle vicine è di 51.1 km/s, suggerendo che potrebbe aver ricevuto un “calcio” durante l’esplosione di supernova che ha generato il buco nero.
Importante sottolineare che nessuna luce è stata rilevata in corrispondenza della posizione del buco nero nemmeno nelle osservazioni più recenti e profonde. Questo esclude la presenza di una stella compagna luminosa o di una nana bruna e rafforza la natura isolata dell’oggetto.
Nessun compagno, nemmeno lontano
Gli autori dello studio hanno inoltre cercato eventuali compagni stellari a distanze fino a 2.000 unità astronomiche (circa 300 miliardi di chilometri), senza successo. L’assenza di una sorgente luminosa co-movente con il buco nero esclude la presenza di compagni con massa superiore a 0.2 masse solari.
Conclusione
La scoperta e conferma di OGLE-2011-BLG-0462 rappresenta un risultato epocale per l’astrofisica moderna. È il primo buco nero di massa stellare confermato come isolato, scoperto non attraverso la sua emissione, ma attraverso gli effetti gravitazionali che esercita sullo spazio-tempo attorno a sé. Un risultato ottenuto con la sinergia di fotometria ad alta precisione, astrometria milliarcosecondica e analisi sofisticata delle immagini, che apre la strada alla rivelazione di molti altri buchi neri silenziosi nascosti nella nostra galassia.
Immagine della galassia NGC4214 ripresa dall’astrofilo spagnolo Carlos Segarra con un telescopio da 200mm F.4 somma di 25 immagini da 4 minuti.
Proseguiamo il nostro percorso fra le supernovae extragalattiche più luminose della storia ed arriviamo al dopo guerra con la SN1954A scoperta il 30 maggio 1954 dall’astronomo svizzero Paul Wild nella galassia irregolare NGC4214. Anche questa fu una supernova molto luminosa, una delle poche che riuscì a superare la mag.+10 (sono solo sette le supernovae che vantano questo primato e la SN1954A occupa la sesta posizione in termini di luminosità).
Negli anni ’40 l’astronomo tedesco naturalizzato statunitense Rudolph Minkowski suggerì la suddivisione degli eventi di supernovae in due distinte categorie: le Tipo I i cui spettri non mostravano la presenza dell’idrogeno e le Tipo II che invece lo evidenziavano. Successivamente queste due categorie furono suddivise in ulteriori sottoclassi. Le supernovae del Tipo I furono suddivise nelle Tipo Ia, nei cui spettri è presente il silicio, nelle Tipo Ib, dove è presente l’elio, e nelle Tipo Ic dove non è presente né il silicio né l’elio. Le supernovae di Tipo II furono invece suddivise nelle Tipo IIL, in base alla linearità della loro curva di luce, nelle Tipo IIP, per quelle che nella curva di luce mostravano un appiattimento chiamato Plateau e nelle Tipo IIn, le SN che mostravano invece delle linee strette (narrow) dell’idrogeno. Ebbene la SN1954A è stata la prima supernova della storia classificata come Tipo Ib.
Paul Wild fotografato all’Università di Berna il 13 gennaio 2006 da Valerie Chetelat.
Paul Wild nacque a Wadenswil vicino Zurigo in Svizzera il 5 ottobre del 1925 e morì a Berna il 2 luglio 2014. Dal 1944 al 1950 frequentò l’università di matematica e fisica a Zurigo. Nel 1951 si trasferì negli Stati Uniti in California dove lavorò fino al 1955 al California Institute of Technology conducendo ricerche su galassie e supernove sotto la guida del connazionale Fritz Zwicky. Vanta al suo attivo la scoperta di 94 asteroidi, 7 comete, 5 novae della nostra galassia e 49 supernovae. La SN1954A rappresenta la sua prima scoperta in fatto di supernovae e pertanto ne era particolarmente affezionato visto anche la notevole luminosità che raggiunse.
L’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
La galassia NGC4214 che ospitò questa importante supernova è una galassia irregolare posta nella costellazione dei Cani da Caccia, distante circa 10 milioni di anni luce, scoperta da William Herschel nel 1785. Per la sua forma irregolare, ricorda vagamente la Piccola Nube di Magellano.
Circolare IAUC n. 1453 del 4 giugno 1954 con la quale veniva comunicata la scoperta da parte di Paul Wild di una supernova di mag.+12,5 nella galassia NGC4214 in data 30 maggio 1954.Circolare IAUC n. 1455 del 22 giugno 1954 con la quale il direttore dell’Osservatorio di Bologna comunicava che la supernova scoperta da Paul Wild in NGC4214 era stata fotografata dall’astronomo Siro Petra all’Osservatorio di Loiano il 4 maggio 1954 con una luminosità pari alla mag.+11,8.
Venendo al racconto della scoperta, ci siamo trovati di fronte a delle incongruenze e difficoltà per stabilire la data precisa di scoperta. Nella lista del CBAT Central Bureau for Astronomical Telegrams dove sono annotate tutte le supernovae extragalattiche dal 1885 fino al 2015 (dal 2016 è entrato in funzione l’attuale TNS Transient Name Server) per la SN1954A viene riportata come data di scoperta il 10 aprile 1954. La circolare IAUC che invece menziona questa supernova è la n.1453 del 4 giugno 1954 comunicando la scoperta di una supernova di mag.+12,5 nella galassia NGC4214 da parte di Paul Wild al Mt. Wilson e Palomar Observatories in data 30 maggio 1954.
Perché questa grande differenza di quasi due mesi sulla data di scoperta (10 aprile – 30 maggio)? Abbiamo perciò visionato il Book del telescopio Schmidt da 18 pollici (45cm) di Monte Palomar e nella data del 30 maggio risulta l’immagine realizzata da Paul Wild sulla galassia NGC4214, ma nelle notti precedenti andando a ritroso fino al 10 aprile non risulta nessuna immagine su NGC4214. Per scrupolo abbiamo visionato anche il Book del telescopio Schmidt da 48 pollici (120cm) entrato in funzione a Monte Palomar nel 1948.
Questo storico telescopio, che nel 1987 fu intitolato a Samuel Oschin, ha realizzato le famose survey POSS I e POSS II ed infatti nel periodo che ci interessava dal 10 aprile al 30 maggio era utilizzato da George Abell impegnato nella prima delle due survey POSS. Anche la magnitudine massima raggiunta da questa supernova era un enigma: nella lista del CBAT veniva accredita della mag.+9,8 ma nella circolare di scoperta IAUC n. 1453 veniva dichiarata la mag.+12,5. Infine anche il primo spettro ripreso a Monte Wilson Observatory con il telescopio Hooker da 2,5 metri risaliva al 6 giugno 1954.
Primo spettro della SN1954A ripreso il 6 giugno 1954 dall’Osservatorio di Monte Wilson con il telescopio Hooker da 2,5 metri dove sono evidenti le linee dell’Elio a 5876A e 6678A tipiche delle supernovae di Tipo Ib.
A questo punto era chiaro che Paul Wild aveva scoperto la SN1954A in data 30 maggio 1954 però in qualche osservatorio, che non era né il Monte Palomar e né il Monte Wilson, dovevano esistere delle immagini di prediscovery con la prima immagine datata 10 aprile 1954.
riCurva di Luce della SN1954A calcolata Paul Wild ed estratta dall’articolo dell’Astronomical Institute Bern scritto proprio da Paul Wild nel 1960.
Nonostante i copiosi tentativi però non riuscivamo a trovare conferma alla nostra ipotesi e si stava diffondendo un certo sconforto finché rovistando nel web in cerca di articoli astronomici non è comparsa in maniera del tutto inattesa. In un articolo dell’Astronomical Institute Bern scritto proprio da Paul Wild nel 1960, tornato in Svizzera a lavorare al Zimmerwald Observatory, venivano analizzate tre supernovae da lui scoperte nel 1954 tra cui proprio la SN1954A. Wild scriveva appunto che l’aveva scoperta il 30 maggio su una lastra ripresa con il telescopio Schmidt da 18 pollici di Monte Palomar alle ore 7,09 TU e ringraziava il Dr. Cuno Hoffmeister, direttore del Sonneberg Observatory in Germania, che gli aveva fornito tre lastre che immortalavano NGC4214 con la supernova, riprese nel mese di aprile, con la prima datata 10 aprile 1954.
Dopo l’archivio fotografico dell’Harvard College Observatory, quello del Sonnegerg Observatory rappresenta il secondo archivio di lastre fotografiche astronomiche più grande al mondo. Queste tre lastre, unite ad una quarta lastra ripresa il 4 maggio 1954 di cui parleremo tra poco, permisero a Wild di calcolare la curva di luce, ma lui stesso scriveva: “Quanto sia stato luminoso esattamente il massimo, è difficile dirlo. Probabilmente si trovava tra le magnitudini fotografiche +9,1 e +9,9 e si è verificato tra il 16 e il 21 aprile.” In lavori più approfonditi realizzati negli anni ’70 è stato poi calcolato che il massimo fu raggiunto intorno al 19 aprile con la notevole mag.+9,8. Le sorprese però non finisco qui.
Controllando infatti le varie circolari IAUC di quel periodo ci siamo imbattuti nella circolare n.1455 del 22 giugno 1954 che riporta un’osservazione fotografica di questa supernova ottenuta in data 4 maggio 1954 dall’astronomo Siro Pietra con il telescopio Zeiss di 24 pollici (60 cm) dell’Osservatorio di Loiano (BO). Insomma così si gioca in casa, un’occasione davvero unica per entrare in possesso di un’immagine rara di questa importante superno a. Abbiamo perciò contattato l’Osservatorio di Loiano e con grande cortesia e disponibilità l’astronomo Albino Carbognani e la dott.sa Silvia Galleti responsabile dell’archivio dell’Osservatorio di Loiano hanno ritrovato quell’immagine nei loro archivi. Sono passati circa settanta anni ma per fortuna quell’immagine è ancora in perfetto stato.
Immagine della SN1954A ripresa dall’astronomo Siro Petra all’Osservatorio di Loiano il 4 maggio 1954 con il telescopio riflettore Zeiss da 60 cm e un tempo di posa di 27 minuti. Gentile concessione dell’Istituto Nazionale di Astrofisica (INAF) – Osservatorio di astrofisica e scienza dello spazio (OAS) di Bologna e Dipartimento di Fisica e Astronomia “Augusto Righi” – Università di Bologna.Particolare ingrandito dell’immagine della SN1954A ripresa dall’astronomo Siro Petra all’Osservatorio di Loiano il 4 maggio 1954 con il telescopio riflettore Zeiss da 60 cm e un tempo di posa di 27 minuti.
Una ciliegina sulla torta che ci riempie di gioia. L’immagine fu utilizzata da Wild insieme alle tre lastre del Sonnegerg Observatory per calcolare la curva di luce menzionata nell’articolo del 1960. Fiduciosi abbiamo quindi contattato anche il Museo del Sonneberg Observatory e dai loro enormi archivi ci hanno inviato quelle tre immagini ottenute nell’aprile del 1954. La qualità è inferiore rispetto a quella ripresa dall’Osservatorio di Loiano, perché lo strumento utilizzato è un piccolo astrografo Tessar con ottiche Zeiss di soli 47 mm di diametro e 165 mm di focale (F.3,5). Le tre immagini sono state ottenute su pellicola Orwo Agfa-Astro con la primissima immagine della famosa SN1954A realizzata il 10 aprile 1954 alle ore 0,15 TU.
Immagine della SN1954A ripresa il 10 – 23 – 25 aprile 1954 con un astrografo Tessar con ottiche Zeiss da 47mm di diametro e 165mm di focale (F.3,5) ottenuta su pellicola Orwo Agfa-Astro. La supernova è la stella al centro dell’immagine. Gentile concessione del Astronomiemuseum der Sternwarte Sonneberg.
Dalle gare interregionali sono stati selezionati novanta finalisti provenienti da tutta Italia. Si metteranno alla prova con quesiti astronomici: in palio il titolo nazionale e un posto nella rappresentativa italiana alle Olimpiadi Internazionali di Astronomia.
TERAMO, 22 aprile 2025 – Tutto è pronto per la XXIII edizione della Finale Nazionale dei Campionati Italiani di Astronomia, che si terrà dal 6 all’8 maggio 2025 a Teramo (in Abruzzo). Dopo un lungo percorso di selezione che ha coinvolto quasi 10mila studenti e studentesse in tutta Italia, i novanta migliori talenti dell’astronomia si sfideranno nella risoluzione di problemi teorici e di casi pratici per conquistare il titolo nazionale. Promossa dal Ministero dell’Istruzione e del Merito, la competizione è organizzata dalla Società Astronomica Italiana (SAIt) e dall’Istituto Nazionale di Astrofisica (INAF). Quest’anno il Liceo Scientifico Statale “Albert Einstein” di Teramo ospiterà le prove ufficiali, confermandosi centro nevralgico dell’evento.
La cerimonia di apertura si terrà martedì 6 maggio 2025 a Giulianova (TE), alla presenza di autorità istituzionali e accademiche abruzzesi e nazionali. Moderatore d’eccezione sarà il giornalista e scrittore Angelo De Nicola. Durante l’evento, la prof.ssa Marica Branchesi (ordinaria di Astrofisica al GSSI – Gran Sasso Science Institute), terrà una lectio magistralis dal titolo “Una nuova esplorazione dell’Universo attraverso le onde gravitazionali”, offrendo al pubblico un emozionante affaccio sull’universo più estremo.
Mercoledì 7 maggio, presso il Liceo Statale “A. Einstein” di Teramo, i finalisti e le finaliste si cimenteranno in una competizione di alto livello, confrontandosi con sfide complesse per le quali dovranno mettere in campo tutte le proprie abilità e competenze in astronomia, astrofisica e matematica applicata. Nello specifico, la finale consisterà in una prova teorica (risoluzione di problemi di astronomia, astrofisica, cosmologia e fisica moderna) e in una prova pratica (analisi di dati astronomici).
Giovedì 8 maggio si terrà la cerimonia di premiazione della XXIII edizione dei Campionati Italiani di Astronomia. Saranno premiati diciotto studenti: cinque per ciascuna delle categorie Junior 1, Junior 2 e Senior, e tre per la categoria Master. A tutti loro verrà conferita la “Medaglia Margherita Hack” per l’edizione 2025 e il loro nome sarà inserito nell’Albo Nazionale delle Eccellenze. Inoltre, agli otto studenti che si classificheranno immediatamente dopo i vincitori sarà assegnato un diploma di merito, in riconoscimento dei risultati di rilievo conseguiti durante la competizione.
Tra i campioni nazionali saranno selezionati i componenti della squadra italiana che parteciperà alle Olimpiadi Internazionali di Astronomia e Astrofisica (IOAA), appuntamento prestigioso che riunisce i migliori giovani studenti del mondo: per la sezione senior è in programma a Mumbai (India) dall’11 al 21 agosto e per la sezione Junior a Piatra Neamt in Romania il prossimo ottobre.
“Le finali dei Campionati di Astronomia rappresentano la punta dell’iceberg della grande mole di lavoro che la SAIt, in collaborazione con l’Istituto Nazionale di Astrofisica, porta avanti per interessare all’astronomia gli studenti delle scuole secondarie di primo e secondo grado”, afferma la prof.ssa Patrizia Caraveo, presidente della Società Astronomica Italiana. “È uno sforzo corale della comunità astronomica italiana, reso possibile dal supporto del Ministero dell’Istruzione e del Merito – Direzione generale per gli ordinamenti scolastici, la formazione del personale scolastico e la valutazione del sistema nazionale di istruzione. Il successo della competizione è cresciuto negli anni – aggiunge – e testimonia l’interesse per una disciplina che, pur non essendo curriculare nel nostro ordinamento scolastico, per la sua valenza interdisciplinare va oltre il naturale legame con le leggi fondamentali della fisica. Le grandi rivoluzioni scientifiche hanno le radici nel cielo e i campionati di astronomia consentono di trasmettere ai ragazzi non solo il fascino delle stelle ma, anche, lo straordinario sviluppo della scienza”.
Autori principali: Nikku Madhusudhan (Università di Cambridge), M. Holmberg, S.-M. Tsai, G. J. Cooke, S. Sarkar, tra i numerosi co-autori. Osservatorio e strumenti: Telescopio Spaziale James Webb – strumento MIRI. Ente di riferimento: NASA, ESA, Agenzia Spaziale Canadese (CSA), Università di Cambridge.
Un’atmosfera ricca di idrogeno e un oceano nascosto sotto le nubi: il pianeta extrasolare K2-18 b, situato a 124 anni luce dalla Terra nella costellazione del Leone, continua a sorprendere gli scienziati. I nuovi dati del telescopio spaziale James Webb (JWST) hanno infatti rivelato segnali compatibili con la presenza di due molecole considerate biosignature: il dimetil solfuro (DMS) e il dimetil disolfuro (DMDS).
L’osservazione, condotta grazie allo strumento MIRI (Mid-Infrared Instrument) del JWST, ha prodotto il primo spettro di trasmissione in banda medio-infrarossa (6–12 μm) di un esopianeta potenzialmente abitabile. I risultati, pubblicati da un team guidato da Nikku Madhusudhan dell’Università di Cambridge, indicano una rilevazione di DMS e/o DMDS con una significatività statistica di circa 3σ, corrispondente a una probabilità di oltre il 99%.
Un pianeta oltre i confini terrestri
K2-18 b è circa 2,6 volte più grande della Terra e otto volte più massiccio. Orbita attorno a una nana rossa (spettro M2.5V), nella cosiddetta zona abitabile, ovvero dove le temperature potrebbero permettere la presenza di acqua liquida. Le sue caratteristiche lo rendono un perfetto candidato per il paradigma delle “hycean worlds” — mondi oceanici con atmosfera ricca di idrogeno, concetto introdotto da Madhusudhan nel 2021.
Rispetto ai pianeti simili alla Terra, questi mondi sono più facili da osservare: la loro atmosfera è più estesa e trasparente alle osservazioni spettroscopiche. I risultati finora ottenuti sembrano confermare che K2-18 b ospiti effettivamente un’atmosfera H₂-ricca compatibile con il modello hycean, con abbondanze di metano (CH₄) e anidride carbonica (CO₂), e senza tracce significative di ammoniaca (NH₃) o monossido di carbonio (CO).
Le firme chimiche della vita?
La grande novità di queste nuove osservazioni è la conferma indipendente, e a lunghezze d’onda differenti (mid-IR anziché near-IR), della presenza di DMS e DMDS, molecole che sulla Terra sono prodotte quasi esclusivamente da organismi viventi, soprattutto da batteri marini. In particolare, il DMS è considerato un potenziale biosignature robusto per pianeti con atmosfera riducente, ovvero ricca di idrogeno, come quelli hycean.
Tuttavia, a causa della somiglianza spettrale tra le due molecole, non è ancora possibile distinguerle con certezza. Secondo il team, almeno una delle due è presente in quantità significative (≳10 ppmv), un valore straordinariamente alto se paragonato ai livelli terrestri di pochi ppbv. Per stabilire se la loro origine sia biotica o abiotica saranno necessari ulteriori studi.
La sfida dei falsi positivi
Gli autori mettono in guardia contro interpretazioni affrettate: sebbene su K2-18 b non sia stata rilevata H₂S — un precursore necessario per produrre DMS abioticamente — esistono comunque scenari, seppur improbabili, di formazione non biologica. Ad esempio, reazioni chimiche in atmosfera o impatti cometari, come quelli che potrebbero aver portato DMS sulla cometa 67P/Churyumov–Gerasimenko (Hänni et al., 2024). Tuttavia, la quantità richiesta per spiegare le osservazioni supera di gran lunga quella ipotizzabile per processi puramente abiotici.
Prossimi passi
Il gruppo di Madhusudhan sottolinea l’urgenza di ulteriori osservazioni con JWST e di nuovi studi teorici e sperimentali. In particolare, è essenziale ottenere dati di laboratorio sui parametri spettrali del DMS e del DMDS in atmosfere H₂-ricche, a pressioni e temperature simili a quelle di K2-18 b. Questo permetterà di migliorare l’accuratezza dei modelli e ridurre l’incertezza nelle stime di abbondanza.
Una serie aggiuntiva di transiti osservati con JWST, stimano gli autori, potrebbe facilmente elevare la significatività delle rilevazioni a 4–5σ, un livello molto più robusto per una possibile biosignature.
Conclusione
Sebbene non possiamo ancora affermare di aver trovato vita oltre il Sistema Solare, lo studio di K2-18 b rappresenta uno dei passi più concreti mai fatti in questa direzione. La possibile presenza di DMS e DMDS — molecole complesse e indicatrici di attività biologica — in un pianeta oceanico, amplia sensibilmente i nostri orizzonti nella ricerca di biosfere aliene. Il JWST si conferma uno strumento fondamentale per questa nuova era dell’astrobiologia.
Questa immagine profonda del cluster della Vergine, realizzata da Chris Mihos e collaboratori con il telescopio Burrell Schmidt, rivela la luce diffusa presente tra le galassie appartenenti all’ammasso. Il nord è in alto, l’est a sinistra. Le macchie scure indicano le zone da cui sono state rimosse le stelle brillanti in primo piano. La galassia più grande visibile (in basso a sinistra) è Messier 87.
Crediti: Chris Mihos (Case Western Reserve University) / ESO
Un programma di citizen science ha portato alla scoperta di 34 nuovi candidati “blue blobs”, una rara popolazione di sistemi stellari isolati nel cluster di galassie della Vergine.
Nel vasto e dinamico ambiente del Virgo Cluster – uno dei più vicini e studiati agglomerati di galassie – un nuovo studio guidato da Michael G. Jones (University of Arizona) ha identificato 34 nuovi oggetti candidati appartenenti alla categoria dei cosiddetti “blue blobs”. Di questi, 13 presentano caratteristiche ad alta affidabilità, con sei già confermati tramite spettroscopia ottica grazie al telescopio Hobby–Eberly Telescope (HET).
I blue blobs sono nubi di formazione stellare isolate, estremamente povere di massa (meno di 100.000 masse solari), ma inaspettatamente ricche di metalli, immerse nel mezzo caldo intra-ammasso. Sono tra i prodotti più estremi del fenomeno del ram pressure stripping, un processo in cui il gas di una galassia in caduta in un cluster viene strappato via dall’interazione con il mezzo intra-ammasso (ICM). Il gas così rimosso, se sufficientemente denso, può collassare e dare origine a nuove stelle lontano dalla galassia madre.
“Le proprietà di questi oggetti sono incompatibili con quelle delle galassie a bassa massa” spiega Jones. “Sono troppo giovani, troppo isolati, e troppo ricchi in metalli per essere normali galassie nane.”
Una scoperta resa possibile dalla scienza partecipativa
Per identificare questi oggetti, il team ha lanciato un progetto su Zooniverse, coinvolgendo centinaia di volontari nella classificazione visiva di oltre 150.000 immagini ottiche e ultraviolette provenienti da tre grandi survey:
Next Generation Virgo Cluster Survey (NGVS) con il telescopio CFHT,
Dark Energy Camera Legacy Survey (DECaLS),
e dati UV del telescopio spaziale GALEX.
I partecipanti dovevano cercare strutture irregolari, isolate e molto blu, accompagnate da emissione ultravioletta: segnali tipici di formazione stellare recente. Il contributo umano si è rivelato cruciale, dato che i blue blobs hanno morfologie irregolari e bassa luminosità superficiale, caratteristiche che rendono difficile il loro riconoscimento da parte di algoritmi automatici.
Conferme spettroscopiche e proprietà sorprendenti
I sei blue blobs confermati presentano velocità radiali coerenti con l’appartenenza al cluster della Vergine e abbondanze metalliche elevate, incompatibili con galassie nane formatesi in isolamento. Queste caratteristiche confermano l’ipotesi che siano nati da gas pre-enriched, cioè gas già arricchito da precedenti cicli stellari, e strappato a galassie più grandi.
Inoltre, alcuni blue blobs sembrano essere le controparti ottiche di precedenti rilevamenti di nubi di idrogeno neutro (H I) privi di emissione ottica, noti come “dark clouds”. Questo collegamento è stato rafforzato dalla somiglianza delle velocità Hα dei blue blobs e delle loro rispettive nubi H I.
Una popolazione distribuita lungo i filamenti del cluster
La distribuzione spaziale dei nuovi candidati mostra che tendono a formarsi lungo i filamenti galattici che si estendono verso il centro del cluster, ma evitano le zone centrali più dense e calde. Questo suggerisce che la formazione di blue blobs sia favorita da condizioni ambientali intermedie: abbastanza dense da innescare il ram pressure stripping, ma non così estreme da distruggere il gas strappato prima che possa formare stelle.
“È significativo che questi oggetti non sembrino provenire da galassie appena entrate nel cluster,” sottolinea Jones. “Molti si trovano in regioni tipiche di membri già presenti da tempo, indicando che il stripping può agire anche dopo diverse orbite.”
Una nuova classe di oggetti, forse un nuovo paradigma
Nel complesso, questi risultati rafforzano l’idea che i blue blobs siano i cugini estremi delle galassie jellyfish: nubi stellari nate dal gas strappato, ma che si sono completamente staccate dal loro progenitore galattico. La loro giovinezza, composizione chimica e isolamento pongono sfide significative ai modelli attuali di evoluzione galattica nei cluster.
Ulteriori conferme spettroscopiche sono in corso con HET e il radiotelescopio GBT, ma per comprendere appieno la storia evolutiva di questi oggetti sarà necessario studiarne le popolazioni stellari risolte, un compito che solo il James Webb Space Telescope (JWST) potrà affrontare.
Questa immagine distribuita dalla China National Space Administration (CNSA) e pubblicata dall'agenzia di stampa Xinhua mostra la combinazione lander-ascender della sonda Chang'e-6, ripresa da un mini rover dopo l'atterraggio sulla superficie lunare, il 4 giugno 2024. Crediti: CNSA/Xinhua tramite AP, Archivio
I nuovi dati ottenuti dalla missione cinese Chang’e-6 potrebbero cambiare per sempre la nostra comprensione della Luna. Per la prima volta nella storia dell’esplorazione spaziale, sono stati riportati sulla Terra campioni prelevati dalla faccia nascosta del nostro satellite naturale, e in particolare dal vastissimo cratere South Pole–Aitken Basin (SPA). Le analisi chimiche di questi frammenti hanno portato alla prima stima diretta del contenuto d’acqua nel mantello lunare di quel settore, rivelando un valore sorprendentemente basso: appena 1–1,5 microgrammi per grammo di roccia.
Questo dato – pubblicato in un recente studio coordinato da ricercatori dell’Institute of Geology and Geophysics della Chinese Academy of Sciences (IGGCAS) e basato su misure condotte con tecniche di spettrometria a massa su scala micrometrica – suggerisce che il mantello della Luna possa presentare una dicotomia emisferica nella distribuzione dell’acqua, con la parte visibile (nearside) significativamente più ricca di componenti volatili rispetto a quella nascosta (farside).
“Questi nuovi valori costringono a rivedere le stime complessive sull’acqua nella Luna intera,” affermano gli autori del lavoro, “e forniscono supporto al modello di formazione per impatto gigante.”
Analisi ad altissima precisione
I ricercatori hanno esaminato frammenti basaltici raccolti dal suolo lunare CE6C0200YJFM001, un campione di 5 grammi restituito sulla Terra il 25 giugno 2024. Le analisi si sono concentrate su minerali come apatite e su inclusioni vetrose intrappolate in olivine e ilmenite, che possono trattenere tracce di acqua sotto forma di idrossili e di idrogeno isotopico (δD).
Grazie a strumenti come la NanoSIMS 50L e la microsonda elettronica JXA-8100 operanti presso IGGCAS, è stato possibile determinare la composizione isotopica dell’idrogeno con risoluzione nanometrica e correggere le misure per gli effetti della radiazione cosmica, sfruttando un’età di esposizione stimata in circa 108 milioni di anni.
Un mantello “più asciutto” sul lato nascosto
Confrontando questi dati con quelli ottenuti da precedenti missioni come Chang’e-5, Apollo e Luna, tutte riferite a campioni provenienti dalla parte visibile della Luna e dalla ricca regione del Procellarum KREEP Terrane, emerge un quadro inaspettato: il mantello sottostante al bacino SPA potrebbe essere fino a 10 volte più povero d’acqua rispetto alle zone campionate finora.
Questa possibile asimmetria emisferica – in parte speculare alla già nota distribuzione superficiale del torio (Th), altro elemento incompatibile – suggerisce che la faccia nascosta della Luna sia stata meno influenzata da processi magmatici ricchi in volatili, forse a causa della posizione rispetto all’epicentro dell’impatto gigante che avrebbe originato il nostro satellite.
Implicazioni per l’origine della Luna
I nuovi dati rafforzano le ipotesi a favore di un’origine per impatto gigante, secondo la quale un corpo delle dimensioni di Marte si sarebbe scontrato con la Terra primitiva, generando un disco di detriti che avrebbe poi dato origine alla Luna. In tale scenario, l’acqua sarebbe stata in gran parte dispersa dal calore dell’impatto, e la sua distribuzione successiva all’interno della Luna risulterebbe eterogenea, come ora sembra confermare la scoperta fatta da Chang’e-6.
L’isotopia dell’idrogeno nei campioni CE6, tuttavia, è coerente con quella già rilevata nei campioni del lato visibile (δD medio attorno a −123‰), suggerendo che la composizione isotopica del mantello lunare sia rimasta omogenea nel tempo, forse ereditata dalla cristallizzazione dell’oceano magmatico primordiale.
Verso nuove missioni lunari
Il campione CE6 rappresenta un punto di svolta. “Abbiamo ora un primo valore concreto per il contenuto d’acqua nel mantello della farside lunare,” spiegano gli autori. Ma restano ancora molte domande aperte: l’intera faccia nascosta è così secca? O il cratere SPA rappresenta un’eccezione geologica? Missioni future, come quelle previste dal programma Artemis della NASA e dalle successive fasi del progetto cinese Chang’e, potranno fornire nuovi campioni per confermare o smentire questa dicotomia idrica.
A cura di Lorenzo Barbieri dell’Associazione Astrofili Bolognesi
Il progetto RAMBo, nato dall’iniziativa di un gruppo di astrofili bolognesi, ha permesso la rilevazione delle radiometeore sfruttando la tecnologia analogica. L’evoluzione verso il digitale ha portato alla creazione di CARMELO, un sistema basato su ricevitori SDR e Raspberry Pi, capace di registrare e analizzare gli echi meteorici con maggiore precisione. Grazie a strumenti di elaborazione avanzati, CARMELO filtra i falsi positivi e consente il monitoraggio in tempo reale degli eventi, fornendo dati statistici sull’attività meteorica. L’espansione della rete osservativa, che già conta numerosi ricevitori, permetterà di affinare la ricostruzione delle traiettorie e delle velocità delle meteore. Con il coinvolgimento di scuole e astrofili, il progetto mira a rendere la radioastronomia meteorica accessibile a un pubblico sempre più ampio.
Indice dei contenuti
Gli Inizi
Tutto iniziò una quindicina di anni fa al termine di una serata di G-Astronomia svoltasi a casa mia con un gruppo di soci dell’Associazione Astrofili Bolognesi e con la compagnia di buon vino. Un nostro socio radioamatore, Marco Calzolari, ci mise a disposizione una radio Yaesu da tavolo che collegammo ad un’antenna autocostruita; con pochi semplici passaggi e attendendo alcuni minuti emerse dal rumore di fondo un piccolo “ping”: era il primo eco attribuibile ad una radiometeora ascoltato dai presenti. Si tratta del prodotto del fenomeno “meteor scatter”: quando un meteoroide penetra nell’atmosfera terrestre, l’attrito con le molecole d’aria provoca la vaporizzazione del corpo celeste, generando una scia luminosa nota come meteora. Oltre a questo spettacolo visivo, l’evento produce un cilindro di plasma composto da ioni ed elettroni liberi, risultato della disintegrazione degli atomi del meteoroide durante l’impatto con le molecole della ionosfera. Questa scia ionizzata ha la capacità di riflettere le onde radio, comportandosi come un vero e proprio specchio per le frequenze radio VHF (Very High Frequency). Di conseguenza, un trasmettitore che emette onde radio in queste frequenze può vedere il suo segnale riflesso dalla scia ionizzata, permettendo a un ricevitore sintonizzato sulla stessa frequenza di “osservare” la meteora, anche in assenza di visibilità direttaa.
Fig. 1 – Il segnale radio viene riflesso dal cilindro ionizzato delle meteore seguendo la legge della riflessione, quindi l’eco può essere rilevato solo se l’angolo di incidenza coincide con quello di riflessione. Il punto P rappresenta la zona di riflessione speculare, ossia il punto visibile nei ricevitori. La parte frontale della meteora, essendo semisferica, riflette il segnale in modo diffuso e più debole. Tuttavia, in casi rari di meteore ad alta energia, può verificarsi un’eco di testa, rilevabile dai ricevitori radio.
Nel corso dei decenni, numerosi radar sono stati progettati specificamente per lo studio delle meteore attraverso il meteor scatter. In Italia, ad esempio, il Consiglio Nazionale delle Ricerche (CNR) aveva installato un radar meteorico a Vedrana di Budrio, vicino Bologna, che purtroppo non è più operativo. A livello internazionale, il Canadian Meteor Orbit Radar (CMOR) è uno dei più noti strumenti dedicati a questo tipo di osservazionib, affiancato da altri progetti in Belgio, Giappone e Regno Unito. Questi radar permettono di raccogliere dati dettagliati sulle orbite e sulle caratteristiche fisiche delle meteore, contribuendo in modo significativo alla nostra comprensione dei piccoli corpi del sistema solare.
L’Esperienza nell’Analogico
Per noi astrofili, l’installazione e la gestione di un radar meteorico rappresenta però una sfida, sostanzialmente a causa dei costi elevati associati agli apparati trasmittenti e alla loro manutenzione. Nel tempo tuttavia si è trovato il modo per aggirare parte dell’ostacolo sfruttando trasmettitori esistenti e lasciando così agli appassionati solo il compito di gestire la ricezione. Un esempio è il trasmettitore militare GRAVES, situato in Francia, che grazie alla sua potenza è largamente utilizzato da anni dagli astrofili europei. Nel giro di poco tempo quindi avevamo installato lo stesso apparato testato durante la cena nella sede dell’AAB utilizzando una radio analoga a quella di Marco e montando un’antenna ad alto guadagno. Con molta soddisfazione, scelta la polarizzazione giusta, i “ping” piovevano copiosi. Avevamo realizzato il primo sistema radar “forward scatter” (o bistatico) dell’AAB. I radar sono comunemente di due tipi: il backward scatter è quello più noto e diffuso in cui trasmettitore e ricevitore sono vicini ed addirittura possono utilizzare la stessa antenna, prima illuminando il bersaglio e poi ricevendone l’eco, mentre il forward scatter, assai diffuso nelle osservazioni di meteore, ha una configurazione come quella descritta nell’immagine: in questo caso il trasmettitore è sempre in potenza ed i ricevitori (che possono essere più di uno) sono sempre in ascolto.
Fig. 2 – La configurazione forward scatter del nostro RAMBo.
Insieme a Fabio Balboni e Daniele Cifiello, altro radioamatore, ci siamo quindi posti il tema: è possibile trasformare il semplice ascolto in una osservazione sistematica e continuativa misurando e catalogando questi echi? Il passo successivo è stato l’acquisto di un “Arduino” e la sua programmazione in c++. Con esso il segnale audio in uscita dalla radio veniva digitalizzato, i suoi parametri (orario, ampiezza e durata) trascritti in un file csv e resi disponibili al trattamento numerico. Il progetto RAMBo (Radar Astrofilo Meteorico Bolognese), così fu chiamato, funzionava a pieno regime registrando circa 2500 eventi al giorno (quasi un milione all’anno).
Fig. 3 – Nelle Perseidi del 2020 RAMBo evidenzia un filamento dello sciame assente negli anni precedenti ed invece previsto dalle analisi numeriche degli astronomi riguardanti gli influssi gravitazionali dei pianeti maggiori sul complesso dello sciame.
Che fare con tutti questi dati? Qui entra in scena Gaetano Brando, allora nuovo giovane iscritto all’ associazione ed esperto di programmazione python. Con lui abbiamo iniziato a fare statistiche e analisi numeriche sui dati facendo sul campo quelle scoperte che, per quanto note agli esperti del settore, per noi erano assolutamente nuove, ad esempio l’andamento diurno tendenzialmente sinusoidale o la presenza degli sciami meteorici come mostrato in figura 7. Poi sono arrivate anche le prime soddisfazioni: con RAMBo era possibile osservare gli sciami meteorici e confrontarli con le previsioni numeriche elaborate dai professionisti; i nostri articoli al riguardo sono stati pubblicati su WGN il periodico dell’IMO (International Meteor Organization) e su e-Meteor news (giornale elettronico). Il nostro progetto è stato illustrato all’IMC: congresso internazionale dell’IMOc. Per quanto entusiasmante l’esperienza di RAMBo soffriva però di alcuni limiti: 1) Presenza di falsi positivi: fulmini, transitori elettrici sulla rete (accensione di luci al neon, motori elettrici ecc.. motori a scoppio nelle vicinanze auto, moto e soprattutto rasaerba!) 2) Misura non del segnale radio ma della sua conversione in segnale audio effettuata dalla radio, con conseguenti dubbi sulla linearità e fedeltà. 3) Standard non comune condizionati dai parametri della radio. 4) Difficoltà replicabilità: realizzare la scheda elettronica di interfaccia tra radio ed Arduino non era affatto banale. 5) Costo considerevole: tra antenna, radio di un certo livello, arduino e scheda analogica il prezzo saliva. Un’unica soluzione risolveva tutti i problemi: passare al digitale.
Passaggio al Digitale
E qui sono arrivati i problemi e le frustrazioni: maneggiare la tecnologia SDRd non è per nulla facile se non si è esperti del settore. Con Gaetano abbiamo impiegato mesi e mesi cercando di far funzionare un dongle SDR ed un computer come volevamo, abbiamo dedicato innumerevoli serate al problema con conseguenti dissapori con altri soci dell’associazione più interessati ad altre attività. Ad un certo punto abbiamo deciso di rinunciare finché a distanza di un anno Gaetano scrive un messaggio: “Ho trovato in rete una libreria di python che si interfaccia con i dongle SDR!”. È stata la svolta e dopo mesi e mesi persi in vani tentativi in poche ore abbiamo scritto il primo software per realizzare un ricevitore meteorico per le radiometeore! Era l’embrione di CARMELO (Cheap Amatorial Radio Meteoric Echoes Logger).
Fig. 4 – L’embrione di CARMELO: un PC, un dongle da 13 euro fissato su un pezzetto di legno, un cavo coassiale utilizzato come antenna (dipolo) ed una radiolina utilizzata come trasmettitore.
Il passo successivo è stato il passaggio ad un microprocessore (abbiamo scelto per il suo costo e la sua ampia diffusione un Raspberry) e la scrittura di un software che risolvesse tutti i punti deboli del precedente progetto analogico (RAMBo). CARMELO utilizza una Fast Fourier Transform (FFT) per elaborare il segnale ricevuto e identificare automaticamente gli echi meteorici, scartando i falsi positivi. Una volta identificato un evento meteorico, il sistema registra i dati in un piccolo file. Altri soci AAB, Paolo Fontana ed Antonio Papini, hanno attivamente collaborato all’assemblaggio del prototipo.
1. La rete CARMELo
A questo punto era necessario un server a cui spedire i dati ed un sito che li mostrasse e grazie all’incessante lavoro di Gaetano anche ciò è diventato realtà.
Fig. 5 – L’attuale realizzazione di un CARMELo In esso sono visibili: l’alimentatore che converte la tensione 220 V a 5 V (1), il Raspberry sovrastato dalla schedina monitoria (non indispensabile) che con i led mostra il funzionamento di CARMELo (2), il dongle SDR (3), l’LNA (Low Noise Amplificator), (4) il filtro bassa banda (5), il cavo d’antenna (6), il cavo ethernet per la trasmissione dei dati in internet (7) ed il coperchio (8). Il sistema è stato progettato per essere economico, consentendo a chiunque di partecipare all’osservazione radio delle meteore con una spesa relativamente contenuta (ricevitore SDR circa 210 euro, antenna VHF circa 60 euro). Con un assemblaggio semplice permette a qualsiasi astrofilo di installare una stazione ricevente digitale presso la propria abitazione o osservatorio, senza la necessità di strumenti professionali.
Gli eventi mostrati (in tempo reale) vanno dalle più piccole meteore sporadiche di pochi millisecondi di durata e che corrispondono a meteore di 7° od 8° magnitudine e perciò inosservabili sia ad occhio nudo che con le videocamere, fino ai bolidi e super bolidi, con i quali il grado di ionizzazione è assai elevato, quindi l’eco è molto lunga. Tuttavia, poiché la maggioranza dei ricevitori CARMELO è sita in Italia e quindi in forward scatter, l’80% degli eventi rilevati da CARMELO è sulle Alpi oppure a nord delle Alpi. A riprova di ciò mostriamo l’incrocio di dati osservativi nostri e visuali a cui si è dedicata Silvana Sarto altra socia AAB che con entusiasmo è entrata nel gruppo.
2. Il tasso orario
Oltre alle singole osservazioni CARMELO fornisce una pagina statistica, che permette di monitorare il tasso orario delle meteore con una risoluzione temporale di un’oraf. Con l’espansione della rete, potremo abbassare ulteriormente questa risoluzione, migliorando la precisione delle osservazioni. Oltre a ciò, l’analisi incrociata tra tasso orario e durata degli echi permette di studiare la distribuzione della massa all’interno degli sciami meteorici. Questo porta ad indagare l’età dello sciame in base alla simmetria della distribuzione delle masse. Ad esempio, proprio questo tipo di confronto fatto per lo sciame delle Quadrantidi a inizio 2025 ha evidenziato come questo sciame abbia una struttura a cilindro avente all’esterno un “guscio” di meteore più piccole, e all’interno un filamento di meteore di maggior massag. Questa caratteristica è tipica degli sciami relativamente giovani nei quali né le perturbazioni dei pianeti massicci né la radiazione solare (effetto di Poynting – Robertson) hanno ancora comportato la migrazione dei meteoroidi più massicci verso “la periferia” dello sciame facendo quindi perdere la simmetria originaria.
Fig. 6 – Meteore registrate da CARMELo e simultaneamente viste dalla rete visuale GMN. Il confronto è stato fatto su una quindicina di giorni.
Ogni mese viene preparato un bollettino: il “CARMELo monthly report” che riassume l’attività meteorica registrata dalla rete e caratterizza gli sciami principali, poi pubblicato su eMeteorNews e su eMetNJournal ed anche sull’ “Astrophisic data system”. Questo lavoro è a cura di Mariasole Maglione, astrofisica ed esperta di comunicazione in campo industriale astronautico, astrofila vicentina ed ultimo ingresso nel nostro piccolo gruppo di lavoro.
3. Le forme d’onda
Uno degli aspetti più innovativi è la possibilità di visualizzare le forme d’onda di ogni meteora in tempo reale. Si tratta di una novità assoluta nel campo dell’osservazione radio amatoriale, permettendo agli astrofili di ottenere informazioni sulla natura di ogni singolo evento. Analizzando le forme d’onda, gli osservatori possono determinare: – Se la meteora è satura (ovvero, se il segnale è talmente forte da creare un cilindro di plasma che si comporta come un corpo solido). – Se la meteora ha subito frammentazione, osservabile tramite variazioni ondulatorie del segnalei. – Se è energetica al punto da mostrare l’eco di testa, riconoscibile anche dal tipico effetto Doppler del segnale radio.
Fig. 7 – Il tasso orario nel primo mese del 2025: si nota l’andamento sinusoidale quotidiano delle meteore sporadiche, dovuto alla posizione dell’osservatore sul globo terrestre nel suo movimento di rotazione della terra. Si nota inoltre l’aumento del tasso orario in corrispondenza del previsto sciame delle Quadrantidi.Fig. 8 – Fra il tasso orario e la durata media degli echi meteorici tra l’1 e il 6 gennaio 2025, che ci ha permesso di descrivere la composizione dello sciame. Questa analisi è descritta nel nostro bollettino di gennaio.
Programmi per il futuro
1. Traiettorie e velocità
Fig. 9 – Esempio di forma d’onda Nei primi 100 millisecondi, il segnale proviene dalla sfera di plasma creata dall’avanzamento della meteora nella ionosfera. La frequenza (in verde) mostra l’effetto Doppler. Dopo circa 100 millisecondi, il meteoroide raggiunge il punto di riflessione P, perpendicolare alla visuale dell’osservatore. A questo punto, lo spostamento Doppler scompare e la riflessione del cilindro ionizzato sovrasta quella dell’eco di testa in allontanamento. Successivamente si notano le oscillazioni tipiche della frammentazione della meteora.
Uno degli obiettivi più ambiziosi è la ricostruzione delle traiettorie delle meteore. Questo è possibile grazie alla presenza di più osservatori distribuiti sul territorio, che ricevono il segnale riflesso dalla stessa meteora con un leggero ritardo temporale.
Fig. 10 – Alcuni partecipanti al gruppo di lavoro di CARMELo. Da sinistra a destra: Gaetano Brando (AAB), Lorenzo Barbieri (AAB), Mariasole Maglione (Gruppo Astrofili Vicentini).
Ricostruendo la traiettoria del segnale ed individuando gli n punti P di riflessione speculare corrispondenti agli n osservatori è possibile calcolare la velocità della meteora proprio confrontando il ritardo tra i fronti di salitaj. Abbiamo confrontato decine di meteore registrate simultaneamente dalla rete CARMELo e dalla rete di telecamere GMN (Global Meteor Network) ed effettivamente, le velocità calcolate considerando i ritardi temporali dei fronti d’onda coincidevano, entro margini di errore minimi, con le velocità calcolate tramite le immagini dell’osservazione visuale. La sfida per il futuro è quella di calcolare anche le traiettorie prescindendo dall’uso del confronto con il video. Sarà una sfida impegnativa: occorrerà individuare algoritmi complessi e probabilmente potrà rendersi necessario far ricorso anche alle reti neurali.
2. L’inquinamento radioelettrico
All’inizio del 2025 c’è stato un aggiornamento del software di CAR MELO. Con la nuova versione, la banda passante è stata ristretta a 20 kHz e gli apparati sono stati dotati di un nuovo e più efficace filtro software sui falsi positivi.
Fig.11 – Il segnale trasmesso da T viene ricevuto dagli n ricevitori R dopo una riflessione negli n punti di riflessione speculare P.
Dopo questo aggiornamento, la nostra attenzione si è concentrata sul rumore: perché ciò che tutti gli astrofili ed astrofotografi ben conoscono riguardo l’inquinamento luminoso è esattamente drammaticamente vero anche per l’inquinamento radioelettrico. La maggioranza dei nostri siti soffre della presenza di ponti radio, torri 4G o 5G, oltre ai trasmettitori televisivi e radiofonici, ma anche in stazioni riceventi in luoghi relativamente non inquinati abbiamo rilevato la novità di questi ultimi anni e cioè i satelliti per la telefonia da cellulari in orbita bassa. Di conseguenza, una modifica che a breve verrà introdotta sarà l’utilizzo di un filtro a banda stretta, in perfetta similitudine all’osservazione fotometrica o alla fotografia amatoriale.
3. La velocità del microprocessore
L’amico Roberto Lulli, ricercatore associato INAF nei progetti Space Debris e SETI in qualità di analista programmatore, ha proposto una modifica al nostro software al fine di utilizzare in parallelo i quattro core del microprocessore, dedicando ogni core ad uno dei vari compiti che attualmente CARMELo svolge in maniera seriale. Qualora questa modifica andasse in porto potremmo più che raddoppiare la velocità del ricevitore con conseguenti evidenti miglioramenti sia nella risoluzione temporale delle forme d’onda, sia dell’individuazione degli istanti dei fronti di salita ed anche del numero delle meteore rilevate. Roberto, che è anche insegnante di informatica all’ I.T.T.S. “G. & M. Montani” di Fermo (FM), ha coinvolto nell’idea gli studenti dei propri corsi, che hanno risposto mostrando molto interesse. È la prima volta che CARMELo entra in una scuola e speriamo che altre ne seguano.
4. L’ampliamento della rete
Fig. 12 – Osservazioni simultanee dello stesso evento da parte di diversi osservatori della rete CARMELO. In alto si notano i diversi istanti tra i fronti di salita. In basso la dislocazione geografica. Si può apprezzare un andamento da sud ovest verso nord est.
Da quanto detto finora emerge chiaramente che sia per quel che riguarda il tasso orario ed il conseguente studio degli sciami, sia per quel che riguarda la ricezione simultanea tra più ricevitori ed il conseguente lavoro su traiettorie e velocità delle meteore, l’ampliamento della rete potrebbe rappresentare un salto di qualità. Attualmente, la rete conta 13 ricevitori, dislocati in Italia, Regno Unito e USAk ed altre istallazioni sono attese in Croazia, a Porto San Giorgio e a Como, mentre interesse al progetto è stato mostrato da ricercatori in Catalogna. L’auspicio è che altri astrofili ed istituzioni vogliano entrare a far parte della rete osservativa. Per partecipare al progetto non servono competenze avanzate: basta un modesto investimento economico, una corretta installazione dell’antenna e tanta curiosità scientifica. Il ricevitore è pensato per essere autocostruitol, ma chi non volesse intraprendere il lavoro manuale può scriverci, lo metteremo in contatto con un autocostruttore di nostra fiducia. Ognuno può entrare a far parte della comunità dei radio osservatori meteorici tramite CARMELO! Tutte le informazioni per partecipare sono nel nostro sito www.astrofiliabologna.it/carmelo.
Fig. 13 – Installazione di un ricevitore
Riferimenti a) Cis Verbeeck, Jean-Louis Rault. Radio meteor observations. HANDBOOK FOR METEOR OBSERVERS: International Meteor Organization Edited byJürgen Rendtel 2022 b) https://fireballs.ndc.nasa.gov/cmor-radiants/index.html c) Barbieri, L. (2016)” An atenna,a radio and a microprocessor: which kinds of observation are possible in meteor radio astronomy?”.IMC – IMO Egmond, the Netherlands, 2-5 June 2016 – page 26 d) https://it.wikipedia.org/wiki/Software_defined_radio e) http://www.astrofiliabologna.it/graficocarmelo f) http://www.astrofiliabologna.it/graficocarmelohr g) Maglione M., Barbieri L. (2025)“January 2025 CARMELO report”, h) eMetN Journal https://ui.adsabs.harvard.edu/ i) W.G Elford, L Campbell: Effect of meteoroid fragmentation on radar observations ol meteor trails (ESAPSB2): NASA Astrophisic data system j) M.T. German: Utilizing Video Meteor Trails to Understand Radio Meteor Detection: WGN, the Journal of the IMO 51:4 (2023) k) http://www.astrofiliabologna.it/obs_on_line l) http://www.astrofiliabologna.it/about_carmelo
Un universo in rotazione per spiegare la discrepanza più controversa della cosmologia
Il cosiddetto Hubble tension, cioè il disaccordo tra la misura dell’espansione dell’universo da osservazioni locali e quelle derivate dalla radiazione cosmica di fondo (CMB), è oggi il più significativo punto critico del modello cosmologico standard ΛCDM. Mentre i dati del satellite Planck indicano un valore del parametro di Hubble di circa 67,4 km/s/Mpc, misure dirette su supernovae di tipo Ia osservate con il Hubble Space Telescope restituiscono un valore di circa 73 km/s/Mpc. La divergenza ha raggiunto un livello di significatività di 5σ, troppo elevato per essere attribuito a semplici errori sistematici.
In un nuovo studio pubblicato su Monthly Notices of the Royal Astronomical Society, un gruppo internazionale di ricercatori propone un’idea sorprendente quanto antica: e se l’universo ruotasse?
Una lenta rotazione per armonizzare le due cosmologie
I ricercatori, guidati da Balázs Szigeti (Eötvös Loránd University) e István Szapudi (University of Hawaii), hanno sviluppato un modello cosmologico che incorpora una rotazione su larga scala all’interno di un fluido oscuro – un’entità teorica che unifica materia oscura ed energia oscura. Utilizzando l’approccio di tipo Sedov–Taylor per risolvere le equazioni di fluido autogravitante (il sistema di Euler–Poisson), il team ha simulato l’evoluzione del parametro di Hubble sia in assenza che in presenza di rotazione.
Sorprendentemente, una rotazione lenta ma costante, con un valore attuale dell’angolo di velocità pari a ω₀ ≈ 0,002 Gyr⁻¹, è sufficiente a colmare il divario tra i due valori osservativi di H₀. Questo valore è compatibile con le osservazioni cosmologiche esistenti e, soprattutto, prossimo al limite massimo teorico che evita paradossi temporali come i loop causali chiusi.
Una rotazione compatibile con la fisica conosciuta
L’idea di un universo rotante non è nuova: già Kurt Gödel nel 1947 ipotizzò una soluzione rotante alle equazioni di Einstein. Tuttavia, tali modelli sono spesso incompatibili con le osservazioni della radiazione cosmica di fondo. Il modello proposto in questo studio, al contrario, si basa su una rotazione globale estremamente debole, sufficiente per produrre un effetto cumulativo sull’espansione cosmica senza introdurre anisotropie rilevabili.
Il valore iniziale della rotazione stimato al tempo della decoupling (quando si è formata la CMB) è ω(t_CMB) ≈ 3,54 Myr⁻¹, coerente con la fisica del periodo. Il modello predice inoltre che il contributo della rotazione diminuisce con l’espansione dell’universo, risultando oggi appena percettibile ma ancora dinamicamente rilevante.
Una proposta affascinante, ma ancora da testare
I risultati sono promettenti, ma gli autori sottolineano che si tratta solo di un primo passo. Il modello considera esclusivamente l’effetto della rotazione sul parametro di Hubble, senza ancora affrontare l’intero complesso di vincoli osservativi del modello ΛCDM, come la formazione delle strutture, le oscillazioni acustiche barioniche o l’abbondanza degli elementi leggeri.
Ulteriori ricerche, in particolare simulazioni N-body rotanti e trattamenti relativistici completi, saranno necessarie per valutare la compatibilità del modello con l’universo osservato.
A Mirandola torna la Space Week con mostre, conferenze e uno sguardo oltre le stelle
Per il terzo anno consecutivo, Latitude 44.5 – il progetto dell’astrofotografo e divulgatore Luca Reggiani, ben noto anche per i suoi interventi nei nostri video social – porta a Mirandola una settimana dedicata all’astronomia e all’esplorazione spaziale, con una mostra di astrofotografia a ingresso libero e un ricco programma di conferenze gratuite.
L’edizione 2025 si svolgerà dal 3 all’11 maggio nella suggestiva cornice della Sala Trionfini, in Piazza Ceretti 9, e sarà un’occasione unica per immergersi nelle meraviglie del cosmo attraverso immagini mozzafiato e approfondimenti scientifici accessibili a tutti.
🌌 La mostra di astrofotografia sarà visitabile per tutta la settimana, offrendo uno sguardo privilegiato sull’universo attraverso gli scatti di appassionati e professionisti.
📚 Il programma delle conferenze – organizzate in occasione della Giornata Mondiale dell’Astronomia – prevede otto incontri con esperti del settore, tra cui astrofisici, divulgatori, astronomi, storici della scienza e tecnici di osservatori astronomici. I temi spazieranno dalla ricerca di vita extraterrestre alla geopolitica dello spazio, passando per i grandi telescopi come Hubble, James Webb ed Euclid.
Tra gli appuntamenti da non perdere:
03 maggio: La (probabile) vita extraterrestre con Lorenzo Pelloni (Planetario di Modena)
04 maggio: Alla ricerca del tempo perduto: Euclid e JWST con Roberto Castagnetti (CosMo)
08 maggio: Le stelle: vita, morte e miracoli con Aldo Zanetti (astronomo)
11 maggio: Stelle erranti con Matteo Marchionni (astrofotografo)
🎫 Ingresso gratuito con posti limitati: per garantire la partecipazione è consigliata la prenotazione tramite il QR code disponibile in locandina o via Eventbrite.
Un’occasione imperdibile per chi desidera avvicinarsi all’astronomia o approfondirne i temi più attuali in un clima di curiosità e condivisione.
Vi aspettiamo numerosi sotto le stelle!
Luca “Orione” – Latitude 44º50’ Astrophotography IU4FNS – Amateur Radio Station
Rappresentazione artistica della sonda Lucy mentre sorvola l’asteroide troiano (617) Patroclus e il suo compagno binario Menoetius.
Lucy sarà la prima missione a esplorare gli asteroidi troiani di Giove – antichi residui del Sistema Solare esterno intrappolati nell’orbita del gigante gassoso. Crediti: NASA’s Goddard Space Flight Center / Conceptual Image Lab / Adriana Gutierrez
Cortesia: NASA’s Goddard Space Flight Center / Conceptual Image Lab / Adriana Gutierrez Lucy è la prima missione spaziale dedicata all’esplorazione degli asteroidi troiani, una popolazione di piccoli corpi celesti residui della formazione del Sistema Solare. Questi oggetti precedono o seguono Giove nella sua orbita attorno al Sole e potrebbero offrire indizi sull’origine dei materiali organici sulla Terra.
La sonda Lucy della NASA si avvicina al piccolo asteroide Donaldjohanson, nel cuore della Fascia Principale, a meno di 80 milioni di chilometri di distanza. Il sorvolo avverrà il 20 aprile alle 13:51 EDT (19:51 ora italiana), a una distanza ravvicinata di 960 km, rappresentando una vera e propria prova generale per la missione principale: l’esplorazione degli asteroidi Troiani di Giove, prevista nei prossimi anni.
Una tappa intermedia, ma fondamentale
Dopo il primo flyby del novembre 2023, che ha visto Lucy incontrare l’asteroide Dinkinesh e il suo satellite naturale Selam, questo secondo passaggio su Donaldjohanson permetterà di affinare manovre e strumenti in condizioni simili a quelle previste per gli asteroidi gioviani. Durante l’avvicinamento, Lucy ruoterà autonomamente per mantenere nel campo visivo il bersaglio, grazie al sistema di tracciamento terminale, e attiverà tutti e tre gli strumenti scientifici principali:
L’LORRI, la camera ad alta risoluzione in bianco e nero;
L’Ralph, spettrometro nel visibile e infrarosso;
L’TES, spettrometro a infrarossi termici.
Le osservazioni si interromperanno però 40 secondi prima del punto di massimo avvicinamento, per evitare che la luce solare troppo intensa danneggi i sensori: “Gli strumenti sono progettati per osservare oggetti illuminati da una luce solare 25 volte più debole rispetto a quella terrestre”, ha spiegato Michael Vincent, responsabile della fase di incontro presso il Southwest Research Institute (SwRI) di Boulder, Colorado. “Guardare verso il Sole in queste condizioni potrebbe rovinarli.”
Una manovra coreografica nello spazio
Dopo il sorvolo, Lucy effettuerà una rotazione per riorientare i suoi pannelli solari verso il Sole e, circa un’ora più tardi, ristabilirà il contatto con la Terra. Il ritardo delle comunicazioni – circa 12,5 minuti luce – impone una gestione completamente autonoma dell’incontro.
“Una delle cose più strane da comprendere di queste missioni nello spazio profondo è la lentezza della velocità della luce”, ha aggiunto Vincent. “Quando inviamo un comando per vedere le immagini scattate durante il passaggio, dobbiamo attendere 25 minuti prima di riceverle.”
Un asteroide giovane, una storia antica
Donaldjohanson, così battezzato in onore del paleoantropologo co-scopritore di Lucy, lo scheletro fossile che ha ispirato il nome della missione, è considerato uno degli asteroidi più giovani mai visitati da una sonda, con un’origine che risale a 150 milioni di anni fa, frutto di una collisione catastrofica.
“Ogni asteroide racconta una storia diversa, e insieme queste storie compongono il grande mosaico della storia del Sistema Solare,” ha commentato Tom Statler, scienziato del programma Lucy presso il NASA Headquarters. “Le osservazioni da terra ci fanno pensare che anche questo oggetto avrà molto da raccontare. E sono pronto a restare sorpreso, ancora una volta.”
Dietro le quinte della missione Lucy
NASA Goddard Space Flight Center: gestione missione e sviluppo dello spettrometro L’Ralph
Southwest Research Institute (Boulder, CO): direzione scientifica e fase operativa
Lockheed Martin Space: costruzione della sonda e controllo di volo
KinetX Aerospace e NASA Goddard: navigazione
Johns Hopkins Applied Physics Laboratory: progettazione di L’LORRI
Arizona State University: progettazione dello spettrometro termico L’TES
Lucy è la tredicesima missione del Discovery Program della NASA, coordinato dal Marshall Space Flight Center a Huntsville, Alabama.
Il Rubin Observatory ha installato la fotocamera LSST da 3200 megapixel, la più grande mai costruita, sul telescopio Simonyi in Cile. Il team internazionale sta completando la messa in servizio, raffreddando il sistema a –100 °C. Dal 2025, la fotocamera realizzerà il più grande film astronomico mai prodotto, con un'indagine decennale del cielo.
Installata la fotocamera LSST da 3200 megapixel: al via la mappatura decennale dell’Universo dal Cerro Pachón in Cile.
di Gaëlle Suter
In cima al Cerro Pachón, nel nord del Cile, un progetto ventennale giunge a un momento storico: la fotocamera LSST (Legacy Survey of Space and Time), il più grande sensore digitale mai costruito per l’astronomia, è stata installata con successo sul telescopio Simonyi Survey del Vera C. Rubin Observatory. Con i suoi 3200 megapixel, la camera permetterà una mappatura senza precedenti dell’Universo, offrendo dati fondamentali per comprendere fenomeni come materia oscura, energia oscura e l’evoluzione cosmica.
Realizzata presso lo SLAC in California, la fotocamera LSST rappresenta un capolavoro di ingegneria scientifica. Composta da 189 sensori CCD, è progettata per acquisire immagini ad altissima risoluzione con una sensibilità tale da rilevare oggetti celesti debolissimi in tempi rapidissimi. Ogni esposizione sarà equivalente a una fotografia da 3200 megapixel, una capacità sufficiente a riprendere l’intero cielo visibile in appena pochi giorni.
Ma accendere una macchina del genere non è affare da poco. Le fasi attuali non riguardano più l’assemblaggio, bensì la messa in servizio, un processo delicato che prevede il raffreddamento dei sistemi elettronici e sensibili a temperature estremamente basse per garantirne la stabilità operativa.
Sotto zero per vedere l’Universo
Il cuore della fotocamera è il criostato, una camera che isola termicamente i componenti interni. «Il vuoto è essenziale per proteggere l’elettronica dai cambiamenti di temperatura», spiega Stuart Marshall, scienziato operativo della fotocamera e ricercatore senior presso SLAC. Una volta creato il vuoto, verrà attivato un circuito di refrigerazione che farà circolare un fluido a –50 °C, in grado di rimuovere il chilowatt di calore generato dal sistema elettronico. L’obiettivo è mantenere le componenti tra i –20 e –5 °C, mentre i sensori CCD richiedono un raffreddamento ancora più estremo, fino a –100 °C, per garantire immagini prive di rumore termico.
Lavoro di squadra tra scienza e ingegneria
Su una stretta piattaforma sospesa a cinque metri dal suolo, incastrato tra la fotocamera LSST e il telescopio, Stuart Marshall, scienziato operativo della fotocamera e ricercatore presso SLAC, è impegnato nel collegamento del sistema a vuoto della fotocamera LSST. (RubinObs/NOIRLab/SLAC/NSF/DOE/AURA/Y. Utsumi)
Le operazioni di messa in servizio sono condotte da un team internazionale altamente specializzato. Accanto a Marshall, anche la postdoc Yijung Kang di SLAC e Yousuke Utsumi, professore associato al National Astronomical Observatory of Japan (NAOJ), stanno contribuendo a portare online il sistema. Tutti lavorano a cinque metri d’altezza, su una piattaforma limitata a 125 kg di carico, incastrati tra la fotocamera e lo specchio del telescopio.
«Ogni parte del sistema deve essere compresa a fondo», spiega Utsumi. «Il lavoro è complesso, ma il team è pronto ad affrontare anche gli imprevisti più difficili.»
Countdown verso la prima luce
Una volta stabilizzata la temperatura e attivati i CCD, il momento tanto atteso si avvicina: la rimozione del gigantesco copriobiettivo da 1,7 metri di diametro, che avverrà con l’aiuto di una gru. A quel punto, per la prima volta, la luce delle stelle raggiungerà i sensori LSST. Gli specialisti delle osservazioni sceglieranno la porzione di cielo da analizzare, e il telescopio catturerà le prime immagini.
Queste immagini, proiettate su tre schermi giganti nella sala di controllo, segneranno l’inizio di quella che è stata definita “la più grande pellicola astronomica mai realizzata”: un’indagine di dieci anni sull’Universo visibile, che genererà un time-lapse ad altissima risoluzione della volta celeste, utile a studiare transiti planetari, supernove, movimenti di galassie e persino a migliorare i modelli di cosmologia.
Un’eredità per la scienza del futuro
Il Legacy Survey of Space and Time (LSST) non sarà solo un catalogo di immagini: sarà una risorsa scientifica globale. I dati saranno resi pubblici e accessibili agli scienziati di tutto il mondo, permettendo di affrontare questioni fondamentali come la natura della materia oscura e l’espansione dell’universo. Il Rubin Observatory onora la memoria dell’astronoma Vera Rubin, pioniera nello studio delle curve di rotazione galattiche che per prima dimostrò l’esistenza della materia oscura.
Con la prima luce prevista per il 2025, il Rubin Observatory si prepara a diventare uno dei pilastri della nuova astronomia osservativa.
In questo numero di COELUM, parliamo non di una ma bensì di due immagini che lo ShaRA Team ha realizzato fra il finire del 2024 e l’inizio del 2025: la Piccola e la Grande Nube di Magellano. Questi due oggetti sono fra i più caratteristici del cielo australe e non potevano di certo sfuggire alle grinfie del team di Astrofotografi remoti ShaRA!
Indice dei contenuti
ABSTRACT
In questo numero di COELUM, parliamo non di una ma bensì di due immagini che lo ShaRA Team ha realizzato fra il finire del 2024 e l’inizio del 2025: la Piccola e la Grande Nube di Magellano. Questi due oggetti sono fra i più caratteristici del cielo australe e non potevano di certo sfuggire alle grinfie del team di Astrofotografi remoti ShaRA!
di Aldo Zanetti e ShaRA Team
Il Target
SMC e 47 Tuc ottenuta con la formula del Superstack ShaRA partendo da quasi 14 ore di integrazione RGB+HaOIII col Nikon 100mm di apertura f/2 del servizio remoto Chilescope.LMC ottenuta con la formula del Superstack ShaRA partendo da quasi 32 ore di integrazione LRGB+HaOIIISII su due pannelli parzialmente sovrapposti, col Nikon 100mm di apertura f/2 del servizio remoto Chilescope.
l’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
A volte anche i telescopi remoti hanno bisogno di manutenzione… e non sempre è un male. Il progetto ShaRA#11 prevedeva l’acquisizione di immagini attraverso il telescopio T2 del servizio remoto Chilescope, ma per alcune settimane il meccanismo di gestione della cupola è rimasto inattivo a causa di una manutenzione per rottura del controller principale, e quindi lo ShaRA Team scalpitava per avere un nuovo soggetto su cui lavorare. In attesa di ripartire con ShaRA#11 (cosa che poi è regolarmente avvenuta) otto membri hanno deciso di “temporeggiare” su di un progetto parallelo, che per questo è stato chiamato ShaRA#11.1, e il campo celeste prescelto è stato quello della Piccola Nube di Magellano, in inglese Small Magellanic Cloud, da cui il nome di SMC; campo decisamente interessante anche per la presenza di una splendida gemma del cielo australe, ossia l’ammasso globulare 47 Tucanae
A seguito della riuscita positiva della SMC il passo successivo è stato, in maniera naturale, la ripresa della Grande Nube di Magellano, o Large Magellanic Cloud in inglese, da cui LMC.
Dati Astronomici
Iniziamo considerando le caratteristiche degli oggetti che compaiono nell’immagine.
La Piccola Nube di Magellano (SMC): La SMC è una galassia nana irregolare che orbita attorno alla Via Lattea. È uno dei nostri vicini galattici più prossimi, distante circa 200.000 anni luce. La SMC è connessa alla Grande Nube di Magellano (LMC) da un ponte di gas, stelle e polvere interstellare, noto come Ponte Magellanico.
47 Tucanae: 47 Tucanae, noto anche come NGC 104, è un ammasso globulare che si trova nella costellazione del Tucano a poca distanza prospettica dalla SMC e a 13.400 anni luce da noi. È uno degli ammassi globulari più brillanti e massicci della nostra galassia, con un diametro di circa 120 anni luce e la sua luminosità è tale da renderlo visibile ad occhio nudo, anche se solo per la parte centrale più densa.
La Grande Nube di Magellano (LMC): La LMC è la più grande galassia satellite della nostra Via Lattea, distante circa 157.000 anni luce e la sua massa è di circa 1010 masse solari, ovvero circa un decimo della Via Lattea
L’elaborazione delle immagini
Per entrambe i soggetti si è partiti da un set di immagini riprese con il T4 del servizio remoto Chilescope, che è un obiettivo Nikon di 100mm di diametro e 200mm di focale (f/2), quindi adatto per campi abbastanza larghi. La camera di ripresa è un FLI 16200 CCD, con tutto ciò che ne consegue: ampio range dinamico, basso rumore di lettura, ma qualche strisciata dovuta a colonne fallate tipiche dei sensori CCD. La SMC è stata ripresa con una singola inquadratura, mentre per la LMC sono stati necessari due pannelli poi uniti in un mosaico, il ché ha introdotto nuove difficoltà ed opportunità di crescita per il team.
Per la SMC le immagini erano: 22 in R e 23 in G e B a 300 secondi, 24 in Ha e OIII a 600 secondi per un totale di 13,67 ore. Le differenze numeriche sono dovute ad alcuni frame che il gruppo ha deciso di scartare perché non perfetti. Alcuni membri hanno usato Pixinsight come strumento per l’elaborazione, altri Photoshop e Gimp.
Una prima sfida apparsa quasi immediatamente è stata quella di riuscire a calibrare la luminosità di parti molto intense, come ad esempio il nucleo centrale di 47Tuc (leggermente saturo nelle riprese in Luminanza e “recuperato” usando le pose RGB non sature) o alcune zone di formazione stellare all’interno della SMC (NGC 346 ad esempio) con le parti più deboli della galassia, ed in particolare con quelle diametralmente opposte a 47Tuc, NGC 465 e NGC602. Anche L’ammasso NGC 362 è stato complicato da rendere nei suoi dettagli.
Un altro ostacolo da superare è stato la resa dei colori nelle parti dove sia le emissioni in H-alpha che quelle in OIII si presentavano intense, in una banda infatti siamo sul rosso e nell’altra sul blu. Qui i partecipanti hanno seguito due strade diverse, qualcuno privilegiando un singolo canale (o l’altro), qualcuno rendendo la compresenza di emissioni con una tinta risultante dalla sovrapposizione di rosso e blu.
Le immagini individuali alla fine sono risultate abbastanza diverse le une dalle altre, sia per quanto riguarda i colori, sia per l’importanza attribuita alle diverse parti, quali la SMC nel suo insieme, le aree di formazione stellare, gli ammassi globulari.
L’algoritmo di superstacking di ShaRA Team ha prodotto l’immagine finale, che “pesa” le caratteristiche di tutte le 8 immagini individuali.
Terminata la SMC e soddisfatti del risultato ottenuto siamo passati quindi alla LMC. Qui le riprese sono state fatte in 7 canali, LRGB più i 3 narrowband H-alpha, OIII e SII, sia per il primo che per il secondo pannello. Ci siamo perciò trovati ad elaborare 14 immagini realizzate in 20 differenti nottate, da montare in 7 pannelli, da fondere insieme per ottenere lo scatto finale. La selezione ha poi prodotto
per il pannello A: 54 L, 12 R, 13 B, 13 G di 300 secondi di esposizione ciascuna, 18 Ha, 18 OIII, 18 SII di 600 secondi di esposizione ciascuna;
per il pannello B: 42 L, 12 R, 12 B, 12 G di 300 secondi di esposizione ciascuna, 16 Ha, 17 OIII, 18 SIIdi 600 secondi di esposizione ciascuna, per un totale di quasi 32 ore di ripresa.
Il dover montare fra loro a due a due i vari pannelli ha richiesto precisione ed attenzione alla rimozione dei gradienti e sulla omogeneizzazione del fondo cielo. Operazione che ha richiesto l’uso di diversi strumenti sia gratuiti che stand-alone (ad es. GraXpert) oppure inclusi nei tool principali (ad es. Dynamic Background Extraction Gradient Correction e ADBE di Pixinsight) per la rimozione dei gradienti. Per l’omogeneizzazione del fondo cielo lo strumento che si è rivelato più efficace, almeno per quelli di noi che hanno scelto Pixinsight come tool di elaborazione, il vecchio script DNALinearFit. Questo, in combinazione con l’opzione di Frame adaptation di starAlignement, ha consentito, dopo numerose prove sulle diverse coppie, di ottenere immagini perfettamente sovrapponibili, senza transizioni brusche di luminosità del cielo. Per congiungere i pannelli nel mosaico si è fatto uso di Star Alignement di Pixinsight, nella sua funzione di Register/Union Separate, prestando attenzione a impostare il Two-Dimensional Surface Splines nel Registration Model in modo da ottenere la corretta rotazione delle immagini e la perfetta sovrapponibilità delle stelle fra le due aree comuni di sovrapposizione dei pannelli.
Infine, per la creazione dei 7 mosaici, è stato sfruttato il processo di Gradient Merge Mosaic, quasi sempre in modalità Average, aumentando opportunamente i parametri di Shrink e Feather Radius per evitare i fenomeni di pinch (aree più scure intorno alle stelle luminose che si trovano sul bordo dell’immagine).
Una volta avuti i 7 mosaici (qualcuno si è fatto aiutare, come normale in un team variegato per esperienza e strumenti utilizzati, dai più esperti) si è potuto finalmente procedere con il normale processo di creazione dell’immagine RGB. Lo splendore e la ricchezza del segnale dell’immagine così ottenuta è stata tale da indurre alcuni membri del gruppo a rinunciare ad applicare la fase di montaggio dei colori sulla luminanza, il dettaglio era già ottimo (hanno pressoché tutti lavorato in Drizzle 2x) anche nella resa dei particolari più minuti.
Per finire si sono preparati i 3 canali ristretti, dell’idrogeno II, ossigeno III e zolfo II ed alcuni hanno applicato la tecnica del Continuum Subtraction, che consiste, come suggerisce il nome, nell’andare a sottrarre all’immagine NB la corrispondente immagine continua (quindi R per Ha e Sii, G per Oiii) per ottenere l’apporto del solo segnale che ci interessa. A questo punto si sono sommati all’immagine LRGB (o RGB) i 3 canali NB con il solito processo di PixelMath o con sistemi di fusione delle immagini equivalenti, et-voilà, LMC era completa in tutto il suo splendore di nebulose e stelle di differenti età e colori, incastonate nel cielo nero di Atacama!
Terminato il tutto però, Aldo si accorse di un gran numero di tracce di aerei e di satelliti eliminati dai processi di rejection del software di elaborazione delle immagini, una scena che aveva stupito un po’ tutti se si pensa che il telescopio utilizzato si trova nel deserto di Atacama, quindi in una delle zone del pianeta con il minor inquinamento luminoso e verosimilmente anche fuori dalle principali rotte aeree e commerciali. La maschera ottenuta dalla Pixel Rejection (Fig. 3) è stata così sovraimpressa all’immagine finale della SMC: il risultato è scioccante e lo vedete in figura 4. L’immagine di figura 4 è stata condivisa su alcuni social e ha registrato reazioni contrastanti: a parte quelli che si sono limitati all’aspetto esteriore e ci hanno insegnato come eliminarle (grazie, lo avevamo già fatto!) si sono create due fazioni: coloro che sono dispiaciuti e preoccupati per l’inquinamento sempre più invasivo di satelliti ed aerei, e coloro che invece sono apertamente a favore dei satelliti come strumenti di progresso e di supporto tecnologico. Per noi è il nostro piccolo contributo alla sensibilizzazione sulla pervasività dell’inquinamento luminoso e dello spazio.
Fig. 3 – Maschera di PixelRejection ottenuta con PixInsight durante il processo di calibrazione e stacking delle 14 ore di integrazione: sono individuabili le tracce degli aeroplani e dei satelliti, nonché i raggi cosmici che hanno attraversato il campo inquadrato.Fig. 4 – SMC e 47 Tuc col notevole traffico aereo e satellitare sopra ai cieli del deserto di Atacama; immagine ottenuta componendo l’immagine finale con la maschera di PixelRejection ottenuta durante la calibrazione e lo stacking di PixInseght.
Nel progetto ShaRA#11, il team esplora Fornax A (NGC 1316), una spettacolare galassia radio del cielo australe, oggetto di interesse per la fisica delle alte energie e possibile sorgente di raggi cosmici ultra-energetici. L’immagine finale, frutto di oltre 31 ore di posa e complesse tecniche di elaborazione, rappresenta uno dei migliori risultati del team, nonostante numerose difficoltà tecniche e meteorologiche affrontate durante le riprese.
di Adriano Anfuso, Alessandro Ravagnin, Aldo Zanetti e ShaRA Team
Il Target
A destra. L’immagine finale di Fornax A soggetto del progetto n°11 di ShaRA Team, uno dei migliori elaborati prodotti dal gruppo superando non poche avversità
l’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
Per il Progetto #11, lo sguardo del Team ShaRA si è posato su una delle galassie radio più spettacolari del cielo australe: Fornax A (NGC 1316). Situata a circa 62 milioni di anni luce dalla Terra, Fornax A si distingue per i suoi imponenti segnali radio, che si estendono fino a un milione di anni luce, e per l’intensità del suo nucleo galattico attivo (AGN). Gli studi condotti su questa galassia hanno offerto preziosi spunti sull’astrofisica delle alte energie, analizzando l’interazione tra getti relativistici, campi magnetici e l’ambiente circostante.
NGC 1316 si ritiene essere il risultato di molteplici fusioni galattiche che hanno modellato la sua complessa struttura, arricchendola di gusci e code mareali. Questi elementi sono testimonianze di interazioni con galassie più piccole, un processo che ha alimentato l’AGN centrale, dando origine ai massicci getti relativistici osservabili oggi. Le emissioni radio e X, prodotte dall’interazione tra i getti e il mezzo interstellare circostante, offrono informazioni cruciali sulla distribuzione dell’energia e della materia all’interno della galassia.
Fornax A è una delle rare galassie radio ritenute possibili sorgenti di raggi cosmici ultra-energetici (UHECR). Secondo gli studi di Joshi et al. (2018), l’attività dei suoi getti relativistici e la presenza di intensi campi magnetici nei lobi galattici potrebbero accelerare particelle fino a energie estremamente elevate. Questa caratteristica rende Fornax A un oggetto di grande interesse non solo per la fisica delle particelle, ma anche per la cosmologia, in quanto apre nuove prospettive sul ruolo delle galassie attive nella generazione di UHECR.
La realizzazione dell’immagine finale di Fornax A ha richiesto mesi di lavoro e l’adozione di soluzioni avanzate di processing per superare numerose difficoltà tecniche e meteorologiche. Per riprendere la complessa struttura di code mareali di Fornax A il gruppo ha deciso di utilizzare il favoloso Newton da 50 cm situato in Cile: velocità e qualità delle ottiche, unite all’ampio campo inquadrato dal sensore CCD con pixel da 9 micron erano l’alchimia giusta per dare forma quella che al momento è tra le migliori foto realizzate dal gruppo in più di due anni di attività.
Si è optato per una classica composizione LRGB partendo da una base di più di 31 ore di posa: la scelta di non utilizzare filtri Hα, basata su approfondite ricerche preliminari realizzate con alcune sessione di test col CDK24 remoto di un membro del gruppo e lo studio di alcune ricerche scientifiche, ha permesso al Team ShaRA di ottimizzare i costi e concentrarsi sulle sessioni LRGB per esaltare la struttura di Fornax A. Studi come “Atomic and molecular gas in the merger galaxy NGC 1316” (A&A 376:837-852) e “The Fornax Deep Survey with VST. II” (ApJ 839:21) hanno evidenziato la predominanza di emissioni molecolari (12CO(1-0), 12CO(2-1)) e HI, con l’unica significativa area di HII situata a 36,2 kpc dal nucleo, fuori dal campo dell’immagine. Questi dati hanno confermato la scelta di evitare filtri Hα, focalizzando le risorse sulle regioni più rilevanti.
Il progetto, iniziato a fine agosto, ha incontrato ritardi significativi dovuti a maltempo e guasti tecnici, tra cui il malfunzionamento della scheda di controllo della cupola. Dopo varie ripianificazioni (7 recuperi!), le 14 sessioni di ripresa si sono concluse solo a novembre. Durante la fase di stacking, ulteriori complicazioni sono emerse sotto forma di gradienti costanti in alcune aree del campo visivo, attribuiti a luci parassite all’interno della cupola. Analizzando la posizione del telescopio, si è scoperto che il problema si verificava puntando oltre gli 80° di altezza, quando la parte superiore della cupola interferiva con il campo visivo.
Uno dei principali ostacoli nell’elaborazione è stata la marcata differenza di luminosità tra il nucleo attivo e le strutture esterne della galassia, che ha reso complesso il bilanciamento dell’immagine. La riuscita ottimale ha richiesto un lavoro meticoloso e l’utilizzo di svariate maschere dinamiche sul canale della luminanza a protezione del nucleo della galassia in fase di stretching dell’istogramma, in modo da preservare i dettagli più deboli senza sovraesporre il nucleo. Alcuni membri del team hanno invece scelto di non utilizzare le riprese di luminanza a causa della sovraesposizione del nucleo (saturo nella parte centrale), optando invece per la creazione di una luminanza artificiale ottenuta dalla combinazione dei tre canali RGB tramite l’estrazione della componente CIE L*.
Inoltre, il team ha dovuto far fronte alla presenza di gradienti eccessivi, in particolare nel canale rosso (R), probabilmente causati da variazioni nella qualità del cielo durante le riprese. La loro rimozione è stata effettuata utilizzando algoritmi avanzati di normalizzazione cromatica, tra cui la funzione Multiscale Linear Transform di PixInsight (Target = Chrominance, restore CIE Y) e l’estrazione dinamica del background, combinati con maschere selettive applicate al canale rosso, per uniformare l’immagine ed eliminare le irregolarità senza compromettere i dettagli della struttura galattica.
Un ulteriore problema si è rivelata la presenza di fastidiose bande verticali nei dati, un artefatto comunemente attribuito al rumore elettronico della strumentazione. Nonostante l’impiego di tecniche di dithering durante le acquisizioni, queste bande sono rimaste evidenti, rendendo necessaria un’elaborazione avanzata per attenuarle e preservare la qualità complessiva dell’immagine.
Nonostante tutte le difficoltà, il Team ShaRA è riuscito a elaborare un’immagine di alta qualità, ricca di dettagli (anche grazie allo stacking con l’algoritmo del drizzling 2x) e capace di catturare con precisione la complessità delle strutture di Fornax A. Si tratta non solo un traguardo tecnico, ma anche di un esempio del potere della collaborazione e della determinazione. Lavoro di squadra che per questo progetto si è arricchito del contributo di un partecipante d’eccezione: Luca Fornaciari. La dedizione del team e la prestigiosa new entry hanno permesso non solo di portare a termine sfida ricca di difficoltà ma anche di dar vita ad un nuovo progetto parallelo (che non vi sveliamo ancora!), mantenendo l’entusiasmo e lo spirito collaborativo che caratterizzano ogni impresa del gruppo.
Il percorso lungo e complesso ha permesso al Team ShaRA di consolidare ulteriormente le proprie competenze, dimostrando ancora una volta la forza del lavoro di squadra e la capacità di superare le sfide dell’astrofotografia avanzata.
In questa immagine sono riportati i quattro canali risultanti del primo stacking: si notino i fastidiosi gradienti nella parte basse del campo, dovuti a luci parassite all’interno della cupola del Newton da mezzo metro in Cile. Gradienti comparsi quando il telescopio superava gli 80° di altezza sull’orizzonte, dovuti quindi alla parte sommitale della cupola.In questa immagine si noti la sovraesposizione del nucleo di Fornax A nelle pose col filtro L (a destra), a differenza dell’equivalente L sintetica ottenuta dal montaggio delle pose realizzate coi filtri RGB (a sinistra). Immagini grezze non elaborate, output dello stacking dei relativi sub raccolti col Newton da 50cm.In questa immagine si notino le fastidiose bande verticali nere e bianche tipiche dei sensori CCD (non presenti nelle camere CMOS): la rimozione con Pixinsight è stata complessa e si è dovuto intervenire con lo strumento clone/timbroPer migliorare la risoluzione finale dell’immagine, il set iniziale è stato elaborato da molti membri in drizzle 2x, sfruttando l’algoritmo di Pixinsight sviluppato direttamente da quello usato per le immagini HST. Si noti a sinistra un dettaglio di alcune stelle nella versione drizzle 2x e a destra quelle a risoluzione originale: quando le immagini sono campionate correttamente o leggermente sotto-campionate, il drizzling migliora la qualità del risultato finale.
Perseverance osserva l’orizzonte verso ovest: questo è il punto più occidentale che
abbia raggiunto finora. Sol 1380. NASA/JPL-Caltech/Piras.
Indice dei contenuti
Intro
Per la prima volta i resoconti dell’esplorazione dei rover occuperanno una parte minore di queste pagine scegliendo di dedicare più spazio a diverse ricerche pubblicate tra gennaio e febbraio. I risultati scientifici non sarebbero mai stati possibili senza i preziosissimi dati raccolti dai nostri emissari robotici, quindi senza indugiare oltre, trasferiamoci nel Cratere Jezero: si parte!
PERSEVERANCE, PIROSSENI E SERPENTINI
Il nostro rover ha vissuto due mesi decisamente partico¬lari, caratterizzati da poche nuove zone esplorate ma tan¬ti metri percorsi. Sembra una contraddizione? Vedremo… Il filo delle cronache riprende da Witch Hazel Hill dove abbiamo lasciato Perseverance a metà dicembre. Nel Sol 1363 il rover aveva appena raggiunto il bordo esterno del Cratere Jezero inaugurando la North Rim Campaign. Complice la pausa natalizia, le attività di rilievo ripren¬dono il primo gennaio del nuovo anno con un’abrasione superficiale ad esporre le antichissime rocce di questa regione pronte per essere ispezionate con le macro di WA¬TSON, le rilevazioni ottiche spettrali delle MastCam-Z, e lo spettrometro a raggi-X PIXL. Seguono ulteriori analisi, rimandate di alcuni Sol, dopo di chè il rover viene fatto muovere per 136 metri verso ovest in direzione della loca¬lità Mill Brook. Da questa posizione vengono scattati vari panorami con le NavCam, tra i quali quello che vedete in doppia pagina qui sopra. Lo scatto attualmente rappre¬senta la visuale più a occidente dell’intera missione. È il 6 gennaio e hanno inizio giorni di lavoro per gli scien¬ziati e tecnici del JPL condizionati più dai fatti in svolgi¬mento sulla Terra che su Marte: la California è flagellata da incendi devastanti e i centri di ricerca della NASA ven¬gono temporaneamente chiusi per consentire ai lavora¬tori di mettersi al riparo.
Lunghi spostamenti (indicati cronologicamente dai numeri a fianco alle frecce con i percorsi), una foto panoramica indicata con il marker azzurro a sinistra, due prelievi di successo a witch hazel hill, due prelievi falliti a cat arm reservoir. Tutto questo in appena due mesi! Mappa aggior¬nata al 21 febbraio. Nasa/jpl-caltech/piras.
Dopo due settimane di apparente inattività, impegnate invece in verifiche dei sistemi e test, il Sol 1395 Perseve-rance torna al lavoro ed esegue una nuova abrasione. La “Bad Weather Pond”, questo il suo nome, nelle immagi¬ni acquisite mostra una grande differenza nella texture rispetto a quanto portato alla luce nell’attività di 20 Sol prima: il materiale che appariva quasi friabile ha lasciato il posto, a circa 130 metri di distanza, a una roccia parec-chio più compatta.
Se ci limitassimo a seguire la missione dando unicamen¬te importanza a quanti km vengono macinati e ignoran¬do le considerazioni delle decine di scienziati coinvolti, giudicheremmo inaspettato ciò che invece avverrà nei due giorni dopo: Perseverance, infatti, percorre la strada a ritroso e torna a Witch Hazel Hill. Nel Sol 1400 (27 genna¬io) si posiziona nell’esatto punto dell’abrasione del Sol 1375 e l’indomani esegue un prelievo di roccia.
ABRASIONI DEI SOL 1375 (PIÙ IN ALTO) E 1395. NASA/JPL-CALTECH/PIRAS
La località dove ci troviamo, Shallow Bay, presenta delle rocce ricche di pirosseno a basso contenuto di calcio (LCP). Per i geologi è un materiale di enorme interesse e rappresenta il primo campione dell’era Noachiana (l’intervallo che va da 4,1 a 3,7 miliardi di anni fa) che Perseverance può raccogliere. Si ipotiz¬za che l’affioramento appartenga a un’estesa unità rocciosa con alto contenuto di pirosseni ma la vista dall’orbita per ora la identifica come l’unica località che esponga con simili caratteristiche, fattore esclu¬sivo che aumenta il valore scientifico del campione. Le immagini di verifica al termine del prelievo, scat¬tate inquadrando la punta cava per svelarne il contenuto, non sembrano incoraggianti. A un primo sguardo la pun¬ta sembra vuota, ma le successive riprese con CacheCam (la camera dedicata all’osservazione dell’interno delle fiale immediatamente prima della loro chiusura) confer¬mano la presenza di campioni di materiale. Si tratta in ef¬fetti del prelievo più esiguo finora, solo 2,91 cm di roccia, ma tanto basta per dichiarare l’operazione un successo e poter così sigillare il 26esimo campione, battezzato Silver Mountain.
LA PUNTA SEMBRA VUOTA, MA AL SUO INTERNO CI SONO DEI PICCOLI FRAMMENTI DI ROCCIA. SOL 1401. NASA/JPL-CALTECH/PIRAS.CACHECAM CONFERMA LA PRESENZA DI ROCCIA ALL’INTERNO DELLA FIALA. SOL 1401. NASA/JPL-CALTECH.
l’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
L’ABRASIONE DEL SOL 1375 INSIEME AL FORO SILVER MOUNTAIN DEL SOL 1403. MOSAICO DELLA RIGHT MASTCAM-Z NEL SOL 1403. NASA/ JPL-CALTECH.
Witch Hazel Hill continua a stuzzicare la curiosità degli scienziati che tre Sol dopo eseguono anche una nuova abrasione in questa località. Le analisi spettrali avevano svelato la presenza di minerali serpentini (da cui il nome Serpentine Lake). I serpentini si formano in presenza di acqua con un processo metamorfico esotermico detto serpentinizzazione nel quale la roccia di partenza (tipi¬camente olivina e pirosseni) viene ossidata e fratturata. La densità della roccia si riduce, aumenta di volume e la reazione rilascia un intenso calore molto interessante perchè potrebbe essere alla fonte del sostentamento energetico di colonie batteriche, in modo simile a quanto avviene sulla Terra in prossimità delle bocche idrotermali. Temporaneamente soddisfatti da quanto osservato, il 3 febbraio i tecnici decidono di spostare il rover e di nuovo il rover, invece che proseguire, torna indietro verso sud ripercorrendo le sue tracce di oltre due mesi prima. Torna così verso la località Cat Arm Reservoir dove il 16 dicembre aveva eseguito la sua prima abrasione nell’àmbito dell’attuale campagna esplorativa. I ricercatori sono questa volta intenzionati a raccogliere un campione di roccia che mostra cristalli grossolani di pirosseno e feldspato, presenza di minerali coerente con un’origine magmatica. Ma i tentativi di prelievo non vanno come sperato. Per ben due volte, Sol 1409 e 1413, Perseverance fora la roccia e tenta di estrarre un carotaggio integro, e in entrambe le occasioni il campione si sbriciola prima di poter essere prelevato dal meccanismo della punta. Il team sceglie di rinunciare al prelievo per il quale non ci sono evidentemente le condizioni adeguate e il rover riprende la sua strada verso nord in direzione Serpentine Lake, dove, sul-la medesima roccia abrasa nel Sol 1404, il 16 febbraio sarà estratto con successo un nuovo campione roccioso. Cosa ci aspetterà nei prossimi mesi? Probabilmente Perseverance continuerà con ulteriori brevi analisi a Witch Hazel Hill, nei dintorni di Serpentine Lake. Dopodiché sarà il momento di proseguire il percorso programmato dai piloti in accordo con i reparti scientifici, e il rover scenderà verso un’area chiamata Broom Point dove lo attendono delle rocce stratificate molto interessanti. Ma nel frattempo auguri a Perseverance che il 18 febbraio ha festeggiato i suoi primi quattro anni (terrestri) dal giorno dell’atterraggio nel Cratere Jezero.
DOPPIA OSSERVAZIONE DELLA CACHECAM NEI SOL 1409 E 1413. IN ENTRAMBI I CASI SONO STATI RACCOLTI SOLO MINUSCOLI FRAMMENTI. NASA/JPL-CALTECHSOL 1420, PRELIEVO SU “SERPENTINE LAKE” A POCHI CENTIMETRI DALL’ABRASIONE ESEGUITA IL 31 GENNAIO. NASA/JPL-CALTECH/ PIRAS.COSÌ APPARE LA PUNTA DI PERSEVERANCE QUANDO L’ESTRAZIONE DEL CAMPIONE AVVIENE COME DA PROGRAMMI. SOL 1420. NASA/JPL-CALTECH/PIRAS.
NUBI CREPUSCOLARI NEL VIDEO DI CURIOSITY
Non è la prima volta che il rover Curiosity osserva il fenomeno delle nubi crepuscolari (chiamate anche nottilucenti) nel cielo di Marte. La rilevazione più recente risale al 17 gennaio quando la Left MastCam ha immortalato in 33 fotogrammi il transito ad alta quota di questa particolare formazione nuvolosa. La ripresa è durata 16 minuti e le immagini, tre delle quali qui presentate, sono state acquisite a intervalli di 30 secondi. Il video, ricomposto e velocizzato dagli specialisti del JPL, è visibile nell’uscita #37 di News da Marte, il corrispettivo web della rubrica su Marte che state leggendo in questo momento (disponibile su COELUM.COM). Nell’animazione si notano le nuvole transitare prospetticamente dall’alto verso il basso mentre si allontanano da Curiosity.
NASA/JPL-CALTECH/MSSS/SSI.
Le nubi crepuscolari su Marte sono costituite da cristalli di anidride carbonica che, alle temperature presenti tra i 60 e gli 80 km di quota, forma quello che viene chiamato ghiaccio secco. L’aggettivo “crepuscolare” fa riferimento al fatto che questo tipo di nube è troppo evanescente per essere visibile di giorno e così la sua osservazione è possibile solo a ridosso dell’alba o del tramonto, quando al suolo è quasi buio e gli alti strati dell’atmosfera vengono raggiunti dalla luce del Sole. A quote leggermente inferiori, intorno ai 50 km, dove si riscontrano temperature maggiori, è invece il vapore acqueo in atmosfera a ghiacciare. Questa seconda tipologia di nubi si manifesta con la forma di pennacchi bianchi, anch’essi intuibili nel video di Curiosity ma che sfuggono purtroppo all’osservazione nei fotogrammi statici. Sono le debolissime formazioni che compaiono nella metà inferiore dell’inquadratura e si muovono in direzione opposta alle nubi crepuscolari. Curiosity non è il primo robot marziano ad aver documentato il fenomeno delle nubi nottilucenti, il primato spetta a Pathfinder che ha eseguito la rilevazione nel lontano 1997. In seguito non ci sono stati altri avvistamenti sino al 2019, quando Curiosity le ha nuovamente osservate nel cielo sopra il Cratere Gale. Da allora gli scienziati sono diventa¬ti abbastanza bravi a prevederle sulla base dei cicli stagionali del pianeta, e questo è il quarto anno marziano di fila che riescono a documentarne la comparsa. È interessante notare come nonostante le sessioni osservative compiute in questi anni Perseverance non le abbia mai riprese da quando è atterrato nel 2021.
ENTITÀ DEL PROBLEMA ALLA RUOTA PORTAFILTRI DELLA LEFT MASTCAM DI CURIOSITY, SOL 3998. NASA/JPL-CALTECH.
Gli specialisti in scienze atmosferiche ritengono che la formazione delle nubi crepuscolari sia più probabile in determinate regioni piuttosto che in altre, imponendo perciò qualche tipo di vincolo geografico. Alcune ipotesi coinvolgono dei disturbi su piccola scala chiamati onde di gravità. Per descriverle in breve, si tratta di un meccanismo di scambio di energia tra particelle appartenenti a differenti strati dell’atmosfera. Tali interazioni potrebbero portare a una riduzione delle temperature sino al punto da far congelare l’anidride carbonica, ma è un meccanismo che su Marte non è ancora stato totalmente compreso. Lo studio delle nubi nottilucenti da parte di Curiosity continuerà a produrre evidenze utili agli scienziati in tal senso. Un dettaglio curioso del video riguarda la visuale che risulta parzialmente oscurata da un cerchio. Non è un problema di elaborazione ma il modo con cui i tecnici di Curiosity stanno affrontando il problema alla ruota portafiltri della Left MastCam, rimasta bloccata dall’autunno 2023 in una posizione intermedia tra il filtro verde e quello trasparente. Questo intoppo sta tuttora privando il rover di oltre metà del campo visivo a 34 mm oltre che della possibilità di eseguire osservazioni in varie bande spettrali d’interesse per i geologi.
RICOSTRUZIONE DELLA POSIZIONE DEL BLOCCO CON RIFERIMENTO ALL’IMMAGINE DELL’INTERO FRAME. NASA/JPL-CALTECH/MSSS.
UN NUOVO CRATERE CI AIUTA A CAPIRE L’INTERNO DI MARTE
Le rilevazioni del sismometro di InSight, il lander della NASA con cui si sono persi i contatti il 15 dicembre 2022, continuano a produrre nuova scienza. Il 3 febbraio sono stati pubblicati sulla rivista Geophysical Research Letters due ricerche sviluppate da dei team internazionali. Oltre ad avere in comune gli autori, numerosi dei quali hanno firmato entrambi gli articoli, i due paper condividono anche un soggetto comune: descrivono l’individuazione di un nuovo cratere grazie al satellite Mars Reconnaissance Orbiter e la correlazione della sua comparsa con una debole scossa rilevata proprio da InSight.
IMMAGINE DEL GIOVANE CRATERE ACQUISITA DALLA CAMERA HIRISE DI MRO IL 4 MARZO 2021. NASA/JPL-CALTECH/UNIVERSITY OF ARIZONA.
Non solo i terremoti ma anche gli impatti meteorici di significativa potenza producono un concerto di onde sismiche che si propagano nella crosta e nel mantello dei corpi rocciosi. Grazie al patrimonio di dati acquisiti da InSight, l’analisi spettrale di queste onde e la misura dei differenti tempi di propagazione (variabili a seconda della frequenza) stanno consentendo ai ricercatori di sviluppare un modello sempre più preciso dell’interno di Marte. Proprio il cratere oggetto degli studi, largo 21,5 metri e individuato a 1640 km da InSight nella regione di Cerberus Fossae, ha fornito nuovi spunti interessanti ai ricercatori. Nonostante la notevole distanza, le onde sismiche sono state rilevate dal sismometro del lander con livelli di intensità significativi. Tali livelli non sarebbero stati possibili se le onde avessero viaggiato prevalentemente in superficie in quanto la crosta marziana agisce come uno smorzatore. La spiegazione elaborata in uno dei paper è che le vibrazioni abbiano preso una via differente, penetrando attraverso il mantello di Marte e trasmettendosi in questo modo sino alla posizione di InSight. Percorrendo quella che i ricercatori hanno definito una “autostrada sismica” le vibrazioni causate dagli eventi di impatto ri-escono a insinuarsi nell’interno del pianeta e propagarsi molto facilmente. La conclusione è che numerosi terremoti ad alta frequenza rilevati da InSight potrebbero essersi originati in località più distanti di quanto inizialmente ipotizzato e perciò, qualora risultino di origine meteorica, i relativi crateri andranno cercati nelle immagini d’archivio in un raggio più ampio. La ricerca di crateri, diavoli di polvere o frane nelle immagini satellitari è stata per molto tempo un’operazione lunga e dispendiosa ma oggi fra gli strumenti che stanno aiutando i ricercatori a individuare nuove caratteristiche su Marte compaiono finalmente anche gli algoritmi di intelligenza artificiale. Dal 2021 il lavoro dei tecnici che analizzano centinaia di migliaia di immagini è supportato da tecniche di machine learning che riescono a filtrare le acquisizioni eseguite dai satelliti in orbita marziana. Il numero di immagini prodotte ogni giorno dai satelliti ha ormai superato le capacità di verifica manuale da parte dei ricercatori coinvolti, inaugurando prepotentemente l’era dei big data anche per lo spazio. A titolo di esempio, la verifica di una singola scansione della Context Camera di Mars Reconnaissance Orbiter (camera grandangolare) richiedeva sino a 40 minuti di lavoro da parte di un operatore umano. Adesso la stessa operazione viene eseguita in meno di 5 secondi da un supercalcolatore. Anche il cratere individuato nella regione di Cerberus Fossae è stato scoperto nelle immagini grazie a questi nuovi strumenti di elaborazione, ed è attorno a questa ricerca che si è sviluppata la stesura del secondo paper. Gli scienziati hanno applicato un primo filtraggio al database di MRO e altri satelliti marziani rilevando ben 123 crateri recenti con diametri tra 1 e 22,5 metri entro 50 gradi di raggio attorno alla posizione di InSight (poco meno di 3000 km). Un’analisi successiva ha poi ridotto a 49 le potenziali corrispondenze con i dati sismometrici, e una verifica finale ha individuato l’esatto cratere permettendo le successive analisi. Ma il dato d’interesse è la grande quantità di eventi di impatto rilevati che presenta un tasso di occorrenza sino a 2,5 volte maggiore di quello precedentemente stimato per i crateri più grandi 3,9 metri. Queste informazioni permetteranno di calcolare con più precisione i potenziali rischi per i robot, gli habitat e i futuri esploratori umani.
UN NUOVO APPROCCIO PER MARS SAMPLE RETURN
Nella serata italiana di martedì 7 gennaio la NASA ha annunciato un’importante revisione del programma Mars Sample Return, destinato a portare sulla Terra i campioni raccolti dal rover Perseverance. Con un focus su costi, complessità e tempistiche, l’agenzia spaziale statunitense sta valutando due nuove opzioni per semplificare e accelerare la missione. Il progetto originale, che prevedeva il lancio di svariate missioni e un approccio in generale molto complesso, ha incontrato ostacoli significativi che abbiamo periodicamente raccontato negli appuntamenti di questa rubrica. I costi stimati avevano superato gli 11 miliardi di dollari e la data prevista per il recupero era slittata fino al 2040. Nella conferenza di gennaio Bill Nelson, al tempo ancora amministratore della NASA (ha dato le sue dimissioni il giorno 20 dello stesso mese, data dell’insediamento del presidente Trump), ha spiegato come sia stato necessa¬rio “staccare la spina” al progetto originale e ripensare l’architettura della missione. Da aprile 2024 il team ha così lavorato su due differenti approcci: l’utilizzo di una Sky Crane e il coinvolgimento di partner commerciali. Secondo le ipotesi la Sky Crane si baserà sulla tecnologia già impiegata con successo per l’atterraggio di Curiosity e Perseverance. L’apparato da inviare sul pianeta rosso consisterà in un lander dotato di un braccio robotico per trasferire i campioni su un piccolo razzo chiamato veicolo di ascesa (Mars Ascent Vehicle) che li lancerà verso l’orbita marziana. Da lì un orbiter, prodotto dall’Agenzia Spaziale Europea, li raccoglierà e li riporterà sulla Terra. Questa opzione offre un costo stimato di 6,6-7,7 miliardi di dollari e riduce la complessità del sistema impiegando in buona parte tecnologie già disponibili e collaudate. La seconda possibilità al vaglio della NASA esplora l’uso di un grande lander fornito da aziende come SpaceX di Elon Musk o Blue Origin di Jeff Bezos, con un approccio che mira a sfruttare le capacità di carico elevate offerte dai veicoli commerciali di nuova generazione. I costi stimati vanno dai 5,8 ai 7,1 miliardi di dollari.
RAPPRESENTAZIONE ARTISTICA DELLA SKY CRANE IN AZIONE MENTRE DEPONE PERSEVERANCE SUL SUOLO MARZIANO. NASA/JPL-CALTECH
Indipendentemente dall’opzione scelta, il nuovo approccio mira a ridurre la complessità della missione e i rischi associati. È stato confermato un ruolo prioritario per il braccio robotico di Perseverance al fine di trasferire o conmunque avvicinare i campioni direttamente al lan¬der, eliminando la necessità di apparati aggiuntivi. A tal riguardo sembra così accantonata l’idea di ricorrere a due elicotteri, da alcuni anni già in fase di sviluppo sulla base del progetto di Ingenuity, dotati di un piccolo braccio robotico che avrebbero recuperato le dieci fiale rilasciate dal rover tra dicembre 2022 e gennaio 2023. La conservazione di questi campioni era stata pensata fin dal principio come un piano di riserva nell’eventualità che la vita utile di Perseverance fosse stata insufficiente a vedere un suo contributo attivo sino negli anni ’30. Ora, viste le prestazioni più che incoraggianti del rover, si è perciò accettato di contare sino in fondo sulla sua affidabilità. Tra le innovazioni chiave discusse per il lander di Mars Sample Return c’è l’introduzione di un sistema di alimentazione a radioisotopi che prenderanno il posto dei pannelli solari, garantendo operatività anche durante le stagioni delle tempeste di polvere marziane. Riguardo al tragitto di ritorno verso Terra, e in particolare nel trasfe¬rimento orbitale, è stata scartata l’idea di un passaggio intermedio nell’ampia orbita cis-lunare. Questo avrebbe comportato ulteriori costi e complessità aggiuntiva a cui viene invece preferito il ritorno diretto verso il nostro pianeta. La NASA prevede di scegliere definitivamente l’architettura della missione entro la metà del 2026. Le missioni di lancio potrebbero avvenire già nel 2030 per quanto riguarda l’orbiter di ritorno a marchio ESA e nel 2031 per il lander. Questo permetterebbe di recuperare i campioni entro la metà del prossimo decennio, in anticipo rispetto alle previsioni più aggiornate del piano originale. L’ex amministratore Nelson ha evidenziato che già a partire da quest’anno sarà necessario uno stanziamento di almeno 300 milioni di dollari da parte del Congresso per evitare ulteriori ritardi. Un tema cruciale emerso durante la conferenza è la com¬petizione con la Cina che ha annunciato piani per una propria missione di recupero di campioni marziani già addirittura entro la fine del decennio. La NASA tiene a sottolineare la superiorità scientifica del proprio approccio e l’impareggiabile variabilità geologica che Perseverance sta collezionando nei propri campioni, ma la pressione per accelerare il progetto è evidente. “Non possiamo lasciare che il primo ritorno di campioni avvenga su una navicella cinese” ha chiosato Nelson, non nascondendo il peso politico del programma.
FORSE ABBIAMO SCOPERTO PERCHÉ MARTE È ROSSO
Ci siamo sempre sbagliati sull’origine del colore del pianeta? Una nuova ricerca ha sfruttato lo stato dell’arte delle conoscenze su Marte e i potenti strumenti con cui NASA e ESA studiano da decenni la sua superficie. Siamo così probabilmente venuti a capo del mistero che nei millenni ha indotto innumerevoli popoli ad associare il Pianeta Rosso al sangue, la guerra e la violenza. E tutto per colpa di banale…ruggine.
UNA PIASTRINA DI POLVERE MARZIANA DI 2.5 CM DI DIAMETRO RICREATA IN LABORATORIO. CREDITI: A. VALANTINAS.
Primo autore dello studio, pubblicato a febbraio sulla rivista Nature Communications, è il ricercatore post-doc Adomas Valantinas che ha iniziato il suo lavoro all’Università di Berna e l’ha concluso alla Brown University in Rhode Island. Sino ad ora si riteneva che l’ossido di ferro, il composto abbondantissimo su Marte e che conferisce il caratte¬ristico colore, si fosse generato in un’epoca posteriore a quella in cui il pianeta aveva ospitato acqua allo stato liquido, quindi in un ambiente cosiddetto iper-arido, condizioni ambientali che permettono la formazione di un particolare ossido chiamato ematite che si produce dall’interazione del ferro con l’ossigeno atmosferico. Le osservazioni spettrali da satellite e con gli strumenti ottici in dotazione ai rover fallivano nell’individuazione diretta di acqua nella firma chimica delle rocce, quindi la genesi secca nel periodo Amazzoniano (stimato da 3 miliardi di anni fa ai giorni nostri) è stata la conclusione più cauta a cui giungere sebbene la questione restasse aperta. La risposta porta infatti con sé implicazioni importanti relative alla possibile, antichissima, abitabilità di Marte. Il recente studio ha fatto un passo avanti inedito riuscen¬do a ricreare sulla Terra un fedelissimo campione di suolo marziano. I ricercatori hanno replicato non solo la chimi¬ca ma persino la dimensione delle particelle. Un dettaglio importante reso possibile grazie all’uso di un sofisticato “macinino” in grado di produrre granelli di dimensioni inferiori al micron. Le indicazioni sulle dimensioni arrivano grazie al satellite ESA Trace Gas Orbiter, la cui particolare or-bita consente l’osservazione delle regioni di Marte in svariate condizioni di illuminazione e da vari an-goli, condizioni favorevoli per stimare dimensione e composizione delle particelle.
IL MIX DI FERRIDRITE E BASALTO (LINEA BLU NEL GRAFICO DI SINISTRA) REPLICA PERFETTAMENTE GLI SPETTRI ATTESI A DIFFERENZA DEL MIX CON EMATITE (LINEA ROSSA NEL GRAFICO DI DESTRA). CREDITI: ESA/A. VALANTINAS.
Come dei cuochi che tirano a indovinare gli ingredienti di una ricetta, i ricercatori hanno fatto espe-rimenti con nove diversi tipi di ossidi di ferro in proporzioni variabili rispetto al basalto. Ogni tentativo di miscela tra roccia e ossidi è stato poi analizzato confrontando misurazioni in situ, orbitali e in laboratorio, queste ultime eseguite con strumenti che replicano fedelmente le capacità di misura su Mar-te. Il risultato è stato che una miscela superfine di basalto e ferridrite in rapporto 2:1 si sovrappone in modo praticamente perfetto agli spettri ottici che abbiamo rilevato negli anni. Gli apparati che hanno prodotto le misure di riferimento sono parecchi: IMP di Mars Pathfinder, PANCAM di Opportunity e MER di Curiosity relativamente alle analisi in superficie; OMEGA di Mars Express e CRISM di Mars Reconnaissance Orbiter per quanto riguarda le rilevazioni satellitari. La ferridrite, il composto che ha fornito una perfetta aderenza alle curve spettrali, è un altro tipo di ossido di ferro che, a differenza dall’ematite, si forma in presenza di acqua allo stato liquido. La sua formazione è legata strettamente al passato in cui Marte abbondava di acqua, permettendo di datare molto presto nella sua storia la formazione di questo composto. Inoltre i ricercatori hanno dimostrato, tramite esperimenti di laboratorio e calcoli cinetici, che la struttura cristallina debole della ferridrite è sufficientemente solida da conservarsi stabile per miliardi di anni nelle attuali condizioni di deserto arido che Marte presenta. Le rocce ricche di ossidi si sarebbero prodotte in prossimità di mari e laghi, e successivamente rotte e polverizzate nell’arco di miliardi di anni. A questo punto i venti le avrebbero facilmente distribuite sull’intera superficie del pianeta. I geologi planetari aspettano con interesse i risultati delle prossime analisi sul suolo marziano, sia quelle che svolgerà Rosalind (il rover dell’ESA che potrebbe vedere il lancio nel 2028) che quelle sui campioni di Mars Sample Return. Perseverance ha già messo al sicuro un campione di regolite che tra qualche anno ci permetterà di svelare quanta ferridrite contiene e rispondere alle domande sulla storia dell’acqua, e forse della vita, su Marte.
Oggi, lunedì 14 aprile, Blue Origin scriverà una nuova pagina nella storia dell’esplorazione spaziale con la missione NS-31, portando in volo suborbitale la prima equipaggiata interamente femminile dai tempi di Valentina Tereshkova, la pioniera sovietica del 1963.
Il decollo è previsto per le 13:30 UTC, dal Launch Site One di Blue Origin, situato a circa 50 km a nord di Van Horn, Texas. La diretta streaming sarà disponibile sul sito ufficiale di Blue Origin, su YouTube, su X (ex Twitter) e anche sul sito Space.com, a partire dalle 12:00 UTC, ovvero 90 minuti prima del lancio.
La missione durerà poco più di 10 minuti e attraverserà tutte le fasi classiche del volo suborbitale: dal distacco del booster, alla fase di microgravità oltre la linea di Kármán, fino all’atterraggio con paracadute nel deserto texano.
Un equipaggio eccezionale, sei storie da raccontare
La NS-31 sarà molto più di un semplice volo: rappresenta un messaggio di ispirazione, innovazione e inclusione, incarnato nelle sei protagoniste a bordo:
✦ Aisha Bowe
Ex ingegnera aerospaziale della NASA e CEO di STEMBoard, è un’attivista globale per l’educazione STEM. Aisha sarà la prima persona di discendenza bahamense a volare nello spazio. Con sé porterà cartoline scritte da studenti di tutto il mondo e condurrà tre esperimenti scientifici su biologia vegetale e fisiologia umana.
✦ Amanda Nguyễn
Scienziata specializzata in bioastronautica, attivista e nominata al Premio Nobel per la Pace. Ha lavorato con NASA, MIT e Harvard, contribuendo alla missione Kepler e allo Space Shuttle STS-135. Sarà la prima donna vietnamita e del Sud-est asiatico a volare nello spazio, unendo simbolicamente USA e Vietnam attraverso la scienza.
✦ Gayle King
Giornalista e conduttrice di CBS Mornings, è una delle voci più rispettate dei media americani. Ha deciso di accettare questa sfida come un passo fuori dalla sua “comfort zone”, portando con sé lo spirito di chi continua a esplorare, in ogni fase della vita.
✦ Katy Perry
Superstar globale della musica e UNICEF Goodwill Ambassador, Katy è impegnata da anni in cause educative e sociali. Vedere la Terra dallo spazio sarà per lei un messaggio potente rivolto a sua figlia e alle nuove generazioni: “Raggiungete le stelle, nel senso più letterale possibile”.
✦ Kerianne Flynn
Produttrice cinematografica e filantropa, ha firmato documentari sulla parità di genere e i diritti delle donne come This Changes Everything (2018). Per Kerianne, il volo spaziale è un’estensione naturale del suo spirito avventuroso e un’eredità da lasciare a suo figlio Dex.
✦ Lauren Sánchez
Pilota, giornalista premiata con un Emmy, vicepresidente del Bezos Earth Fund e fondatrice di Black Ops Aviation, la prima compagnia aerea cinematografica fondata da una donna. Il suo obiettivo dichiarato è ispirare la prossima generazione di esploratori, anche attraverso il suo recente libro per bambini The Fly Who Flew to Space.
Programma della missione (in orari UTC – Italy UTC+02):
13:30 – Decollo (liftoff)
13:32:40 – Separazione del booster
13:37:30 – Atterraggio del booster
13:40:30 – Atterraggio della capsula con l’equipaggio
Durante il volo, la capsula raggiungerà un’altitudine di oltre 100 km, attraversando la linea di Kármán, confine simbolico dello spazio. Il tutto si concluderà con un atterraggio dolce, grazie ai paracadute, nel deserto del Texas.
Dove vedere la diretta
📡 Lunedì 14 aprile, ore 12:00 UTC – Live streaming su:
CAPE CANAVERAL, Florida (AP) — Il telescopio spaziale James Webb ha catturato immagini dell’asteroide che, all’inizio di quest’anno, aveva fatto preoccupare gli scienziati, finendo in cima alla lista degli oggetti potenzialmente pericolosi per la Terra.
Scoperto alla fine del 2023, l’asteroide 2024 YR4 era stato inizialmente valutato con una probabilità del 3% di impattare la Terra nel 2032. Ma successive osservazioni hanno permesso agli scienziati di ridurre praticamente a zero questo rischio, dove rimane tuttora. Resta però una lieve possibilità che possa colpire la Luna. Questo asteroide compie un passaggio vicino alla Terra ogni quattro anni.
La NASA e l’Agenzia Spaziale Europea hanno diffuso mercoledì le immagini riprese da Webb, in cui l’asteroide appare come un piccolo punto sfocato. Secondo le due agenzie spaziali, Webb ha confermato che l’asteroide misura circa 60 metri di diametro, più o meno come un edificio di 15 piani. È l’oggetto più piccolo mai osservato da questo osservatorio, che è il più grande e potente mai lanciato nello spazio.
Questa immagine fornita dall’Agenzia spaziale europea mercoledì 2 aprile 2025, catturata dal telescopio Webb della NASA, mostra l’asteroide 2024 YR4. (Agenzia spaziale europea tramite AP)
L’astronomo Andrew Rivkin, della Johns Hopkins University, ha dichiarato che le osservazioni condotte con Webb sono state un esercizio “prezioso” in vista di eventuali asteroidi futuri che potrebbero rappresentare una minaccia. Anche telescopi da Terra hanno continuato a monitorare questo corpo celeste negli ultimi mesi.
«Tutto ciò — ha spiegato Rivkin in un comunicato — ci offre una finestra per comprendere meglio com’è fatto un oggetto delle dimensioni di 2024 YR4, incluso il prossimo che potrebbe dirigersi verso di noi».
Visuale verso sud nel Sol 1264. C’è un moderato effetto fisheye in questa foto della NavCam, ma quella che si vede è la montagna che a settembre ha messo alla prova Perseverance. NASA/JPL-Caltech/Piras
Indice dei contenuti
Intro
Vediamo insieme alcuni dei più interessanti aggiornamenti su Perseverance e un po’ di notizie relative a missioni spaziali del presente e del futuro che riguardano il Pianeta Rosso. Si parte!
La scalata di Perseverance
Il rover della NASA ha iniziato a fine agosto la sua ascesa verso sud dando inizio al quinto capitolo della sua esplorazione di Marte, la Crater Rim Campaign. In queste aree Perseverance sta affrontando alcune delle sue salite più ripide di sempre, guadagnando decine di metri in altezza nell’arco di poche settimane. Oltre agli spostamenti quasi quotidiani il rover ha sinora documentato anche l’abrasione di una roccia sedimentaria (vedi foto). Rilevazioni come questa saranno probabilmente ripetute lungo il percorso in modo da dare agli scienziati elementi per valutare come la geologia muti mentre il rover si allontana dagli scenari familiari che ha frequentato nei mesi passati tra Neretva Vallis e Bright Angel (l’area in cui, tra le altre cose, ha eseguito il suo ultimo prelievo e che risulta visibile nella zona più a nord della mappa).
Mappa con la posizione di Perseverance al 26 settembre (sol 1280 di missione). NASA/JPL-Caltech
Grazie alle posizioni sopraelevate che sta raggiungendo possiamo godere di spettacolari paesaggi attorno al rover acquisiti per mezzo delle NavCam e delle MastCam-Z. Le montagne più lontane risultano oscurate a causa delle tempeste di sabbia che affliggono questa zona di Marte. Oltre all’immagine in apertura di articolo vi propongo un panorama della regione frutto di un mosaico che si estende orizzontalmente. Tante altre foto trovano abitualmente spazio nelle pagine virtuali della rubrica ‘News da Marte’ ospitata sul sito di Coelum Astronomia.
Su questi tratti la navigazione procede a basse velocità, come deducibile dalle linee contorte in alto nella mappa e dall’alta densità di pallini bianchi. Ogni pallino rappresenta la posizione in un determinato Sol, quindi la distanza di un pallino da quello che lo precede indica quasi sempre lo spostamento che il rover ha compiuto in quella determinata giornata. Possiamo ragionevolmente supporre che la ragione dell’apparente lentezza non sia dovuta ad eventuali ostacoli del terreno da evitare (le immagini panoramiche non ne mostrano di rilevanti) ma piuttosto alle precauzioni adottate dai piloti che hanno fatto avanzare il robot su una collina parecchio scoscesa.
Foto della camera WATSON che documenta l’abrasione eseguita nel Sol 1257 (2 settembre). NASA/JPL-Caltech
Intorno al Sol 1264 (9 settembre) Perseverance è arrivato in un’area più pianeggiante e di lì a poco avrebbe potuto riprendere ad aumentare considerevolmente le distanze percorse giornalmente superando i 150 metri per Sol. Ma dopo alcuni giorni di terreni abbastanza monotoni c’è qualcosa che cattura l’attenzione dei geologi: è una roccia molto particolare, come mai ne erano state osservate prima su Marte, che viene battezzata Freya Castle.
Mosaico di immagini della Left MastCam-Z scattate nel Sol 1266 (11 settembre), la camera era puntata verso est. L’inquadratura inclinata non è un errore di processamento ma conseguenza della reale inclinazione del rover (la direzione della salita è verso destra rispetto all’immagine). NASA/JPL-Caltech/MSSS/Piras
Quella strana roccia a strisce
l’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
Gli appassionati sono andati in estasi per questa roccia, che può ingannare ma è grande solo 20 cm, così prontamente è arrivato il nomignolo “roccia zebrata”. I geologi stanno formulano alcune ipotesi sulla sua origine e sulla causa della sua collocazione . Il campione inusuale potrebbe risultare di formazione magmatica o metamorfica, oppure essere una combinazione dei due processi. Tuttavia resta certo che, date le profonde differenze con il terreno circostante, essa non sia autoctona della zona ma più probabilmente rotolata nell’area da regioni a quota maggiore. È un’ipotesi stimolante che lascia spazio all’immaginazione e che non esclude l’eventualità di incontrare altri reperti simili lungo il futuro percorso di Perseverance. I lettori più attenti potrebbero notare una similitudine con Atoko Point, il grande masso osservato da Perseverance nel Sol 1162 mentre attraversava per la prima volta Neretva Vallis (trovate i dettagli su Coelum Astronomia n. 269). Ma in quel caso si trattava di una roccia chiara con piccole inclusioni scure. La caratteristica conformazione a strisce di Freya Castle suggerisce una genesi differente.
Freya Castle osservata dalla Right MastCam-Z nel sol 1268 (13 settembre). NASA/JPL-Caltech/Piras
Poco è noto della chimica di Freya Castle e, in attesa di poter analizzare più nel dettaglio rocce simili, il team scientifico ha programmato Perseverance per una serie di acquisizioni in banda stretta per mezzo delle due MastCam-Z. Trovate la racconta delle immagini, in totale 12, nel mosaico a seguire.
Una vecchia conoscenza di Perseverance: Atoko Point nel dettaglio catturato dalla Left MastCam-Z, Sol 1162. NASA/JPL-Caltech/ASU/Piras
Le camere montate sulla “testa” del rover integrano dei filtri e con ciascuno di essi è possibile isolare bande molto strette dello spettro. Ai lettori, me compreso, la sequenza di scatti potrebbe non mostrare significative differenze o al massimo solo deboli variazioni di luminosità, ma per i geologi sono estremamente preziose: la chiave per individuare le specie chimiche che costituiscono la roccia stessa. Sono quattro i filtri non inclusi nella raccolta fotografica: si tratta dei due RGB, con cui le camere realizzano le foto “normali”, e i due filtri solari. Successivamente l’avanzata di Perseverance è ripresa a buon ritmo verso sud costeggiando la regione di Dox Castle puntando Aurora Park e Pico Turquino ma è proprio a durante il tragitto che sorgono dei problemi.
Raccolta delle immagini acquisite da Perseverance con tutti i filtri a banda stretta a sua disposizione. Sol 1268. NASA/JPL-Caltech/MSSS/Piras
Terreno scivoloso
Nel Sol 1285 (30 settembre) Perseverance è impegnato ad aggirare un promontorio e sta cercando una via verso ovest. I piloti della NASA programmano il rover per una salita ma qualcosa sembra non vada per il verso giusto. La telemetria e le foto scattate dalle camere di navigazione tracciano un quadro chiaro dimostrando come il nostro robot non sia riuscito a completare il percorso previsto slittando alcune volte durante i tentativi di avanzamento. Queste perdite di trazione sono visibili nella mappa dello spostamento come dei tratti simili ad apparenti lievi correzioni di rotta.
Le due tracce gialle mostrano il percorso di Perseverance nei Sol 1285 e 1286 (rispettivamente la porzione a destra e a sinistra). NASA/JPL-Caltech
La sabbia di questa regione possiede delle proprietà particolari comportandosi in modo imprevisto, quasi come se fosse umida. Incastrandosi poi tra le righe trasversali del battistrada delle ruote finisce per creare un corpo compatto incapace di aggrapparsi al suolo rallentando l’avanzamento del rover.
A DESTRA: Sol 1287, dettaglio della ruota posteriore destra di Perseverance. La sabbia si è compattata in mezzo agli inserti in titanio del battistrada, compromettendone la trazione. Anche le tracce delle ruote sono estremamente confuse rispetto a quelle molto precise a cui siamo abituati. Sotto: Sol 1288, la ripresa con la Left NavCam mostra la parte posteriore del rover. Alle sue spalle mancano le consuete tracce nella sabbia o almeno i segni di una rotazione sul posto, a dimostrazione che Perseverance ha percorso questo tratto in retromarcia. NASA/JPL-Caltech/Piras
La soluzione è stata di far procedere Perseverance in retromarcia! Forse avvantaggiandosi del peso del generatore a radioisotopi (45 kg) questa strategia viene attuata nel Sol 1288 e permette al rover di risalire il crinale e proseguire poi verso ovest in assetto più convenzionale.
Foto del Sol 1288. Con la freccia gialla è indicata la posizione da cui l’immagine è stata acquisita al termine della giornata di spostamenti. In evidenza anche (marcato con la freccia rossa) lo stesso dettaglio nella sabbia con riferimento sia alla foto che alla mappa. Quello è presumibilmente il punto da cui Perseverance ha iniziato lo spostamento in retromarcia. NASA/JPL-Caltech/Piras
La Cina vuole fortissimamente Marte
Sono trascorsi solo pochi mesi dalla conclusione della missione Chang’e-6 con la quale l’agenzia spaziale cinese CNSA è riuscita nell’obiettivo di portare sulla Terra della regolite lunare, raccolta per la prima volta sul lato lontano del nostro satellite e i piani spaziali del gigante asiatico non danno segno di volersi fermare. I progetti di espansione passano inevitabilmente anche per la prossima frontiera, Marte, e le enormi possibilità di ricerca scientifica offerte dal pianeta rosso. La leadership dell’esplorazione spaziale detenuta ora saldamente dalla NASA potrebbe essere, tra pochi anni, minacciata anche a causa dell’intervento delle compagnie private che ormai stanno prendendo confidenza con le missioni lunari.
All’inizio di settembre la CNSA ha presentato dei piani di modifica alla sua missione Tianwen-3 che, secondo i programmi diffusi nell’autunno 2023, sarebbe dovuta partire nel 2030 per svolgere dei compiti di raccolta di materiale dalla superficie di Marte per poi portarlo sulla Terra. Il concetto è il medesimo a cui NASA ed ESA mirano con la Mars Sample Return ma mentre la missione occidentale sta soffrendo, come sappiamo, sia la complessità dell’impresa che le disponibilità di budget con il rischio di accumulare gravi ritardi, l’agenzia spaziale cinese sembra potersi permettere persino di anticipare i tempi.
Il rover Zhurong insieme al lander con cui è atterrato su Marte. Questa foto storica è stata scattata da una piccola camera indipendente che il rover ha deposto al suolo. Crediti: CNSA
Nel corso della seconda International Deep Space Exploration Conference, del 5 e 6 settembre a Huangshan, Liu Jizhong, progettista capo della missione, ha rilasciato un aggiornamento che vede la data di lancio di Tianwen-3 anticipata dal 2030 al 2028. Un anticipo di circa due anni non casuale ma che è piuttosto dettato dalla combinazione dei periodi orbitali della Terra e di Marte. La missione cinese impiegherà due razzi Lunga Marcia 5 che porteranno verso Marte un orbiter (con incluso il veicolo di ritorno verso la Terra) e un lander dotato del razzo di ascesa. La raccolta di materiale sarà eseguita dallo stesso lander che metterà al sicuro circa 500 grammi di regolite e piccoli sassi. Liu ha aggiunto che la CNSA intende collaborare con partner internazionali e i veicoli spaziali cinesi ospiteranno anche carichi scientifici per conto di altre nazioni. Ci sarà condivisione di dati e persino di campioni di materiale, il tutto nell’ottica di stabilire un’aperta e fruttuosa cooperazione globale. È un auspicio più che condivisibile in questi anni in cui il mondo sembra stia tornando indietro a una deleteria suddivisione in due blocchi contrapposti.
Il successo di Tianwen-3, rafforzato se avverrà entro i tempi stimati, candiderebbe definitivamente la Cina al ruolo di nuovo leader mondiale nell’esplorazione spaziale realizzando, per usare le parole del capo di stato Xi Jinping, il “sogno eterno” cinese. Grazie a enormi investimenti e piani lungimiranti il paese del dragone intende inoltre proseguire le missioni lunari robotiche ma non solo (il primo astronauta cinese è atteso sulla Luna entro il 2030), la raccolta di roccia da una cometa con Tianwen-2 e l’esplorazione del sistema satellitare gioviano con Tianwen-4.
A proposito del programma Tianwen, potreste ricordare la missione capostipite che nel 2021 portò attorno e su Marte per conto della Cina il suo primo orbiter, il primo lander e il primo rover (Zhurong). La missione riuscì in ogni aspetto, con uno dei risultati più notevoli sull’atterraggio che i cinesi hanno azzeccato al loro primo tentativo.
MAVEN e Hubble scoprono il destino dell’acqua marziana
Nonostante decenni di ricerca sono ancora molti i dubbi su quale sia stato il destino dell’acqua un tempo ospitata sulla superficie di Marte. Parte di essa è presumibilmente finita nel sottosuolo (a riguardo si veda Coelum Astronomia n 270), ma che fine ha fatto il resto? Un nuovo tassello nella nostra comprensione della storia del pianeta viene da uno studio pubblicato a luglio sulla rivista Science Advances e a prima firma di John T. Clarke della Boston University. Clarke e colleghi hanno utilizzato i dati della sonda MAVEN e del telescopio spaziale Hubble per cercare di quantificare il tasso di fuga dell’idrogeno marziano nello spazio.
Foto nel profondo infrarosso realizzate da Hubble durante l’afelio (sopra) e perielio marziani. NASA, ESA, STScI, John T. Clarke (Boston University); Processing: Joseph DePasquale (STScI)
Il meccanismo con cui l’acqua di Marte evapora è indotto dalla radiazione solare che scinde le molecole di H2O nelle sue componenti ossigeno e idrogeno. L’idrogeno è un atomo molto leggero e tende a disperdersi nello spazio con facilità, ma il suo isotopo, il deuterio, presente in una certa quantità, è più pesante poichè nel suo nucleo ospita anche un neutrone. Con il doppio del peso atomico il deuterio fugge dall’atmosfera a un tasso estremamente inferiore. Paragonando la sua attuale presenza in atmosfera rispetto alla quantità di idrogeno, gli scienziati creano uno strumento in grado di stimare l’ammontare di acqua presente su Marte in passato.
Gran parte dei dati impiegati nello studio derivano da misurazioni della sonda MAVEN la quale però non è abbastanza sensibile da poter rilevare le emissioni dovute al deuterio per tutta la durata dell’intero anno marziano. Infatti, a causa della marcata ellitticità dell’orbita di Marte, la distanza tra afelio e perielio oscilla di ben il 40% attorno al valore medio. MAVEN è in grado di eseguire le sue rilevazioni solo quando Marte è più vicino al Sole, quando fra gli altri effetti, l’atmosfera si espande a causa del maggior calore ricevuto. Il buco nei dati relativo all’afelio è stato colmato invece dal telescopio Hubble in grado di produrre osservazioni utili allo scopo fin dagli anni ‘90 Una mole di dati che può coprire interi cicli marziani.
Insieme all’analisi del rapporto D/H (deuterio/idrogeno) i ricercatori hanno anche affinato i modelli matematici usati per descrivere l’atmosfera del pianeta. Il team autore dello studio ha scoperto che l’atmosfera di Marte è molto più dinamica di quanto ritenuto in passato e presenta cicli termici variabili anche su tempi molto brevi, persino poche ore. Il nuovo modello messo a punto dagli scienziati mostra come le molecole di acqua tendano a salire in alta quota favorendo la “fuga atomica”, la quale tuttavia non può contare solo sulle alte temperature ma deve usufruire anche del contributo di altri fenomeni quali collisioni con i protoni del vento solare e reazioni chimiche indotte dalla radiazione luminosa.
Lo studio dell’evoluzione del clima di Marte attraverso la storia della sua acqua aggiungerà elementi alla comprensione del passato degli altri due mondi all’interno della fascia abitabile del Sole, la Terra e Venere, ma anche di molti esopianeti che è impossibile osservare con analogo dettaglio.
Le sonde ESCAPADE partiranno l’anno prossimo (forse)
Il via libera era arrivato a fine agosto ma il 6 settembre c’è stato un improvviso contrordine. La NASA infatti ha annunciato lo stop al lancio dei due satelliti gemelli ESCAPADE (Escape and Plasma Acceleration and Dynamics Explorers) previsto il 13 ottobre a bordo del pesante vettore incaricato del lancio: il lungamente atteso New Glenn costruito da Blue Origin, compagnia spaziale fondata dal magnate ed imprenditore Jeff Bezos. Nonostante le rassicurazioni di Blue Origin, la NASA non ha ritenuto soddisfacenti i risultati dell’ultimo flusso di verifiche nonostante i test delle integrazioni e lo static fire (prova di accensione dei motori) avessero prodotto risultati positivi.
La ragione per rinunciare al lancio a poco più di un mese dall’apertura della finestra verso Marte del 13-21 ottobre è da individuare nelle fasi di preparazioni al lancio fra cui la più critica è senz’altro quella che riguarda il caricamento del propellente nei serbatoi dei due satelliti. I composti utilizzati sono idrazina e tetrossido di azoto, rispettivamente combustibile e ossidante, che vengono fatti venire in contatto per generare una violenta reazione senza l’uso di altri inneschi. Si tratta di un tipo di miscela usata fin dagli anni ‘50 per la sua affidabilità ma è altamente tossica e richiede particolari cautele nella sua gestione.
Attraverso una dichiarazione ufficiale diffusa sui propri canali la NASA ha reso noto che in caso di annullamento del lancio l’operazione di svuotamento dei serbatoi delle sonde avrebbe costituito una complicazione tecnica ed organizzativa, nonché causa di una grossa spesa aggiuntiva. Un rischio troppo elevato che ha spinto l’agenzia ad optare per un rinvio del lancio a non prima della primavera 2025. A seguito della scelta le sonde ESCAPADE perderanno purtroppo la finestra per arrivare verso il Pianeta Rosso lungo la traiettoria più rapida, con la probabilità abbastanza concreta che il viaggio si allunghi di svariati mesi rispetto ai 6/7 necessari in condizioni ideali. Non sono stati rilasciati dettagli su traiettorie alternative, ancora in fase di studio, ma c’è una possibilità non trascurabile che il lancio venga rimandato di due anni in attesa del prossimo avvicinamento tra la Terra e Marte. La missione ESCAPADE è composta da due veicoli spaziali identici progettati per studiare l’interazione del vento solare con l’ambiente magnetico di Marte, causa della fuga dell’atmosfera dal pianeta. “Questa missione può aiutarci a studiare l’atmosfera di Marte, un’informazione chiave mentre esploriamo sempre più lontano nel nostro Sistema Solare e abbiamo bisogno di proteggere astronauti e veicoli spaziali dal meteo spaziale,” ha dichiarato Nicky Fox, amministratrice associata per la scienza presso il quartier generale della NASA a Washington. “Siamo impegnati a portare ESCAPADE in sicurezza nello spazio, e non vedo l’ora di vederla partire per il suo viaggio verso Marte“.
La Terra e Fobos osservati da Curiosity
Non è raro che i rover marziani vengano usati per fotografare il cielo del Pianeta Rosso. Questo avviene spesso di giorno per misurare il tau (il tasso di oscuramento legato alle polveri, rilevato quasi quotidianamente) o riprendere i saltuari transiti dei due satelliti di fronte al disco solare. Sono più rare, e forse per questo più affascinanti, le riprese del cielo notturno di Marte.
Le due immagini così come processate magistralmente dai grafici del JPL. NASA/JPL-Caltech
Una di queste occasioni è capitata di recente a Curiosity che il 5 settembre (Sol 4295 di missione) è stato programmato per puntare il suo “sguardo” verso l’alto dopo il tramonto del Sole. Dalla sua posizione su Texoli, una collina isolata alle pendici del Monte Sharp, il rover ha eseguito una serie di scatti che hanno spaziato dall’orizzonte fino a circa 15° di elevazione. E in un piccolo angolo di cielo, grande appena mezzo grado, Curiosity ha eseguito la prima osservazione in assoluto di Fobos insieme alla Terra. I due corpi sono visibili nella parte alta dell’immagine, processata dagli esperti della NASA a partire da 17 foto. E qui si svela un piccolo “trucco” perché 5 di queste foto sono state eseguite di giorno mentre le restanti 12 sono esposizioni lunghe (comunque solo pochi secondi per evitare l’effetto scia) acquisite otto ore dopo, di notte a Sole tramontato da diverse ore e a più di 20° sotto l’orizzonte. Vediamo ora di aggiungere qualcosa di inedito alle cronache della NASA sin qui riportate, nello spirito proprio di questa rubrica che spesso indaga dettagli inaspettati ma (spero) di grande fascino. L’elaborazione dell’immagine con lo zoom su Fobos e la Terra, in mezzo al notevole disturbo che emerge schiarendo le aree buie, rivela un piccolo “grumo” di pixel sospetto. Si tratta di distribuzione casuale del rumore digitale o c’è dell’altro? Una possibile risposta viene dalla simulazione della scena immortalata da Curiosity tramite il software Stellarium. I dati della posizione possono essere ricavati dalla mappa messa a disposizione dalla NASA con la posizione del rover, le informazioni di scatto (con la data e l’ora in formato UTC) sono invece incluse nei metadati che corredano ogni singola immagine raw.
Sopra: elaborazione dell’immagine NASA con in evidenza l’area più chiara descritta. Sotto: simulazione da Stellarium. NASA/JPL-Caltech/Stellarium-Fabien Chereau/Piras
Il simulatore fornisce una risposta sorprendente: quel piccolo gruppo di pixel potrebbe infatti celare la nostra Luna brillante in quel momento di magnitudine 2.8. Gli altri corpi apparivano invece estremamente più luminosi, come la Terra stimata a -1.7 e Fobos a -4.1. Va ricordato che tali misure non tengono conto dell’estinzione dovuta alla presenza di polveri nell’atmosfera di Marte, oggi anche causa di un significativo oscuramento per le temperature in aumento. Stellarium si conferma uno strumento di simulazione astronomica di notevole fedeltà. L’immagine a seguire è stata ottenuta modificando solo di una decina di arcominuti (corrispondenti all’incirca ad altrettanti km) la latitudine ricavata dalla mappa in modo da avvicinarsi quanto più possibile alla foto reale. L’ora di scatto è stata inserita esattamente come indicata nei metadati.
Da decenni, l’umanità si interroga sulla possibilità di altre civiltà intelligenti nell’universo. L’equazione di Drake suggerisce che la nostra galassia potrebbe ospitarne milioni, eppure non abbiamo ancora ricevuto alcun segnale. Questo enigma, noto come paradosso di Fermi, ha dato vita a diverse ipotesi. Tra le più affascinanti, la teoria della selezione naturale cosmologica di Lee Smolin propone che gli universi si evolvano come organismi viventi, riproducendosi attraverso i buchi neri e favorendo condizioni adatte alla vita.
Facendo congetture ragionevoli circa i parametri che compaiono nell’Equazione di Drake – lo strumento matematico introdotto dall’astronomo americano Frank Drake nel 1961 per fornire una stima del numero di civiltà intelligenti nella nostra galassia – si arriva al risultato che, in questo preciso istante, ci potrebbero essere circa un milione di civiltà che cercano di comunicare tra cui molte sicuramente più avanzate della nostra ma, nella nostra ricerca di civiltà extraterrestri, ancora non abbiamo ricevuto alcun segnale. Questo paradosso – formulato da Enrico Fermi nel 1950 nel corso di un pranzo con Teller, York e Konopinski con la celebre domanda “Dove sono tutti quanti?”– non sta tanto nella non esistenza di civiltà extraterrestri, quanto piuttosto nel fatto che non incontriamo segnali di civiltà intelligenti mentre invece la nostra galassia, alla luce di congetture ragionevoli a partire dall’Equazione di Drake, dovrebbe brulicarne. Da oltre mezzo secolo sono state proposte varie soluzioni al paradosso di Fermi. Tra le soluzioni che prevedono che gli alieni sono già stati qui ma non ce ne siamo accorti, in particolare, il regno della fisica teorica ci prospetta una linea di pensiero che, se dimostrata, proverebbe l’esistenza di molti altri universi tendenti allo sviluppo di civiltà extraterrestri tecnologicamente avanzate; una congettura ancora più ardita implica che sarebbe stata proprio una di queste civiltà a creare il nostro universo. Ciò che è veramente interessante è che questa teoria porta ad una previsione precisa che può essere testata. Nell’ambito della ricerca di una teoria del tutto in grado di unificare tutte le forze della natura, abbiamo importanti indizi che portano ad un approccio teorico in cui i valori di tutta una serie di parametri (come le masse delle particelle elementari e l’intensità relativa delle forze fondamentali) devono essere inseriti “a mano”, cioè ad una teoria del tutto che non riesce a spiegare perché i parametri fondamentali hanno proprio i valori che osserviamo, il che significa che comporta l’esistenza di una moltitudine di universi possibili, ognuno dei quali avrebbe valori diversi per i vari parametri fondamentali. Ma per quali motivi i valori dei parametri fondamentali sono proprio quelli necessari alla vita?
Figura 1: Nella teoria della selezione naturale cosmologica, la singolarità al centro di un buco nero costituirebbe l’origine di un nuovo universo, diverso dal progenitore per i valori di alcuni parametri fondamentali.
Per rispondere a questo interrogativo esistono sostanzialmente tre linee di pensiero. Alcuni ritengono che tali valori siano stati disposti dal caso (ma, in base a calcoli eseguiti da Lee Smolin, fisico teorico del Perimeter Institute of Theoretical Physics di Waterloo, in Canada, la probabilità di incappare in un insieme di parametri casuali che portino ad un universo favorevole alla vita è addirittura di 1 su 10 229). Un secondo approccio consiste nel prendere in considerazione il principio antropico, l’idea che i parametri sono regolati su valori così improbabili proprio allo scopo di permettere il venire all’esistenza di creature razionali come noi, ma molti scienziati si sentono a disagio con ragionamenti di questo tipo. Un terzo approccio, sostenuto da Smolin, consiste nell’applicare l’evoluzionismo darwiniano alla cosmologia: secondo Smolin, le costanti – e forse anche le leggi – della fisica si sono evolute fino alla forma attuale seguendo un processo simile alla mutazione e alla selezione naturale, sulla base di processi di generazioni di nuovi universi da parte di buchi neri che si formano in un universo. Sulla base di questa visione, a livello cosmologico avrebbe luogo un processo analogo alla selezione naturale biologica: possono riprodursi solo gli universi che possiedono al loro interno il numero maggiore di buchi neri. In questo articolo, ci proponiamo di esplorare le prospettive introdotte da questo peculiare approccio cosmologico.
La Teoria di Smolin
l’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
Figura 2: Lee Smolin sostiene che nel cosmo funziona come in biologia: l’universo sarebbe un organismo vivente e i buchi neri avrebbero la capacità di generare una progenie di universi, i quali sarebbero soggetti ad una sorta di selezione naturale similare allo schema darwiniano.
A partire dagli anni ’90, Lee Smolin ha sviluppato una vera e propria Teoria della Selezione Naturale Cosmologica” in cui la cosmologia viene trattata applicando le regole dell’evoluzione biologica. Nella visione di Smolin, si assume che il collasso di un buco nero originerebbe un nuovo universo le cui costanti fisiche (quali, ad esempio la velocità della luce) sono leggermente differenti da quelle dell’universo “madre”, un po’ come avviene con le mutazioni biologiche. Esistono perciò tanti universi quanti sono i buchi neri e, in questo processo evolutivo, avviene una selezione naturale degli universi in quanto, per alcuni di essi, non è possibile raggiungere l’età necessaria per sviluppare buchi neri. In altri termini, possiamo dire che, in questa visione, l’universo in cui viviamo sarebbe stato generato dalla formazione di un buco nero in un universo genitore con costanti fisiche simili alle nostre e, inoltre, gli universi con parametri tali da portare alla formazione di buchi neri saranno dominanti rispetto agli altri. Ora, per quanto ne sappiamo, il modo più efficiente per un universo di produrre spontaneamente buchi neri è il collasso gravitazionale delle stelle. Per esempio, tramite il collasso stellare il nostro universo è in grado di formare 1018 buchi neri (e altrettanti universi figli, secondo il modello di Smolin). Ci si aspetta quindi che universi contenenti innumerevoli stelle sono in grado di dare origine a una maggiore quantità di buchi neri e, come tali, avrebbero caratteristiche tali da consentire l’emergere di fenomeni complessi e, in particolare, della vita.
Figura 3: Lee Smolin nel 2019
Nella teoria della selezione cosmologica di Smolin, le singolarità al centro dei buchi neri – le distorsioni estreme dello spazio-tempo prodotte dal collasso gravitazionale di stelle di massa enorme, diverse volte quella del nostro Sole – possono essere considerate una controparte della singolarità cosmologica associata al Big Bang invocato dalla cosmologia standard per spiegare l’origine del nostro universo: la singolarità al centro di un buco nero darebbe vita a un nuovo Big Bang e quindi ad un nuovo universo e, proprio come ogni nuova generazione negli esseri viventi diverge dalla precedente per pochi geni, che variano in modo casuale, allo stesso modo ogni nuovo universo che scaturisce dalla singolarità al centro di un buco nero, pur nascendo da un universo precedente, è diverso per pochi parametri fondamentali, che variano in modo casuale. Inoltre, su tutto questo multiverso agisce il principio della selezione naturale, nel senso che, proprio come per gli esseri viventi l’evoluzione fa sì che solo quelli più forti e adatti, che hanno acquisito un vantaggio competitivo, sono destinati a sopravvivere e a riprodursi, allo stesso modo per gli universi: tanto più un universo può generare altri universi-figlio, tanto più questo tipo di universo si diffonderà nel multiverso. Pertanto, nella visione di Smolin, se la selezione naturale cosmologica porta alla diffusione di universi dove possono nascere le stelle e dove queste possono poi generare buchi neri a volontà, il punto cruciale è che la vita stessa sarebbe un mero sottoprodotto della selezione naturale cosmologica. E, siccome esiste un vantaggio evolutivo nell’avere un universo i cui parametri abbiano valori tali da permettere la nascita delle stelle, gli universi come il nostro non sarebbero affatto rari, come finora ipotizzato, ma al contrario estremamente comuni e, come tali, potrebbero consentire la nascita e l’evoluzione di forme di vita intelligenti come la nostra. Non esiste però alcuna prova, al momento, che la formazione di un buco nero crei un universo diverso e in espansione. E, anche se accadesse, non siamo in grado di rispondere a molti interrogativi. Per esempio, come si modificano, precisamente, i parametri fisici alla nascita di ogni universo figlio? Finché non si disporrà di una completa teoria quantistica della gravità, non potremo nemmeno iniziare ad affrontare interrogativi come questo. Ciononostante, l’idea di Smolin ha un certo appeal: riesce a collegare idee scientifiche come l’evoluzione, la relatività e la teoria quantistica per spiegare il rompicapo secolare dei valori dei parametri fondamentali della fisica. Per di più essa fornisce una predizione specifica, su cui testare la teoria: siccome viviamo in universo in grado di generare buchi neri e possiamo quindi assumere che i suoi parametri non si discostino dai valori ottimali per la formazione di buchi neri, un cambiamento in uno qualsiasi dei parametri fondamentali porterebbe a un universo con meno buchi neri. Le conoscenze attuali di astrofisica non ci permettono però di determinare gli effetti di una variazione di tutti i parametri, anche se Smolin ha cercato di elaborare alcune predizioni dalla sua teoria, eventualmente verificabili sperimentalmente, come l’esistenza di un limite superiore nella massa delle stelle di neutroni (pari a non oltre due masse solari). Riflettendo sul perché le costanti fisiche sembrino essere esattamente tarate per lo sviluppo e il mantenimento della vita organica, a metà degli anni ‘90 Edward Harrison ha ulteriormente sviluppato la visione di Smolin ipotizzando che, quando si dispone di una teoria cosmologica affermata, si potrebbe iniziare a credere che occorra favorire la nascita di più buchi neri possibile, per aumentare la probabilità che altri universi contengano vita intelligente e che una civiltà tecnologicamente molto più avanzata della nostra potrebbe generare in laboratorio un enorme numero di buchi neri e, quindi, anche un universo con parametri fisici fondamentali molto simili ai nostri. Pertanto, Harrison sostiene che c’è la possibilità che il nostro universo sia stato generato da un buco nero creato da una civiltà extraterrestre tecnologicamente molto avanzata. In un articolo del 2010 anche L. Crane ha esplorato questa prospettiva, congetturando che civiltà tecnologicamente avanzate potrebbero creare singolarità sia per scopi scientifici sia come risorsa di energia. Ci si può però chiedere: una tale civiltà extraterrestre in grado di creare universi paralleli avrebbe potuto far passare qualche messaggio attraverso la deflagrazione che ha creato un altro universo? Di per sé, l’idea che una civiltà extraterrestre possa aver trasmesso un messaggio è intrigante in quanto, se lo trovassimo, allora sapremmo che non siamo soli nel multiverso.
Sviluppi Recenti
Anche se la tesi di Smolin non ha riscosso il consenso di molti fisici e cosmologi (per esempio, Stephen Hawking l’ha respinta più volte), alcune ricerche recenti hanno portato ad interessanti sviluppi di quest’idea. Per esempio, due ricercatori di Oxford, l’evoluzionista Andy Gardner e il fisico teorico Joseph Conlon, hanno pubblicato nel 2013 uno studio in cui mostrano, usando gli strumenti matematici della biologia evoluzionistica, che l’ipotesi che l’universo abbia uno scopo, vale a dire quello di massimizzare la produzione di buchi neri per “garantirsi la discendenza”, è compatibile con la teoria di una selezione naturale cosmologica.
Figura 4: In un articolo pubblicato nel 2013 sulla rivista Complexity, Andy Gardner e Joseph Conlon hanno mostrato come gli strumenti matematici dell’evoluzione biologica – e, in particolare, un teorema chiave della genetica chiamato “equazione di Price” – permetterebbero in linea di principio alla selezione naturale cosmologica di “progettare” l’universo allo scopo di produrre buchi neri e, di conseguenza, una progenie di universi figli.
In un altro lavoro, pubblicato nel 2020 da Jeffrey M. Shainline del National Institute of Standards and Technology di Boulder, in Colorado, ci fornisce una nuova chiave di lettura che mostra in che senso i parametri dell’universo si sarebbero evoluti attraverso la selezione naturale per massimizzare la fecondità. Mentre Smolin aveva suggerito che le stelle determinassero la produzione di nuovi universi attraverso i buchi neri prodotti dai collassi gravitazionali, Shainline sostiene che un universo può produrre molti più figli se la vita intelligente usa la tecnologia per convertire intenzionalmente l’energia in singolarità. Questo ragionamento porta all’ipotesi che i parametri del nostro universo siano stati sintonizzati attraverso l’evoluzione cosmologica per consentire alle stelle, alla vita e alle tecnologie favorevoli di generare nuovi universi. Shainline sostiene che l’ipotesi di Smolin della selezione naturale cosmologica è il processo mediante il quale il nostro universo ha acquisito i suoi parametri e che la vita intelligente dotata di tecnologia avrebbe la capacità di produrre più buchi neri di quelli prodotti dalle stelle. Il core della suggestiva proposta di Shainline può essere riassunto nella seguente immaginifica storia: le stelle promuovono la vita, la vita crea tecnologia e la tecnologia realizza la riproduzione cosmologica. La messa a punto delle tecnologie attraverso la selezione naturale cosmologica comporta, nella visione di Shainline, non solo elettronica al silicio, ma anche superconduttori al niobio e altri materiali, infrastrutture criogeniche abilitate dalle proprietà termodinamiche dell’elio liquido, realizzazione di dinamo planetarie e costruzione di apparati tecnologici su larga scala. L’ipotesi di Shainline richiede parametri che soddisfino simultaneamente molti fattori concorrenti per massimizzare la fecondità.
Per concludere, studi come quelli di Gardner e Conlon e di Shainline, mostrano come la teoria della selezione naturale cosmologica sia densa di prospettive e, soprattutto, possa considerarsi una delle più significative teorie scientifiche attualmente in circolazione per risolvere il dilemma antropico senza tirare in ballo altre ipotesi che metterebbero in crisi la visione del mondo condivisa dagli scienziati, secondo cui la nostra esistenza non ha nessun impatto nella comprensione dell’universo. Alla luce di questa suggestiva visione, se siamo qui, non lo dobbiamo né a un dio né a uno straordinario risultato del caso, ma ai buchi neri e alla loro capacità di generare nuovi universi e, anche se ancora siamo lontani dall’avere a disposizione dei test plausibili di questa teoria, immaginare che lassù tra le stelle vi siano i semi di nuovi universi rende il cosmo ancora più affascinante di quanto già non sia.
BIBLIOGRAFIA L. Crane, “Possible implications of the quantum theory of gravity: An introduction to the meduso-anthropic principle”, Foundations of Science, 15, 369 (2010). A. Gardner and J.P. Conlon, “Cosmological natural selection and the purpose of the universe”, Complexity, 18, 5, pp. 48-56 (2013). E. Harrison, “The natural selection of universes”, Quarterly J. Royal Astronomical Society, 36, pp. 193-203 (1995). J.M. Shainline, “Does cosmological evolution select for technology?”, New Journal of Physics, 22, 073064 (2020). L. Smolin, “The fate of black hole singularities and the parameters of the standard models of particle physics and cosmology”, arXiv:gr-qc/9404011 (1994). L. Smolin, La vita del cosmo, Einaudi, Torino (1998). F. Vanetti, “L’universo è un organismo vivente che si riproduce attraverso i buchi neri: l’audace teoria di un fisico americano”, corriere.it, 29 aprile 2024 S. Webb, Se l’universo brulica di alieni … dove sono tutti quanti?, Sironi, Milano (2018).
IMPIEGO DI FILTRI E CAMERE MULTISPETTRALI PER LA DIAGNOSTICA SU OPERE D’ARTE
La prima domanda da porsi è se sia possibile vedere l’invisibile. Apparentemente la risposta l’abbiamo già data: se è invisibile non si vede. Forse è utile cominciare dalle definizioni ufficiali che troviamo comunemente sui dizionari.
VISIBILE
Che può essere visto o percepito dall’occhio umano. In ottica si dice delle radiazioni elettromagnetiche percepite dall’occhio, corrispondenti al campo di lunghezze d’onda compreso tra i limiti convenzionali di 400 nm (estremo violetto) e 800 nm (estremo rosso) (fig. 1a e 1b).
Fig.1a – La radiazione elettromagnetica percepita dall’occhio – Fig.1b – Una superficie riflette alcune bande dello spettro elettromagnetico e l’occhio percepisce i colori.
INVISIBILE
Che non si può percepire con la vista (occhio umano), per la distanza, la dimensione o altro. Di cose che, per la loro distanza e piccolezza o per loro intrinseca natura, non si riesce a percepire con la vista (ma possono per lo più essere percepite con l’aiuto di strumenti) (fig. 2).
Fig. 2 – La parte di spettro elettromagnetico che è rilevabile solo strumentalmente.
l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
Aiutati da alcuni strumenti possiamo osservare alcune caratteristiche di un oggetto altrimenti non visibili dall’occhio umano. Sappiamo quindi che esiste un mondo invisibile fatto di informazioni che possono aiutare a comprendere meglio la natura degli oggetti, nel caso nostro parliamo di manufatti, di opere d’arte. Il punto di partenza sarà obbligatoriamente lo spettro elettromagnetico in cui è possibile apprezzare che ciò che vede il nostro occhio è una minima parte del mondo fisico che ci circonda (fig. 3).
Fig. 3 – Nelle indagini diagnostiche si usa una parte dello spettro elettromagnetico più vasta di quello percepito dagli occhi.
Lo spettro elettromagnetico e le interazioni con la materia
Lo spettro elettromagnetico interagisce con la materia e, con gli opportuni strumenti, siamo in grado di esaminare la struttura di un manufatto. Con le tecniche di analisi che si andranno a descrivere infatti si potranno osservare le sequenze stratigrafiche, in particolare per i dipinti, partendo dall’analisi della superficie, fino ad arrivare ad attraversare completamente la materia, costituente l’oggetto, con i raggi X (fig. 4).
Fig. 4 – Schema di base sull’impiego delle bande spettrali usate in diagnostica sui Beni Culturali.
Per capire meglio andiamo ad esplorare lo spettro elettromagnetico “sopra” e “sotto” il visibile. Considerando poi che il visibile inizia con il colore viola e termina con il rosso sarà facile intuire la terminologia usata.
L’ULTRAVIOLETTO
Il termine ultravioletto è composto da due parole che determinano la sua posizione nello spettro elettromagnetico: ultra e violetto (sopra il viola). Parliamo di radiazione elettromagnetica avente lunghezza d’onda compresa tra quella minima della radiazione visibile (400 nm, corrispondente al colore violetto) e 200 nm, valore oltre il quale si entra nello spettro dei raggi X. Si indica spesso con la sigla UV o con l’abbrev. U.V.). La radiazione ultravioletta è fortemente attinica, cioè ha un grande potere ionizzante e fotoelettrico. Essa dà luogo a fluorescenza e fosforescenza in varie sostanze, per lo più organiche e ha notevoli effetti biologici, tra i quali l’alterazione della struttura del DNA.
L’INFRAROSSO
Anche in questo caso il termine impiegato è composto da due parole e indica la sua posizione nello spettro elettromagnetico: infra e rosso (sotto al rosso). È una radiazione elettromagnetica con lunghezza d’onda compresa all’incirca fra 1 mm e 700 nm. Si estende dall’estremo superiore delle onde hertziane (microonde) all’estremo inferiore (rosso) dello spettro delle onde visibili. La banda infrarossa (IR) è generalmente suddivisa in infrarosso vicino, medio, lontano ed estremo.
I RAGGI X
I raggi X sono stati scoperti intorno al 1895 dal fisico tedesco W. K. Röntgen che eseguendo delle ricerche sul passaggio della scarica elettrica attraverso i gas. Durante gli esperimenti egli notò una nuova radiazione, alla quale diede il nome di raggi X o di raggi Röntgen. La scoperta suscitò subito una grande curiosità offrendo essa, per la prima volta, la possibilità di vedere e di fotografare attraverso corpi opachi. La vera natura dei raggi X perciò è stata lungamente oggetto di studio anche a causa delle grandi differenze mostrate dalle proprietà rispetto a quelle delle radiazioni allora conosciute. I raggi X si possono collocare nella vasta scala dello spettro elettromagnetico, che comprende le onde elettriche, l’infrarosso, la luce visibile e l’ultravioletto, ma grazie alla loro limitata lunghezza d’onda possiedono proprietà particolari e sono in grado di attraversare la materia.
La Diagnostica Multispettrale nell’Arte
Nella diagnostica su opere d’arte, la tecnica multispettrale ha una caratteristica unica nel panorama delle indagini che si possono effettuare: quella di essere non distruttiva, ovvero di non arrecare danni (prelievi, abrasioni) al manufatto che si sta analizzando. Tale caratteristica peculiare la rende una delle tecniche più impiegate nella diagnostica sui Beni Culturali. È una tecnica applicabile a tutte le tipologie di manufatto ma i risultati più validi si ottengono su le superfici pittoriche; essendo infatti una tecnica stratigrafica consente di indagare una superficie pittorica evidenziando i diversi strati che la compongono e può rilevare pitture sovrapposte, ripensamenti e restauri.
Fig. 5 – L’ANNUNCIAZIONE di Antonello da Messina dopo l’ultimo restauro.
UN CASO DI STUDIO: ANNUNCIAZIONE DI ANTONELLO DA MESSINA
La storia dell’Annunciazione di Antonello da Messina è molto complessa, le notizie certe ci portano ad attribuirle almeno tre restauri documentati (L. Cavenaghi 1908-1914; ICR 1942; E. Geraci 1986-1987) ma non ci fanno certo escludere che l’opera possa essere stata oggetto di altri restauri in epoche precedenti (fig. 5). Il dipinto ha peculiarità uniche nel suo genere, si tratta infatti di una tavola che, all’inizio del ‘900, ha subito un trasporto su tela. Questo tipo di operazione deve assolutamente essere considerata nell’approccio diagnostico e nel conseguente studio analitico dei risultati delle indagini che si vanno ad effettuare. Per quale motivo? Le indagini eseguite su questo dipinto sono state varie e molteplici, in campo fisico, più precisamente in Diagnostica Non Distruttiva, le analisi in frequenza hanno consentito una discriminazione delle diverse tipologie di degrado. Al fine di consentire una lettura completa delle informazioni ottenute, si presenteranno a seguire delle sequenze di immagini frutto dell’applicazione di tecniche diverse.
FLUORESCENZA IN ULTRAVIOLETTO E IR FOTOGRAFICO
La fluorescenza in ultravioletto è una indagine non distruttiva che, avvalendosi della caratteristica tipica di alcuni pigmenti di emettere fluorescenza visibile quando irraggiati da una sorgente in ultravioletto, consente la discriminazione delle diverse apposizioni pittoriche. In questo caso la fluorescenza in ultravioletto è stata complementare all’indagine radiografica. Osservando la fluorescenza emessa nel visibile (fig. 6) ad un primo esame si notano i rifacimenti effettuati nell’attuale restauro. Confrontando la stessa immagine con quella ottenuta in IR fotografico (fig. 7), con tecnica sottrattiva, si possono apprezzare diversi interventi di restauro eseguiti sull’opera.
Fig. 6 – Fluorescenza in UV del particolare raffigurante “L’angelo”.Fig. 7 – IR del particolare raffigurante “L’angelo”.
Con una osservazione mirata su di un particolare, preso come esempio tra le varie situazioni indagate possiamo vedere come con questa tecnica (fig. 6) si evidenzia la stessa situazione visibile nel radiogramma (fig. 8) ma che non ha riscontro nell’infrarosso fotografico (fig. 7) e tanto meno nel visibile.
Fig. 8 – RX del particolare raffigurante “L’angelo”.
INDAGINI RX La radiografia è una indagine anch’essa non distruttiva che permette l’analisi della materia nei suoi strati più profondi, consente di acquisire dati sulle disomogeneità dei materiali che costituiscono il manufatto e permette uno studio scrupoloso della difettologia. Nel caso studio specifico l’esame radiografico è stato eseguito con un apparato Gilardoni Art-Gil con finestra di berillio posizionato alla distanza di un metro dal dipinto, la proiezione di irraggiamento è stata del tipo antero-posteriore con lastra inserita tra tela e telaio e tubo emettitore sul lato dello strato pittorico. Ad un primo esame la visione radiografica dell’intero dipinto presenta una radio-opacità diffusa dovuta ad un elevato utilizzo di collante, sicuramente impiegato durante il trasferimento su tela e, in alcune zone, a residui del supporto originale, una situazione che ha reso molto difficile, e in alcuni casi impossibile, la lettura dello strato pittorico.
CONCLUSIONI
Nella porzione di dipinto presa come esempio (fig. 9), è visibile il particolare della mano destra dell’Angelo in cui le ultime due falangi dell’anulare e del mignolo, parzialmente piegate, sono attribuibili ad una stesura pittorica originale.
Fig. 9 – Nel circolo evidenziato, il particolare della mano.
Osservando l’immagine radiografica e la fluorescenza in ultravioletto possiamo notare come non sono più visibili le due dita piegate perfettamente visibili ad una osservazione diretta e ad una osservazione dell’immagine in IR fotografico. Questa differenziazione ci fa supporre che il particolare sia stato ricostruito arbitrariamente durante un precedente restauro non basato sui ben noti criteri di riconoscibilità e reversibilità.
Fig. 10 – La sequenza “multispettrale” con il: VISIBILE; IR; FL-UV; RX.
E ORA?
Finora abbiamo descritto e visto quante informazioni può fornire un’immagine al semplice variare della fonte di irraggiamento, ma se provassimo a variare anche l’incidenza della radiazione? Altri dettagli si potrebbero scorgere dalla figura 11 ad esempio.
Fig. 11 – Particolare con paesaggio in luce radente con incidenza di 10°.
Le lucenti stelle blu, visibili in basso a destra in questa scintillante ripresa del telescopio James Webb, appartengono alla galassia nana irregolare Leo P, situata a circa 5 milioni di anni luce di distanza da noi nella Costellazione del Leone. Nella piccola galassia la formazione stellare è particolarmente attiva e sono presenti notevoli quantità di stelle blu, giovani e massicce. La struttura simile a una bolla bluastra visibile in basso nell’immagine è una regione ricca di idrogeno ionizzato, che circonda una calda e gigante stella di tipo O.
L’immagine ripresa dalla NIRCam (Near-Infrared Camera) a bordo del JWST combina dati nell’infrarosso a lunghezze d’onda di 0,9 micron (in blu), 1,5 micron (in verde) e 2,77 micron (in rosso). Le stelle di Leo P appaiono bluastre per vari motivi: galassie con formazione stellare attiva come questa sono ricche di stelle blu giovani e massicce. Inoltre Leo P è quasi priva di elementi più pesanti di idrogeno ed elio, di conseguenza le sue stelle povere di metalli tendono ad essere più blu rispetto alle stelle simili al Sole. La struttura simile a una bolla visibile in basso è una vasta regione HII che circonda una stella di tipo O, calda e massiccia. Credit: NASA, ESA, CSA, K. McQuinn (STScI), J. DePasquale (STScI)
Secondo gli astronomi le grandi galassie si formano grazie a un processo di “accrescimento gerarchico”, attraverso fusione e accrescimento di galassie minori. Le galassie di piccola massa sono le strutture galattiche più diffuse nell’Universo, ma sono anche estremamente sensibili alle perturbazioni interne ed esterne. Tuttavia, Leo P è un oggetto raro: al contrario di gran parte delle galassie nane osservabili, si trova in una posizione molto isolata, alla periferia estrema del Gruppo Locale cui appartiene anche la Via Lattea. Con il suo contenuto in metalli estremamente basso (appena il 3% degli elementi pesanti presenti nel Sole) e la sua bassa massa stellare (circa 400.000 masse solari), Leo P assomiglia molto alle mini-galassie che si sono formate all’alba dell’Universo e offre la possibilità di ricavare indizi sul loro aspetto, quale era miliardi di anni fa. Le galassie nane solitarie come questa, non soggette a fusioni o interazioni con altre galassie, potrebbero mantenere per miliardi di anni le loro proprietà originarie e costituiscono un eccellente laboratorio per studiare l’evoluzione galattica in un ambiente “incontaminato”. Utilizzando la Near-Infrared Camera (NIRCam) a bordo del telescopio Webb, un team di astronomi ha misurato luminosità e colore di oltre 15.000 singole stelle in Leo P. Si è scoperto che la mini-galassia, come le altre sue simili, ha cominciato a formare stelle attivamente ai primordi della storia universale, ma in seguito ha smesso improvvisamente, in un periodo di poco successivo all’Epoca della Reionizzazione. A questa pausa durata vari miliardi di anni è seguita un’insolita riattivazione dei fenomeni di formazione stellare, che perdura ancora oggi. L’Epoca della Reionizzazione, databile probabilmente tra 450 e 900 milioni di anni dopo il Big Bang, è quel periodo in cui il gas primordiale, una nebbia opaca di freddo idrogeno, passa dallo stato neutro a quello ionizzato, grazie alla radiazione energetica dei primi oggetti luminosi. In quell’epoca i fotoni ultravioletti ad alta energia riempirono il cosmo, surriscaldando forse il gas nelle galassie più piccole e sopprimendo così la loro capacità di produrre stelle. Un’altra possibilità è che molte stelle nelle galassie nane primordiali abbiano subìto esplosioni energetiche di supernovae, espellendo ad alta velocità nello spazio il gas molecolare indispensabile per formare nuove stelle. Le osservazioni hanno rivelato che oggetti simili a Leo P, ma inseriti in un ambiente popolato da altre galassie, hanno smesso definitivamente di formare stelle poco dopo l’Epoca della Reionizzazione, trasformandosi in galassie “spente”. Al contrario, Leo P, dopo una fase di “letargo” durata vari miliardi di anni, si è riaccesa di giovani luci stellari. Questa differenza di comportamento tra galassie nane isolate e galassie nane all’interno di ammassi suggerisce che, nel determinare la cessazione definitiva della formazione stellare, influisca anche l’ambiente circostante. Le mini-galassie isolate potrebbero avere chance migliori di accumulare nuovamente gas e riaccendere la formazione stellare, mentre quelle in ambienti più densi potrebbero trovarsi all’interno di aloni di gas caldo in grado di inibire il raffreddamento necessario per formare nuove stelle. Oppure potrebbero vedersi strappare via il gas da galassie più grandi nelle vicinanze, tramite deprivazione mareale. Osservazioni come questa possono aiutare gli astronomi a comprendere come le piccole strutture primordiali si siano evolute nel corso di miliardi di anni e quali processi dirigano la formazione delle galassie.
Collaborazione Internazionale
Il JWST, il più grande telescopio spaziale mai lanciato, è una partnership tra NASA, ESA e CSA. Grazie a strumenti avanzati come NIRSpec e MIRI, e al supporto europeo, il Webb continua a rivoluzionare la nostra comprensione del cosmo primordiale.
Un’anomalia termica lontana dalle aurore gioviane ha sorpreso gli astronomi. Uno studio, guidato da Henrik Melin dell’Università di Leicester, rivela che un’improvvisa compressione del campo magnetico di Giove, provocata dal vento solare, ha generato un gigantesco riscaldamento atmosferico a latitudini inaspettate.
Il pianeta Giove è noto per le sue spettacolari aurore polari, generate dall’interazione tra il suo potente campo magnetico e particelle cariche provenienti sia dal Sole che dalla luna Io. Ma nel gennaio 2017, osservazioni effettuate con il telescopio Keck II alle Hawaii hanno rilevato qualcosa di inedito: una vasta regione atmosferica, lontana dai poli, con temperature superiori di 200 K rispetto alla media, in un’area di ben 180° di longitudine. L’anomalia, visibile solo per poche ore, ha sollevato interrogativi sulla sua origine.
Il team di ricercatori, tra cui anche membri della NASA e dell’Università del Colorado, ha utilizzato dati raccolti dalla sonda Juno e modelli avanzati del vento solare per ricostruire il contesto. Proprio in quelle ore, Giove aveva subito un impatto con un flusso solare ad alta velocità. Questo evento aveva compresso la magnetosfera, spingendo la sonda Juno fuori da essa per alcune ore e innescando, secondo gli autori, un processo simile a quanto avviene sulla Terra con le “Large-Scale Traveling Ionospheric Disturbances” (LSTIDs).4
Esempio di immagine ripresa dalla camera di guida NIRSPEC del telescopio Keck (in alto) e immagine spettrale corrispondente (in basso), registrate il 25 gennaio 2017 alle ore 11:42 UT. (In alto): immagine di Giove ottenuta con una camera di guida filtrata tra 2,134 e 4,228 μm, utilizzata per indicare la posizione della fenditura spettrale rispetto al pianeta. Durante tutta la sessione osservativa, la fenditura è stata mantenuta fissa in corrispondenza del mezzogiorno locale gioviano. Le regioni luminose nell’immagine corrispondono principalmente alla luce solare riflessa dai banchi di nubi di ammoniaca e dalle foschie polari. In alto a sinistra si può anche distinguere il satellite Europa. (In basso): immagine spettrale di Giove, suddivisa in due ordini spettrali, che mostra la radianza spettrale in funzione della lunghezza d’onda e della latitudine planetocentrica. Il metano assorbe fortemente la luce solare alle lunghezze d’onda più corte (a sinistra), mentre alle lunghezze d’onda più lunghe (a destra) prevale la luce solare riflessa. Le righe di emissione di H₃⁺ sono visibili in entrambi gli ordini spettrali e si estendono verticalmente dal polo nord (e oltre il bordo superiore del pianeta) fino a poco a sud dell’equatore.
“Questa ondata di calore potrebbe essere stata trasportata verso l’equatore da forti venti atmosferici, generati da un’improvvisa intensificazione dell’aurora,” scrivono gli autori, fra cui anche Tom Stallard e Henrik Melin dell’Università di Leicester. “Oppure potrebbe essere stata causata da un meccanismo energetico ancora sconosciuto, legato alla magnetosfera interna.”
Utilizzando osservazioni spettroscopiche infrarosse e sofisticate simulazioni, il team ha calcolato che l’anomalia si è spostata verso sud con velocità comprese tra 0,46 e 2,02 km/s, valori sorprendentemente simili a quelli osservati sulla Terra durante eventi aurorali estremi. La temperatura raggiunta in alcuni punti ha toccato i 950 K, un valore di norma riservato alle regioni aurorali polari.
Ma c’è di più: la posizione della regione calda non coincideva con aree di alta densità di H₃⁺ (l’idronio ionico), un tipico indicatore di riscaldamento da particelle precipitate, il che suggerisce un’origine dinamica piuttosto che locale.
I modelli solari HUXt e Tao-MHD, insieme ai dati in situ della sonda Juno (equipaggiata con lo strumento Waves), confermano che l’ambiente spaziale di Giove stava vivendo un momento di forte turbolenza. “L’emissione radio tipica del plasma magnetosferico era scomparsa e poi riapparsa, un chiaro segnale che la sonda era temporaneamente uscita dalla magnetosfera, schiacciata dal vento solare,” riportano gli autori.
Questa scoperta ha importanti implicazioni: l’influenza del vento solare si estende ben oltre le regioni aurorali, modificando l’intero bilancio energetico dell’alta atmosfera di Giove. Una dinamica che, finora, era stata considerata secondaria rispetto ai processi interni del pianeta.
Proiezioni cartografiche delle temperature di Giove e analisi della struttura calda osservata al di sotto della fascia aurorale, tutte registrate in corrispondenza del mezzogiorno locale del pianeta. Pannello a: mostra le temperature in funzione della longitudine e della latitudine, con l’ovale principale dell’aurora evidenziato in nero. Questo ovale rappresenta le regioni collegate magneticamente lungo le linee di campo fino a una distanza di 25 raggi gioviani nel piano equatoriale del pianeta. Pannello b: rappresenta una porzione del pannello a, in proiezione equirettangolare, e include l’adattamento al centro della struttura calda. Qui, la struttura è collegata ai punti dell’aurora a essa più vicini (seguendo il percorso più breve sulla superficie sferica, o “cerchio massimo”) tramite frecce nere. Sono inoltre sovrapposte le impronte magnetiche relative a distanze equatoriali di 5,9 raggi gioviani (l’orbita di Io) e 2,0 raggi gioviani. Pannello c: indica a quali regioni della magnetosfera equatoriale corrisponde la struttura calda, in termini di distanza dal centro del pianeta espressa in raggi gioviani (noti anche come L-shell). Pannello d: mostra la distanza tra la struttura calda e l’ovale aurorale, utilizzata per calcolare la velocità del movimento. Le velocità sono ottenute dividendo la variazione di distanza per l’intervallo temporale tra i punti di osservazione. In totale sono state determinate sei velocità, ciascuna calcolata da coppie di punti distanziati da un dato intermedio. Un esempio è riportato nel corpo del testo, con dettagli sul modello magnetico utilizzato. Le barre d’errore nei pannelli b e d derivano dalle incertezze nel puntamento del telescopio e dalle condizioni atmosferiche durante le osservazioni. Il pannello b è riportato nuovamente nella Figura S4 (nei materiali supplementari) per offrire una visione libera da annotazioni della struttura calda.
Il fenomeno osservato rappresenta la prima prova diretta di un meccanismo globale di trasporto termico atmosferico scatenato da un evento solare, e apre la strada a nuove indagini sia teoriche che osservazionali. In futuro, studi continui su più rotazioni gioviane potranno stabilire se questi eventi sono isolati o se rappresentano un elemento ricorrente del comportamento atmosferico di Giove.
Messier 21 è un giovane ammasso aperto situato nella costellazione del Sagittario, scoperto da Charles Messier nel 1764. Composto da circa 105 stelle, include anche giovani astri in formazione. Appartenente all'associazione Sagittarius OB1, si distingue per compattezza e per la “Croce di Webb”, una curiosa configurazione stellare.
Indice dei contenuti
Introduzione
Con Messier 21 approdiamo nuovamente agli ammassi aperti. Questi oggetti celesti, a differenza degli ammassi globulari, sono formati da un gruppo (che può essere anche di migliaia) di stelle nate nello stesso periodo da una nube molecolare gigante. Un esempio facile da ricordare per questa categoria è l’ammasso delle Pleiadi (M45) nella costellazione del Toro.
Storia delle osservazioni
M21 è situato nella Costellazione del Sagittario, e fu scoperto da Charles Messier il 5 giugno 1764, mentre era impegnato nella ricerca di comete. Lo descrisse come un “ammasso di stelle vicino al precedente” (riferendosi a Messier 20, la Nebulosa Trifida), osservando stelle di magnitudine 8 e 9 apparentemente immerse in una nebulosità diffusa. Tuttavia, il suo strumento non permise di distinguere con chiarezza l’ammasso, e l’impressione di una nebulosità si rivelò in seguito errata. L’ammasso non ricevette particolare attenzione nelle decadi successive. Né l’astronomo inglese William Herschel né suo figlio John fornirono descrizioni dettagliate, mentre l’ammiraglio William Henry Smyth lo osservò nel 1835 e lo descrisse come “un ammasso grossolano di stelle telescopiche, in una regione ricca della galassia”, notando una coppia stellare prominente al centro. Negli anni successivi, le osservazioni confermarono la presenza di stelle di tipo spettrale B0 e B1, suggerendo che si trattasse di un ammasso molto giovane. Solo con studi più recenti, grazie a osservazioni spettroscopiche e fotometriche, è stato possibile determinare con maggiore precisione l’età e la composizione di M21. Gli studi indicano che l’ammasso ha circa 4.6 milioni di anni, con una popolazione stellare che mostra una formazione relativamente omogenea.
L’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
L’analisi del moto stellare ha confermato l’appartenenza di M21 all’associazione Sagittarius OB1, un grande gruppo di stelle massicce nate nella stessa regione galattica. Per concludere con una curiosità, questo ammasso è anche noto come Croce di Webb, dato il motivo a “X” formato dalle componenti piú luminose dell’oggetto. La peculiare nomenclatura ha avuto origine dopo le osservazioni nel diciannovesimo secolo dell’astronomo e ministro della chiesa Anglicana Thomas William Webb.
Caratteristiche fisiche
Messier 21 o M21 è un ammasso aperto giovane, distante circa 4.250 anni luce dalla Terra, e si trova nel Braccio del Sagittario della Via Lattea, poco più vicino a noi rispetto alla vicina Nebulosa Laguna (M8). L’ammasso è relativamente compatto, con un nucleo denso di stelle concentrate in uno spazio ristretto, caratteristica non comune tra gli ammassi aperti di questa età. L’ammasso è composto principalmente da stelle di bassa massa e luminosità, ma ospita anche alcune giganti blu di tipo spettrale B0-B1, tra cui la brillante HD 164863, di magnitudine 7.3. In totale, si contano circa 105 stelle con magnitudine fino a 15.5, e studi recenti hanno identificato tra 40 e 60 stelle di pre-sequenza principale, ossia astri ancora in fase di contrazione gravitazionale prima di entrare stabilmente nella sequenza principale. Ventisei di questi candidati sono stati confermati tramite le emissioni di idrogeno alfa e la presenza di litio nei loro spettri. L’analisi dell’ammasso ha rivelato un raggio di marea (la zona circostante un oggetto celeste direttamente influenzata dalla gravità dall’oggetto stesso) di circa 11.7 parsec (1 parsec è uguale a 3.26 anni luce), mentre il nucleo si estende per circa 1.6 parsec con una massa totale stimata di circa 783 masse solari. La presenza di un numero significativo di stelle giovani e la loro disposizione suggeriscono che la formazione stellare sia avvenuta in un’unica fase piuttosto che in eventi successivi, un fenomeno relativamente raro negli ammassi aperti. Tuttavia, alcuni modelli suggeriscono che Messier 21 possa invece aver avuto due distinte fasi di formazione, con stelle leggermente più giovani rispetto ad altre già presenti.
Messier 21 è situato nella porzione settentrionale della costellazione del Sagittario, poco distante da M20, la Nebulosa Trifida. Infatti, rintracciare Messier 20 e poi spostarsi di circa 40 primi d’arco verso N è il metodo piú efficace (e veloce) per arrivare alla Croce di Webb.
In alternativa, è possibile partire dalla stella μ (Mu) Sagittarii (Polis – Al Thalimain – Alnam) e muoversi di circa due gradi verso SW.
Designazione: M21 – NGC 6531
Tipo: Ammasso Aperto
Classe: I3m
Distanza: 24 anni luce
Estensione: 40 anni luce
Costellazione: Sagittarius
Ascensione Retta: 18h 04m 36s
Declinazione: -22° 29′ 24″
Magnitudine: +6.5
Diametro Apparente: 14′ x 14′
Scopritore: Charles Messier nel 1764
Osservabilità
Per le latitudini italiane il periodo migliore per osservare questo ammasso globulare è da giugno ad ottobre.
Occhio nudo: non osservabile.
Binocolo: facilmente individuabile con un 10×50, apparendo come una macchia circolare opaca circondata da diverse stelle.
Telescopi
Piccolo diametro: SI POSSONO OSSERVARE PIÙ STELLE RISPETTO ALLA VISTA BINOCULARE.
Medio diametro: CON TELESCOPI DA 12-15 CM EMERGONO MOLTI PIÙ ASTRI APPARTENENTI ALL’AMMASSO.
Grande diametro: DAI 20 CM È POSSIBILE OSSERVARE UN NUMERO ANCORA MAGGIORE DI STELLE, IN PARTICOLARE NELL’AREA PIÙ DENSA DELL’OGGETTO CELESTE.
A.R.A.R. (ARAR Aps – Associazione Ravennate Astrofili Rheyta) e A.A.F. (Gruppo Astrofili Astro Amici Forlivesi) organizzano uno Star Party Romagnolo di fine primavera nelle colline degli Appennini, aperto a tutti gli appassionati (visualisti, astrofotografi, fotografi, curiosi).
Nella giornata di sabato si svolgeranno alcune attività aperte a tutti: prova di strumentazioni, confronti, osservazione del Sole con strumenti adeguati, cottura pietanze con forni solari e spiegazione della tecnica (a cura di Matteo Muccioli), laboratori e conferenze (con l’Astronomo Luca Angeretti alias Omino delle Stelle. Sarà inoltre presente il negozio Adriasky di Rimini con novità e strumenti. Infine ci sarà la possibilità di partecipare, nella giornata di sabato, al mercatino in cui ognuno potrà vendere e/o comprare accessori/strumenti ecc.
L’appuntamento è per l’ultimo week-end di maggio, da venerdì 30 maggio a domenica 1 giugno 2025, nella suggestiva location, immersa nel verde, di Corte San Ruffillo (via San Ruffillo, 12 – Dovadola FC).
La teoria della Relatività Generale di Albert Einstein, formulata all’inizio del secolo scorso (per la precisione nel 1915), è stata una delle più sorprendenti teorie scientifiche della storia dell’umanità e ha rivoluzionato la nostra conoscenza del cosmo. Einstein soppianta il concetto classico di forza, che si utilizzava nella descrizione della gravità classica elaborata da Newton, e ne rivoluziona i concetti base. Tempo e spazio non sono più enti assoluti, ma co-protagonisti negli eventi fisici. Massa ed energia modificano spazio e tempo. La gravità è quindi la manifestazione della curvatura dello spazio-tempo, che a sua volta influenza i percorsi dei corpi, con massa, come pianeti e stelle, oppure senza massa, come i fotoni, i costituenti della luce.
Indice dei contenuti
Le predizioni della Relatività Generale
Come qualsiasi teoria fisica che si rispetti la Relatività Generale ha risolto un problema che attanagliava le menti di fisici e astronomi. Ha riprodotto esattamente l’angolo di precessione del perielio dell’orbita di Mercurio e ha predetto fenomeni ed eventi dei quali si ignorava l’esistenza. Tra le prime intuizioni della Relatività Generale, numericamente verificate dalle osservazioni, c’è l’effetto di deflessione della luce a causa della curvatura dello spazio-tempo ad opera di un corpo celeste, come una stella. Einstein predice che la posizione apparente di una stella (sorgente) che si trovi sul bordo del Sole (lente) dovrebbe essere spostata di circa 1.75 secondi d’arco (un angolo 1000 volte inferiore a quello che sottende la Luna nel cielo) rispetto alla sua posizione vera. La teoria della gravitazione classica di Newton prediceva un valore esattamente pari alla metà. In quegli anni ci si chiedeva quindi chi avesse ragione e in occasione di una eclissi di Sole, Sir Arthur Eddington, misurò un valore prossimo a quello della predizione della Relatività Generale, dando ragione ad Einstein e alla sua idea rivoluzionaria. Era stata osservata la prima lente gravitazionale, un vero e proprio miraggio creato dalla gravità. A seguire, attraverso la risoluzione delle complesse equazioni della Relatività Generale è stata anche ipotizzata l’esistenza di corpi celesti con una gravità così intensa da trattenere la luce, e che corpi in rotazione producono delle onde che si propagano all’interno del substrato dello spazio-tempo. Stiamo parlando di buchi neri e onde gravitazionali, osservati un secolo dopo la loro formulazione teorica, fornendo ulteriori decisive conferme della bontà della teoria di Einstein. La Relatività Generale è anche alla base della migliore descrizione che abbiamo del nostro universo, permettendoci di spiegare l’allontanamento accelerato delle galassie attraverso un modello cosmologico di riferimento nel quale l’universo nasce da un Big Bang e si espande indefinitamente.
Questa immagine schematica rappresenta come la luce di una galassia distante (sorgente) venga distorta dagli effetti gravitazionali di una galassia più vicina, che agisce come una lente e fa apparire la sorgente distante distorta e più luminosa, formando caratteristici anelli di luce noti come anelli di Einstein. (Crediti: ALMA (ESO/NRAO/NAOJ), L. Calçada (ESO), Y. Hezaveh et al.)
Lenti gravitazionali
I miraggi gravitazionali sono diventati sempre più comuni negli ultimi decenni. Inizialmente, il fenomeno è stato osservato all’interno della nostra galassia, dove stelle deflettevano la luce di altre stelle, sia nella Via Lattea sia in galassie vicine.
l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
Tuttavia, l’effetto si è rivelato ancora più affascinante spingendosi oltre la nostra galassia, verso galassie lontane e ammassi di galassie. Il lensing gravitazionale può verificarsi anche quando la sorgente luminosa è una galassia o un quasar distante, situato dietro un’altra galassia o persino dietro un intero ammasso che funge da lente gravitazionale. Si tratta di un effetto che nella sua forma debole, è presente quasi ovunque, attraverso delle flebili distorsioni nelle sorgenti di fondo ad opera di singole galassie e ammassi di galassie più vicini, si parla in questo caso di weak lensing. Ma quando sorgente e lente sono quasi lungo la stessa linea di vista si manifesta lo strong lensing, generando un effetto molto più evidente e creando alcune delle immagini astronomiche più spettacolari: l’immagine di una sorgente di fondo può essere duplicata o quadruplicata, la sua luce amplificata e i fotoni delle diverse immagini possono arrivare con ritardi differenti. Se la sorgente è estesa, la sua immagine può essere deformata fino a formare archi e, in casi particolari, quando la sorgente e la lente sono perfettamente allineate, si genera il cosiddetto Anello di Einstein, un anello perfetto, una delle manifestazioni più iconiche delle lenti gravitazionali. Abbiamo dovuto attendere più di 60 anni dalla formulazione della teoria di Einstein per osservare la prima lente gravitazionale situata al di fuori della nostra galassia: il quasar doppio QSO 0957+561. Si tratta di un quasar osservato due volte a causa della deflessione della sua luce da parte di una galassia-lente interposta lungo la linea di vista. Nel corso degli anni, il numero di lenti gravitazionali scoperte, con galassie o ammassi di galassie come lente, è aumentato costantemente, ampliando la nostra comprensione di questo straordinario fenomeno cosmico.
Oltre ad essere spettacolari a cosa servono le onde gravitazionali?
Mi piace dire che possiamo immaginarle come una bilancia, un telescopio e un cronometro, perché a questi tre oggetti corrispondono alcune delle loro applicazioni più importanti. Una lente gravitazionale è come una bilancia, perché il suo effetto dipende dalla gravità della lente stessa, ciò permette di determinare la massa della lente all’interno del raggio di Einstein, attraverso la misura delle posizioni delle immagini multiple e degli archi. Si tratta del metodo più preciso per stimare la massa di un corpo astrofisico nell’Universo, poiché si basa esclusivamente sulla Relatività Generale e sulle distanze di lente e sorgente. Inoltre, le lenti gravitazionali consentono di rilevare la presenza di sottostrutture di materia oscura. La materia oscura è uno dei misteri dell’astrofisica moderna, tanto è elusiva agli esperimenti, quanto è necessaria per spiegare i risultati del lensing gravitazionale e descrivere i moti delle stelle nelle galassie. Sono anche come un telescopio naturale, perché alcune immagini multiple risultano amplificate, permettendoci di osservare sorgenti che altrimenti sarebbero troppo deboli. Questa amplificazione è legata a un aumento dell’angolo solido sotteso, consentendo di “risolvere” strutture molto piccole nella sorgente di fondo, rivelando dettagli infinitesimali. Infine, una lente gravitazionale si comporta come un cronometro. I fotoni delle diverse immagini percorrono cammini leggermente diversi e arrivano con ritardi temporali tra loro. Se la sorgente di fondo è variabile nel tempo, come un quasar, misurando le curve di luce nelle singole immagini si può calcolare questo ritardo. Questo consente di determinare un parametro cosmologico fondamentale: la costante di Hubble, cioè la costante di proporzionalità tra la velocità di espansione dell’Universo e la distanza delle galassie. Conoscere con precisione la costante di Hubble ci permette, tra le altre cose, di vincolare l’età dell’Universo.
Lo stato dell’arte e il telescopio Euclid
Nel suo regime forte il lensing gravitazionale è però un evento piuttosto raro, perché si verifica solo quando, ad esempio, due galassie risultano quasi perfettamente sovrapposte lungo la stessa linea di vista, una circostanza molto improbabile. Per trovarne in quantità maggiori abbiamo dovuto cercarle in grandi aree di cielo, esplorate da survey astronomiche sviluppate utilizzando vari telescopi situati ovunque sul globo terrestre. In particolare per le mie ricerche, negli ultimi 10 anni ho utilizzato i dati della survey Kilo Degree Survey (KiDS), effettuata col telescopio VLT Survey Telescope (VST) (vedi Coelum 270 articolo VST), un telescopio napoletano situato sulle Ande Cilene. Ma l’intera comunità si è sforzata di fare lo stesso usando dati di svariate survey astronomiche (DES e HSC, per citarne un paio). Sfortunatamente, queste survey si basano su osservazioni da Terra e sono quindi penalizzate dall’effetto disturbante dell’atmosfera, noto come seeing atmosferico. Il fenomeno, dovuto alla rifrazione dei fotoni nell’atmosfera, provoca una sfocatura delle immagini, riducendone la risoluzione spaziale e rendendo più difficile l’individuazione delle lenti gravitazionali. La soluzione è cercarle usando telescopi che osservino dallo spazio. L’unico strumento spaziale che avrebbe potuto consentirci di farlo è il telescopio Hubble ma, il suo piccolo campo di vista rende impraticabile l’osservazione di ampie regioni di cielo. Il più recente telescopio James Webb invece non offre una soluzione migliore, sebbene stia rivoluzionando lo studio dell’universo profondo. In soccorso arriva per fortuna il telescopio dell’ESA Euclid, che riesce a riassumere le migliori caratteristiche degli studi precedenti, contando su una risoluzione non influenzata dall’atmosfera e la possibilità di osservare, e velocemente, una vasta area di cielo. La survey wide di Euclid osserverà infatti circa 14 000 gradi quadrati del cielo, e cioè un terzo dell’intera volta celeste, con un filtro ottico e 3 filtri nel vicino infrarosso, un area di cielo mai osservata con così tanto dettaglio. Il suo scopo scientifico primario è quello di utilizzare il weak lensing per creare una mappa del contenuto di materia oscura ed energia oscura nell’universo, ma studierà anche la storia evolutiva di galassie ed ammassi di galassie. Se ci riferiamo allo strong lensing, potenzialmente, Euclid potrà permetterci di scoprire oltre 100000 lenti gravitazionali. La missione Euclid coinvolge ricercatori e tecnologi che provengono da nazioni, istituzioni, contesti culturali e background scientifici diversi, un variegato gruppo di ricercatori che perseguono lo stesso obiettivo, ottenere e analizzare dei dati che permettano di avanzare la nostra conoscenza del cosmo. All’interno della collaborazione c’è poi un gruppo di lavoro specifico che si occupa di lenti gravitazionali, un gruppo guidato dai ricercatori Fred Courbin (dell’Ecole Polytechnique Fédérale di Losanna, EPFL), Raphael Gavazzi (Institut d’Astrophysique de Marseille), e l’italiano Massimo Meneghetti (dell’INAF di Bologna), che ha lasciato il suo ruolo, recentemente, a Ben Metcalf, professore associato all’Università di Bologna. Ho il piacere di far parte di questo gruppo attivissimo, fatto di ricercatori che nelle loro esperienze precedenti erano in competizione, perché in passato facevano parte di gruppi distinti, ma che ora lavorano di comune accordo, con lo stesso obiettivo.
Foto di parte del gruppo di lavoro che si occupa di lenti gravitazionali in Euclid. La foto ritrae i partecipanti al meeting di gruppo tenutosi a Bologna i giorni 12-14 Febbraio 2024. Io sono l’ultimo sulla destra.
Le prime immagini
Lanciato l’1 luglio del 2023 con un Falcon9 di Space X, Euclid si è posizionato dove previsto, in una zona di equilibrio a 1.5 milioni di km dalla Terra, nel punto Lagrangiano L2 del sistema Terra-Sole, dove stazionerà per i prossimi anni. Combattendo con qualche piccolo imprevisto, ha aggiustato il tiro e ha iniziato ad osservare ininterrottamente il cielo, regalandoci immagini spettacolari, le prime delle quali sono state rilasciate nel maggio del 2024. Esse ritraevano galassie locali, ammassi di galassie, ammassi stellari, osservati all’interno delle cosiddette Early-Release Observations (EROs), che da subito hanno mostrato le potenzialità immense di Euclid. Tra le tante, l’immagine dell’ammasso di Perseo ha fatto il giro del mondo, rimbalzando sui siti di ogni angolo del pianeta (vedi Coelum n°268) e ci sta consentendo di studiare quel denso ambiente di galassie come mai fatto prima, nonostante la considerevole distanza di 240 milioni di anni luce. Nello stesso campo, schivando le galassie che fanno parte dell’ammasso e guardando più lontano, abbiamo iniziato a cercare lenti gravitazionali con il progetto ELSE (ERO Lens Search Experiment), il primo esperimento di ricerca di lenti gravitazionali in Euclid. Le prime lenti gravitazionali così scoperte sono state presentate nella pubblicazione con primo autore Javier Acevedo-Barroso dell’EPFL di Losanna. I 41 membri del gruppo si sono cimentati nell’ispezione visuale di circa 12000 galassie nei 0.7 gradi quadrati attorno al centro dell’ammasso, individuando alcuni prime candidati da indagate e seguire con telescopi da Terra per misurarne le distanze di lente e arco, e con lo scopo di validarne la natura per procedere alle prime analisi scientifiche. Sono poi seguiti altri due articoli, guidati da Bharath Nagam, dottorando dell’Università di Groningen e di Ruby Pearce-Casey, dottoranda della Open University di Milton Keynes.
Come trovarne tante?
L’indagine ha richiesto uno sforzo enorme, sostenibile solo perché l’area del cielo sotto analisi era significativamente limitata. Estendere la tecnica all’intera survey, significherebbe effettuare l’ispezione visuale di centinaia di milioni di galassie, un compito impensabile, pur contando su svariate decine di esperti ricercatori nel campo. Nulla di nuovo, la criticità infatti è nota da anni e ha spinto la comunità a dotarsi di modi più efficienti per individuare lenti gravitazionali. Il primo è oramai scontato ed è l’introduzione di intelligenza artificiale attraverso l’uso di reti neurali convoluzionali, una specifica tipologia di reti neurali ispirate alla corteccia visiva animale e che si sono dimostrate efficaci nel riconoscere forme nelle immagini, prima di gattini e cagnolini, e poi di galassie e infine di lenti gravitazionali. Sebbene il supporto dell’occhio umano non possa mancare per scremare i risultati delle reti da falsi positivi (cioè sorgenti ritenute lenti gravitazionali dalla rete, ma nei fatti tutt’altro), questo approccio ha consentito di scoprire centinaia di lenti gravitazionali nelle vaste aree di cielo osservate dalle varie survey da Terra (ad esempio KiDS, DES, HSC). La seconda modalità di aiuto invece coinvolge la cosidetta citizen science, letteralmente “scienza del cittadino”. Facendo leva sull’enorme comunità di appassionati di astrofisica, che potenzialmente conta decine di migliaia di persone, e sulla loro disponibilità a osservare immagini astronomiche e classificare le sorgenti in esse contenute, si coinvolgono migliaia di persone comuni su un compito che noi, in pochi, non potremmo svolgere da soli: la classificazione di galassie e, nel nostro caso, di lenti gravitazionali.
NGC 6505, L’UNICO ANELLO
“Un Anello per domarli, un Anello per trovarli, Un Anello per ghermirli e nel buio incatenarli”, così recita Il Signore degli Anelli, e, proprio come l’Unico Anello nella saga di Tolkien, anche la storia di NGC 6505 è unica e affascinante. NGC 6505 è una galassia non comune, è una galassia distante quasi 600 milioni di anni luce, scoperta nel 1884, è parte di uno dei cataloghi di galassie più noti a astrofisici ed appassionati, il New General Catalog. Per caso, uno dei ricercatori di Euclid, Bruno Altieri dell’ESA, ha scoperto, attorno a questa galassia, un anello di Einstein quasi completo, con un raggio 5 volte inferiore al raggio che contiene metà luce. Abbiamo presentato questa scoperta in un articolo con primo nome Conor O’Riordan, post-doc al Max-Planck-Institut di Garching in Germania. È un tipo di lente ancora più rara di una lente gravitazionale comune, perché la probabilità che un tale evento avvenga con una galassia lente così vicina è estremamente bassa. Pensate che Euclid ne potrà scoprire un numero compreso fra i 4 ai 20 esemplari e la scien za che si potrà fare con NGC 6505 e galassie simili è ancora più interessante. Il raggio dell’anello è così picco lo da permettere di ottenere una stima precisa della massa in una regione della galassia dove la luce delle stelle domina, e quindi dove la frazione di materia oscura è minima. Per NGC 6505 abbiamo stimato che entro questo raggio la frazione di materia oscura è dell’ordine del 10% della massa totale. Ciò consente di vincolare il solo contenuto di stelle, e quindi la cosiddetta funzione di massa stellare iniziale, e cioè la proporzione di stelle di piccola massa rispetto a quelle di grande massa, quan tità nota nella nostra Galassia, ma più incerta in altre galassie. Potendo studiare una regione della galassia dove la materia oscura ha un ruolo seconda rio, NGC 6505 e le sue gemelle aiuteranno anche a vincolare la teoria della gravità, mettendo in evidenzia eventuali discrepanze dalla teoria della Relatività Generale.
Immagine a 3 colori di NGC 6505, assieme al variegato ambiente che la circonda. Nell’inserto si può vedere un ingrandimento della regione centrale della galassia, dove è evidente l’anello di Einstein (Crediti: Euclid Collaboration: O’Riordan et al. 2025).
I primi 63,1 gradi quadrati
Il gruppo che si occupa della ricerca di lenti gravitazionali ha combinato i tre approcci: reti neurali, citizen science e ispezione visuale da parte di esperti in un unico processo, chiamato “The Strong Lensing Discovery Engine”, letteralmente “motore di ricerca di lenti gravitazionali” applicandolo ai primi 63,1 gradi quadrati osservati da Euclid, parte della cosiddetta Quick Release 1. Il giorno 19 marzo sono stati rilasciati al pubblico questi primi dati, collezionati ad una profondità pari a quella della survey wide (che osserverà 14 000 gradi quadrati), ma nei campi della survey deep, che alla fine della survey raggiungeranno delle profondità maggiori. Un grande sforzo di collaborazione che ha permesso in pochi mesi di rilasciare alla comunità scientifica molti dati, assieme a svariati articoli scientifici, sottoposti al processo di referaggio per la rivista Astronomy & Astrophysics, e ovviamente corredati da fantastiche immagini di galassie vicine e lontane e ammassi di galassie. Ma in cosa consiste l’“engine” utilizzata? Alcuni membri del gruppo di lavoro delle lenti gravitazionali hanno addestrato le loro reti neurali a riconoscere lenti gravitazionali da galassie normali, le hanno applicate ad un campione di circa 1 milione di immagini di singole galassie, e hanno selezionato un numero di possibili candidati. Le immagini di questi candidati sono state fornite alla piattaforma Space Warps, gestita da Zoouniverse, con cui la gestione di Euclid ha sancito un accordo per progetti legati alla citizen science. In quasi 6 settimane, circa 1800 singoli utenti della piattaforma hanno fornito oltre 800000 classificazioni ispezionando in maniera visuale circa 80000 immagini di galassie alle quali le nostre reti neurali avevano assegnato un’alta probabilità di essere lenti gravitazionali, e in aggiunta altre circa 30000 galassie selezionate in maniera casuale nel nostro campione iniziale di galassie fornito alle reti neurali. Fra tutti i dati e candidati circa 7400 sorgenti sono state classificate come possibili lenti dai citizen. In ultimo è proprio questo campione ristretto che è stato dato in mano al gruppo di astronomi professionisti composto da 61 membri è che a conclusione ha fornito un numero pari a circa 75000 ulteriori nuove classificazioni. Un processo impegnativo ma ricco di soddisfazioni, infatti, alla fine infatti di tutte le valutazioni. il team ha scoperto circa 500 lenti gravitazionali, molto probabili, in soli 63,1 gradi quadrati. Un campione paragonabile a quello scoperto in precedenti campagne osservative, che hanno sfruttato però un’area di cielo cento volte maggiore ed è facile intuire il numero enorme di lenti gravitazionali che Euclid possa scoprire nell’arco della sua opera tività, dopo aver osservato circa 14 000 gradi quadrati. L’enorme lavoro è stato descritto e raccolto in 5 articoli guidati dai seguenti colleghi: Mike Walmsley, post-doc dell’Università di Toronto, Natalie Lines e Tian Li, dottorandi all’Università di Portsmouth, Philip Holloway, dottorando dell’Università di Oxford, Karina Rojas, post-doc all’Università di Portsmouth. Il campione include lenti gravitazionali di svariati tipi, con galassie lenti di diversa natura, massa, e configurazioni. Ma si fanno notare per peculiarità e per importanza scientifica 4 lenti gravitazionali molto speciali, descritte nell’articolo con primo nome Tian Li. Sono manifestazioni ancora più rare nelle quali la lente deflette la luce non di una, ma di ben due sorgenti situate a distanze diverse. In questa configurazione si formano due insiemi di archi di diverso raggio che aiutano a vincolare con ancora maggiore precisione la distribuzione di massa della galassia lente, ma offrono anche preziosi vincoli sui parametri cosmologici, in particolare sull’energia oscura responsabile, dell’espansione accelerata dell’universo
Il telescopio Euclid, assieme ad alcune delle più probabili lenti gravitazionali scoperte nell’area di cielo della Quick Release 1. L’immagine di fondo utilizzata è quella dell’ammasso di Perseo (Crediti: C. Tortora/ESA/Euclid, Euclid Collaboration: Walmsley et al. 2025, Euclid Collaboration: Cuillandre et al. 2024).
Descrivere i parametri delle lenti con l’intelligenza artificiale
Per caratterizzare le lenti gravitazionali, sarà necessario modellarle, ricostruendo la distribuzione di massa della lente, una volta misurate le distanze di lente e sorgente. Come descritto nell’articolo che vede Mike Walmsley come primo autore, il processo sarà effettuato grazie alla pipeline creata da James Nightingale, ricercatore all’Università di Newcastle. James è lo sviluppatore di PyAutolens, software destinato appunto a modellare le lenti gravitazionali utilizzando un approccio classico che però, sebbene preciso, è caratterizzato da tempi di elaborazione molto lunghi. Ancora una volta un problema ben noto alla comunità di professionisti quando si voglia ottenere i parametri di un modello, sia basati sulla minimizzazione di una funzione ispezionando una griglia di valori sia attraverso delle catene Markoviane.
Quattro lenti gravitazionali con doppia sorgente, nominate in ordine: Teapot Lens, Cosmic Dartboard, Galileo’s Lens, and Cosmic Ammonite (Crediti: Euclid Collaboration: Li et al. 2025).
La ricerca di soluzioni più rapide porta ancora una volta ad interpellare l’intelligenza artificiale per ottenere i parametri distintivi di una lente gravitazionale. Con altri collaboratori quindi abbiamo sviluppato una rete neurale, chiamata LEMON (LEns MOdelling with Neural network), che permette di arrivare velocemente al risultato. Una prima presentazione del lavoro di analisi con la nuova tecnica è comparso nell’articolo con primo autore Fabrizio Gentile, all’epoca studente all’Università Federico II di Napoli, poi dottorando all’Università di Bologna e ora post-doc al CEA di Paris-Saclay. Recentemente però con il gruppo di lavoro di Euclid ci sono stati sviluppi tali da essere presentati in una nuova pubblicazione che vede Valerio Busillo, dottorando all’Università Federico II e all’INAF-Osservatorio Astronomico di Capodimonte di Napoli, come primo autore. Nell’articolo mostriamo che LEMON, una volta addestrato su lenti simulate, può modellare in un batter di ciglio e in maniera precisa raggio di Einstein, forma e dimensione della lente. LEMON riesce a svolgere questo compito non solo su lenti gravitazionali simulate, ma soprattutto sulle prime lenti gravitazionali scoperte da Euclid. Ciò ci consentirà di modellare le oltre 100000 lenti gravitazionali che scopriremo in tempi risibili (poche ore a fronte dei giorni/mesi richiesti dai metodi classici). Ma LEMON può fare molto di più velocizzando di quasi 30 volte PyAutolens e fornendo a quest’ultimo un aiuto, un punto di partenza per trovare il miglior modello.
J034919.5 – 485733 e RMJ035713.8 − 475646.8, due esempi di arch i giganti, formatisi a causa dell’effetto di lente gravitazionale esercitato da due ammassi di galassie (Crediti: Euclid Collaboration: Bergamini et al. 2025).
Il Futuro
Le predizioni teoriche ci dicono che alla fine della survey Euclid potrà scoprire un numero di lenti dell’ordine di 100000. Se proiettiamo il numero di lenti scoperte nei primi gradi quadrati osservati all’area dell’intera survey, con il nostro “motore di ricerca” potremo puntare a trovare una buona parte, se non tutte, delle lenti previste. Al completamento della survey avremo prodotto un campione unico per studiare il contenuto e la distribuzione di materia oscura in galassie in funzione del tempo cosmico, della massa e del tipo di galassie lenti, insieme al censimento delle sottostrutture di materia oscura al loro interno, nonché la possibilità di porre vincoli sui parametri cosmologici e le teorie della gravità. A questo si aggiungeranno le migliaia di archi giganti in ammassi di galassie che permetteranno di misurare la massa degli ammassi stessi, di capirne la storia di formazione e fornire ulteriori vincoli alla cosmologia. È solo l’inizio, Euclid ha ancora molto tempo per svelare i misteri dell’Universo, e in parte lo farà grazie ai suoi 100000 miraggi gravitazionali.
Un nuovo studio pubblicato su Nature (Bellinger et al., 2024) ha identificato una caratteristica sorprendente nelle oscillazioni acustiche di stelle in fase avanzata di evoluzione. Analizzando 27 stelle subgiganti e giganti rosse dell’ammasso aperto M67, gli autori hanno individuato un plateau nelle “piccole separazioni” sismiche, legato alla profondità della zona convettiva. Un risultato che apre la strada a nuove stime di massa e età per le stelle giganti rosse nel campo.
Le oscillazioni acustiche: la voce interna delle stelle
Le oscillazioni di pressione (p-mode) nelle stelle simili al Sole sono causate dalla convezione superficiale. Le frequenze delle onde acustiche dipendono dalla struttura interna: le cosiddette “large separations” (Δν) misurano la densità media, mentre le “small separations” (δν₀,₂) – la distanza tra i modi di grado ℓ=0 e ℓ=2 – riflettono le condizioni nel nucleo. Queste ultime sono particolarmente utili per stimare l’età delle stelle nella sequenza principale.
Con l’evoluzione stellare però, quando il nucleo diventa inerte e la convezione si approfondisce, le small separations perdono il legame diretto con il nucleo e si credeva diventassero proporzionali a Δν, perdendo potere diagnostico. Ma le nuove osservazioni smentiscono questa ipotesi.
Una firma nel diagramma C–D: il plateau delle frequenze
Utilizzando i dati della missione Kepler/K2, il team ha ottenuto spettri ad alta precisione per un campione uniforme di stelle appartenenti all’ammasso M67 (NGC 2682), un sistema noto per la sua età ben determinata (circa 3.95 miliardi di anni) e una popolazione stellare omogenea.
Nel diagramma asterosismico C–D (Δν contro δν₀,₂), gli autori hanno individuato un plateau ben definito tra 17 e 22 μHz, un comportamento inaspettato che coincide con l’approfondirsi della zona convettiva dell’inviluppo. Questa discontinuità chimica interna provoca un’anomalia sismica nota come “acoustic glitch”, ovvero un’impronta nel profilo delle frequenze acustiche.
Il ruolo degli istituti di ricerca coinvolti
Lo studio è stato guidato da Earl P. Bellinger del Max Planck Institute for Astrophysics in collaborazione con scienziati di:
Università di Aarhus (Danimarca) – specializzata in asterosismologia tramite la Stellar Astrophysics Centre
Il team ha confrontato i dati con modelli teorici variando il fattore di “overshooting”, cioè il grado con cui i moti convettivi superano i confini stabiliti. Solo il modello con overshooting solare calibrato riproduce correttamente il plateau osservato.
Come affermano gli autori: “Il plateau sismico osservato nel diagramma C–D fornisce un nuovo vincolo sulla profondità raggiunta dalla zona convettiva e sulla composizione chimica interna delle stelle giganti.” — Bellinger et al., 2024
Un nuovo indicatore di massa e età stellare
Il plateau non è esclusivo di M67. Simulazioni su stelle con metallicità solare e masse tra 0.8 e 1.6 M⊙ mostrano un comportamento simile. Poiché la posizione del plateau varia con la massa, il diagramma C–D può essere utilizzato per datare stelle rosse isolate, fornendo nuovi strumenti per ricostruire l’evoluzione stellare e la cronologia della Via Lattea.
Dalla metà degli anni 70 dello scorso secolo, l’Italia fu attraversata da un’onda di interesse verso l’astronomia e, più in generale, le materie legate allo spazio, a seguito delle prime imprese spaziali e, in particolare, dell’enorme sforzo in campo astronautico da parte degli USA e dell’URSS. Il risultato più concreto è stata la costituzione di associazioni di appassionati a questa materia che avevano come obiettivo lo studio e l’osservazione del cielo. È in questo contesto che il 28 dicembre 1974 è stata costituita in Napoli, con atto privato, l’Unione Astrofili Napoletani (UAN).
Scansione dell’originale del verbale della prima riunione e della costituzione dell’UAN.
I 12 soci fondatori, alcuni provenienti da precedenti esperienze associative, si incontrarono per gettare le basi per un’associazione che tenesse a cuore non solo lo studio dell’Astronomia e delle discipline affini, sia dal punto di vista sperimentale che teorico, ma anche la divulgazione di questa materia al più vasto pubblico e il sostegno alla didattica scolastica.
Sin dall’inizio, la scelta degli obiettivi dell’associazione è stata di apertura a tutti gli interessati, qualsivoglia fosse il loro livello di interesse, cercando di raccogliere i cultori ma anche i curiosi dell’astronomia e delle scienze affini, in un’ottica di associazione generalista che ponesse sullo stesso piano le attività osservative con quelle culturali in senso più ampio, dall’Astronomia Culturale e dalla Gnomonica sino all’osservazione e allo studio di luna, pianeti, stelle variabili e, più recentemente, degli esopianeti, con osservazioni visuali, digitali, fotometriche e radioastronomiche.
Dopo aver festeggiato lo scorso 28 dicembre 2024 il cinquantesimo anniversario dalla fondazione, il Consiglio Direttivo dell’UAN ha deciso di dedicare tutto il corrente anno per ricordare il primo anno di attività dell’UAN, attraverso l’organizzazione di varie attività a livello locale e nazionale, come il LVIII Congresso della Unione Astrofili italiani (UAI), il IX Convegno Annuale della Sezione Didattica della UAI (vedi box) e il XXXIII Convegno Nazionale del Gruppo Astronomia Digitale.
Ripercorrere i cinquanta anni di ininterrotta attività della UAN e fare una scelta tra quanto realizzato non è cosa facile. In questi 50 anni oltre 2600 appassionati hanno aderito all’UAN; alla data odierna, sono regolarmente iscritti 210 soci. Come in altre realtà simili, c’è un gruppo di soci che, con entusiasmo e dedizione, gestiscono l’insieme delle attività che negli anni si sono ampliate, uscendo fuori dal territorio cittadino e proiettandosi nella più ampia Città Metropolitana di Napoli ed oltre. Qui di seguito sono riportate alcune delle realizzazioni più significative che hanno segnato questi anni e che rappresentano in modo concreto il risultato dell’impegno di tanti soci. Infatti, i risultati conseguiti sono il frutto di una attività di collaborazione e condivisione che, pur partendo da una proposta avanzata da un singolo socio, hanno trovato la loro realizzazione grazie al contributo di più soci. Poiché tanti sono stati i soci che si sono avvicendati sia nella composizione dei consigli direttivi sia nelle varie attività sperimentali e culturali, non è qui possibile darne un elenco esaustivo senza rischiare di dimenticarne qualcuno. Di seguito è l’elenco dei Presidenti che si sono succeduti alla direzione dell’associazione in questi cinquant’anni, in ordine alfabetico: Edgardo Filippone, Francesco Franchini, Luca Orazzo, Franco Ruggieri, Emilio Tagliaferri, Andrea Tomacelli. Già dopo qualche mese dalla fondazione, furono intrapresi contatti con l’Osservatorio Astronomico di Capodimonte (OACN), all’epoca diretto dal professor Mario Rigutti, che in altre occasioni aveva dimostrato il suo interesse ad accogliere in Osservatorio appassionati di astronomia partenopei. Nel marzo del 1976 i rapporti si concretizzarono con l’accogliere soci dell’UAN all’interno dell’OACN, con la possibilità di utilizzare in autonomia un rifrattore storico con tripletto obiettivo da 180 mm f:17 costruito da Fraunhofer agli inizi dell’ ‘800, posto nella Torre Ovest sul piazzale dell’Osservatorio. Iniziò quindi il coinvolgimento della UAN in attività di divulgazione al pubblico e alle scuole dell’astronomia, in collaborazione anche con la Società Astronomica Italiana. Questa collaborazione, precedentemente riconosciuta con uno scambio di lettere tra il Direttore dell’Osservatorio e il Presidente dell’UAN, si tramutò nel 1992 in una convenzione ufficiale tra l’OACN e l’UAN con la quale si dava all’associazione la disponibilità d’uso di un locale dove riunire i soci per scopi esclusivamente legati allo studio dell’Astronomia, di un locale dove riunire i soci e di due cupole sul terrazzo dell’osservatorio dove porre le attrezzature dell’associazione. La sede può accogliere sino a 25 persone e ospita la biblioteca dell’UAN oltre che il sistema di videoproiezione per le riunioni, che si tengono quasi quotidianamente da parte dei vari Gruppi e Sezioni che raccolgono i soci con interessi comuni.
Sede Sociale dell’UAN ospitata nel locale sottostante la Torre Ovest con la biblioteca.Interno della Cupola Est con il telescopio Celestron C11 dell’UAN su montatura 10Micron GM2000.
Nelle due cupole sul terrazzo dell’OACN sono presenti telescopi dell’UAN, impiegati per le osservazioni dei soci e coinvolti in attività di partecipazione a progetti di ricerca amatoriali e di professionisti. Inoltre, sempre in Osservatorio, l’UAN ha installato più di recente una stazione remotizzata intitolata ad Attilio Colacevich, primo astronomo dell’OACN a introdurre l’osservazione fotometrica delle stelle negli anni ’50. La stazione a tetto scorrevole permette di fare osservazioni digitali del cielo in remoto, con un telescopio SC da 250 mm f:6,3. Con questo strumento, soci aderenti alla Sezione Esopianeti e Stelle Variabili oltre a seguire alcuni programmi osservativi di esopianeti hanno scoperto alcune stelle variabili a corto periodo.
Stazione osservativa “Colàcevich” progettata e costruita dall’UAN col tetto scorrevole aperto e vista del telescopio remotizzato Meade SC 250 mm f:6,3. In secondo piano la Cupola Est dell’OACN.
La città di Napoli ospita il più grande museo delle scienze dell’Italia meridionale: si tratta della Città della Scienza, che dal 1988 organizza ogni anno la manifestazione Futuro Remoto, visitata da migliaia di curiosi di ogni età. L’UAN partecipa ininterrottamente dal 1983 con osservazioni e una postazione fissa dove sono svolti semplici esperimenti che coinvolgono i visitatori.
Durante tutto l’anno l’UAN propone almeno un’attività al mese di osservazione del Sole e dimostrazioni su teoria e pratica d’uso di orologi solari, assieme a una presentazione nel grande planetario Digistar della Evans & Sutherland da 120 posti. Anche con Città della Scienza l’UAN ha in essere una convenzione per la progettazione e lo svolgimento di attività di divulgazione scientifica rivolta in particolare agli studenti delle scuole di ogni ordine e grado. Recentemente, particolare successo ha avuto l’attività di gamification ed escape room, proposte di soci del Gruppo Costellazioni per la prima volta proprio alle ultime edizioni di Futuro Remoto. Proprio il Gruppo Costellazioni è stato l’artefice della trasformazione delle costellazioni della cultura occidentale in altre che rispecchiano la cultura partenopea: sono così nate le costellazioni napoletane, che sono state accolte ed inserite tra le costellazioni di varie culture disponibili nel programma di planetario digitale Stellarium e scaricabili gratuitamente dal sito stellarium.org.
Orologio Solare, Piazzale Tecchio a Napoli. Torre del Tempo e della Vita, l’elemento centrale alto 29m è lo gnomone dell’orologio solare progettato dall’UAN.
Un altro campo dell’astronomia dove sin dalla costituzione dell’UAN si sono cimentati soci dell’associazione è stata l’attività di studio e progettazione di orologi solari, portata avanti dalla Sezione Gnomonica. Nel 1990, in occasione dei mondiali di calcio, l’UAN fu contattata al fine di progettare un orologio solare orizzontale che sarebbe stato installato nell’area di Piazzale Tecchio prospiciente lo stadio San Paolo, oggi stadio Maradona e l’ingresso della Mostra d’Oltremare. Il progetto fu approvato e l’installazione gnomonica è risultata tra i più grandi orologi solari orizzontali italiani dell’era moderna, con il suo gnomone alto 29 m. Altre installazioni gnomoniche curate dall’UAN sono stati i rifacimenti nel 1980 di due orologi solari verticali per il Castello borbonico nel Parco Gussone della Reggia di Portici e nel 2015, in occasione della risistemazione del giardino prospiciente la Reggia stessa, sede dal 1864 della Reale Scuola di Agricoltura, poi della Facoltà di Agraria e dal 2012 del Dipartimento di Agraria dell’Università degli Studi di Napoli Federico II, la progettazione di un orologio azimutale-analemmatico, oggi facente parte del Museo delle Scienze Agrarie. L’orologio è diventato un elemento caratterizzante di questo giardino e della Reggia, meta di turisti oltre che di scolaresche in visita al sito storico.
Orologio azimutale-analemmatico progettato dall’UAN e installato nel giardino verso il mare della Reggia borbonica a Portici, Napoli.
Sempre per quanto riguarda le attività di Astronomia Culturale, sin dalla fondazione dell’UAN soci interessati all’archeoastronomia hanno portato avanti ricerche sul campo per rilevare e studiare l’orientamento e l’allineamento di templi e chiese presenti nell’area campana e regioni limitrofe, per trovarne relazioni con particolari fenomeni astronomici, principalmente con i solstizi e gli equinozi. In questo contesto sono stati scoperti, in particolare. due calendari lunari nel parco archeologico di Cuma, nelle vicinanze del cosiddetto antro della Sibilla Cumana.
La fotografia degli oggetti celesti e sempre stata al centro dell’attenzione del mondo della astrofilia. Purtroppo, la città di Napoli e i comuni limitrofi sono segnati da un forte inquinamento luminoso e atmosferico: all’epoca dell’astrofotografia basata sulle pellicole non era possibile pensare di ottenere immagini almeno sufficienti degli oggetti del profondo cielo dalla città. Tuttavia, in questi ultimi anni, la rivoluzione digitale ha consentito agli astrofili che abitano in zone segnate dall’inquinamento di ottenere risultati impensabili solo vent’anni fa. La Sezione Astrofotografia dell’UAN si è impegnata da una parte a dare un supporto a quanti siano interessati all’astrofotografia digitale e dall’altra a sviluppare tecniche al fine di ottenere i migliori risultati sotto i cieli della città. Così è nato il progetto “Il cielo possibile”, basato sull’impiego di filtri e di tecniche di ripresa che riducano al massimo gli effetti dell’inquinamento, rendendo possibile ottenere immagini soddisfacenti di oggetti del profondo cielo. Il progetto si è tramutato in una serie di roll up riportanti alcune foto esplicative dei risultati ottenibili dalla città, che sono mostrati nei luoghi dove l’associazione organizza attività pubbliche, per promuovere l’osservazione digitale anche dalla città, senza per altro rinunciare alle trasferte e star party che, però, possono essere fatte solo in alcuni periodi dell’anno e in luoghi lontani dalla propria postazione “casalinga”.
Planetario progettato e realizzato da soci dell’UAN per l’Istituto Comprensivo Virgilio 4 di Scampia, Napoli.
L’attività di divulgazione e di sostegno alla didattica della UAN è stata rivolta anche alle zone del disagio della città di Napoli, con eventi portati nella periferia della città. In questo contesto è stato dato avvio ad una collaborazione con l’Istituto Comprensivo Virgilio 4 del quartiere Scampia. Qui, circa dieci anni fa un gruppo di soci ha realizzato un planetario, costruendo completamente la struttura reggente una cupola di 3 metri di diametro, anch’essa realizzata ex novo in vetroresina, posizionandolo poi all’interno di un’aula. Il proiettore del planetario è di tipo analogico, modello GOTO3. Il planetario è stato inaugurato nel 2016 e in questi anni è stato impiegato per dimostrazioni agli studenti della scuola elementare e media, guidati da insegnanti per i quali l’UAN ha organizzato incontri di addestramento all’uso del planetario e di illustrazione dei sistemi di coordinate e di astronomia di base, utili per le dimostrazioni agli studenti. Al fine di organizzare al meglio le attività di sostegno alla didattica, è stato costituito il Gruppo Didattica UAN al quale partecipano docenti iscritti all’associazione, che coniugano quindi il loro interesse per l’astronomia in qualità di docenti e anche come astrofili, partecipando attivamente anche alle attività di divulgazione al pubblico e di osservazione al telescopio.
IX Convegno Nazionale di Didattica dell’Astronomia UAI, organizzato dall’Unione Astrofili Napoletani (UAN), ha avuto luogo presso l’Osservatorio Astronomico di Capodimonte. Questa sede, simbolica e strategica, è un punto di riferimento per gli appassionati di astronomia e osservazioni celesti. Il convegno ha avuto con la presentazione delle attività della Sezione Nazionale di Didattica dell’Astronomia UAI mentre un momento significativo è stato l’intervento di Edgardo Filippone, che ha illustrato l’impegno dell’UAN nel campo della didattica, sono seguite le diverse presentazioni, che hanno coinvolto docenti ed astrofili, si sono concentrate su esperienze didattiche innovative e approcci personalizzati, offrendo spunti interessanti per l’insegnamento dell’astronomia. Nel pomeriggio, una visita guidata dell’Osservatorio ha offerto ai partecipanti l’opportunità di osservare il Sole attraverso un telescopio. Il convegno ha rappresentato un’occasione preziosa per approfondire la didattica dell’astronomia, creando un ponte tra conoscenza teorica e applicazione pratica, il tutto in un contesto di grande fascino e tradizione scientifica e sotto il Sole della bella Napoli. Tutti i presenti hanno ricevuto in omaggio una copia della rivista Coelum Astronomia, era presente anche la Direttrice Molisella Lattanzi, un gesto che ha sottolineato l’importanza della condivisione della conoscenza e della passione per l’astronomia.
Il pianeta WD 0806-661 b ruota intorno alla stella nana (A). Crediti: NASA
Nell’Universo post-stellare, là dove le stelle si spengono e restano come fioche nane bianche, può accadere qualcosa di straordinario: un pianeta sopravvive, e la sua atmosfera continua a raccontare la sua storia. È il caso di WD 0806-661 b, un esopianeta freddissimo, la cui atmosfera è stata studiata per la prima volta in dettaglio grazie alla straordinaria sensibilità del James Webb Space Telescope (JWST).
Il contesto: un campo ancora inesplorato
Gli esopianeti che orbitano attorno a nane bianche – le stelle giunte al termine del loro ciclo evolutivo – sono oggetti estremamente rari e difficili da osservare. La loro atmosfera, in particolare, rappresenta una sfida quasi impossibile per l’osservazione diretta. In questo contesto, WD 0806-661 b, scoperto da K. L. Luhman et al. nel 2011, rappresenta un caso eccezionale: un oggetto planetario a 2500 unità astronomiche dalla sua stella madre, con una temperatura stimata tra i 300 e i 345 K, simile a quella di un frigorifero.
Il ruolo cruciale del JWST
Lo studio, condotto da un team internazionale guidato da D. Barrado, H. Kühnle, Q. Changeat, B. E. Miles e altri, ha utilizzato lo spettrometro a bassa risoluzione MIRI-LRS (Mid-InfraRed Instrument – Low Resolution Spectrometer) a bordo del JWST, insieme all’Imager MIRI per misure fotometriche a 12.8, 15, 18 e 21 μm. I dati sono stati acquisiti nell’ambito del programma GTO 01276 (PI: Lagage), il 14 luglio 2023.
Un’atmosfera fatta di metano, acqua e ammoniaca
Attraverso un’elaborazione sofisticata dei dati e un’analisi di retrieval basata sul codice TauREx (Al-Refaie et al. 2021), gli scienziati sono riusciti a determinare la composizione atmosferica del pianeta. Sono state rilevate tre molecole chiave:
Metano (CH₄)
Ammoniaca (NH₃)
Vapore acqueo (H₂O)
Queste molecole definiscono una tipica atmosfera da “Giove freddo”, simile a quella dei giganti gassosi del Sistema Solare. I rapporti tra gli elementi principali mostrano un valore C/O = 0,34 ± 0,06 e N/O = 0,023 ± 0,004, in linea con altri oggetti della classe Y0, freddi e poco luminosi.
Nessuna nuvola… per ora
Nonostante il profilo temperatura-pressione del pianeta attraversi la curva di condensazione dell’acqua, l’analisi non ha rilevato la presenza di nubi di ghiaccio d’acqua o ammoniaca. Anche l’eventuale presenza di foschia o particelle opache è risultata trascurabile. Il modello privo di nuvole risulta quello statisticamente più solido.
Il mistero della massa e la chimica dell’ammoniaca
Una delle sorprese maggiori emerse dallo studio riguarda la massa del pianeta, stimata tra 0,45 e 1,75 masse gioviane: un valore significativamente più basso di quanto previsto dai modelli evolutivi, che la collocavano tra 6,3 e 9,4 MJ. Questo potrebbe significare che WD 0806-661 b è un oggetto giovane formatosi successivamente alla morte della stella madre. Una possibilità affascinante è che sia stato catturato gravitazionalmente dal sistema.
Altro elemento inaspettato è l’aumento dell’ammoniaca agli alti strati atmosferici, un comportamento che i modelli chimico-fisici faticano a spiegare. Si ipotizzano meccanismi dinamici non ancora compresi, come onde di gravità o convezione di tipo diabatica.
Una combinazione futura di osservazioni con lo strumento NIRSpec potrebbe fornire dati complementari sulle nubi e migliorare i vincoli su massa e composizione. I risultati ottenuti mettono in evidenza l’importanza di modelli atmosferici sempre più raffinati, che integrino anche scenari di formazione post-stellare.
Una nuova cometa sta attirando l’attenzione di astronomi professionisti e amatoriali: si tratta della C/2025 F2 (SWAN), scoperta di recente grazie alle immagini della camera SWAN (Solar Wind Anisotropies), montata a bordo della sonda SOHO, frutto della collaborazione tra NASA ed ESA. Prima di ricevere la designazione ufficiale dal Minor Planet Center (MPC), la cometa era conosciuta con il nome provvisorio SWAN25F.
Uno dei co-scopritori è l’astrofilo australiano Michael Mattiazzo, che aveva già individuato una cometa nel 2020 utilizzando lo stesso metodo, ovvero analizzando le immagini SWAN pubblicamente accessibili.
Dopo la conferma è stata “battezzata” C/2025 F2 SWAN.
L’ oggetto è molto promettente ed è già stato valutato tra l’ottava e la nona magnitudine. Il perielio è previsto il primo maggio, con un passaggio a circa 50 milioni di chilometri dal Sole. In quel momento la F2 SWAN potrebbe raggiungere la quinta magnitudine, forse la quarta, diventando teoricamente visibile ad occhio nudo. Le condizioni prospettiche però ben difficilmente permetteranno di avvistarla senza strumenti.
Di certo la cometa si renderà visibile in piccoli binocoli sotto cieli ideali. Attualmente l’oggetto si trova all’interno del Quadrato di Pegaso, mentre dal 13 aprile si trasferirà in Andromeda.
Occorre anche ricordare in questi giorni la luna disturba non poco le osservazioni e lo farà fino a dopo il 20 aprile. In questo periodo le sessioni andranno condotte poco prima del termine della notte astronomica.
Dal giorno 24, senza Luna, troveremo l’ “astro chiomato” in condizioni migliori dopo il tramonto tra le stelle del Triangolo, anche se sarà sempre più basso sull’orizzonte, tanto che a inizio maggio, quando avvicinerà le Pleiadi, non sarà facile rintracciarlo e successivamente impossibile.
Percorso della cometa C/2025 F2 SWAN dall’11 aprile al 05 maggio.
La C/2025 F2 SWAN arriva in un periodo poverissimo di comete luminose e vale senz’altro la pena fare qualche sacrificio per seguire il suo scomodo ma interessantissimo transito, che potrebbe riservare emozioni e sorprese.
Secondo il professor Paul Wiegert del dipartimento di fisica e astronomia della Western University (Canada), si ritiene che C/2025 F2 provenga dalla Nube di Oort, una regione remota del sistema solare popolata da miliardi di corpi ghiacciati, situata tra 2.000 e 5.000 unità astronomiche (AU) dal Sole.
La cometa è stata già fotografata da diversi astrofili, come Rolando Ligustri, che ha utilizzato un telescopio remoto nello Utah.
La cometa SWAN25F (c/2025 F2 SWAN), visibile in questa immagine, è stata fotografata dall’astrofilo Rolando Ligustri utilizzando un telescopio remoto situato nello Utah.
CARICA I TUOI SCATTI IN PHOTOCOELUM O INVIALI ALLA REDAZIONE
Le Pleiadi (M45) tratte dall'archvio PhotoCoelum di Michele Bernardo.
Le Pleiadi, uno degli ammassi stellari aperti più noti e facilmente osservabili nel cielo notturno, non sono solo uno spettacolo per gli occhi. Secondo uno studio condotto da R. Liu et al. (2025), rappresentano anche un laboratorio ideale per comprendere i complessi meccanismi dinamici che regolano l’evoluzione interna degli ammassi stellari. Il lavoro, frutto della collaborazione tra diversi istituti tra cui la Chinese Academy of Sciences e l’Università di Peking, si concentra in particolare sulla distribuzione delle stelle binarie e su come esse vengano influenzate dalla dinamica gravitazionale interna del sistema.
Un ammasso giovane, ma già in fermento
Le Pleiadi contano oltre 1400 membri stellari (Lodieu et al. 2019; Hunt & Reffert 2023) e si trovano a una distanza di circa 135 parsec (circa 440 anni luce) dalla Terra. Nonostante siano relativamente giovani — circa 100 milioni di anni (Gossage et al. 2018; Niu et al. 2020) — mostrano già segni evidenti di segregazione in massa, cioè una tendenza delle stelle più massicce a spostarsi verso il centro dell’ammasso.
La particolarità di questo studio è l’attenzione riservata alle stelle binarie non risolte, ovvero sistemi di due stelle troppo vicine per essere distinte singolarmente con i normali strumenti ottici. Utilizzando i dati astrometrici di Gaia DR3 e fotometrici del catalogo 2MASS, i ricercatori hanno identificato oltre mille stelle della sequenza principale, classificandole come singole o binarie tramite un modello statistico avanzato.
Distribuzione delle stelle della sequenza principale (MS) nelle Pleiadi. Il colore indica la probabilità che una stella faccia parte di un sistema binario, mentre la dimensione dei simboli rappresenta la massa della stella. I cerchi pieni e tratteggiati indicano rispettivamente il raggio che racchiude metà della massa dell’ammasso (rh), secondo questo studio, e il raggio mareale (rt) riportato da J. Alfonso e A. García-Varela (2023).
Segregazione in massa e disgregazione delle binarie
I risultati mostrano che le stelle binarie tendono a essere più massicce rispetto alle stelle singole, confermando precedenti osservazioni (Bouy et al. 2015). Ma c’è di più: quando si analizza la distribuzione radiale — cioè la distanza dal centro dell’ammasso — emerge un quadro complesso. Le stelle più massicce, singole o binarie, si trovano prevalentemente nel nucleo centrale dell’ammasso, segno di una segregazione in massa in atto. Tuttavia, le binarie risultano distribuite in modo più disperso rispetto alle singole nella stessa fascia di massa.
Questo suggerisce che, nelle regioni centrali dell’ammasso, le interazioni dinamiche sono così intense da disgregare molte delle coppie binarie, soprattutto quelle composte da stelle meno massicce o con legami gravitazionali deboli. È una chiara firma del processo di disgregazione dinamica delle binarie, che si affianca alla segregazione in massa nel modellare la struttura dell’ammasso.
Diagramma colore–magnitudine delle stelle nella regione delle Pleiadi, basato sui dati fotometrici di Gaia. I punti grigi rappresentano le stelle di campo (cioè non appartenenti all’ammasso). I cerchi indicano le stelle della sequenza principale (MS) delle Pleiadi, con il colore che esprime il rapporto di massa tra i componenti nel caso di sistemi binari. Le linee rosse continua e tratteggiata mostrano rispettivamente le isocrone empiriche per stelle singole e per sistemi binari, derivate dalla Tabella 3 del Paper I.
La curva fb–R: un indicatore chiave
Uno degli strumenti chiave dell’analisi è la curva fb–R, che descrive la variazione della frazione di binarie (fb) in funzione della distanza dal centro (R). Il profilo osservato nelle Pleiadi è bimodale: la frequenza di stelle binarie è alta sia nel nucleo che nella periferia, mentre cala nelle zone intermedie.
Dividendo la popolazione in stelle di massa più bassa e più alta, emerge un doppio effetto:
Le stelle meno massicce mostrano un aumento della frequenza binaria con la distanza dal centro, coerente con il fatto che le coppie meno legate vengono facilmente disgregate nella regione centrale.
Le stelle più massicce, invece, mostrano una frequenza binaria più alta al centro. Questo è dovuto al fatto che le stelle più pesanti si spostano naturalmente verso il centro con l’evoluzione dinamica, portando con sé un’alta incidenza di sistemi binari.
Questo comportamento è stato previsto anche da simulazioni numeriche come quelle di Geller et al. (2013, 2015) e osservato in altri ammassi come NGC 1805 nella Grande Nube di Magellano (Li et al. 2013).
Nessun bisogno di un’origine “primordiale”
I ricercatori sottolineano che non è necessario ipotizzare che le Pleiadi siano nate con una concentrazione iniziale di binarie nel nucleo. I fenomeni osservati possono essere spiegati interamente come effetto dell’evoluzione dinamica interna, inclusa la formazione di nuove binarie attraverso interazioni a tre corpi (Converse & Stahler 2010) e il progressivo “indurimento” dei sistemi binari più stabili (Heggie 1975).
La vocazione del filosofo è di essere portatore del Tutto. Mentre gli altri si limitano a una specialità, a una parte, egli s’incarica della totalità. Dovrebbe conoscere […] le nozioni e le applicazioni degli altri uomini e specialmente degli esseri elitari, nella politica, nella religione, nelle tecniche e nelle arti; pensare a tutto, pensare il Tutto, ammesso che sia possibile… Poi, enucleare da questa ipotesi imperfetta una regola di vita, una saggezza… Naturalmente è un ideale irrealizzabile, soprattutto ai tempi nostri… Ma la filosofia viene definita da questa impossibilità. Jean Guitton
Indice dei contenuti
Abstract
La filosofia dovrebbe incaricarsi – perlomeno secondo il filosofo francese Jean Guitton – di pensare il tutto, di studiare la totalità. In ambito scientifico, la disciplina che ha lo stesso compito – certo con le dovute e innumerevoli differenze concernenti sia, genericamente, il concetto di “totalità”, sia gli approcci alle rispettive ricerche – è la cosmologia. Questa comunanza d’interessi, solo parziale ma significativa, ci spinge a ipotizzare che la filosofia, per realizzarsi pienamente, avrebbe bisogno della cosmologia, o almeno delle sue conoscenze più fondamentali riguardanti il cosmo fisico in cui siamo tutti noi immersi; al contempo, anche la cosmologia avrebbe bisogno della filosofia per approfondire il suo sguardo sull’universo. In questo articolo introdurrò brevemente solo questa seconda tesi, accennando poi al pensiero di uno dei suoi massimi interpreti: il filosofo e storico della scienza francese Jacques Merleau-Ponty.
Cenni a un approccio filosofico alla cosmologia
La cosmologia è la scienza che forse, più di ogni altra, ha bisogno della filosofia. Si pensi alla sua stessa tipica definizione: la cosmologia studia la struttura su larga scala dell’universo, dove con quest’ultimo termine s’intende tutto ciò che – in senso fisico – esiste, è esistito e per certi versi esisterà, pertanto l’universo è considerato come un sistema totale e unico, e con una sua storia. Si dice anche che la cosmologia studia l’universo come un tutto, o nel suo insieme, vale a dire essa non s’interessa direttamente dei corpi celesti (pianeti, stelle, galassie, e persino ammassi di galassie e superammassi) presenti nel cosmo, che del resto vivono a “piccole” scale rispetto alla “totalità”. Di questi corpi se ne occupa l’astronomia, osservandoli e descrivendone le proprietà, i raggruppamenti, i moti apparenti e reali, ecc., mentre l’astrofisica cerca di interpretare questi corpi e i fenomeni che li riguardano in termini di leggi fisiche note, che essa applica a modelli più o meno semplificati dei sistemi osservati. Invece, scopo principale dell’analisi della cosmologia è di ottenere una descrizione fisica coerente dell’universo nella sua interezza, dunque tentando di includere anche la sua parte inosservabile, tramite modelli che fanno uso di branche della fisica nota, modelli – si badi – di necessità estremamente semplificati, data l’enorme complessità del reale. Dunque la ricerca cosmologica spazia dalle leggi naturali, che permeano i corpi celesti in relazione al cosmo, alla sua struttura geometrica e topologica, dalle sue dimensioni spaziali e temporali alla sua formazione, evoluzione ed eventuale fine, inclusi ovviamente i fenomeni accaduti nel suo lontano passato che hanno dato luogo alla sua attuale conformazione.
È evidente la difficoltà di cogliere propriamente il significato dell’universo come un tutto, sia a livello spaziale (e topologico), sia temporale, sia nei suoi aspetti osservabili, sia nelle interconnessioni fra le sue parti. Del resto l’universo come un tutto non è certo dato dalla totalità degli oggetti, dei sottosistemi, dei processi ed eventi appartenenti all’universo osservabile. Quest’ultimo è soltanto una porzione di un sistema ovviamente più inclusivo che non è però “quantificabile” estendendo, fino a un limite a tutt’oggi del tutto imprecisato, il dominio dell’universo osservabile. Si ha bisogno, insomma, di un “salto” teorico; in altre parole, per rappresentare la composizione e la struttura dell’universo come un tutto bisogna costruirsi un sistema concettuale – il più comprensivo e globale possibile, che incarni la singola totalità integrata degli oggetti e dei processi fisici – che assuma la forma, come già detto, di un modello cosmologico. Un tale modello specifica, quindi, come l’universo come un tutto debba essere concepito, e come, a partire da questo, si possano poi comprendere anche i fenomeni nelle regioni relativamente più ristrette dell’universo osservabile.
Non è solo per mezzo, allora, dell’osservazione astronomica e dei dati che essa mette a disposizione che si può cogliere quel significato del concetto di “universo” al quale la cosmologia anela, ma è grazie all’adozione di un certo modello cosmologico, e quindi, in ultima istanza, alla nostra decisione di adottarne uno piuttosto che un altro. E il fatto importante, come sottolinea il filosofo Milton Munitz, è che “questa decisione si basa in fondo su una visione filosofica del ruolo epistemologico svolto da tali modelli cosmologici” (1990, p. 154)2. Ovviamente, la validità di un modello cosmologico è valutata soprattutto sulla base di evidenze e “riscontri fisici” riguardanti: osservazioni e misurazioni di oggetti e strutture cosmiche, analogie con altri sistemi fisici “minori”, concetti e modelli matematici e geometrici, leggi fisiche ed equazioni riguardanti aspetti “locali” dell’universo, e così via. Però, il cuore epistemologico e, più generalmente filosofico, di quella scelta rimane. Per giunta, data l’impossibilità di manipolare l’universo, di variarne le condizioni iniziali, di riprodurne le altissime energie protagoniste di alcune sue fasi, di analizzarne l’evoluzione da altre posizioni spaziali e in altre epoche temporali e, quindi, di “vedere” le sue prime fasi o le sue più lontane distanze, insomma data l’impossibilità di rendere la cosmologia una scienza direttamente sperimentale, risulta inevitabile il bisogno di affidarsi a delle scelte filosofiche che se da una parte certo contribuiscono, in maniera più o meno significativa, a dar forma alle nostre teorie cosmologiche e ai loro modelli, dall’altra influenzano anche la “genuinità” della nostra comprensione dell’universo. Si pensi al cosiddetto principio cosmologico, che asserisce l’omogeneità e l’isotropia spaziale del nostro universo a larga scala (cioè l’assenza, rispettivamente, di punti e direzioni particolari), o al principio copernicano, nel quale si sostiene che non siamo osservatori privilegiati (nessun luogo nell’universo è in una posizione “speciale”).
Da questi principi discende una ben precisa metrica per la struttura geometrica a larga scala dell’universo (aperta comunque a configurazioni topologiche diverse). Tali principi sono assunzioni ormai quasi date per scontate nella cosmologia standard, ed è naturale, sia perché i riscontri empirici a loro favore hanno assunto un ruolo consistente con il corpus teorico sottostante ai modelli, sia perché in fondo, senza di essi, l’impresa scientifica cosmologica risulterebbe difficilissima se non impossibile. Si pensi, infatti, al principio copernicano: se non valesse, ossia se noi fossimo in una posizione particolare, come potremmo continuare a fare affermazioni sulla globalità dell’universo sapendo che da altri punti di osservazione (per noi inesplorabili) lo scenario potrebbe drasticamente essere diverso? Eppure, quei principi non sono affatto verità sacrosante, i riscontri empirici e le osservazioni non sono per niente in grado di porre una qualche parola definitiva sulla loro validità, e infatti non è raro trovare dei cosmologi che si cimentano con l’analisi di universi in cui essi non valgono.
l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
La cosmologia moderna si costituisce, insomma, fin dai suoi fondamenti su una sorta di imprinting filosofico che le altre teorie fisiche non hanno così manifestamente, e che influenza e indirizza in maniera significativa i tentativi che questa scienza, per il tramite dei suoi modelli, cerca di mettere in atto per guadagnare una comprensione più piena dell’universo. L’unicità del suo oggetto di studio è una delle caratteristiche che la differenzia più marcatamente dalle altre scienze. Il fatto che il nostro universo sia un sistema fisico unico (eventuali altri universi sarebbero, per definizione, fisicamente disconnessi dal nostro) – sistema unico che, va da sé, può essere studiato solo “dall’interno”, e che quindi appare, di necessità, causalmente chiuso – è una peculiarità che, da sola, spalanca le porte di questa scienza a molte questioni epistemologiche. L’esistenza di un solo universo implica, ovviamente, che anche le condizioni iniziali, che hanno permesso all’universo di essere come ora noi lo vediamo, siano state uniche (supponendo valido il modello del Big bang). A partire da quelle condizioni iniziali, anche le leggi fisiche a noi oggi (approssimativamente) note hanno cominciato ad “operare”, però il problema è che noi, non potendo ovviamente alterarle, quelle condizioni, non siamo in grado di capire fino in fondo quali, fra di esse, siano state effettivamente necessarie piuttosto che contingenti (ossia se e quali condizioni sarebbero potuto essere diverse, ma sempre consistenti con le leggi fisiche). Del resto, non sappiamo bene nemmeno quali leggi fisiche siano effettivamente tali, per l’appunto necessarie, e quali invece siano mere contingenze, magari dettate proprio da alcune di quelle condizioni iniziali. Insomma, dall’unicità dell’universo discendono a cascata una serie di problemi di stampo prettamente filosofico, ma anche di assoluta rilevanza metodologica e fisica, quali, ad esempio:
l’universo non può essere soggetto a sperimentazione fisica, ossia non possiamo realizzare esperimenti scientifici per capire come l’universo si sarebbe potuto evolvere se le condizioni iniziali fossero state diverse;
l’universo non può essere comparato osservativamente con altri universi, vale a dire non possiamo testare la validità della nostre ipotesi sull’universo, né fare riscontri statistici sulle sue proprietà rispetto ad altri “oggetti” della stessa classe;
il concetto di “legge della fisica” applicato a un solo oggetto è alquanto discutibile, in quanto non siamo in grado di stabilire scientificamente “leggi dell’universo” che possano essere applicate ad altri universi, ma, al massimo, quelle che noi consideriamo leggi sono testabili solo sul nostro (anzi, peggio ancora, solo sulla sua parte osservabile);
il concetto di probabilità, molto utile nella scienza, diviene problematico di fronte a un solo oggetto, insomma si fatica, in cosmologia, a comprendere il senso di un approccio che per essere tale abbisogna dell’esistenza di almeno una classe di oggetti simili.
Oltre alla questione dell’unicità, vi sono anche altri problemi che spingono la cosmologia nelle braccia della filosofia. Il cosmologo George Ellis, nel suo lungo saggio dedicato proprio alla filosofia della cosmologia, ritiene che “le scelte filosofiche sono necessariamente alla base della teoria cosmologica. Le inevitabili questioni metafisiche sorgono inevitabilmente sia nella cosmologia osservativa che in quella fisica. Le scelte filosofiche sono necessarie per dare forma alla teoria” (2007, p. 1242). Fra le varie motivazioni che lo spingono a questa conclusione, riporto le due forse più pregnanti:
gli orizzonti osservativi limitano la nostra abilità a determinare osservativamente la geometria a larghissima scala del nostro universo, nel senso che le nostre osservazioni sono deficitarie sia dal punto di vista temporale che da quello spaziale: riguardo al primo, esse possono al più spingersi fino all’epoca del disaccoppiamento fra materia e radiazione (senz’alcuna diretta informazione riguardante epoche precedenti); riguardo al punto di vista spaziale, ammesso che il nostro universo non sia un “piccolo universo” (ossia un universo che ci sembra “grande” solo perché la sua particolare topologia ci fornisce, di ogni sua regione, immagini multiple e all’apparenza differenziate che ne moltiplicano le dimensioni), gran parte della materia rimane al di là del raggio d’azione delle nostre osservazioni (al di là di qualunque possibilità di essere raggiunti da qualsiasi radiazione elettromagnetica);
la fisica verificabile non può spiegare lo stato iniziale dell’universo e quindi la sua specifica natura. In qualche modo, continua Ellis, una qualche scelta fra differenti contingenti possibilità si è, in origine, avuta, e la questione fondamentale è capire che cosa ci sia stato alla base di quella scelta, che cosa abbia spinto verso una forma specifica dell’universo piuttosto che verso un’altra, visto che altre forme potrebbero essere state del tutto consistenti con le leggi fisiche. Il problema è che la ragione sottostante a questa scelta non può essere esplorata scientificamente, ma è una questione che deve essere esaminata attraverso la filosofia o la metafisica, egli conclude. Anche se si ipotizzano forme cicliche per lo stato dell’universo, o addirittura eterne, o altre forme peculiari di esistenza, non si riesce ad evitare quella questione, che possiamo riassumere con questo interrogativo “esistenziale”: perché si è realizzata proprio questa possibilità e non altre, questo tipo di universo e non un altro? Solo se si riuscisse a dimostrare che una sola forma di fisica è autoconsistente, Ellis dichiara, allora la fisica basterebbe a dare una qualche risposta definitiva a questa domanda, ma ciò sembra del tutto improbabile vista la varietà di proposte fisiche che tentano di spiegare questo problema.
Dopo questa breve presentazione di alcune tematiche riguardanti un approccio filosofico alla cosmologia, introduciamo uno dei suoi più attenti interpreti.
Jacques Merleau-Ponty note biografiche
Jacques Merleau-Ponty
Jacques Merleau-Ponty nasce il 26 luglio 1916 a Rochefort-sur-Mer, un comune nel sud-ovest della Francia. Attratto fin dai primi suoi studi dalla fisica, su consiglio del più noto cugino Maurice Merleau-Ponty, di otto anni più grande, esponente di rilievo della fenomenologia francese, si rivolge alla filosofia per affrontare proprio le rivoluzioni della fisica del Novecento, entrando all’École Normale Supérieure di Parigi, dove ottiene l’agrégation in filosofia. Purtroppo, il suo progetto di inserirsi nella “scuola della scienza” che negli anni Cinquanta era la più nuova, difficile e per certi versi instabile, ossia la cosmologia relativistica, viene ritardato dalla guerra. Infatti, viene mobilitato nel 1939, prima di terminare gli studi, per partecipare alla Seconda guerra mondiale. Nel 1940 è ufficiale di fanteria dell’esercito francese. Nello stesso anno viene fatto prigioniero di guerra, ma riesce a fuggire. Tornato a Parigi, entra a far parte, con la moglie France, di una rete della Resistenza, la Comète, delle Forze Francesi Libere. La coppia era incaricata di accogliere gli aviatori alleati caduti nel territorio occupato sotto il fuoco della contraerea o paracadutati in missione, per poi ospitarli clandestinamente nella loro casa. Catturato e arrestato dalla Gestapo, viene condannato a morte dalle autorità di occupazione tedesche e rimane rinchiuso per quasi un anno nella prigione di Fresnes. Viene poi graziato e rilasciato in extremis solo nell’agosto del 1944, grazie all’intervento, a favore dei prigionieri politici, del console svedese Raoul Nordling, zio di sua moglie. Per la loro coraggiosa azione, che ha salvato e aiutato gli aviatori alleati, Jacques e France Merleau-Ponty saranno insigniti di un encomio nell’ordine delle Forze di Sbarco Alleate, firmato dal comandante in capo, il generale Eisenhower.
Subito dopo la Liberazione, egli intraprende una breve carriera come giornalista presso l’Agenzia France-Presse e il giornale francese Combat (erede di giornali clandestini della Resistenza francese), e poi come insegnante di filosofia al Lycée de Beauvais e poi al Lycée Louis-le-Grand di Parigi. In seguito viene nominato ricercatore associato presso il Centre National de la Recherche Scientifique (CNRS), dove prepara la sua tesi di dottorato in filosofia. Da questa risultano i due seguenti libri, entrambi pubblicati nel 1965: per la tesi principale, discussa alla Sorbona il 19 giugno 1965, Cosmologie du XXe siècle. Étude épistémologique et historique des théories de la cosmologie contemporaine (pubblicato da Gallimard), e, per la tesi secondaria, Philosophie et théorie physique chez Eddington (Les Belles Lettres). Viene poi nominato docente presso la Facoltà di Lettere dell’Università di Besançon, quindi ottiene una cattedra di epistemologia all’Università di Paris X-Nanterre, dove insegna dal 1967 fino al suo pensionamento, guidando un dinamico gruppo di dottorandi e ricercatori in epistemologia, filosofia e storia della scienza. Per anni è stato presidente della Società Filosofica Francese, e grande sostenitore del dialogo tra filosofia, storia e scienza. Ha inoltre pubblicato i seguenti libri: Les trois étapes de la cosmologie (in collaborazione con l’astronomo Bruno Morando, 1971), Leçons sur la genèse des théories physiques: Galilée, Ampère, Einstein (1974), La Science de l’Univers à l’âge du positivisme. Étude sur les origines de la cosmologie contemporaine (1983), Le Spectacle cosmique et ses secrets (1988), Einstein (1993), oltre a diversi articoli, alcuni dei quali forniscono il materiale per l’ultimo suo volume postumo sulla filosofia della cosmologia: Sur la science cosmologique. Conditions de possibilité et problèmes philosophiques (2003). Muore a 86 anni, il 7 giugno 2002 a Cepoy, un piccolissimo comune nel centro-nord della Francia.
L’opera di Merleau-Ponty, in generale, non ha purtroppo ricevuto i riconoscimenti e la notorietà a livello internazionale che avrebbe meritato. Infatti, i suoi scritti, in originale in francese, non solo non sono stati tradotti in italiano3, ma quel che è più spiacevole, almeno per i ricercatori di questo campo di studi che solitamente frequentano testi del mondo accademico anglosassone, nemmeno in inglese4 . Per questo è molto raro trovarlo citato nei lavori in questa lingua, anche se scritti da studiosi competenti. Questa mancanza, è bene sottolinearlo esplicitamente, non è certo dovuta a carenze di qualità nella sua opera, ma solo a qualche imperscrutabile contingenza editoriale che ha relegato i suoi scritti prevalentemente all’ambito francese, dove invece il loro valore è stato da sempre riconosciuto, anche dopo la sua morte, sia con convegni che con studi specifici. Una vera perdita culturale, in particolare per Cosmologie du XXe siècle che meriterebbe internazionalmente, ben oltre i confini delle sole Francia e Italia, lo status di classico, anche perché è ritenuto essere il capolavoro di questo insigne e appassionato studioso. Come filosofo, forse nessuno meglio di lui ha potuto misurare la rivoluzione scientifica del ventesimo secolo spronata dall’avvento della cosmologia relativistica. Se si considera, infatti, che il suo primo lavoro di ricerca risale al 1945, quando la cosmologia si stava sviluppando grazie a contributi teorici e avanzamenti osservativi, si può dire che egli abbia partecipato quasi direttamente, attraverso le sue analisi epistemologiche, a questa rivoluzione. Va però sottolineato che, quando egli intraprese i suoi studi per la tesi di dottorato, la cosmologia non era ancora quella scienza accattivante e diffusa che diventerà nei decenni successivi; pochissimi scienziati la padroneggiavano e ancora meno filosofi l’affrontavano epistemologicamente.
Il suo progetto, insomma, non era per niente banale: bisognava capire e pensare le scoperte di questa scienza anche piuttosto anomala, non solo perché sostanzialmente nuova nel suo approccio, ma perché si era, per così dire, imposta non solo alla società ma agli stessi addetti ai lavori, visto che la “scienza del tutto” era stata, per più di due secoli, designata come impossibile e perfino proibita dagli stessi scienziati.
Infatti, dall’epoca in cui maturò la separazione delle scienze sperimentali dalla speculazione genericamente filosofica, aveva imperato, come aspetto del metodo scientifico, ciò che lo stesso Merleau-Ponty chiama «uno dei più rigorosi comandamenti del catechismo scientifico» (M.-P. 1965, p. 10), al quale la ragione aveva dovuto sottomettersi: «‘Non parlare del Tutto’ – il diritto cioè di emanar leggi sull’Universo, di tracciarne a priori la configurazione, di ricostruirne, al di là del visibile, l’edificio, partendo da suoi elementi opportunamente pensati e misurati» (ibid.). Questo divieto era maturato perché i successi delle scienze della natura (soprattutto della fisica) parevano esser dovuti proprio alla capacità di isolare settori della realtà in modo da poterne fare oggetti di studio in condizioni controllate. Non solo, quindi, la cosmologia era ancora un’iniziativa periferica e pretenziosa nel suo voler parlare dell’intero universo, vale a dire del “tutto”, ma anche la relatività generale di Einstein, dai più ritenuta come il suo fondamento fisico, dalla fine degli anni Venti fin verso alla fine dei Cinquanta, veniva ancora considerata da molti fisici, inclusi i fisici teorici, come “esoterica”, troppo astratta, matematicamente complicata e piuttosto eccentrica rispetto al corpus principale della fisica, sempre più incentrato sulla meccanica dei quanti. Per affrontare la cosmologia bisognava, allora, impadronirsi della matematica molto elaborata della geometria differenziale costitutiva della relatività generale, ma anche della fisica atomica e della termodinamica, senza trascurare di comprendere i fenomeni e i dati astronomici più recenti. Insomma, ci volevano grandi competenze, passione, curiosità, coraggio intellettuale e intelligenza per osare avventurarsi in essa, soprattutto provenendo dalla filosofia pura. Merleau-Ponty, possedendo tutte queste caratteristiche, tipiche del grande studioso, aveva quindi ben capito che per esplorare il territorio della cosmologia con gli strumenti del filosofo bisognava prima dotarsi delle più dettagliate mappe, sia fisiche che storiche, di quel territorio, allo scopo di farne non solo un’analisi epistemologica appropriata, ma anche al fine di estendere quell’indagine agli insegnamenti più generali, a livello propriamente filosofico, sulla natura della conoscenza e del mondo. In questo egli fu un vero pioniere, e Cosmologia del secolo XX ne è preziosa testimonianza, come ora cercheremo di mostrare attraverso alcune delle questioni che esso tratta.
Il capolavoro di Merleau-Ponty: Cosmologia del secolo XX
Se vogliamo riassumere i contenuti di questo libro in una frase, possiamo dire che esso analizza uno dei più profondi mutamenti attuatosi nella concezione umana dell’universo occorso a partire dalla fine degli anni Dieci del Novecento a circa metà degli anni Sessanta: il passaggio da una visione statica del cosmo, che nemmeno la rivoluzione copernicana aveva intaccato, a una dinamica, all’idea assolutamente inedita, cioè, di un universo che ha avuto un inizio e un’evoluzione. D’altronde, l’espansione cosmica, che è il cuore di questa concezione, è per Merleau-Ponty il «più prodigioso fenomeno astronomico mai osservato» (M.-P. 1965, p. 68). Di quei primi cinquant’anni di cosmologia, egli distingue essenzialmente due grandi tappe: la prima riguarda le ricerche svolte sullo slancio del modello e delle concezioni relativistiche di Einstein, la seconda una cosmologia più indipendente dalla relatività generale. L’aspetto filosoficamente significativo è che queste due tappe non esprimono soltanto differenti modalità fisico-teoriche tese a modellare scientificamente il nostro universo, ma istanziano al contempo due differenti epistemologie – induttiva, la prima tappa, deduttiva, la seconda – le cui tante conseguenze s’insinuano nell’ossatura del libro, soprattutto nelle sue parti riguardanti i primi anni di quel periodo. Soffermiamoci brevemente, su quelle due tappe, partendo da quella induttiva.
L’edizione originale francese del 1965 di Cosmologie du XXe siècle.
Secondo il metodo positivista, la scienza si fonda su osservazioni ed esperimenti, e siccome questi riguardano sempre fenomeni localizzati e particolari, sarebbe dovere della scienza estendere la sua indagine induttivamente, dal particolare al generale, quindi dai fenomeni locali a quelli che via via avvengono in domini più estesi. Era essenzialmente questo l’approccio seguito, a partire da Einstein, dai cosmologi della prima generazione (A. Friedmann, G. Lemaître, H. P. Robertson…), i quali, al di là delle differenze che li dividevano, erano d’accordo sul fatto che le equazioni della relatività generale dovessero costituire la base indispensabile alla costruzione dell’edificio cosmologico. Dunque, il modello di universo che cercavano rimaneva sostanzialmente un’operazione di estrapolazione e induzione a partire da una teoria locale quale, appunto, la relatività generale. Questo approccio, però, si scontrava con seri interrogativi: le nostre induzioni fino a che punto sono valide? Riescono ad esserlo per quelle zone dell’universo irraggiungibili per le nostre osservazioni, e addirittura per il cosmo intero? E se l’universo e tutta la sua struttura, inclusa quella geometrica, si trasformano espandendosi, in che senso potrà esser valida una qualsiasi inferenza che oltrepassa il presente? Insomma, una induzione che parta da osservazioni locali, per poi trarne proposizioni riguardanti la globalità dell’universo, non poteva rivendicare una grande attendibilità.
Non è infatti possibile “mettere assieme” l’universo, per così dire, pezzo per pezzo, regione per regione: anche se si pensa all’astrofisica, che permette di conoscere dei sottosistemi dell’universo (dalle stelle alle galassie), questa graduale estensione “verso il globale”, osservativamente e matematicamente, sarebbe un compito fattualmente improponibile. Per questo l’approccio induttivo doveva necessariamente impiegare delle ipotesi, o convenzioni, specificamente cosmologiche, che potessero almeno garantire ab initio la possibilità di parlare dell’universo come un tutto e quindi edificare una cosmologia coerente. Però, tali ipotesi – non necessariamente contemplate dalla fisica locale, ma riguardanti proprietà con un valore fisico globale e perciò non soggette a un vero controllo empirico/osservativo – non potevano che essere di fatto estranee al metodo induttivo.
Il suaccennato principio cosmologico, già introdotto da Einstein nel 1917 – ossia un’assunzione di uniformità in base alla quale l’universo doveva essere, su scale opportunamente grandi, omogeneo (tutti i suoi punti indifferenziati) e isotropo (tutte le sue direzioni indifferenziate) – serviva proprio a questo. Scontenti di ciò, alcuni autori, già a partire dai primi anni Trenta, proposero una strada differente, di stampo deduttivo. I protagonisti di questa «nuova cosmologia», come Merleau-Ponty (1965, p. 105) la chiama, furono l’astrofisico Edward A. Milne, il cui lavoro trovò compimento nella teoria della relatività cinematica, sostenuto anche dai suoi principali collaboratori, Gerald J. Whitrow e Arthus G. Walker, e poi, negli anni Cinquanta, i cosmologi Hermann Bondi e Thomas Gold, presto seguiti da Fred Hoyle, i quali, riprendendo il programma di Milne e basandosi su principi epistemologici abbastanza simili, costruirono una teoria differente: la teoria dello stato stazionario. L’approccio deduttivo rovesciò l’ordine sia delle operazioni (riguardanti quali costrutti fisici porre a fondamento nell’elaborazione dei modelli d’universo), sia dei valori epistemologici: le equazioni della relatività generale non erano più necessarie a livello cosmico, e le ipotesi di uniformità introdotte nell’approccio induttivo, nel quale avevano pure uno statuto epistemologico piuttosto incerto, diventarono dei veri e propri assiomi. Questa nuova cosmologia si proponeva lo scopo di essere davvero assiomatica e deduttiva, costruita in modo tale che la struttura metrica dello spaziotempo dell’universo, e il concetto stesso di universo, non risultassero da estrapolazioni di osservazioni (o constatazioni sperimentali) locali, né da principi empiristici, ma nascessero a priori, sulla base appunto di assiomi epistemologici e metodologici, per poi procedere in modo deduttivo confrontando i dati dell’esperienza con il modello elaborato. Il dibattito fra queste due fazioni fu in certi momenti molto acceso, come mostra il libro di Merleau-Ponty, ma di fatto la cosmologia deduttiva non fu mai accolta con favore dalla prevalenza degli addetti ai lavori, anche prima che le sue teorie venissero pressoché definitivamente accantonate su basi osservative a metà degli anni Sessanta. Per Merleau-Ponty, però, questo nuovo approccio rivestì un ruolo scientifico e filosofico importante, in quanto ebbe il merito, per almeno tre decenni, di mettere al centro del dibattito appunto lo status epistemologico della cosmologia, in specie il suo grande dilemma metodologico a lui tanto a cuore: come porre la ricerca cosmologica in relazione alle altre teorie fisiche, al primo, per così dire, o all’ultimo posto?
L’edizione originale italiana del 1974 e la recente ristampa anastatica del 2023.L’edizione originale italiana del 1974 e la recente ristampa anastatica del 2023.
Mentre nell’approccio induttivo l’essenza della cosmologia emergeva nell’ultimo termine (perlomeno in linea teorica) di un’estrapolazione che comunque avveniva all’“interno” della fisica, nell’approccio deduttivo la cosmologia assumeva un ruolo più fondamentale in quanto diveniva la scienza prima dal punto di vista logico, collocandosi all’“inizio” (o “prima”) della fisica stessa: le leggi fisiche (quelle “locali”, basate su sperimentazioni) e i loro principi dovevano essere dedotti sulla base della cosmologia e della sua descrizione del cosmo (un po’ come avveniva nelle cosmologie antiche).
Oltre a questo grande dibattito, Merleau-Ponty affronta altri interrogativi cosmologici di rilievo, naturalmente da filosofo ma senza mai dismettere la loro essenza scientifica. La questione della totalità, ad esempio (alla quale abbiamo qui già accennato): la particolarità della cosmologia di essere la scienza del tutto, fisicamente inteso, cioè di quell’unico “oggetto” che è l’universo, la poneva facilmente al di fuori, o comunque ai margini, delle norme costitutive del pensiero scientifico. Nella scienza un oggetto singolo viene compreso razionalmente per mezzo di una legge naturale, ma questa presuppone più individui (nel senso di entità singolari) per rendere possibile il confronto o un’analisi statistica: data la singolarità dell’universo dobbiamo, allora, presumere che esso sia solo uno dei casi parziali (irrealizzati?) di qualche legge più generale, oppure che esistono strane leggi dipendenti soltanto da un individuo? E per giunta, qual è la natura di queste leggi: sono espressione della contingenza dell’universo (pertanto sono “frutto” del cosmo), oppure in qualche maniera ne regolano l’esistenza perché risiedono in una sorta di iperuranio platonico, essendo dotate di un’essenza a priori rispetto alla mera evenienza del cosmo (dunque, stavolta, sarebbe quest’ultimo un loro effetto, perlomeno dal punto di vista della sua “fenomenologia” fisica)?
Conseguentemente, quali sono le proprietà essenziali e quali quelle accidentali dell’universo? Come decidere se una caratteristica della struttura cosmica appartenga di necessità all’universo o sia una sua mera congiuntura? D’altronde, non è possibile conoscere l’effetto di una eventuale variazione di qualcuna di queste proprietà cosmiche sulla nostra esperienza locale (sulle nostre leggi di natura validate) per risalirne alla tipologia, né tantomeno sono realizzabili esperimenti scientifici per supporre come l’universo si sarebbe potuto evolvere a partire da condizioni iniziali differenti, saggiandone così l’eventuale sviluppo di altre caratteristiche. Insomma, anche nel caso delle proprietà dell’universo, il confronto fra quei due tipi ontologicamente differenti risulta ovviamente senza senso. Del resto, persino il concetto stesso di universo è, per Merleau-Ponty, di non facile definizione e piuttosto dubbio, anzi «non è altro che una congettura aleatoria» (M.-P. 1965, p. 51). Infatti, «nel mondo può esistere un numero infinito di cose tra le quali non è concepibile alcuna interazione: di per se stesso il concetto di universo non comporta alcuna condizione strutturale determinata […]. Può esservi un sistema nel quale si entra e si passa» (ibid., p. 63), vale a dire un sistema che non permane in qualche modo simile a sé stesso. Sebbene, allora, le apparenze che noi ricaviamo sembrino fondate su delle regolarità strutturali, in realtà potrebbe non esserci, magari a scale di distanza sufficientemente grandi (per noi), un ordine razionale precostituito in grado appunto di sostanziare propriamente un singolo ente fisico con i crismi fondativi di un’identità strutturale (o perlomeno di una cosiddetta genidentità, ossia di un’identità che rimane identica al passare del tempo e/o nel cambiamento).
Un altro dei temi più appassionanti per Merleau-Ponty, che egli affronterà anche in seguito, è quello dell’ipotesi del tempo cosmico, ossia di quella scala temporale unica che consentirebbe di datare oggettivamente ogni evento nell’universo: egli lo ritiene uno dei più fondamentali e ardui della cosmologia, sia dal punto di vista fisico, ma anche filosofico, non essendo chiaro il suo significato e il suo status, se postulato autonomo, se conseguenza dell’isotropia spaziale, o altro. Strettamente connesso al divenire cosmico, ci sono poi i problemi legati all’origine dell’universo e alla sua eventuale fine. Sebbene essi siano antichi quanto forse la civiltà umana stessa, ovviamente declinati nelle infinite forme delle nostre culture, nella moderna cosmologia assumono una veste nuova, fisicamente e metafisicamente nuova, nota Merleau-Ponty, poiché «non si tratta più soltanto del divenire delle cose nello spazio, bensì del divenire dello spazio e della stessa essenza del tempo. Il contenuto del tempo non è separabile dal tempo più di quanto il contenuto dello spazio non lo sia dallo spazio» (M.-P. 1965, p. 278). Infatti, nella relatività generale, spazio e tempo non sono più entità fisse e immutabili come nella fisica newtoniana, ma sono dinamiche, quindi cambiano prendendo parte al gioco stesso del divenire. In un tal quadro, la permanenza stessa delle leggi di natura diviene problematica: le descrizioni dell’universo primordiale dei cosmologi, per esempio, si basano sull’universalità e persistenza delle leggi che noi conosciamo, ma la supposizione che esse siano le stesse in tutti i tempi e luoghi come si spiega se l’universo è in evoluzione globale e irreversibile? Pure il concetto di creazione, tipicamente filosofico e in precedenza abbandonato, rinasce con la cosmologia moderna, stavolta anche su basi, almeno potenzialmente, scientifiche, sebbene l’ipotesi di un inizio singolare dell’universo (e del tempo) è di fatto concepito da Merleau-Ponty se non come assurdo ma comunque fisicamente indefinibile: si ha un’idea scientifica della storia dell’universo abbastanza delineata ma questa storia inizia con qualcosa d’incomprensibile. E ancora, quali fatti osservativi possono interessare la cosmologia? Sicuramente quei fatti, probabilmente pochi e non facilmente distinguibili, a cui si può attribuire con certezza un significato universale (si pensi al redshift cosmologico, cioè quello spostamento relativo nello spettro delle frequenze della radiazione dei corpi celesti a grandissime distanze e che è espressione dell’espansione cosmica). Però la cosmologia – secondo Merleau-Ponty – non può nemmeno trascurare il fatto che alcune proprietà globali dell’universo possano ripercuotersi e manifestarsi anche in qualche fenomeno locale, dunque di base essa dovrebbe interessarsi a qualsiasi osservazione e a qualsiasi esperienza di laboratorio, appunto perché queste potrebbero rivelare inaspettatamente un qualche collegamento con la struttura a larga scala dell’universo. A priori, però, essa non è in grado di sapere quale di queste osservazioni locali possano essere in tal senso illuminanti. Per concludere questa rapida e purtroppo incompleta rassegna, possiamo dire che molte delle problematiche finora accennate possono in fondo racchiudersi in un quesito epistemologico generale, di stampo kantiano, fondamentale nell’ottica di Merleau-Ponty: come è possibile la cosmologia? Ossia, quali sono le condizioni di possibilità della sua conoscenza? In fondo, sebbene essa sia un’impresa scientifica razionale ed efficace, al contempo non è una scienza dai profili “smussati” come le altre: come la metafisica per Kant, la cosmologia in un certo qual modo è una scienza dei limiti della ragione umana, sia nel senso dei temerari confini spaziotemporali che essa affronta nella sua comprensione dell’universo, sia nel senso dell’ottenimento di una propria e coerente conoscenza di quest’ultimo, in quanto la cosmologia tende per sua natura, come finora visto, ad andare “oltre”, superando, o comunque continuamente rinegoziando, quel divisorio costitutivo, benché intrinsecamente sfumato, del discorso scientifico fra il possibile per la scienza e l’impossibile per l’esperienza.
Conclusioni
Secondo alcuni autori nella cosmologia vige quello che Ellis (2007), riprendendo il pensiero dell’astronomo inglese William McCrea8, chiama principio dell’incertezza, in base al quale si dovrebbe riconoscere un incolmabile gap fra l’esplorazione scientifica e l’effettiva realtà dell’universo: la prima può dirci molto, e sempre di più, sul cosmo, sulle sue caratteristiche più importanti, quali quelle geometriche e fisiche, ma la seconda non sarà mai esprimibile propriamente, e un’incertezza di fondo, sull’intima e ultima natura del cosmo, permarrà sempre. Quest’incertezza a larghissima scala è un po’ la controparte di quella quantistica a piccolissima scala, sebbene quest’ultima sia ontologica in natura, mentre la prima appare fondamentalmente epistemica. Ma, anche se epistemica, sembra veramente difficile derubricarla a semplice fatto contingente: basti dedicare un solo pensiero fugace alle immani dimensioni oggi note dell’universo osservabile per far apparire quell’incertezza una vera imprescindibile caratteristica del nostro rapportarci all’universo, una sorta di impotenza – che certo non si riduce alla semplice impossibilità attuale di coprire le distanze astronomiche – che sempre albergherà nei migliori risultati delle nostre ricerche. Quest’incertezza, quindi, che è il limite, d’ovvia impossibile demarcazione, dell’esplorazione scientifica cosmologica, sembra permeare un po’ tutte le problematiche viste prima appartenenti alla cosmologia come scienza.
D’altronde, rammentando le parole di Jean Guitton riportate in esergo di questo articolo, la filosofia si definisce anche sull’impossibilità di cogliere il tutto. Ecco che allora, quasi a chiudere il cerchio aperto all’inizio, cosmologia e filosofia s’incontrano anche in quel dominio comune di “irrealizzabilità”, comunque florido e meraviglioso, appunto circoscritto, rispettivamente, da incertezza e impossibilità, qui per certi versi sinonimi. Se si pensa, pertanto, alla cosmologia come a un inestricabile abbraccio tra fisica e filosofia, è ancor più chiaro come quell’incertezza evidenziata da Ellis e McCrea possa percepirsi come qualcosa di più di una “mera” incertezza epistemica e pertanto solo scientifica. Infatti, i cosmologi, come fisici, rincorrono e arginano quell’incertezza, indebolendola negli anni con differenti, magari migliori, modelli e teorie fisiche. Ma allorquando la cosmologia fa “uscire allo scoperto” i cosmologi, “costringendoli” a interrogarsi, come filosofi, su alcune delle eterne grandi questioni filosofiche che informano la sua ricerca scientifica (la natura di spazio e tempo, l’origine del cosmo, il senso delle leggi fisiche, ecc.), ecco che quell’incertezza, palesandosi nella sua più forte e viva essenza filosofica, si perpetua ancor più profondamente, ma senza mai affievolire il fascino di questa straordinaria impresa conoscitiva umana.
Bibliografia
Ellis, G. F. R. (2007), “Issues in the Philosophy of Cosmology”, in J. Butterfield e J. Earman (eds.), Philosophy of Physics, part B, Amsterdam, Elsevier, pp. 1183-1285. Macchia, G. (2023), “Quando filosofi e scienziati si pongono le stesse domande: Jacques Merleau-Ponty e i primi passi della cosmologia moderna”, introduz. a J. Merleau-Ponty, Cosmologia del secolo XX, Milano: Pgreco edizioni, pp. VII-XXXVII. Macchia, G. (2024), “La pseudo-cosmologia classica dei secoli XVIII e XIX”, Giornale di Astronomia, Vol. 50, N. 3. McCrea, W. H. (1970), “A Philosophy for Big Bang Cosmology”, Nature 228, p. 21. Merleau-Ponty, Jacques (1965), Cosmologie du XXe siècle. Parigi: Èditions Gallimard. Trad. ital.: Cosmologia del secolo XX. Milano: Il Saggiatore, 1974. Rist. anast.: Milano: Pgreco edizioni, 2023. Merleau-Ponty, J. (1966). “Problems of Physical Time”, Diogenes, vol. 14, n. 56, pp. 115-140. Merleau-Ponty, Jacques (1972), “La cosmologia”, in Pecker, J.-C. (ed.), Guardiamo l’universo. La nuova astronomia. Milano: Feltrinelli, pp. 304-315. Merleau-Ponty, Jacques (1977). “Laplace As a Cosmologist”, in Yourgrau, W. e Breck, A. D. (ed.), Cosmology, History, and Theology. New York: Plenum Press, pp. 283-291. Merleau-Ponty, J. (1978), “Ideas of Beginnings and Endings in Cosmology”, in Fraser, J. T., Lawrence, N. e Park, D. (ed.), The Study of Time III. New York: Springer, pp. 333-350. Merleau-Ponty, J. (1982), “Le trasformazioni del concetto di cosmo nella filosofia e nella scienza”, in Toraldo di Francia, G. (ed.), Il problema del cosmo. Roma: Istit. della Encicl. Ital., pp. 39-50. Munitz, M. K. (1990), The Question of Reality, Princeton, Princeton University Press. Robredo, J.-F. (2010), Le sens de l’univers. Essai sur Jacques Merleau-Ponty. Paris: Presses Universitaires de France. Seidengart, J. e Szczeciniarz, J.-J. (ed.)(2000), Cosmologie et philosophie. Hommage à Jacques Merleau-Ponty, numéro spécial de Épistémologiques, Vol. I, n. 1-2.
Un team internazionale propone un’inedita combinazione di materiali terrestri e lunari per costruire pannelli solari direttamente sulla Luna. La soluzione, basata sull’utilizzo del regolite e di celle in perovskite, potrebbe rivoluzionare la produzione energetica delle future basi spaziali, combinando leggerezza, efficienza e protezione dalle radiazioni.
Con la missione Artemis 3 prevista per il 2026 e l’ambizioso progetto della Lunar Gateway, la possibilità di costruire una base lunare stabile non è più fantascienza. Tuttavia, per garantire la sopravvivenza umana nello spazio in modo sostenibile, la produzione di energia sulla Luna diventa una sfida cruciale. Attualmente, i pannelli solari impiegati nelle missioni spaziali, basati su semiconduttori III-V a multigiunzione, offrono un’ottima efficienza ma un rapporto potenza/massa ancora limitato. La soluzione potrebbe arrivare dalla Terra e… dalla Luna stessa.
Un gruppo di ricercatori guidato da Tobias Kirchartz, Sebastian Lang e colleghi, appartenenti al Forschungszentrum Jülich e alla Technische Universität Berlin, ha presentato un approccio innovativo: utilizzare il regolite lunare per realizzare pannelli solari in loco, integrando celle solari a base di perovskite depositate su “moonglass”, un vetro ottenuto proprio dal suolo lunare.
Energia dalla Luna, con la Luna
Il regolite lunare, abbondante e facilmente accessibile, può essere fuso tramite forni solari per creare lastre vetrose di protezione (moonglass), che fungono da substrato per le celle fotovoltaiche. Le perovskiti, semiconduttori emergenti noti per la loro efficienza e facilità di lavorazione, possono essere depositate su questi vetri con tecniche a bassa temperatura (<150°C), utilizzando quantità minime di materiale terrestre.
Secondo i ricercatori, questo metodo permette di raggiungere rapporti potenza/massa fino a 50.000 W/kg, un ordine di grandezza superiore rispetto alle soluzioni attuali. «Il nostro approccio ibrido ISRU (In-Situ Resource Utilization) è altamente realizzabile e facilmente scalabile nel prossimo futuro», affermano gli autori.
Il regolite simulato TUBS-T, prodotto alla TU Berlin, imita le caratteristiche dei terreni dell’altopiano lunare, ricchi di anortosite. Fuso in laboratorio a 1.550°C, ha generato un vetro trasparente, sufficientemente resistente e con una trasmittanza compatibile con l’assorbimento delle celle in perovskite (∼1.5 eV). Sebbene meno trasparente del vetro terrestre standard, il moonglass si è dimostrato efficace nel limitare la degradazione da radiazioni.
Celle in perovskite: prestazioni e resistenza oltre le aspettative
Le celle fotovoltaiche realizzate direttamente su moonglass hanno mostrato una qualità ottica e strutturale comparabile con quelle costruite su vetro convenzionale. Con configurazioni opache standard, l’efficienza ha raggiunto l’8,5% sotto condizioni di luce lunare (AM0), mentre configurazioni più avanzate, con contatti trasparenti in IZO (indium zinc oxide), hanno superato il 12%.
Una simulazione con moonglass sottile (0,1 mm) suggerisce che si potrebbero superare PCE del 21%, rendendo queste celle tra le più performanti mai proposte per applicazioni lunari.
Un’inaspettata resistenza alle radiazioni
Uno dei risultati più sorprendenti riguarda la tolleranza alle radiazioni. Durante test condotti con protoni ad alta energia (68 MeV), i dispositivi costruiti su moonglass hanno mantenuto il 96% dell’efficienza iniziale. Questa resilienza è stata attribuita alla presenza di ferro nel vetro lunare, che agisce come “spugna elettronica” simile al cerio nei vetri spaziali, impedendo la formazione di centri di colore che normalmente degradano le prestazioni dei vetri irradiati.
«Questa straordinaria resistenza del moonglass alle radiazioni – in combinazione con la tolleranza delle perovskiti – rappresenta un fattore chiave per l’affidabilità a lungo termine dei pannelli solari lunari», scrivono i ricercatori.
Meglio delle celle in silicio?
La produzione di celle in silicio direttamente sulla Luna, ipotizzata da decenni, resta un obiettivo complesso. Richiede processi ad alta temperatura, raffinazione spinta del silicio fino a livelli di purezza <1 ppb, e infrastrutture metallurgiche avanzate. In confronto, la fabbricazione di celle in perovskite su moonglass risulta di gran lunga più semplice, meno energivora e adatta a condizioni di bassa gravità.
Una via concreta per alimentare le basi lunari
Con un impianto produttivo compatto da circa 3 tonnellate, il team stima di poter produrre sul suolo lunare una capacità fotovoltaica di oltre 3 MW, sufficiente per sostenere una base abitata da circa 200 astronauti, basandosi sui consumi dell’ISS.
In conclusione, questa ricerca apre una strada concreta alla produzione energetica autonoma sulla Luna, essenziale per le future colonie spaziali. Combinando innovazione nei materiali, utilizzo di risorse locali e strategie ingegneristiche sostenibili, i pannelli solari in perovskite su moonglass si candidano come la tecnologia più promettente per illuminare il futuro lunare dell’umanità.
NOAA inaugura una nuova era dell’osservazione solare e del monitoraggio delle tempeste geomagnetiche con il primo coronografo moderno per la previsione del meteo spaziale.
Dal 25 febbraio 2025, chiunque può osservare quasi in tempo reale l’attività della corona solare grazie alle immagini trasmesse dal nuovo coronografo CCOR-1 (Compact Coronagraph), montato a bordo del satellite GOES-19 della NOAA (National Oceanic and Atmospheric Administration). Le immagini, aggiornate ogni 15 minuti, sono pubblicamente disponibili sul sito del Space Weather Prediction Center (SWPC) e archiviate, dal 7 marzo, presso il National Centers for Environmental Information (NCEI).
Un Occhio Sulla Corona del Sole
Il CCOR-1 è progettato per monitorare costantemente la corona solare, ovvero lo strato più esterno e rarefatto dell’atmosfera del Sole, dove si originano fenomeni violenti come le espulsioni di massa coronale (CME). Queste gigantesche nubi di plasma, proiettate nello spazio interplanetario, possono raggiungere la Terra e interagire con il campo magnetico terrestre, generando tempeste geomagnetiche in grado di disturbare sistemi elettrici, comunicazioni radio, reti GPS e satelliti.
Con il CCOR-1, la NOAA inaugura il primo coronografo moderno pensato specificamente per la previsione operativa del meteo spaziale. Rispetto agli strumenti precedenti (come il LASCO a bordo del Solar and Heliospheric Observatory, SOHO), il nuovo coronografo fornisce aggiornamenti in tempi molto più rapidi — ogni 15 minuti — e in maniera continua.
Il video ripreso dallo strumento CCOR-1, mostra la corona solare. La dimensione del Sole è indicata dal piccolo cerchio vuoto al centro dell’immagine, mentre un disco scuro, circa quattro volte più grande, blocca la luce diretta della nostra stella. Questo accorgimento consente di osservare le strutture più deboli e delicate della corona, come le espulsioni di massa coronale (CME), che appaiono come nuvole luminose e filamentose di plasma che si allontanano dal disco centrale.
Previsioni Migliori per Proteggere Infrastrutture e Tecnologie
Le immagini di CCOR-1 rappresentano una fonte primaria di dati per le previsioni meteorologiche spaziali del SWPC. Grazie a queste osservazioni, è possibile prevedere l’arrivo di tempeste geomagnetiche con uno o tre giorni di anticipo, dando così il tempo necessario agli operatori di prendere contromisure fondamentali per la sicurezza di infrastrutture critiche, come le reti elettriche o le comunicazioni satellitari.
Le informazioni derivate da CCOR-1 sono già utilizzate da numerosi settori: dall’aviazione commerciale alla navigazione di precisione per l’agricoltura, fino all’esplorazione petrolifera e alla difesa nazionale. L’importanza di questi dati è cresciuta soprattutto alla luce dei numerosi eventi registrati negli ultimi mesi, inclusa la potente tempesta geomagnetica del 10 ottobre 2024, documentata in dettaglio proprio da CCOR-1.
Un’Icona del Sole: Come Funziona il Coronografo
Nelle immagini del CCOR-1, il Sole appare come un piccolo cerchio vuoto al centro, circondato da una schermatura nera che blocca la luce diretta della nostra stella. Questo permette di osservare le strutture più deboli, come le CME, che appaiono come nuvole di plasma luminose e filamentose che si espandono all’esterno.
Curiosità: due volte al giorno, un intenso lampo attraversa le immagini. Si tratta della Terra che “photobomba” il campo visivo dello strumento, riflettendo la luce del Sole attraverso oceani e nuvole — un fenomeno chiamato earthshine. Anche la Luna fa la sua comparsa quotidiana, passando attraverso l’inquadratura, anch’essa riflettendo la luce solare.
Il Futuro: CCOR-2 e L’Osservazione dallo Spazio Profondo
Il satellite GOES-19 entrerà ufficialmente in servizio come GOES-East il 4 aprile 2025, ma già oggi il CCOR-1 è operativo in via preliminare. In parallelo, NOAA lancerà un coronografo gemello, CCOR-2, a bordo della missione SWFO-L1 (Space Weather Follow On – Lagrange 1). Questo strumento sarà posizionato nel punto lagrangiano L1, a circa un milione di chilometri dalla Terra, offrendo una seconda prospettiva costante del Sole. Insieme, CCOR-1 e CCOR-2 garantiranno continuità e ridondanza delle osservazioni, anche in caso di guasti.
Dove vedere le immagini in diretta del Sole?
Tutti possono consultare le immagini aggiornate e le animazioni delle ultime 24 ore sul sito ufficiale dello SWPC.
Inoltre, l’archivio completo delle osservazioni CCOR-1 (e presto anche CCOR-2) è disponibile presso la sezione dedicata al meteo spaziale del NCEI.
In occasione del 35° anniversario del telescopio spaziale Hubble, lanciato nel 1990 come progetto congiunto NASA/ESA, l’Agenzia Spaziale Europea dà il via alle celebrazioni con una nuova e spettacolare immagine dell’ammasso stellare NGC 346, uno dei più attivi laboratori di formazione stellare nelle vicinanze della Via Lattea.
Questa immagine inaugurale fa parte di una serie celebrativa che riunisce alcune delle più iconiche osservazioni realizzate da Hubble, aggiornate grazie a nuove tecniche di elaborazione e a dati più recenti. L’obiettivo è quello di riproporre al pubblico meraviglie cosmiche già conosciute, ma ora ancora più dettagliate e suggestive.
NGC 346: una fucina di stelle nella Piccola Nube di Magellano
Protagonista di questa prima immagine è NGC 346, un giovane ammasso stellare situato nella Piccola Nube di Magellano, una galassia satellite della Via Lattea distante circa 200.000 anni luce nella costellazione del Tucano. Nonostante fosse già stato immortalato più volte da Hubble, questa nuova versione è la prima a combinare osservazioni a diverse lunghezze d’onda – infrarosso, ottico e ultravioletto – offrendo una visione senza precedenti della regione.
NGC 346 ospita più di 2500 stelle neonate, molte delle quali estremamente massicce e luminose. Nell’immagine si distinguono per la loro intensa luce blu, mentre la nube rosa incandescente e le scie scure serpeggianti indicano la presenza di polveri residue dal processo di formazione stellare.
Un ammasso stellare immerso in una nebulosa. Sullo sfondo si estendono sottili nubi di gas di colore azzurro pallido, che in alcuni punti si addensano e assumono tonalità rosate. Al centro dell’immagine, un gruppo compatto di stelle blu molto luminose illumina la nebulosa circostante. Attorno all’ammasso, si curvano ampi archi di polveri dense, situati sia davanti che dietro le stelle, compressi dalla loro intensa radiazione. Al di là delle nubi nebulose, si intravedono numerose stelle arancioni più distanti. Crediti: ESA/Hubble & NASA, A. Nota, P. Massey, E. Sabbi, C. Murray, M. Zamani (ESA/Hubble)
Una finestra sull’universo primordiale
La Piccola Nube di Magellano presenta una composizione chimica povera di elementi più pesanti dell’elio, i cosiddetti “metalli” in gergo astronomico. Questa caratteristica la rende simile all’universo primordiale, fornendo un’opportunità unica per studiare come avveniva la formazione stellare nelle epoche più remote della storia cosmica.
Grazie all’eccezionale risoluzione del telescopio Hubble, i ricercatori hanno potuto tracciare il moto delle stelle di NGC 346, osservando due set di dati a distanza di 11 anni. I risultati hanno rivelato che le stelle si stanno muovendo a spirale verso il centro dell’ammasso, guidate da un flusso di gas che dall’esterno alimenta la nascita di nuove stelle nel cuore della nube turbolenta.
Gli scultori di N66
L’energia sprigionata dalle giovani stelle di NGC 346 non solo alimenta la formazione stellare, ma modella attivamente l’ambiente circostante. I venti stellari e le radiazioni ultraviolette scavati nel gas residuo della nebulosa stanno creando una grande cavità all’interno della nube, come veri e propri “scultori cosmici”.
La nebulosa che circonda l’ammasso è denominata N66 ed è la più brillante regione H II (pronunciata “acca due”) della Piccola Nube di Magellano. Queste regioni sono nubi di idrogeno ionizzato illuminate da stelle giovani e calde. La presenza stessa di N66 testimonia la giovane età di NGC 346: le regioni H II infatti brillano solo per pochi milioni di anni, il tempo di vita delle stelle massicce che le alimentano.
Programmi di osservazione e cooperazione internazionale
Questa nuova immagine è il risultato della combinazione di più campagne osservative condotte nel corso degli anni, in particolare i programmi #10248 (PI: Antonella Nota), #12940 (PI: Phillip Massey), #13680 (PI: Elena Sabbi), #15891 e #17118 (entrambi guidati da Claire Murray).
Il telescopio spaziale Hubble continua a rappresentare uno degli strumenti più preziosi per l’astronomia moderna, frutto della cooperazione tra l’Agenzia Spaziale Europea (ESA) e la NASA. A 35 anni dal lancio, Hubble continua a stupire il mondo con immagini straordinarie e scoperte fondamentali sulla nascita e l’evoluzione dell’universo.
Una porzione di spazio profondo è popolata da numerose galassie di forme diverse e colori che vanno dal blu al bianco fino all’arancione, insieme ad alcune stelle vicine. Sulla sinistra, un piccolo riquadro mostra un ingrandimento di una minuscola zona dell’immagine. Al centro di questo riquadro si vede un puntino rosso, evidenziato da linee e contrassegnato con la scritta “Redshift (z)=13”, che indica la sua straordinaria distanza dalla Terra. Si tratta della galassia JADES-GS-z13-1, una delle più lontane mai osservate. Due galassie molto più grandi, visibili nella stessa area, sono indicate con “z=0.63” e “z=0.70”, valori che corrispondono a distanze molto inferiori rispetto a GS-z13-1. Crediti: ESA/Webb, NASA, STScI, CSA, JADES Collaboration, Brant Robertson (University of California Santa Cruz), Ben Johnson (Harvard-Smithsonian Center for Astrophysics), Sandro Tacchella (University of Cambridge), Phill Cargile (CfA), Joris Witstok, Peter Jakobsen, Alyssa Pagan (STScI), Mahdi Zamani (ESA/Webb)
A 330 milioni di anni dal Big Bang, la galassia JADES-GS-z13-1 sorprende gli astronomi con un segnale luminoso impossibile da spiegare con le teorie attuali.
Un nuovo studio pubblicato su Nature ha svelato una scoperta che sta facendo discutere la comunità scientifica internazionale: il James Webb Space Telescope ha individuato un segnale luminoso proveniente da una galassia così remota e antica che, secondo le attuali teorie cosmologiche, non avrebbe dovuto essere visibile.
La protagonista di questa scoperta è JADES-GS-z13-1, una galassia osservata com’era appena 330 milioni di anni dopo il Big Bang, in un’epoca in cui l’universo era ancora avvolto da una densa nebbia di idrogeno neutro. Eppure, da questo remoto angolo dello spazio, gli strumenti di Webb hanno rilevato un’emissione sorprendentemente intensa di Lyman-α, una caratteristica luce prodotta dagli atomi di idrogeno. Un evento che, in teoria, non avrebbe dovuto essere possibile.
Subito dopo il Big Bang, l’universo era una sorta di nebbia densa composta da atomi di idrogeno neutro, opachi alla radiazione ultravioletta. Solo centinaia di milioni di anni dopo, con la nascita delle prime stelle e galassie, la luce ultravioletta iniziò a “ionizzare” questi atomi, rendendo lo spazio trasparente alla luce: fu la cosiddetta epoca della reionizzazione.
Tuttavia, JADES-GS-z13-1 appare molto prima che questo processo fosse completo. “È come se un faro potentissimo riuscisse a bucare una fitta nebbia molto prima del previsto”, spiega Kevin Hainline dell’Università dell’Arizona, membro del team.
Una luce che non doveva esserci
Una piccola area ingrandita dello spazio profondo. Sono visibili numerose galassie di forme diverse, la maggior parte molto piccole, ma due appaiono grandi e brillanti. Al centro dell’immagine, un minuscolo puntino rosso: è la galassia GS-z13-1, estremamente lontana. A sinistra dell’immagine si vedono due linee luminose, chiamate spike di diffrazione, artefatti visivi causati dalla presenza di una stella brillante poco fuori campo. Crediti:ESA/Webb, NASA, STScI, CSA, JADES Collaboration, Brant Robertson (University of California Santa Cruz), Ben Johnson (Harvard-Smithsonian Center for Astrophysics), Sandro Tacchella (University of Cambridge), Phill Cargile (CfA), Joris Witstok, Peter Jakobsen, Alyssa Pagan (STScI), Mahdi Zamani (ESA/Webb)
Il team, guidato da Joris Witstok (Università di Cambridge e Cosmic Dawn Center di Copenaghen), ha osservato la galassia con lo spettrografo NIRSpec di Webb, confermandone la distanza estrema con un redshift di 13.0. Ma il vero colpo di scena è arrivato con l’osservazione di quella inaspettata linea di emissione di Lyman-α, chiara e intensa.
“Secondo i modelli attuali, quella luce non avrebbe dovuto attraversare la nebbia cosmica così presto nella storia dell’universo”, afferma Roberto Maiolino, co-autore dello studio e professore a Cambridge e University College London. “Eppure, è lì, ben visibile.”
Come ha fatto questa luce a farsi strada tra il gas neutro che avvolgeva l’universo primordiale? Gli scienziati stanno considerando due possibili spiegazioni. La prima ipotesi è che la galassia sia circondata da una “bolla” di idrogeno ionizzato, prodotta da stelle di primissima generazione, estremamente massicce, calde e luminose — molto diverse da quelle che vediamo oggi.
La seconda possibilità è ancora più affascinante: un nucleo galattico attivo (AGN), alimentato da uno dei primi buchi neri supermassicci dell’universo, potrebbe aver generato l’energia necessaria a ionizzare l’ambiente circostante.
La scoperta è parte del JADES (JWST Advanced Deep Extragalactic Survey), uno dei programmi chiave del telescopio Webb, che si sta rivelando una macchina del tempo impareggiabile per esplorare l’universo primordiale. Grazie alla sua sensibilità all’infrarosso, Webb riesce a scrutare più lontano – e più indietro nel tempo – di qualsiasi altro strumento mai costruito.
“Con Hubble sapevamo che avremmo potuto vedere galassie sempre più distanti”, ricorda Peter Jakobsen, già scienziato del progetto NIRSpec. “Ma ciò che Webb sta rivelando sulla natura delle prime stelle e buchi neri va ben oltre le aspettative.”
I “Big Five” delle meteoriti, come i celebri animali della savana africana, rappresentano i più grandi e affascinanti esemplari extraterrestri mai ritrovati sulla Terra. Tra questi spiccano le sideriti Hoba (Namibia, 60 t), Cape York (Groenlandia, 31 t), Campo del Cielo (Argentina, 30,8 t), Armanty (Cina, 28 t) e Bacubirito (Messico, 22 t). Composte principalmente da ferro e nichel, queste meteoriti resistono meglio all’ingresso atmosferico rispetto a quelle pietrose, come Chelyabinsk (2013). La loro storia, spesso intrecciata a miti locali, esplorazioni e musei internazionali, testimonia il costante legame tra il cielo e la Terra.
Introduzione
Elefante, Leone, Bufalo, Rinoceronte e Leopardo, compongono i famosi Big Five della savana africana. Questa hit parade stilata all’epoca in cui si abbattevano per sport questi splendidi animali è rimasta in voga anche oggi, quando (per la gran parte dei casi), si mira solo con la fotocamera e non più con i fucili da caccia. Anche per le meteoriti esiste una classifica per i più grandi esemplari conosciuti, tenendo conto che qualsiasi elenco è destinato nel tempo a modificarsi. Infatti nuovi esemplari vengono trovati di tanto in tanto in zone impervie e inoltre, grandi meteoriti, possono cadere in qualunque momento, come ci ha ricordato nel 2013 quello di Chelyabinsk la cui onda d’urto causò molti danni e feriti (soprattutto a causa delle vetrate infrante) nell’omonima città russa. Tra le centinaia di frammenti recuperati, il maggiore pesava 654 kg; un’inezia in confronto alle 9-10.000 tonnellate stimate del meteoroide originale, esploso a 30km di altezza. Chelyabinsk era però un meteorite pietroso; una condrite LL5 e questo tipo di rocce, offre una bassa resistenza alle vibrazioni ed agli stress meccanici all’ingresso in atmosfera. Ciò fa sì che queste tendano a frantumarsi, in molte piccole sezioni. Diverso è il caso delle meteoriti ferrose, che resistono assai meglio allo “scontro” e possono generare, anche nei casi di frammentazione, singole masse di molte tonnellate. Perciò quasi tutti i meteoriti più grandi conosciuti sono sideriti, con l’importante eccezione di Jilin, la condrite H5 caduta in Cina nel 1976 che con una massa principale di 1,7 tonnellate è di gran lunga la condrite ordinaria singola più grande conosciuta. Ma anche questo “gigante” tra le meteoriti pietrose sfigura vicino alle grandi sideriti che compongono i nostri “big five”.
HOBA (NAMIBIA)
Nel Nord della Namibia, vicino alla città di Grootfontein1 si trova questo meteorite di 60 tonnellate (un tempo, prima di campionamenti, furti e vandalismi sembra arrivasse a 66 tonnellate). Venne scoperto per caso nel 1920 da un contadino che lo colpì con l’aratro, dissodando il terreno. E’ un “mattone” di ferro di 2,7×2,7×0,9 metri in un avvallamento del terreno circondato da un anfiteatro di muretti a secco. Si trova ancora nel punto del ritrovamento. È un tipo di siderite assai raro; un Atassite, che contiene un tenore di nikel molto più alto delle altre ferrose. Nonostante il suo aspetto “giovanile” (dovuto al clima estremamente secco) questo meteorite è caduto sul nostro pianeta circa 80.000 anni fa. È possibile che la forma, simile ad un sasso piatto, lo abbia aiutato a perdere velocità in modo meno traumatico, durante l’impatto con l’atmosfera. Il meteorite avrebbe quindi rimbalzato più volte, come un sasso lanciato sulla superficie di un lago.
Il meteorite Hoba a Grootfontein in Namibia massa 60t.
CAPE YORK (GROENLANDIA)
l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
Molte delle storie che riguardano i grandi meteoriti sono interessanti ed avventurose, ma forse la più affascinante è quella che riguarda i meteoriti di Cape York: i giganti venuti dal ghiaccio. Difficile datare la sua caduta, avvenuta nella parte nord occidentale della Groenlandia, in epoca preistorica, come impossibile è valutare quale fosse la massa totale giunta a terra in frammenti di ogni dimensione, trattandosi di una zona costiera in pieno circolo polare artico. Certo è che per secoli le popolazioni artiche hanno raccolto ed utilizzato il ferro di queste meteoriti, tanto che oggetti fatti di questo ferro sono stati trovati anche nella penisola scandinava, importati dalle popolazioni norrene che nel medioevo avevano basi in Groenlandia. Durante il XIX secolo gli esploratori artici europei avevano raccolto testimonianze e prove dai popoli Innuit della presenza nell’area della Groenlandia, di ferro utilizzato per costruire utensili come arpioni e coltelli. Purtroppo, la scoperta di ferro nativo sull’isola groenlandese di Disko2, portò a pensare per un certo periodo, che tutto il metallo degli utensili Innuit fosse di origine terrestre. Nel 1894 però l’esploratore Robert E. Peary3 trovò l’Isola delle Meteoriti con i tre grandi rocce metalliche che i nativi chiamavano “la tenda”, “la donna” e “il cane”. Si trattava di enormi masse del peso di 31 tonnellate, 3 tonnellate e 407 chili. Tra il 1895 ed il 97, l’esploratore riuscì a trasportare tutti e tre i meteoriti negli Stati Uniti, vendendoli all’American Museum of National History dove si trovano tutt’ora. La parte principale, ribattezzata Ahnighito, non è soltanto la seconda meteorite per dimensioni al mondo (30.880 Kg) ma è anche la più grande ospitata in un museo. Molte altre meteoriti di Cape York sono state trovate negli anni, per una massa totale di almeno 60 tonnellate. In particolare, una di 20 tonnellate, chiamata Agpalilik (L’Uomo), scoperta nel 1963 è ospitata oggi presso il Museo Geologico di Copenaghen in Danimarca ed è la più grande meteorite presente in Europa.
Cape York, il meteorite Ahnighito di 30.880 Kg. Foto: American Museum of Natural History.
CAMPO DEL CIELO (CILE)
Se la nostra classifica fosse fatta per la massa totale conosciuta e non per la massa principale, Campo del Cielo supererebbe tutti gli altri meteoriti. A circa 1000 km da Buenos Aires, tra le provincie di Cacho e Santiago, si trova un sito tra i più ricchi di meteoriti al mondo. Circa 5000 anni fa un piccolo asteroide di almeno 600 tonnellate esplose sul Cile e una pioggia di frammenti colpì questa zona. In un’area ellittica di appena 3×18 km sono presenti 26 crateri da impatto ed una quantità di meteoriti che non ha uguali. La storia di questo sito è antica ed interessante. Nel 1576, esploratori spagnoli, lo scoprirono, credendolo una miniera di ferro, nonostante che i nativi sostenessero che questo ferro fosse caduto dal cielo, da cui il nome. Due secoli dopo, il sito fu riscoperto, grazie a documenti e campioni ritrovati, ma ci vollero ancora diversi decenni prima che l’origine extraterrestre del ferro di Campo del Cielo fosse accettata. Oggi l’area dispone di un centro visitatori e di un museo, circondato da un parco. Nel parco si trova El Chaco di 29 tonnellate, scoperto nel 1969, ma anche alcuni “fratellini” minori; La Sorpresa di 15 tonnellate, Santiagueno di 7.850 Kg. Nel 2016, a breve distanza da El Cacho è stato trovato un nuovo meteorite di quasi 31 tonnellate (30.800 Kg), ribattezzato Gancedo, dal nome della municipalità sul cui territorio si trova il sito. El meteorito Gancedo è divenuto quindi il terzo per massa, e si trova oggi esposto davanti al museo di Campo del Cielo. Si stima che le meteoriti recuperate sino ad ora siano più di 120 tonnellate, stima ottenuta purtroppo per difetto a causa dei frequenti furti che ancor oggi interessano l’area.
L’estrazione nel 2016 del meteorite Gancedo di 30.800 Kg, Presso Campo del Cielo.
ALTAI (XINJIANG – CINA)
Al confine Nord Occidentale tra Cina e Mongolia, nella zona dei monti Altai, un enorme ellisse di oltre 400 km con asse maggiore ovest-est, definisce l’area di caduta di una grande quantità di sideriti, tutte riconosciute appartenere ad un unico corpo, frantumatosi durante il passaggio nell’atmosfera. Il principale di queste meteoriti Armanty di 28 tonnellate, fu rinvenuto nel 1898 ed è attualmente esposto di fronte all’ingresso del Museo di Geologia e Mineralogia di Ürümqi. Dal 2011 al 2021 sono stati scoperti poi altre tre grandi meteoriti di 23, 18 e 5 tonnellate, portando la massa totale rinvenuta del meteorite a quasi 75 tonnellate.
BACUBIRITO (MESSICO)
A ben guardare, considerando le masse secondarie, la classifica dei cinque meteoriti più grandi dovrebbe fermarsi alla prima delle due sideriti cinesi, ma per la sua particolarità è giusto citare anche questo bellissimo gigante messicano, fino a qualche anno fa effettivamente al quinto posto, ma scivolato oggi al settimo dopo i nuovi ritrovamenti in Cina e Argentina. Anche per Bacubirito, come per Hoba “galeotto” fu l’arato di un contadino nel 1871. Questo curioso oggetto che con oltre 4 metri di lunghezza ha una forma che lo contraddistingue da qualsiasi altro meteorite di queste dimensioni, pesa 22 tonnellate e si trova attualmente esposto all’interno del Centro della Scienza di Sinaloa. Non sono note masse secondarie. Continuando a scorrere la classifica delle grandi meteoriti, bisogna scendere sotto i 1000 chili per trovarne finalmente una europea; una bella Pallasite di 823 Kg trovata in Bielorussia nel 1810. Peraltro, come già ricordato il Museo Geologico di Copenaghen ospita un magnifico frammento di 20 tonnellate di Cape York. Chi volesse fare meno strada e rimanere in Italia, si dovrà accontentare (si fa per dire) di un bel frammento di 272 chili, del meteorite ferroso Natan, esposto nelle sale del museo di Scienze planetarie di Prato. Questo frammento, fa parte di una serie di meteoriti trovate in Cina nel 1958, per una massa totale conosciuta di 9.500 kg.
Il meteorite Bacubirito di 22.000 Kg. Centro de Ciencias de Sinaloa (Messico). Foto Ernesto Gutierrez.
Il telescopio posizionato al sito Dome Argus dalla spedizione cinese. Dome A in Antartide. Crediti: Zhaohui Shang
Nell’estate australe del 2023-2024, un gruppo di astronomi cinesi ha compiuto un’impresa scientifica straordinaria: osservare le stelle… di giorno. Non in un osservatorio qualsiasi, ma nel luogo forse più remoto e promettente della Terra per l’astronomia: Dome Argus, noto anche come Dome A.
Situato nel cuore del Plateau Antartico, a oltre 4.000 metri di quota, Dome Argus è il punto più elevato della calotta glaciale antartica, e uno dei luoghi più freddi e secchi del pianeta. Proprio per queste sue caratteristiche estreme, rappresenta un sito eccezionale per l’osservazione del cielo notturno nelle bande dell’ottico e dell’infrarosso vicino (NIR). Ma finora nessuno aveva mai misurato quanto il cielo fosse “buio” durante il giorno, in estate, quando il Sole non tramonta mai.
Un piccolo telescopio per un grande esperimento
L’esperimento, condotto da un team dell’Osservatorio Astronomico di Shanghai dell’Accademia Cinese delle Scienze (Shanghai Astronomical Observatory), si è avvalso di un telescopio compatto da 150 mm di apertura, installato in cima a una piattaforma alta tre metri sopra la superficie ghiacciata.
Lo strumento era dotato di una fotocamera NIR con sensore Sony InGaAs, sensibile alla luce nel range 400–1800 nm, e di un filtro centrato sulla banda J dell’infrarosso (attorno ai 1250 nm). Il filtro è stato progettato dal Nanjing Institute of Astronomical Optics & Technology (link).
L’apparato è stato trasportato a Dome Argus dalla 40ª spedizione antartica cinese, e ha operato per otto giorni in condizioni atmosferiche ideali: cielo sempre sereno e una stabilità dell’aria praticamente senza paragoni.
La base di ricerca Davis.Base di ricerca Mawson.
Stelle visibili anche con il Sole alto
Le osservazioni si sono concentrate su stelle brillanti visibili nel vicino infrarosso, una banda in cui la luce solare viene diffusa molto meno rispetto al visibile. Grazie a brevi esposizioni (circa 0,3 secondi), il telescopio ha rilevato stelle fino alla magnitudine J=5,3. Combinando 500 immagini brevi in una tecnica di “stacking”, è stato possibile scendere fino alla magnitudine J=10,06, ben visibile anche con il Sole sopra l’orizzonte.
Le misure di luminosità del cielo al mezzogiorno antartico – con il Sole a 27° sopra l’orizzonte – indicano un valore di circa 5,2 mag/arcsec² nella banda J, che si riduce a 5,8 intorno alla mezzanotte locale, quando il Sole scende a circa 10° sull’orizzonte.
Per fare un paragone: questi valori sono molto vicini (solo leggermente più luminosi) a quelli registrati durante il giorno in cima al monte Haleakalā, alle Hawaii – uno dei migliori osservatori astronomici in uso. E Dome Argus non aveva nemmeno un cupolino per schermare la luce solare riflessa dalla neve!
Il futuro dell’astronomia continua anche di giorno
Questi risultati aprono la strada a una nuova frontiera: l’osservazione continua, 24 ore su 24, di eventi luminosi transitori nel cielo australe. Supernove, esplosioni di raggi gamma, stelle variabili e persino detriti spaziali in orbita bassa possono essere monitorati da Dome Argus anche durante l’estate antartica, grazie alla relativa “oscurità” del cielo nell’infrarosso.
Il sito è perfetto anche per l’osservazione di oggetti in orbita terrestre: oltre l’80% dei detriti spaziali passa sopra Dome A almeno una volta per ogni orbita. In futuro, è previsto l’utilizzo di telescopi di classe 1 metro, che miglioreranno ulteriormente la sensibilità e permetteranno osservazioni più profonde e precise. Alcuni di questi strumenti potrebbero anche essere equipaggiati per la misurazione laser di precisione delle orbite dei satelliti – una tecnologia chiamata Satellite Laser Ranging (SLR).
Un laboratorio naturale unico al mondo
Le condizioni uniche di Dome Argus – assenza di inquinamento luminoso, atmosfera estremamente stabile e un’altissima percentuale di giorni sereni – ne fanno uno dei luoghi più promettenti per l’astronomia del futuro. Proprio grazie alla sua posizione (80°22′ S, 77°22′ E), la volta celeste australe rimane osservabile tutto l’anno, senza alternanza tra giorno e notte come avviene altrove.
Dome A si trova nel punto più alto del Plateau Antartico, a circa 4.093 metri sul livello del mare, su una calotta di ghiaccio spessa oltre 3.000 metri. La sua posizione isolata, su una dorsale lunga 60 km, lo rende uno dei luoghi meno esplorati del pianeta.
Coordinate: 80°22′ S, 77°22′ E Temperatura record: -82,5 °C nel luglio 2005 Clima: aria secca, assenza di vento forte, cielo sereno oltre l’80% del tempo
Un’importante stazione meteorologica automatica è stata installata nel 2005 da una collaborazione australiana-cinese. Questa raccoglie dati fondamentali per comprendere le condizioni ambientali estreme del sito, misurando temperatura, vento, pressione atmosferica, umidità e radiazione solare.
Dome A potrebbe essere il luogo più freddo della Terra: anche se il record appartiene ufficialmente alla stazione russa di Vostok, Dome A si trova a un’altitudine ancora maggiore e resta un serio candidato per future misurazioni da primato.
Fonte: Z. Li et al., 2024 (studio completo su Dome A)
Questa illustrazione artistica raffigura una regione di Venere che potrebbe presentare vulcanismo attivo e subduzione, dove la superficie sprofonda nel mantello. Le rocce in primo piano mostrano materiali poveri di ferro, forse analoghi ai continenti granitici della Terra. La missione VERITAS metterà alla prova queste interpretazioni.
Crediti: NASA/JPL-Caltech/Peter Rubin
Un team di ricercatori dell’Università della California a Riverside e del Johns Hopkins University Applied Physics Laboratory ha avanzato una proposta affascinante e concreta: utilizzare un osservatorio spaziale per osservare direttamente le “ExoVenere”, pianeti rocciosi simili a Venere che orbitano attorno ad altre stelle. Lo studio è stato condotto da Stephen R. Kane, Emma L. Miles e Colby M. Ostberg (University of California, Riverside) insieme a Noam R. Izenberg (Johns Hopkins APL).
Il ruolo di Venere nella ricerca della vita
Comprendere l’abitabilità dei pianeti è una delle grandi sfide dell’astrobiologia. E se la Terra rappresenta l’esempio ideale di mondo abitabile, Venere ne è l’estremo opposto: un pianeta della stessa dimensione e composizione, ma con un’atmosfera soffocante, dominata da anidride carbonica e nuvole di acido solforico, in preda a un effetto serra incontrollato.
Studiare Venere non è solo utile per capire come sia arrivata a questo stato, ma anche per individuare le condizioni che possono rendere inabitabile un pianeta simile alla Terra. Ecco perché le missioni future come VERITAS, DAVINCI della NASA, e EnVision dell’ESA, avranno un ruolo centrale nel fornirci dati chiave per costruire modelli di evoluzione atmosferica applicabili anche agli esopianeti.
Un catalogo in crescita di mondi rocciosi caldi
Grazie a missioni come TESS (Transiting Exoplanet Survey Satellite), gli scienziati hanno già identificato centinaia di potenziali “ExoVenere”: pianeti rocciosi, di dimensioni simili alla Terra, che orbitano molto vicino alla loro stella, in una regione nota come Venus Zone (VZ). Al marzo 2024, sono almeno 334 i candidati identificati, ma si stima che il numero crescerà rapidamente man mano che verranno confermati oltre 7000 candidati.
Poiché i pianeti della VZ ricevono un’intensa radiazione stellare, sono più facili da osservare rispetto ai loro simili più freddi. Inoltre, se presentano temperature elevate, tendono a riflettere più luce e quindi a risultare più visibili per gli strumenti astronomici.
illustrazione della grande Corona Quetzalpetlatl, situata nell’emisfero sud di Venere, raffigura un vulcanismo attivo e una zona di subduzione, dove la crosta in primo piano sprofonda nell’interno del pianeta. NASA/JPL-Caltech/Peter Rubin
L’Habitable Worlds Observatory: il futuro è già in cantiere
Tra le raccomandazioni del decennale sondaggio dell’Astronomy and Astrophysics Decadal Survey del 2020 figura una missione rivoluzionaria: il Habitable Worlds Observatory (HWO). Questo futuro telescopio spaziale avrà lo scopo di osservare direttamente pianeti rocciosi potenzialmente abitabili attorno a stelle simili al Sole.
Ma c’è di più: HWO sarà anche in grado di identificare pianeti simili a Venere. L’osservazione diretta permetterà di analizzare lo spettro riflesso della luce dei pianeti, una tecnica più sensibile delle osservazioni in trasmissione per atmosfere dense e nuvolose. In particolare, sarà possibile cercare firme chimiche come il biossido di zolfo (SO₂), che potrebbe indicare attività vulcanica, oppure atmosfere dominate da anidride carbonica con nubi di acido solforico, segni distintivi di un ambiente inabitabile ma ricco di informazioni.
Una sinergia tra scienza planetaria e astronomia
Un aspetto chiave di questo approccio è l’integrazione tra le conoscenze acquisite all’interno del Sistema Solare e l’analisi degli esopianeti. Poiché non potremo mai visitare fisicamente questi mondi lontani, dovremo affidarci a modelli basati sui dati raccolti da pianeti come Venere e la Terra per interpretare ciò che vediamo.
Il lavoro dei ricercatori americani sottolinea proprio questo punto: finché non comprenderemo appieno i processi che hanno trasformato Venere in un inferno inabitabile, resterà difficile valutare il reale potenziale di altri mondi rocciosi scoperti attorno a stelle lontane.
Conclusioni
Studiare le ExoVenere non significa solo comprendere mondi alieni, ma anche fare luce su ciò che rende la Terra così speciale. L’osservazione di questi pianeti caldi e irrequieti potrà rivelarci quanto siano frequenti le condizioni estreme e quanto siano rari gli ambienti temperati.
Grazie all’Habitable Worlds Observatory, e con il supporto delle missioni dirette verso Venere, la scienza è pronta a compiere un nuovo passo nella comprensione della diversità planetaria. E chissà: tra le centinaia di ExoVenere già individuate, potremmo trovare un giorno anche un mondo che ci racconti una storia diversa da quella di Venere — una storia dove un destino infernale è stato evitato.
Fino al 1609, qualsiasi tipologia di azione investigativa del cielo è stata condotta unicamente mediante l’uso degli occhi, pertanto ne risultava fortemente limitata in termini di magnificazione e potere risolutivo. L’impiego del cannocchiale (de facto un telescopio rifrattore) come strumento per l’indagine astronomica, rappresenta una vera e propria rivoluzione: da quel momento, l’umanità ha sempre migliorato i suoi mezzi di osservazione, sia mediante lo sviluppo di design innovativi per i propri strumenti ottici, sia introducendo materiali ed ottiche di fattura sempre più raffinate. In poco più di 400 anni, si è passati dal cannocchiale di Galileo, avente pochi centimetri di diametro, fino ai telescopi odierni, i più estesi dei quali hanno, attualmente, diametro dell’ordine dei 10 metri (come il Gran Telescopio Canarias), con progetti di strumenti ottici fino ai 39 metri (ci si riferisce, a tal proposito, all’europeo Extremely Large Telescope, la cui prima luce dovrebbe avvenire nel 2027). In effetti, l’estensione di un telescopio per l’osservazione del cielo, quantificata mediante il diametro della sua apertura, è un parametro importante in quanto influenza la quantità di luce entrante nel sistema ottico in un certo periodo di tempo, ossia la magnitudine limite degli oggetti osservabili e la risoluzione ottenibile. Non è, tuttavia, il solo parametro da tenere in considerazione. Ugualmente significativo per valutare le prestazioni di uno strumento per l’indagine astronomica è il campo di vista, o Field of View (FoV), ossia l’area di cielo osservabile tramite lo strumento stesso. Questa superficie è, in genere, quantificata mediante l’angolo solido sotteso dalla stessa e si misura in gradi quadrati o in steradianti. I più grandi telescopi on-ground per lo svolgimento di survey astronomiche non superano, in genere, poche decine di gradi quadrati: se si pensa che l’intera volta celeste osservabile da un qualsiasi sito sulla Terra, approssimata ad una semisfera, sottende un angolo solido di circa 21.000 gradi quadrati, se ne deduce come i telescopi debbano essere puntati in continuazione per portare, all’interno del proprio FoV, gli oggetti di interesse. Questo implica, come intuibile, un notevole consumo di tempo e risorse. E se si disponesse di un sistema ottico avente un campo di vista dello stesso ordine di grandezza di quello che caratterizza la volta celeste, ossia 10.000 gradi quadrati, con un’apertura di dimensioni relativamente grandi, ad esempio 1 metro? In questo caso, non si avrebbe necessità di alcun puntamento per l’individuazione di sorgenti astronomiche e astrofisiche e si disporrebbe, al contempo, di uno strumento con elevata area di raccolta dei fotoni. Proprio questa è l’idea alla base di un telescopio innovativo, chiamato con ispirazione, “MezzoCielo”.
Introduzione
Da qualche decennio, l’astronomia vive una fase caratterizzata da emozionanti scoperte ed intense trasformazioni: un esempio è offerto dalla nascita e dallo sviluppo della cosiddetta “astronomia multi-messaggera”, la quale si propone di studiare una sorgente (o un evento) analizzando in maniera coordinata le informazioni ricavabili dai segnali astrofisici che la caratterizzano, comprendenti, tra gli altri, radiazione elettromagnetica e onde gravitazionali. Numerose sono anche le sfide che l’astronomia moderna è chiamata ad affrontare. L’inquinamento rientra sicuramente in questa categoria, ma quando si parla di inquinamento in ambito astronomico, non si intende solo quello luminoso: l’abbandono nelle orbite terrestri, in particolare in quelle basse o Low Earth Orbits (LEOs), di oggetti artificiali, quali satelliti a fine vita operativa, stadi di lanciatori, propellente e così via ha dato origine ad un nuovo tipo di pollution, costituito da una nutrita popolazione di space debris o detriti spaziali. Questi detriti spaziano in un ampio range di dimensioni e orbite di collocamento e, pertanto, velocità: un “censimento” operato dall’Agenzia Spaziale Europea e reperibile nel “ESA’s Space Environment Report” del 2023 indica chiaramente che i debris orbitanti attorno al nostro pianeta con dimensione superiore a 10 cm (e fino all’ordine del metro) sono almeno 32.000, distribuiti in maniera non uniforme tra le diverse orbite, essendo la maggior parte di essi, attorno alle 20.000 unità, collocati nelle orbite basse, fino a 2.000 km dal suolo. Diversi milioni sarebbero invece i detriti con dimensione minore di 1-10 cm e gli oggetti più estesi non ancora tracciati. E, con la costruzione in orbita (pianificata o attualmente in atto) di numerose costellazioni di satelliti, la previsione per il futuro prossimo è quella di un incremento sostanziale del numero dei debris. I detriti rappresentano un problema di sempre maggiore serietà per due motivi principali: il primo è legato alla capacità della maggior parte di essi di riflettere la radiazione elettromagnetica solare e quindi di interferire con le osservazioni astronomiche condotte da terra. Il secondo deriva dalla loro elevata velocità (inversamente proporzionale alla dimensione dell’orbita) e quindi dall’energia cinetica che li caratterizza: per fissare le idee, si consideri che l’energia cinetica di un oggetto di 10 g che si muova in orbita LEO alla velocità (tipica) di 7 km/s corrisponde approssimativamente a quella associata ad una autovettura di medie dimensioni (1500 kg) che si muova a circa 65 km/h. L’impatto con un tale oggetto sarebbe potenzialmente distruttivo per qualunque satellite o velivolo non adeguatamente schermato, con annessa produzione a cascata di ulteriori debris. Immediata è la considerazione che una tale situazione, protratta sufficientemente a lungo, potrebbe dar luogo ad un ambiente spaziale così ostile da impedire l’accesso dell’umanità alle orbite esterne, con notevoli danni, oltre che per la ricerca astronomica condotta con telescopi space-based, anche per l’intera società.
l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata
[swpm_protected for=”3″]
In questo contesto dove le sfide si intrecciano all’evoluzione dell’indagine scientifica, è concepito il progetto di un innovativo sistema ottico terrestre capace di osservare contemporaneamente l’intera (o quasi) volta celeste. Quali potrebbero essere le applicazioni pratiche di un telescopio a campo globale, soprattutto con riferimento alle trasformazioni e alle sfide menzionate in precedenza? Nell’ambito dell’astronomia multi-messaggera, un tale strumento potrebbe essere impiegato in qualità di controparte ottica (ossia in grado di analizzare la radiazione elettromagnetica con lunghezze d’onda nello spettro visibile) dei rivelatori di sorgenti astrofisiche. In effetti, spesso un evento, per quanto transitorio, genera segnali in un ampio intervallo di lunghezze d’onda e/o aventi diversa natura. La fusione di due oggetti astrofisici supermassicci, come stelle di neutroni e buchi neri, è, ad esempio, un fenomeno caratterizzato dall’emissione di onde gravitazionali, le quali possono essere rivelate da osservatori dedicati: l’interferometro Virgo, costruito in Italia, nei pressi di Pisa, o l’atteso Einstein Telescope hanno precisamente questo scopo. Per ridurre l’incertezza legata alla localizzazione della sorgente delle onde, ossia per individuare con maggiore accuratezza la posizione nel cielo del fenomeno osservato, un telescopio a grandissimo campo di vista rappresenterebbe lo strumento di elezione: osservando l’esplosione o kilonova prodotta dalla fusione, esso sarebbe in grado di circoscrivere la posizione di arrivo delle onde gravitazionali e soprattutto, non necessitando di nessun tipo di puntamento, questa “ricerca” richiederebbe tempi molto brevi, fattore fondamentale trattandosi di fenomeni transitori della durata di non più di qualche giorno. In termini di inquinamento prodotto dai detriti spaziali, il contributo di un telescopio a campo globale potrebbe essere determinante per ridurre la pericolosità di questo problema. Numerose sono le soluzioni formulate ad oggi dalle varie agenzie spaziali per far fronte alla minaccia degli space debris al fine di evitare cupi scenari futuri. Tra queste, la rimozione dei detriti dalle proprie orbite, almeno di quelli di più grandi dimensioni, è una delle più significative. Tuttavia, una tale operazione non può prescindere dalla previa conoscenza delle orbite dei detriti, ottenibile mediante il tracciamento degli stessi. Un campo di vista estremamente esteso si rivelerebbe quindi indispensabile per fornire un tracking continuo dei debris: in altri termini, il compito di generare una mappatura dei detriti spaziali sarebbe demandato principalmente ad un telescopio a campo globale, il quale si inserirebbe nella vasta rete di sensori ad oggi disseminati sul globo appositamente per questo scopo. Il telescopio MezzoCielo nasce allora con un duplice obiettivo: contribuire al progresso scientifico in termini di comprensione dell’universo e fornire una soluzione ad un problema sempre più stringente in ambito spaziale. MezzoCielo mira, in definitiva, a rivoluzionare il modo in cui vengono effettuate le osservazioni del cielo grazie alla sua principale peculiarità, ossia un campo di vista di circa 10.000 gradi quadrati, al quale si somma una apertura relativamente ampia, un metro di diametro equivalente, che permette allo strumento di raggiungere una magnitudine limite di circa +23.
Design opto-meccanico e sfide ingegneristiche
L’idea del sistema ottico di MezzoCielo è concepita nel contesto dello Space Situational Awareness, programma di respiro internazionale dedicato al pattugliamento delle orbite terrestri in termini di detriti spaziali e oggetti di origine naturale, come una sorta di “evoluzione” concettuale del telescopio Fly-Eye. Inventati dall’attuale presidente dell’Istituto Nazionale di Astrofisica, Prof. Roberto Ragazzoni, sia Fly-Eye che MezzoCielo si basano su un disegno ottico monocentrico, ossia le ottiche impiegate possiedono centro di curvatura comune: questa configurazione si rivela efficace poiché permette di rendere il sistema privo di aberrazioni quali coma e astigmatismo. A differenza del Fly-Eye, MezzoCielo non impiega specchi, ossia si tratta di un sistema ottico rifrattore, simile, nella morfologia, all’eliofanografo, dispositivo ottico impiegato sin dalla fine dell’Ottocento per registrare il numero effettivo di ore di insolazione durante la giornata.
Schematizzazione concettuale (in sezione) del telescopio MezzoCielo. Si riconoscono la sfera centrale che focalizza la luce sulla superficie concentrica su cui sono collocate le camere, ciascuna con la propria lente di campo. Si può notare, inoltre, che le porzioni del cielo più prossime all’orizzonte (fino a circa 30° di elevazione) sono escluse dal potenziale campo di vista poiché soggette ai più alti valori di perturbazione atmosferica. Fonte: “Current status of MezzoCielo: a design aiming to a large aperture, extremely wide field of view telescope, Roberto Ragazzoni et al., SPIE, 2022” (adattata).
Scendendo nel dettaglio del suo design opto-meccanico, osserviamo che MezzoCielo consiste primariamente in una lente sferica centrale che focalizza la luce su una superficie concentrica su cui sono posizionate diverse camere, dotate di lenti correttrici e rivelatori CMOS. Come già affermato, il disegno monocentrico è utile per aumentare la qualità dell’immagine del sistema riducendo a zero tutte le aberrazioni di Seidel, tranne quella sferica. Inoltre, quest’ultima è resa costante lungo ciascuna delle linee di vista: un diaframma collocato in ognuna delle camere proietta uno stop virtuale al centro della lente monocentrica, rendendo in questo modo uniforme l’illuminazione su tutto il campo visivo. Il telescopio sarà del tipo seeing-limited, ossia le sue prestazioni ottiche, in termini di risoluzione, saranno limitate principalmente dalla turbolenza atmosferica. Affinché questo sia possibile, l’aberrazione sferica deve essere notevolmente ridotta. La sua correzione è affidata ad un sistema di lenti correttrici poste a monte dei rivelatori CMOS in ciascuna camera, ma, per rendere più agevole il loro lavoro, riducendo in partenza la quantità di sferica da compensare, è necessario che la lente monocentrica (la quale “raccoglie” i fotoni indirizzandoli verso le camere stesse) sia caratterizzata da un rapporto focale relativamente alto, ad esempio superiore a 3. Considerazioni di ottica geometrica suggeriscono allora che, per un diametro di ingresso di 1 metro, la sfera, se realizzata interamente in vetro comune borosilicato avente indice di rifrazione intorno a 1.5, dovrebbe avere un diametro di almeno 4 metri. Sorge dunque un primo problema: una lente sferica di queste dimensioni risulta di fatto irrealizzabile date le difficoltà tecnologiche di produzione, l’impossibilità di garantire l’uniformità del raffreddamento e dell’indice di rifrazione, senza contare l’elevata complessità di installazione in situ. Come si può garantire il triplice obiettivo dato dalla riduzione della massa vetrosa (quindi delle dimensioni della sfera), dal mantenimento del diametro equivalente di 1 metro e dall’ottenimento di un rapporto focale maggiore o uguale a 3?
Principio di funzionamento della proiezione dello stop virtuale al centro della sfera da parte del diaframma collocato in ciascuna camera. In questo modo, il disegno ottico risulta semplificato e l’illuminazione garantita senza vignettamento lungo tutto il campo di vista del telescopio. Fonte: “Current status of MezzoCielo: a design aiming to a large aperture, extremely wide field of view telescope, Roberto Ragazzoni et al., SPIE, 2022”.
La soluzione è offerta dall’impiego di liquido ottico inserito all’interno della stessa lente sferica. In effetti, un approccio di questo tipo venne già ipotizzato nel XIX secolo quando, al fine di ottenere un sistema ottico omnidirezionale, leggero e con ridotta aberrazione sferica per usi fotografici, due lenti menisco di curvatura uguale ed opposta vennero disposte in modo da formare una sfera cava, di pochi centimetri di diametro, riempita in seguito di acqua, generando quella che passò alla storia come Sutton’s ball-shaped water lens, o, più semplicemente, lente di Sutton. Il sistema, tuttavia, trovò scarsa diffusione e venne rapidamente abbandonato, soprattutto a causa delle difficoltà dell’epoca nel realizzare lenti sferiche di elevata qualità e dell’uso dell’acqua come fluido ottico. L’acqua, infatti, pur garantendo una sostanziale riduzione della massa complessiva (la densità dell’acqua è di 1000 kg/m3 a temperatura ambiente, contro i circa 2500 kg/m3 del vetro borosilicato), presenta un indice di rifrazione relativamente elevato (intorno a 1.33 a temperatura ambiente e per lunghezze d’onda intorno a 550 nm, corrispondente al colore che noi vediamo come verde), che non permette un decisivo aumento della lunghezza focale (rispetto ad un sistema composto unicamente da vetro) e quindi, a parità di apertura, del rapporto focale. Inoltre, la sua trasparenza alla luce visibile (solitamente quantificata in chimica mediante il parametro “coefficiente di assorbimento”) risulta relativamente bassa, ossia l’acqua tende ad assorbire e/o a deviare dalla traiettoria prevista un elevato numero di fotoni, situazione che può essere esasperata dalla presenza di eventuali contaminanti. Le problematiche elencate relative all’uso dell’acqua, già notevoli per una lente di dimensioni molto modeste, sono, come facilmente intuibile, molto più significative per una sfera dalla prevista apertura equivalente di 1 metro, come quella di MezzoCielo. Per quest’ultimo sistema, si può dimostrare che il desiderato valore di rapporto focale è raggiungibile impiegando fluido ottico avente indice di rifrazione compreso tra 1.25 e 1.3 nel range visibile. In aggiunta, la trasparenza di questo fluido ottico dovrebbe essere almeno pari a quella dell’acqua distillata (possibilmente più alta) e, in ogni caso, dovrebbe manifestare una scarsa propensione ad essere “solvente”. Dal punto di vista fisico-chimico, è poi apprezzabile che il liquido in questione presenti altre proprietà, tra cui: 1. Bassa densità; 2. Bassa viscosità (per facilitarne il pompaggio all’interno del volume sferico); 3. Bassa o nulla infiammabilità; 4. Stabilità con la temperatura e nel tempo; 5. Bassa o nulla tossicità per l’uomo; 6. Basso impatto ambientale. Tutte queste proprietà sono rintracciabili in una categoria particolare di liquidi, ossia i fluidi fluorurati e, tra essi, il più promettente per l’applicazione del telescopio MezzoCielo è il perfluoroesano, la cui composizione comprende solo atomi di carbonio e fluoro.
Diverse capacità di convergenza della luce per una lente sferica in tre diverse situazioni: sfera cava (nessuna convergenza), riempimento con acqua (lunghezza focale piccola, convergenza con molta aberrazione), riempimento con perfluoroesano – nome commerciale “Fluorinert FC72” (lunghezza focale elevata, convergenza più accurata). Fonte: “Mezzocielo: an attempt to redesign the concept of wide field telescopes, Roberto Ragazzoni et al, SPIE, 2020”.
La caratterizzazione ottica del perfluoroesano, così come quella di altri liquidi al fluoro ritenuti idonei, è già stata condotta nei laboratori dell’Osservatorio Astronomico di Padova, dove il progetto del telescopio (con annesse simulazioni ed esperimenti) è attualmente in corso. Con un indice di rifrazione medio di 1.251 nello spettro visibile ed una trasparenza almeno un’ordine di grandezza superiore rispetto a quella dell’acqua distillata nel range giallo-rosso dello stesso spettro, il perfluoroesano consente di ridurre la dimensione complessiva della sfera fino a circa 2 metri di diametro, mantenendo i requisiti ottici richiesti. Dunque, invece di realizzare una sfera di vetro di almeno 4 metri, è possibile impiegare un guscio sferico di 2 metri, il quale racchiude una cavità riempita di perfluoroesano (o altro liquido al fluoro). Naturalmente, in tal caso, fondamentale parametro di progetto diviene lo spessore del guscio vetroso: un valore eccessivamente alto condurrebbe ad annullare, seppur parzialmente, gli effetti dell’uso del liquido, mentre uno spessore troppo piccolo potrebbe creare problemi di stabilità e di integrità del guscio soggetto alla pressione idrostatica del liquido. Calcoli analitici e seguenti simulazioni all’elaboratore hanno permesso di dimostrare che, fissati il valore massimo di deformazione permessa al vetro e le proprietà dei materiali coinvolti, lo spessore ottimale del guscio, per una lente sferica di 2 metri, deve essere di almeno 12 cm. La realizzazione di un guscio sferico di vetro di tali dimensioni, comprendente un volume di almeno 3 m3 di fluido, presenta in realtà molte delle problematiche di costruzione e installazione che caratterizzano una sfera completamente di vetro. Anche se otticamente performante infatti, un tale sistema rimane comunque caratterizzato da un elevato volume di vetro e da una massa di qualche tonnellata. La soluzione proposta è la segmentazione di questo componente in un numero (pari) di lenti menisco, disposte in modo da garantire sfericità ottica alla struttura. In effetti, questo modo di procedere presenta il vantaggio di ridurre considerevolmente le difficoltà tecnologiche di produzione delle ottiche di MezzoCielo, le quali si riducono, in prima battuta, a lenti che, seppur di grandi dimensioni, possono essere sostenute singolarmente, con notevoli vantaggi in termini di stabilità e montaggio. In questo contesto, una scelta immediata per il telaio della sfera, ossia per la montatura delle lenti, ricade su i solidi platonici e/o archimedei, poiché essi assicurano una più o meno efficace approssimazione del volume sferico e la necessaria regolarità per le lenti, sia in termini di collocazione che di morfologia. Le lenti menisco occuperebbero infatti le facce del solido. Ad oggi, il progetto del telescopio è incentrato su una struttura meccanica dodecaedrica per supportare le lenti in vetro, dal momento che il dodecaedro permette la massima apertura equivalente e regolarità geometrica, ma altre configurazioni sono parimenti allo studio (come quella dell’icosaedro troncato o del “pallone da calcio”). Una considerazione aggiuntiva in merito all’uso di una montatura dodecaedrica è relativa al fatto che le lenti possono essere realizzate, oltre che con la consueta forma circolare che normalmente le contraddistingue negli strumenti astronomici, anche sulla base di una pianta pentagonale (si ricorda infatti che le facce di un dodecaedro sono pentagoni regolari). In effetti, uno dei risultati ottenuti finora asserisce che le lenti pentagonali sono in grado di garantire prestazioni meccaniche e ottiche superiori a quelle circolari, ossia, detto in altri termini, a parità di sollecitazioni, esse sviluppano minori tensioni interne e deformazioni (quindi un minor grado di defocus o sfocamento sul piano focale) rispetto alle lenti circolari. Naturalmente, questi vantaggi sono controbilanciati dalla maggiore complessità di realizzazione e dalla conseguente lievitazione del costo. Riassumendo quanto detto finora, possiamo affermare che due sono le principali proprietà che MezzoCielo sfrutta per raggiungere le prestazioni desiderate: 1. una sfera ottica centrale di circa 2 metri di diametro che impiega fluido ottico di alta qualità; 2. una montatura a foggia di solido platonico per il supporto delle lenti menisco in vetro.
Rendering di possibili configurazioni per la lente monocentrica di MezzoCielo con montatura dodecaedrica. A sinistra, le lenti menisco sono tagliate pentagonalmente, mentre a destra si impiegano lenti circolari. Pur se di fabbricazione più complessa, le ottiche pentagonali offrono una più elevata superficie vetrosa e, quindi, minori livelli di diffrazione. Fonte: “Mezzocielo: an attempt to redesign the concept of wide field telescopes, Roberto Ragazzoni et al, SPIE, 2020” (adattata).
Le suddette proprietà portano intrinsecamente con sé numerose criticità che richiedono soluzioni innovative o di complessa natura. Tra le principali sfide che attualmente il gruppo di lavoro dell’Osservatorio di Padova guidato da Roberto Ragazzoni sta affrontando, rientrano, ad esempio, problematiche di natura ingegneristica derivanti dalla necessità, da parte della montatura, di garantire simultaneamente l’adeguato supporto alle singole lenti in termini di integrità e rigidità, la possibilità di allineamento delle stesse anche in condizioni di esercizio, la tenuta stagna del fluido (soprattutto in virtù del basso valore di viscosità dei liquidi al fluoro), la compatibilità tra i materiali in gioco e un buon accoppiamento termico con le lenti. Al fine di far fronte alle problematiche elencate, uno studio dedicato rivolto al dimensionamento del telaio della sfera di MezzoCielo è attualmente in fase di definizione. Le soluzioni prese in considerazione al momento comprendono l’uso di materiali aventi elevate caratteristiche di resistenza meccanica e, al contempo, coefficiente di espansione termica simile a quello del vetro, il progetto di elementi compensatori di dilatazioni termiche potenzialmente distruttive per le lenti, l’impiego di sistemi pneumatici (controllati attivamente) per garantire la necessaria mobilità per l’allineamento e la tenuta stagna, particolari sagomature della montatura per ricavarne un adeguato alloggiamento per i componenti in vetro e così via. Notevole importanza è anche data alla modalità di inserimento del liquido all’interno della sfera, al fine di evitare formazione di bolle d’aria nel volume disponibile, e al progetto di un sistema di ricircolo dello stesso per la sua rigenerazione e/o mantenimento ad una temperatura definita. Si è poi ipotizzata anche la configurazione della struttura atta a garantire il collegamento della sfera con il terreno: composta da 5 elementi di tipo a traliccio, equispaziati rispetto all’asse verticale della sfera, essa dovrà sostenere il peso delle 12 lenti menisco, della montatura e del fluido all’interno e assicurare la richiesta rigidezza anche in presenza di vento (ad esempio, fino a 10 m/s, sulla base dei valori più alti registrati annualmente sul sito dell’Osservatorio Astronomico di Asiago), evitando qualsiasi fenomeno di risonanza, ossia di “accoppiamento” dinamico con forze variabili nel tempo. Parallelamente al dimensionamento meccanico della montatura di pertinenza della sfera, un’altra importante azione è condotta in termini di analisi ottica delle camere poste sul piano focale della sfera stessa. Come si è detto, le camere hanno il compito di inviare la luce, catturata e focalizzata dalla lente monocentrica, sul rivelatore CMOS, dopo averla “depurata” dell’aberrazione sferica. I risultati ottenuti finora dimostrano che il raggiungimento di prestazioni seeing-limited sono possibili impiegando diverse lenti di campo e correttrici. Queste ultime rappresentano il “cuore” delle camere. Dato il numero elevato delle stesse che si vuole impiegare, e poiché sono previste superfici asferiche per alcune di esse, una delle idee sotto analisi consiste nel realizzare questi componenti mediante stampa in 3D, al fine di ridurre significativamente tempi e costi di produzione. Riguardo al numero di camere da impiegare, sono al momento allo studio due diverse strategie: la prima prevede il tappezzamento completo della superficie focale della sfera con le camere stesse, le quali dovranno dunque essere diverse centinaia, se non migliaia; la seconda, più complessa, implica l’uso di un numero esiguo di camere mobili, che, mosse da bracci robotici, seguendo il moto apparente della volta celeste, sarebbero in grado di generare immagini in cui i detriti, muovendosi sullo sfondo delle stelle “fisse”, descriverebbero dei tracklets, scie luminose dalle quali dedurre le relative orbite. Pur se promettenti a livello di calcoli analitici e simulazioni al computer, tutte le soluzioni prospettate finora dovranno essere validate attraverso esperimenti in laboratorio su prototipi in scala, già previsti e finanziati da collaborazioni tra l’Istituto Nazionale di Astrofisica (a cui l’Osservatorio di Padova afferisce) e altri enti e Università nazionali.
Possibile design del telescopio MezzoCielo. Insieme alla struttura dodecaedrica, si riconoscono i cinque elementi a traliccio per il collegamento al terreno e la superficie focale tappezzata di camere. Fonte: “Current status of MezzoCielo: a design aiming to a large aperture, extremely wide field of view telescope, Roberto Ragazzoni et al., SPIE, 2022”.
Conclusioni
MezzoCielo si propone come uno strumento ottico rivoluzionario, in grado di combinare capacità osservative eccezionali, con una risoluzione comparabile con i migliori telescopi attualmente presenti sul pianeta. Il suo progetto presenta sfide e complessità sia a livello ottico che ingegneristico, ma tutte le possibili problematiche sono già in fase di risoluzione ed affrontate sia singolarmente sia a livello sistemico. Nel futuro prossimo, la realizzazione di piccoli prototipi in scala, sia della sfera che dei correttori a valle, sarà un passo obbligatorio per confermare le stimate prestazioni opto-meccaniche, con l’obiettivo di costruire un vero e proprio esemplare di MezzoCielo, magari affiancato a telescopi di nuova generazione per l’osservazione di eventi astrofisici. L’allestimento di una intera rete di sistemi MezzoCielo (sia nell’emisfero australe che in quello boreale) per il monitoraggio totale delle orbite terrestri e lo svolgimento di survey in tempi brevi rappresenta il traguardo finale che il progetto del telescopio MezzoCielo si prefigge.
Rappresentazione realistica del telescopio MezzoCielo investito da due fasci di luce proveniente da diverse direzioni. Fonte: “Mezzocielo: an attempt to redesign the concept of wide field telescopes, Roberto Ragazzoni et al, SPIE, 2020”.
Grazie alle più avanzate simulazioni cosmologiche, un team internazionale guidato da Lucio Mayer dell’Università di Zurigo ha esplorato i processi di formazione stellare nelle galassie primordiali che popolavano l’Universo a meno di 700 milioni di anni dal Big Bang. Il lavoro, realizzato tramite la simulazione ad altissima risoluzione Massive Black PS, ha mostrato come, in regioni molto dense dell’Universo primordiale, le galassie ricche di gas abbiano dato vita a dischi compatti che, a causa di instabilità gravitazionali, si sono frammentati in densi ammassi stellari.
Le simulazioni, che raggiungono una risoluzione spaziale di appena 2 parsec, sono tra le più accurate mai realizzate nel campo della cosmologia computazionale. Questi modelli hanno rivelato che le galassie coinvolte — incluse due compagne di massa inferiore — generano dischi di gas auto-gravitanti larghi meno di 500 parsec, che si frammentano in clump (grumi) massicci. Questi clump evolvono rapidamente in ammassi stellari compatti, con masse comprese tra 10⁵ e 10⁸ M⊙ e densità superiori a 10⁵ M⊙/pc².
Sorprendentemente, gli ammassi più piccoli presentano una stretta analogia con quelli scoperti di recente dal James Webb Space Telescope (JWST) nel sistema gravitazionalmente amplificato Cosmic Gems, situato a redshift z = 10.2. L’esistenza di tali oggetti era già stata ipotizzata, ma questa simulazione ne dimostra per la prima volta la formazione realistica all’interno di galassie a dischi altamente instabili.
Una nascita turbolenta
Il cuore della scoperta risiede nel meccanismo della frammentazione del disco di gas, regolato da un parametro noto come criterio di Toomre, che valuta la stabilità di un disco galattico rispetto al collasso gravitazionale. Nelle simulazioni, le condizioni sono ideali: dischi molto densi, ricchi di gas e soggetti a turbolenze compressive che favoriscono la formazione di grumi.
I risultati si allineano con la cosiddetta “Feedback-Free Burst” (FFB) theory proposta da Avishai Dekel (Università Ebraica di Gerusalemme), secondo cui, nelle prime epoche cosmiche, il gas riesce a formare stelle in modo estremamente efficiente prima che il feedback delle supernove riesca a interrompere il processo.
Una pioggia di buchi neri
Le simulazioni suggeriscono che la densità incredibilmente alta degli ammassi stellari possa favorire la formazione di buchi neri intermedi (IMBH). Secondo modelli recenti (Fujii et al., 2024), questi oggetti nascono attraverso fusioni stellari in ambienti ultra-densi, raggiungendo masse fino a 10⁵ M⊙. Successivamente, gli IMBH migrano verso il centro della galassia fondendosi tra loro e con un eventuale buco nero centrale preesistente, dando origine a un buco nero supermassiccio (SMBH) di almeno 10⁷ M⊙.
Questo meccanismo spiegherebbe l’osservazione, sempre da parte di JWST, di buchi neri sovramassicci (più massivi del previsto rispetto alla loro galassia ospite) già a redshift z > 6, come mostrato nei lavori di Y. Harikane, R. Maiolino, M. A. Stone e M. Yue.
Le simulazioni: uno zoom nel tempo
Il progetto utilizza il codice Gasoline2 e nasce come un’evoluzione del progetto MassiveBlack (guidato da Tiziana Di Matteo e Yu Feng presso la Carnegie Mellon University). Il volume simulato è uno dei più densi conosciuti, rappresentando un picco di 4–5σ nella distribuzione di densità cosmica. Le simulazioni seguono un periodo di soli 6 milioni di anni, ma con dettaglio senza precedenti: ogni clump, ogni formazione stellare, ogni frammento di gas è modellato con precisione pari a circa 2,4×10³ M⊙.
Anche galassie relativamente piccole, come il “Halo 47”, mostrano una straordinaria efficienza nella formazione di ammassi. In questi ambienti, oltre il 30% della massa stellare si concentra in ammassi compatti, un valore straordinariamente alto rispetto alle galassie odierne. Il destino finale di questi oggetti è spesso la fusione al centro galattico, contribuendo alla crescita dei buchi neri centrali.
Uno scenario multiplo per la nascita degli SMBH
Le simulazioni evidenziano due canali principali per la crescita dei buchi neri supermassicci:
Accrescimento e fusione di IMBH generati all’interno degli ammassi ultracompatti, prevalente nelle galassie di massa media o bassa.
Collasso diretto gravitazionale (“dark collapse”) in galassie molto più massicce, in cui il buco nero nasce già con massa 10⁷ M⊙ da una super-stella instabile, come proposto da L. Zwick e L. Mayer.
Entrambi i meccanismi forniscono una spiegazione convincente per la varietà di SMBH già presenti meno di un miliardo di anni dopo il Big Bang.
Il quadro che emerge da queste simulazioni, supportato da dati JWST, offre una visione coerente e affascinante della formazione delle prime strutture cosmiche. In ambienti densi, le galassie sembrano favorire una modalità esplosiva ed efficiente di formazione stellare, che non solo dà origine a stelle e ammassi, ma anche ai semi dei colossali buchi neri che oggi popolano i nuclei delle galassie.
Un evento culturale dedicato all’archeoastronomia avrà luogo venerdì 4 aprile 2025, alle ore 17, alle Fabbriche Chiaramontane in Via S. Francesco d’Assisi 1, ad Agrigento. Intitolato “L’importanza dell’archeoastronomia nelle recenti scoperte: dal cielo dell’Egitto a quello della Sicilia preistorica e di Akrágas“, l’incontro rappresenta un’opportunità unica per esplorare le connessioni tra il cielo antico e le strutture sacre delle civiltà passate, con particolare focus sulle recenti scoperte riguardanti la città di Akrágas e i suoi Templi della Collina.
L’evento, promosso dalle associazioni A.N.D.E., Fidapa e Inner Wheel di Agrigento, vedrà la partecipazione di esperti di rilievo nel campo dell’archeoastronomia. Pietro Di Martino, docente ordinario di Astronomia, aprirà l’incontro con una conferenza dal titolo “Ferro e fuoco dal cielo nell’antico Egitto“, esplorando l’importanza del cielo nella cultura egizia. A seguire, l’astrofisico Carmelo Falco discuterà della “ricostruzione del cielo antico al tempo di Akragas“, concentrandosi sul periodo VI-V secolo a.C.
Andrea Orlando, presidente dell’Istituto di Archeoastronomia Siciliana, parlerà su “L’archeoastronomia nella Sicilia preistorica“, approfondendo le connessioni tra i cieli antichi e i siti preistorici siciliani. Infine, Maria Luisa Zagretti, dottore di ricerca in archeologia, presenterà una relazione sui “Dati archeoastronomici e aspetti topografici desumibili dalla ricostruzione del cielo antico di Akragas“, mettendo in luce come le scoperte recenti abbiano rivelato nuove conoscenze sul sito di Akrágas.
L’incontro sarà coordinato e moderato da Molisella Lattanzi, direttrice di Coelum Astronomia, e offrirà ai partecipanti l’opportunità di approfondire il rapporto tra il cielo e le culture dell’antichità, creando un dialogo interdisciplinare affascinante tra scienza e storia.
L’ingresso è libero fino ad esaurimento posti. Non perdere l’opportunità di partecipare a questo affascinante viaggio tra cielo, storia e archeologia!
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.