Home Blog Pagina 12

Infinity2 – Il Liceo di Montegiorgio Vola nello Spazio

Le possibili applicazioni dell’anidride carbonica nello spazio e l’alga spirulina futuro cibo degli astronauti.

Dopo Infinity I pubblicato in Coelum Astronomia n°262 arrivano nuove sonde nello spazio per il Liceo Scientifico di Montegiorgio (FM): il progetto “Infinity 2”.

a cura di Antolini Ettore, Braschi Matteo, Staderini Alessandro, Vitali Chiara.

Introduzione

Dopo “Infinity 1” nuove sonde spaziali realizzate presso il Liceo Scientifico “E.Medi” di Montegiorgio – IISS “ C.Urbani” (FM) – e lanciate nello spazio dall’Islanda.

Un progetto straordinario quello che è stato portato avanti dagli studenti e dalle studentesse del Liceo che, divisi in due team di lavoro, gruppo “base” e gruppo di “missione”, hanno ideato e realizzato i lanci delle sonde, cariche di esperimenti scientifici, nel nord Europa dal 3 al 12 aprile 2024 insieme ai loro docenti. Il Ministero dell’Istruzione e del Merito ha attenzionato fin da subito la rilevanza di questo Progetto presentandolo a Roma.
Infinity2” ha fatto seguito ad un primo esperimento condotto tra il 2022 ed il 2023, consistente nel lancio in Italia di una sonda con pallone aerostatico per studiare i gas serra e per fare riprese video concernenti la curvatura terrestre. Il credito acquisito da questa esperienza didattica, premiata dall’ASI a Milano durante il Contest 2023 “Verso lo spazio con Samantha” direttamente dall’astronauta Samanta Cristoforetti, ha incoraggiato i docenti del team di ricerca e sperimentazione didattica Antolini Ettore,Vallorani Andrea e Vitali Chiara nella prosecuzione dell’applicazione delle discipline STEM alla innovativa “didattica aerospaziale” . Questa volta i ragazzi dello Scientifico “E.Medi”, supportati anche dai docenti Braschi Matteo e Staderini Alessandro, hanno predisposto due nuovi esperimenti scientifici rispetto all’esperienza precedente (Infinity1): la sonda “Ísland”, che ha portato a bordo un esperimento per misurare l’incidenza dei raggi UVB e UVC su tratti genomici della spirulina, e la sonda “Helianthus”, che è stata equipaggiata con due speciali capsule contenenti CO2 per sperimentare la possibilità di trasformare l’anidride carbonica in ossigeno in seguito all’urto delle particelle, accelerate dall’energia d’impatto proveniente dai raggi cosmici. Anche il progetto “Infinity 2”, come il suo precursore “Infinity1”, è nato come attività didattica per alunni di scuola superiore: gli obiettivi pertanto sono stati calibrati in modo da favorire la buona riuscita sia dell’attività scientifico-sperimentale che dell’attività formativa e di crescita personale dei discenti, con l’ambizione di far vivere loro un sogno e l’emozione fantastica di vederlo realizzato tra le loro mani. “Infinity2” è stato condotto grazie al sostegno integrato più fondi diversi riservati alla scuola e qui di seguito elencati:
– Monitor ex 440 Transizione ecologica e digitale
– Pon Avviso 22550 del 12/04/2022 – FESR REAC EU – Laboratori green, sostenibili e innovativi per le scuole
– PNRR Piano Scuola 4.0 – Azione 1 – Next generation class – Ambienti di apprendimento innovativi
– PNRR Piano Scuola 4.0 – Azione 2 – Next generation labs – Laboratori per le professioni digitali del futuro
– PNRR Riduzione dei divari territoriali – Azioni di prevenzione e contrasto alla dispersione scolastica
– PNRR Formazione docenti Progetti nazionali per lo sviluppo di modelli innovativi di didattica digitale integrata
La capacità innovativa gestionale con il conseguente impiego creativo delle risorse è stata attenzionata dall’INDIRE (Istituto Nazionale di Documentazione Innovazione e Ricerca) e condivisa nella biblioteca nazionale.
Inoltre è risultata fondamentale la collaborazione di Giovanni Fuggetta e il sostegno della Leonardo s.p.a., attiva nei settori della difesa, dell’aerospazio e della sicurezza, e il patrocinio dell’ASI (Agenzia Spaziale Italiana).

I 36 ragazzi del Liceo Scientifico “Medi” di Montegiorgio hanno lavorato nei laboratori della scuola opportunamente attrezzati con l’acquisto di strumenti e materiali specifici per la preparazione delle sonde: dieci di loro hanno raggiunto l’Islanda per i lanci mentre gli altri hanno continuato a coordinare le attività dalla sede scolastica. “Infinity 2” è stata un’esperienza sperimentale altamente formativa, che ha collocato l’Istituto Scolastico all’avanguardia nel settore nuovissimo della didattica aerospaziale, addirittura: “prima scuola superiore al mondo” secondo le parole dell’astronauta Samantha Cristoforetti pronunciate durante la restituzione dei dati degli esperimenti in ASI durante la notte dei ricercatori il 27 settembre 2024.

Il documento pubblicato nella Biblioteca Nazionale INDIRE è disponibile https://biblioteca.indire.it/content/994/show

Infinity II il saluto di Samantha Cristoforetti 

Affrontiamo le questioni

Infinity2 è stata una missione che ha visto impegnati alcuni studenti e i loro docenti ed ha avuto come obiettivo il lancio di palloni aerostatici in Islanda. A ciascun pallone aerostatico è stata agganciata una sonda costruita dagli stessi studenti e dai loro insegnanti, ognuna con un diverso esperimento.
Uno dei lanci ha riguardato l’invio nella stratosfera di una sonda (denominata Ìsland) con agganciate due capsule contenenti alga spirulina (Arthrospira platensis). L’intento è stato quello di misurare, tramite analisi del DNA eseguita prima e dopo il lancio, l’incidenza dei raggi UVB, UVC e cosmici su tratti genomici della spirulina. Nella stessa esperienza, inoltre, si è confrontata anche la capacità di isolamento termico dell’acqua e della CO2.

Una delegazione di ragazzi del team Infinity2: Miconi Chiara, Finucci Sofia, Monini Matilde, Santucci Nicola, Romagnoli Alessio, Tiburzi Alessandro, Santoni Tommaso, Vittori Matteo, Espinosa Valentino, Nori Nicola.

Un altro lancio ha previsto invece di far salire fino alla stratosfera una sonda (denominata Helianthus) con agganciate due capsule in vetro contenenti CO2. L’esperimento mirava a verificare la possibilità di trasformare l’anidride carbonica in ossigeno molecolare a seguito dell’urto delle particelle della stessa CO2 accelerate dall’energia d’impatto proveniente dai raggi cosmici su un catalizzatore in oro.

Sonda Island

Il meccanismo d’azione ipotizzato consiste nel far sì che i raggi cosmici colpiscano la molecola di anidride carbonica. L’urto con conseguente trasferimento di energia dal raggio cosmico alla molecola di CO2 dovrebbe accelerare la molecola fino a farla urtare contro il catalizzatore in oro con un’energia tale da provocare la separazione del carbonio dall’ossigeno. Tale processo innescherebbe una reazione a catena che dovrebbe portare ad una trasformazione della CO2 in ossigeno molecolare.

Partendo dai risultati dell’esperimento degli scienziati Giapis e Yao del California Institute of Technology (Caltech) in cui sono riusciti a convertire l’anidride carbonica in ossigeno molecolare, si è pensato di utilizzare i raggi cosmici per accelerare la CO2. L’energia necessaria a far acquisire sufficiente energia cinetica da spezzare la molecola di anidride carbonica ed avere la ricombinazione molecolare dell’ossigeno a seguito dell’urto con la lamina d’oro è di almeno 80 eV. L’energia dei raggi cosmici è tra i 108 eV e 1020 eV quindi enormemente superiore.

Sonda Helianthus

Oltre ai dati in letteratura emersi, la nostra analisi statistica ha confermato la possibilità di intercettare raggi cosmici con un’energia sufficiente ad innescare la reazione di scissione con una probabilità prossima al 100% non appena al di sopra dei 15 Km di quota.

Da letteratura specializzata risulta che il numero di particelle di alta energia almeno 1 GeV che colpisce la superficie di 1 metro quadrato in un secondo è circa 1000 (tra i 15 ed i 40 km di altezza). Nel nostro caso la superficie interessata (lamina d’oro) era di circa 20 cm2.

La sonda è rimasta esposta ai raggi per circa 115 minuti (6900 s) e la probabilità considerando una distribuzione Poissoniana che venisse colpita da almeno un raggio era praticamente del 100%:

Ad essere colpite dai raggi cosmici sono state delle ampolle in vetro (sistemi di reazione) con all’interno una lamina in oro con la funzione di catalizzatore. Nelle ampolle, provviste di apposito rubinetto di carica/scarica, è stato dapprima fatto il vuoto parziale, e successivamente sono state caricate di anidride carbonica
I vettori di lancio utilizzati nei due esperimenti sono stati due sonde completamente progettate e realizzate nei laboratori della scuola. Le sonde sono state abbinate ciascuna ad un vettore di trazione, un pallone aerostatico P2000 con punto di esplosione tra i 39000 e i 41000 m.

Gonfiaggio e lancio sonda

ANALISI DEI DATI

l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

L’analisi dei dati è stata condotta in due fasi:


1. Analisi dei gas: dall’analisi gascromatografica dei gas residui è emersa una riduzione del 99,9% della CO2 presente nelle ampolle flight (che sono state nella stratosfera) rispetto a quella blanck (rimasta a terra), cioè la quasi totale scomparsa della CO2.


2. Analisi alla spettrometria Raman: dall’analisi Raman (porzione di ampolle flight e blanck analizzata pari a circa 40 micron quadrati, non si è ancora rinvenuto carbonio in forma inorganica (elenco forme sp2).


Tuttavia si è verificata la formazione nell’ampolla flight di una grande quantità di cristalli di metavanadato di sodio. Tale elemento, assente nell’ampolla blanck, ha ∆G e ∆H di formazione entrambi negativi. La sua formazione quindi è stata favorita dalle condizioni di volo.
L’origine della reazione è stata data dal sodio in forma atomica proveniente dalla rottura dei legami del sale di solfato di sodio presenti nel blanck e completamente disgregati nel flight. Ciò significa che l’energia dei raggi cosmici ha provocato la rottura dei cristalli di solfato di sodio (visto che sodio in forma atomica/standard non si è trovato nè nel blanck nè nel flight) energia dell’ordine dei 286 kJ /Kg equivalente a 1,785 x 1024 eV/Kg.

Isolamento termico acqua-anidride carbonica

Grafici temperatura-tempo acqua-anidride carbonica

Dal confronto dei due andamenti nel grafico si è calcolata la differenza di energia tra acqua e anidride carbonica alla quota di 39000 m considerando che la sonda abbia raggiunto la massima quota dopo circa 7120 s di volo tenendo presenti venti in quota, al suolo, latitudine e longitudine, questa differenza è di circa 2,69 gradi. Dalla differenza di temperatura si è passati a determinare quanta energia dovrebbe essere fornita all’acqua per portarla ad isolare tanto quanto la CO2.

Appare evidente che a 39000 m di altezza la CO2 risulta isolare meglio dell’acqua, questo potrebbe aprire nuove prospettive nella realizzazione dell’isolamento (attualmente a base acqua) delle future tute spaziali.

SONDA HELIANTUS

La sonda è stata realizzata con materiali estremamente leggeri (polistirolo e pvc) per poter garantire, sia il rispetto delle norme di sicurezza per il volo, sia la funzionalità del vettore.
Strutturalmente la sonda è stata costruita con due braccia che hanno tenuto esposto per tutto il tempo di volo il sistema di reazione (vedi foto) rappresentato dalle ampolle.

Ampolla con lamina d’oro
 

Tali ampolle sono state ideate e progettate dal team della scuola. Hanno forma cilindrica, provviste di rubinetto carica/scarica e sono state realizzate in vetro rubino nel laboratorio di Sesto San Giovanni (MI) di Disa Raffaele. Al loro interno è stata posizionata una lastra di vetro rivestita in oro 24 K. La funzione della lastra colata in oro è quella di fungere da catalizzatore. (O=C=O raggi cosmici ==> O2 + C sp2).

All’interno delle ampolle è stato dapprima fatto il vuoto parziale poi è stata caricata CO2 fino al raggiungimento di una pressione interna pari a -0,196 atm grazie al fondamentale supporto della Nippon Gases di Empoli.

Le ampolle sono state posizionate al momento del lancio con un angolo, rispetto al catalizzatore, di 36° in modo da ottenere la massima incidenza dei raggi cosmici.
L’atteso dell’esperienza è di verificare la scomparsa della CO2 e la comparsa di C in forma inorganica. La verifica dell’aumento dell’ossigeno non è fattibile vista comunque la grande percentuale dell’ossigeno residuale presente in capsula dopo il vuoto parziale.

Le analisi di verifica sono state effettuate in due step:

  • gas cromatografia presso il politecnico di Milano
  • microscopio elettronico RAMAN CNR Roma

Dalla prima analisi, si è verificata la quasi completa scomparsa della CO2 dalle ampolle in sonda (flight) a differenza dell’ampolla di controllo (blanck).

Co2 Ampolla flight 1 ppm Co2 Ampolla flight 2 ppm Co2 Ampolla blanck ppm Variazione percentuale Ampolla flight 1 Variazione percentuale Ampolla flight 2
2956 444 351387 -99,90% -99,90%

*Dati Politecnico di Milano

Dalla seconda analisi al Raman (ad oggi effettuata su di una limitatissima porzione pari a 40 micron quadrati) è emersa la presenza nel blanck di numerosi cristalli di Na+2SO4 (solfato di sodio) assenti però nel flight dove compaiono invece numerosi e ben strutturati cristalli di NaVO3 (metavanadato di sodio). Al momento non sono state rinvenute forme di carbonio inorganico (vedi grafico).

Immagini cristalli di solfato di sodio CNR Roma (ampolla blanck)
Immagini cristalli di Metavanadato di sodio CNR Roma (ampolla flight)
Analisi spettrale ampolla flight CNR Roma

CONCLUSIONI

In prima analisi – gas cromatografia – possiamo constatare che la CO2 nelle ampolle flight è scomparsa. La verifica in secondo step – Raman – ha mostrato sia la presenza di contaminanti ma anche dimostrato la fattibilità dell’esperienza.
La fusione del solfato di sodio, con successiva formazione del metavanadato di sodio, sono la prova del fatto che l’energia dei raggi cosmici sia primari che secondari che terziari è sufficiente a rompere legami chimici di molto più forti di quelli presenti nell’anidride carbonica.
La scomparsa dei cristalli di solfato di sodio (deltaf H°= +1383 kjmol-1 pari a 8,6 x 1024 eVmol-1 ) nel flight con relativa sodio formazione dei cristalli di metavanadato di sodio sono la dimostrazione che:
a. i raggi cosmici hanno energia molto elevate da 108 eV fino a 1020 eV
b. i raggi cosmici possono spezzare direttamente legami chimici o colpire particelle accelerandole fino alla rottura.

All’interno delle ampolle sono stati riscontrati anche attesi agenti contaminanti (vedi Vanadio) probabilmente introdotti dalle bombole usate per realizzare il vuoto.
Ciò ci proietta ad una seconda sperimentazione che, per ovviare a problemi di contaminazione, verrà effettuata con l’uso di anidride carbonica marcata in modo da poter dedurre in modo inequivocabile il processo di trasformazione del gas.
Pur essendo stato un “volo” dalla durata limitata, la spirulina è comunque più sensibile alle mutazioni rispetto ad una cellula eucariota data la velocità di moltiplicazione mitotica, pertanto l’assenza di mutazioni (certificata dall’Istituto Zooprofilattico di Fermo), è un risultato da non sottovalutare di come la CO2 possa schermare anche dai raggi cosmici.
I dati di isolamento ed il relativo costo energetico per il mantenimento della temperatura sono inequivocabilmente a vantaggio della CO2 rispetto all’acqua.

La valenza dei risultati ottenuti ha portato alla loro presentazione da parte del team di Infinity2 direttamente all’ASI “Agenzia Spaziale Italiana” il 26 settembre scorso.

Foto di gruppo del team Infinity II, i sorrisi testimoniano l’entusiasmo
 

[/swpm_protected]

L’articolo è pubblicato in COELUM 271 VERSIONE CARTACEA

Scoprire le Onde Gravitazionali a Frequenze Nanohertz: il Ruolo di MeerKAT Pulsar Timing Array MPTA

Rappresentazione artistica delle onde gravitazionali e del cielo sopra una delle antenne del radiotelescopio sudafricano MeerKAT, gestito dall’Osservatorio SARAO. Crediti: Carl Knox, OzGrav, Swinburne University of Technology and South African Radio Astronomy Observatory (SARAO)

La ricerca sulle onde gravitazionali continua a rivelare nuovi orizzonti nell’astronomia moderna. Uno dei protagonisti di questa rivoluzione è il MeerKAT Pulsar Timing Array (MPTA), un progetto che sfrutta le straordinarie capacità del radiotelescopio MeerKAT per esplorare fenomeni cosmici a frequenze nanohertz. Questo approccio unico offre una finestra su eventi che si svolgono su scale temporali e spaziali vastissime, come la fusione di buchi neri supermassicci.

La sfida di osservare l’universo con i pulsar

I pulsar millisecondari sono al centro di questo straordinario esperimento. Questi oggetti, che emettono impulsi radio con regolarità estrema, funzionano come orologi cosmici incredibilmente precisi. Misurando con accuratezza i tempi di arrivo di questi impulsi sulla Terra, gli scienziati possono individuare lievi variazioni attribuibili alla distorsione dello spazio-tempo causata dalle onde gravitazionali.

Il MPTA ha registrato osservazioni di 83 pulsar in un periodo di 4,5 anni, accumulando un’enorme quantità di dati ad alta precisione. Con un errore mediano di soli 3,1 microsecondi, questi dati rappresentano uno dei dataset più completi e dettagliati mai raccolti in questo campo. Secondo il team, questa precisione consente di esplorare il fondo stocastico di onde gravitazionali, una sorta di “rumore cosmico” generato dall’incoerente sovrapposizione di onde gravitazionali provenienti da sorgenti come binarie di buchi neri supermassicci e fenomeni esotici dell’universo primordiale.

Prime evidenze di un fondo gravitazionale

Le osservazioni del MPTA hanno fornito indizi incoraggianti sulla presenza di un fondo gravitazionale a frequenze nanohertz. Questo segnale si manifesta come una correlazione temporale nei residui di tempo misurati tra i pulsar. Tali correlazioni, modellate attraverso la funzione Hellings-Downs, indicano che il segnale potrebbe effettivamente derivare da onde gravitazionali e non da processi casuali o da rumori strumentali.

Uno degli aspetti più affascinanti di questa ricerca è la rilevazione di un potenziale “hotspot” anisotropico nella mappa delle onde gravitazionali a 7 nHz. Sebbene sia necessario approfondire per confermare la natura astrofisica di questo segnale, questa scoperta potrebbe suggerire che alcune sorgenti di onde gravitazionali siano distribuite in modo non uniforme nel cielo.

Il video mostra una rappresentazione artistica di coppie di buchi neri supermassicci e del tessuto spazio-temporale distorto dal loro impatto. Crediti: Carl Knox, OzGrav, Swinburne University of Technology

Collaborazione e confronto globale

I risultati del MPTA si inseriscono in un contesto internazionale di ricerca, in cui altre collaborazioni, come il North American Nanohertz Observatory for Gravitational Waves (NANOGrav) e l’European Pulsar Timing Array (EPTA), hanno riportato evidenze simili. La loro significatività statistica varia tra 3 e 4𝜎, ma un consenso definitivo sulla scoperta di un fondo gravitazionale richiede ulteriori verifiche.

La precisione unica di MeerKAT permette però al MPTA di emergere come un contributore fondamentale. I dati mostrano un’ampiezza del segnale gravitazionale leggermente superiore rispetto a quella registrata da altre collaborazioni, un risultato che potrebbe derivare dalla maggiore sensibilità del radiotelescopio MeerKAT e dalla qualità del suo set di dati.

Una finestra su fenomeni straordinari

La ricerca del MPTA non si limita a confermare l’esistenza di onde gravitazionali, ma punta anche a caratterizzarne la distribuzione e l’origine. Se confermata, l’anisotropia del segnale potrebbe fornire indizi fondamentali sull’evoluzione dei buchi neri supermassicci e sulla loro distribuzione nell’universo. Allo stesso modo, un fondo gravitazionale isotropo potrebbe supportare teorie legate ai fenomeni dell’universo primordiale, come la formazione di stringhe cosmiche o le transizioni di fase.

Il futuro della ricerca con MeerKAT

Con un dataset che continua a crescere, il futuro della ricerca del MPTA appare promettente. Nuove osservazioni e aggiornamenti tecnologici miglioreranno ulteriormente la sensibilità, permettendo di distinguere con maggiore precisione i segnali astrofisici dai rumori di fondo. Questo lavoro non solo aiuterà a confermare l’esistenza del fondo gravitazionale, ma aprirà anche la strada a una nuova comprensione dei processi che hanno plasmato il nostro universo.

Mentre gli scienziati continuano a esplorare le onde gravitazionali con il MPTA, una cosa è certa: siamo testimoni di una nuova era dell’astronomia, in cui la comprensione dell’universo si espande ben oltre i limiti della luce visibile, raggiungendo le pieghe più sottili dello spazio-tempo stesso.

Le antenne che formano il radiotelescopio sudafricano MeerKAT. Crediti: Enrico Sacchetti / Inaf

Il MeerKAT Pulsar Timing Array è un esperimento internazionale che utilizza il sensibilissimo radiotelescopio MeerKAT (gestito dal South African Radio Astronomy Observatory) proprio per osservare, circa ogni due settimane, decine e decine di pulsar e misurare il tempo di arrivo degli impulsi radio con una precisione che può raggiungere le decine di nanosecondi. “Grazie a queste caratteristiche, MPTA costituisce il più potente rivelatore di onde gravitazionali di frequenza ultra bassa nell’intero emisfero australe”, sottolinea Federico Abbate, ricercatore dell’INAF di Cagliari e tra gli autori di tutti e tre gli articoli pubblicati oggi. 

A 18 mesi di distanza dalla prima serie di pubblicazioni da parte di altri tre esperimenti internazionali (tra cui l’European Pulsar Timing Array, EPTA, in cui sono è coinvolto INAF, l’Università di Milano Bicocca e il Gran Sasso Science Institute), i risultati pubblicati oggi offrono nuove prospettive per la comprensione dei buchi neri più massicci dell’Universo, sul loro ruolo nella formazione del cosmo e sull’architettura cosmica che hanno lasciato dietro di sé. 

Caterina Tiburzi, ricercatrice dell’INAF di Cagliari coinvolta nella collaborazione EPTA, spiega: “Comprendere e modellare il rumore di fondo che affligge il segnale delle pulsar, causato dagli effetti del gas ionizzato interposto tra le stelle, la Terra e il Sole, è l’elemento chiave per confermare definitivamente i risultati di MPTA, così come quelli di EPTA e degli altri esperimenti precedenti. I nuovi ricevitori a bassa frequenza di MeerKAT saranno strumenti straordinari per questo scopo”. 

“Oltre all’entusiasmo per i nuovi esiti osservativi – conclude infine Andrea Possenti, dell’INAF Cagliari, e membro della collaborazione MPTA fin dalla sua fondazione nel 2018 – questo è un momento cruciale, che dimostra come la collaborazione internazionale negli esperimenti di tipo Pulsar Timing Array, nei quali INAF è coinvolto da oltre 20 anni, spalancherà infine le porte dell’astronomia delle onde gravitazionali di frequenza ultra bassa”. Interviste a cura di Media INAF.

Fonti: Oxford Accademy

Il 2025 l’Anno dei Lunistizi Maggiori

Fig. 2 - Variazione della declinazione apparente della Luna nel biennio 2024-2025: periodo lunistiziale. Dati: JPL’s Horizons system NASA (DE441), coordinate topocentriche, intervallo un’ora. Monte Mario, Roma (Lat. 41°55′21″N; Long. 12°27′09″E).

La Luna è protagonista di diversi movimenti apparenti, alcuni dei quali danno vita a fenomeni affascinanti e spesso rari. Un esempio significativo sono i lunistizi, che si verificano con un ciclo di circa 18,6 anni e che possono essere osservati solo poche volte nel corso della vita di una persona.

Nel 2025 avremo l’opportunità di assistere ai lunistizi maggiori e sarà possibile ammirare la Luna sorgere e tramontare nei suoi punti di declinazione massima e minima.

Il prof. Salvatore Marinucci ci guida attraverso una spiegazione dettagliata del fenomeno, offrendo utili consigli per prepararsi al meglio e non perdere questi eventi straordinari.

I lunistizi maggiori sono fenomeni astronomici complessi che offrono preziose opportunità per comprendere l’influenza delle forze gravitazionali sulla Luna. Per le antiche civiltà questi eventi probabilmente rappresentavano momenti di connessione con il cielo e forse erano inclusi nei loro calendari rituali. Oggi, grazie agli strumenti moderni e ai progressi dell’astronomia, possiamo documentare questi inconsueti fenomeni. Il 2025 offrirà interessanti occasioni per appassionati e osservatori del cielo, che potranno catturare immagini e video indimenticabili del nostro affascinante satellite naturale.

Generalità sui lunistizi

I lunistizi sono fenomeni astronomici che si verificano ciclicamente. Durante il periodo dei lunistizi maggiori, la Luna sorge e tramonta progressivamente più a nord e più a sud fino a raggiungere posizioni limite ogni 18,6 anni circa. Quando la Luna sorge al suo estremo settentrionale descrive un ampio arco nel cielo, apparendo molto alta. Invece, quando sorge al suo estremo meridionale percorre un arco più breve, apparendo molto bassa all’osservatore: questo percorso della Luna è particolarmente evidente durante il plenilunio. Si hanno i lunistizi maggiori, in generale, quando la Luna raggiunge posizioni limite, ovvero i punti più estremi a settentrione e a meridione (Fig. 1).

Fig. 1 – Le posizioni assunte dalla Luna (L) al suo sorgere sull’orizzonte durante i lunistizi minori e maggiori
(periodo 18,6 anni circa). Confronto con le posizioni estreme raggiunte dal Sole (S) in un anno.
A ovest, la situazione risulta essere sostanzialmente simmetrica.

Nel corso del biennio 2024-2025 si può notare che la Luna sorge e tramonta alternativamente più a nord e più a sud del solito con un periodo di circa due settimane, raggiungendo declinazioni massime e minime quasi mensilmente (Fig.2). La Luna sorge e tramonta sull’orizzonte locale in posizioni più distanti rispetto a quelle raggiunte dal Sole, che si arresta ai solstizi d’estate e d’inverno.

Fig. 2 – Variazione della declinazione apparente della Luna nel biennio 2024-2025: periodo lunistiziale.
Dati: JPL’s Horizons system NASA (DE441), coordinate topocentriche, intervallo un’ora. Monte Mario, Roma (Lat. 41°55′21″N; Long. 12°27′09″E).

Le antiche popolazioni, che osservavano la Luna per scopi pratici e rituali, potrebbero aver preso in considerazione questi fenomeni, anche se accadono poco frequentemente nel corso della vita di un individuo. Diversi studi suggeriscono che numerosi siti archeologici siano allineati ai lunistizi. Sebbene non ci siano prove definitive sulla consapevolezza degli osservatori dell’epoca, è plausibile che questi eventi suggestivi abbiano avuto un qualche ruolo nelle antiche culture.


l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

I lunistizi: fenomeni astronomici complessi

Il lunistizio è un fenomeno influenzato da vari fattori astronomici, principalmente dall’obliquità dell’eclittica e dall’inclinazione dell’orbita lunare. L’asse terrestre è inclinato di circa 23,5° (angolo lentamente variabile nel tempo) rispetto al piano dell’eclittica, che è il piano orbitale della Terra. Questa inclinazione determina l’alternanza delle stagioni e la variazione dell’altezza del Sole durante l’anno. Tuttavia, anche l’orbita della Luna è inclinata di circa 5,1° rispetto all’eclittica e ciò aggiunge complessità ai moti lunari.
Durante il lunistizio maggiore, l’inclinazione dell’orbita lunare e l’obliquità dell’eclittica si combinano, causando una variazione significativa della declinazione apparente della Luna, che può raggiungere valori più estremi rispetto a quelli che si verificano negli anni non lunistiziali (Tab. 1).

Data Lunistizio settentrionale Declinazione massima Età della Luna Data Lunistizio meridionale Declinazione minima Età della Luna
12-gen-25 +28°13’09” 12,02 26-gen-25 -29°21’16” 26,02
08-feb-25 +28°21’36” 9,43 23-feb-25 -29°25’17” 24,43
07-mar-25 +28°29’32” 6,93 22-mar-25 -29°32’50” 21,93
04-apr-25 +28°25’50” 5,46 19-apr-25 -29°12’43” 20,46
01-mag-25 +28°18’30” 3,1 15-mag-25 -29°10’09” 17,1
28-mag-25 +28°11’59” 0,79 11-giu-25 -29°12’47” 14,79
25-giu-25 +28°07’04” 28,79 08-lug-25 -29°10’02” 12,48
22-lug-25 +28°15’06” 26,48 05-ago-25 -29°18’29” 11,12
19-ago-25 +28°00’10” 25,12 01-set-25 -29°25’27” 8,66
14-set-25 +28°22’18” 21,66 29-set-25 -29°17’10” 7,09
11-ott-25 +28°10’11” 19,09 26-ott-25 -29°15’31” 4,4
08-nov-25 +28°06’26” 17,44 22-nov-25 -29°04’10” 1,68
05-dic-25 +28°00’43” 14,68 20-dic-25 -28°52’27” 29,68

Tab. 1 – I lunistizi maggiori del 2025.
Dati: JPL’s Horizons system NASA (DE441). Monte Mario, Roma (Lat. 41°55’21”N; Long. 12°27’09”E).
In giallo i lunistizi maggiori con i rispettivi valori di declinazione massima e minima. Nei mesi di maggio e settembre si verificano tre lunistizi.
Età della Luna in giorni calcolata alla mezzanotte locale: Virtual Moon Atlas 8.2.


Alla base del fenomeno dei lunistizi vi è la precessione della linea dei nodi. Questa linea collega i due punti in cui l’orbita della Luna interseca il piano dell’eclittica, detti nodi. I nodi si muovono lentamente nel tempo, in un moto retrogrado, con un ciclo che dura 18,6 anni circa. Ciò significa che la posizione della Luna all’interno del suo ciclo nodale cambia progressivamente, influenzando le declinazioni che essa può raggiungere. La precessione retrograda è la principale causa dei lunistizi. Tale precessione dei nodi è dovuta principalmente dall’interazione gravitazionale tra Terra, Sole e Luna ed è stata compresa e la sua descrizione perfezionata dalle osservazioni astronomiche.

Durante l’intervallo di tempo di 18,6 anni, si verificano due tipi di lunistizi: i lunistizi maggiori e i lunistizi minori. Nei lunistizi maggiori, l’angolo combinato tra l’obliquità dell’eclittica e l’inclinazione dell’orbita lunare raggiunge il massimo e il minimo possibile. Nei lunistizi minori, che si verificano 9,3 anni circa dopo i lunistizi maggiori, l’angolo combinato raggiunge valori intermedi pertanto la Luna sorge e tramonta all’interno di archi di orizzonte più ristretti entro i limiti detti minori.
La declinazione apparente della Luna è la distanza angolare della Luna dall’equatore celeste, vista da un osservatore terrestre. In particolare, la declinazione positiva indica che la Luna si trova a nord dell’equatore celeste, mentre la declinazione negativa significa che è a sud. Il termine “apparente” si riferisce alla posizione percepita della Luna nel cielo da un osservatore sulla Terra, influenzata da fattori come la rifrazione atmosferica e la parallasse. Durante i fenomeni dei lunistizi maggiori del 2025 la declinazione raggiunge valori limite (Fig. 3).

Fig. 3 – Andamento delle declinazioni apparenti massime e minime mensili della Luna nel 2025.
Dati: JPL’s Horizons system NASA (DE441). Monte Mario, Roma (Lat. 41°55′21″N; Long. 12°27′09″E).

Calcolo delle declinazioni lunari

Le declinazioni apparenti della Luna per il biennio 2024-2025 sono state calcolate utilizzando i dati del sistema di effemeridi Horizons del Jet Propulsion Laboratory (JPL) della NASA, basati sul modello dinamico DE441. I calcoli, in coordinate topocentriche, sono stati effettuati a intervalli di un’ora e riferiti alla posizione geografica dell’osservatorio di Monte Mario, Roma (Latitudine 41°55’21”N, Longitudine 12°27’09’E).
Il sistema Horizons tiene conto di correzioni fisiche e dinamiche per il calcolo preciso della posizione apparente della Luna, tra cui: la precessione e la nutazione, che considerano le oscillazioni a lungo termine dell’asse terrestre; la rifrazione atmosferica, che corregge la posizione apparente della Luna vicino all’orizzonte; il light-time delay, che calcola il ritardo di circa un secondo dovuto al tempo impiegato dalla luce per raggiungere la Terra dalla Luna.
Per identificare le declinazioni massime e minime giornaliere, i dati sono stati prima raggruppati per giorno. Le declinazioni positive massime corrispondono alle posizioni più alte della Luna nel cielo, mentre le declinazioni negative minime rappresentano le posizioni più basse. Questo approccio ha permesso di identificare i momenti in cui si verificano i lunistizi maggiori, ovvero quando la Luna raggiunge le sue posizioni limite settentrionale e meridionale (Tab. 2).

Evento lunistiziale maggiore Data Declinazione apparente della Luna Tempo (UTC+1)
Declinazione Massima 07-mar-25 +28°29’32” 19:00
Declinazione Minima 22-mar-25 -29°32’50” 06:00
Media delle Declinazioni -1°02’07”    

Tab. 2 – Declinazioni lunari limite ottenute da 17520 dati relativi al biennio 2024-2025, intervallo un’ora. Dati: JPL’s Horizons system NASA (DE441). Monte Mario, Roma (Lat. 41°55′21″N; Long. 12°27′09″E).

Dall’analisi dei dati (Tab. 1) si può notare una particolarità: normalmente accadono due lunistizi ogni mese, nei mesi di maggio e settembre i lunistizi saranno tre.
Il termine lunistizio non indica che la Luna si fermi al sorgere o al tramontare sull’orizzonte locale, come accade per il Sole in alcuni giorni durante i solstizi invernali ed estivi. Tuttavia, in alcuni casi, quando la Luna tende a invertire la direzione di spostamento, dopo aver raggiunto il suo estremo sull’orizzonte locale, i valori delle declinazioni lunari possono risultare quasi identici e gli azimut di sorgere o tramontare della Luna possono apparire gli stessi per un paio di giorni.

Osservare i lunistizi

I lunistizi maggiori rappresentano un’interessante opportunità per ammirare i movimenti inconsueti della Luna nel cielo e sull’orizzonte locale. Per ottenere il meglio dall’esperienza è essenziale una pianificazione attenta e la scelta di condizioni ideali. Ecco alcuni suggerimenti pratici:
– fase lunare: i lunistizi sono particolarmente spettacolari quando la Luna è piena, poiché è visibile per tutta la notte e raggiunge il suo massimo splendore. Al contrario, la Luna nuova andrebbe esclusa (Tab. 3).

Età della Luna (giorni) Fase della Luna Condizioni di visibilità nel cielo
0-1 Luna Nuova La Luna non è visibile: si trova vicino al Sole
02-giu Luna crescente Visibile poco dopo il tramonto: il falcetto crescente appare basso a ovest
07-ago Primo quarto Visibile dal pomeriggio fino a tarda sera: Luna visibile circa a metà cielo
set-13 Gibbosa crescente Visibile durante la sera: la Luna è quasi piena
14-15 Luna Piena Visibile tutta la notte, sorge al tramonto del sole e tramonta all’alba 
16-21 Gibbosa calante Visibile dopo mezzanotte fino al mattino: Luna ancora molto luminosa
22-23 Ultimo quarto Visibile al mattino 
24-29 Luna calante Visibile nelle ore prima dell’alba: falce calante visibile verso est

Tab. 3 – Visibilità e età della Luna.


– luogo adatto: occorre scegliere un luogo con un orizzonte libero da ostacoli, come edifici o alberi, per poter osservare chiaramente il percorso della Luna.
– attrezzatura: anche se i lunistizi si osservano principalmente a occhio nudo, l’uso di un binocolo può arricchire l’esperienza visiva. Chi desidera immortalare questi eventi potrebbe, oltre a dotarsi di una fotocamera, realizzare video time-lapse per documentare le variazioni della posizione della Luna nel tempo.
– pianificazione: è possibile consultare calendari lunari, almanacchi o utilizzare software astronomici per determinare gli orari esatti di levata e tramonto della Luna riferiti al proprio luogo di osservazione. Programmi online come Peakfinder, o altre applicazioni per smartphone, possono aiutare a prevedere la posizione della Luna e i suoi spostamenti sull’orizzonte locale che, in alcuni casi e in altre località, potrebbero accadere con lo scostamento di un giorno rispetto alle date calcolate (qui si propongono i risultati per Monte Mario, Roma, latitudine 42° circa).

Conclusioni

I lunistizi maggiori sono fenomeni astronomici complessi che offrono preziose opportunità per comprendere l’influenza delle forze gravitazionali sulla Luna. Ogni lunistizio ci permette di riflettere sulle intricate dinamiche tra Terra, Luna e Sole. Per le antiche civiltà questi eventi probabilmente rappresentavano momenti di connessione con il cielo e forse erano inclusi nei loro calendari rituali. Oggi, grazie agli strumenti moderni e ai progressi dell’astronomia, possiamo documentare questi inconsueti fenomeni. Il 2025 offrirà interessanti occasioni per appassionati e osservatori del cielo, che potranno catturare immagini e video indimenticabili del nostro affascinante satellite naturale.

Referenze
Ferreri Walter, “La Luna: dal mito alla scienza”, Nuovo Orione.
Fresa Alfonso, “La Luna”, Hoepli editore.
Ruggles Clive, “Astronomy in Prehistoric Britain and Ireland”, New Haven and London: Yale University Press.
Ruggles Clive, Chadburn Amanda, “Stonehenge Sighting the Sun”, Historic England.

Software
Horizon System JPL NASA (effemeridi della Luna)
Author: Jon.D.Giorgini@jpl.nasa.gov
https://ssd.jpl.nasa.gov/horizons/app.html#/

Virtual Moon Atlas 8.2 (free software) Authors: Christian Legrand – Patrick Chevalley https://www.ap-i.net/avl/fr/start

PeackFinder Author: Fabio Soldati https://www.peakfinder.com

[/swpm_protected]

L’articolo è pubblicato in COELUM 271 VERSIONE CARTACEA

Coelum Astronomia: Un Natale di Solidarietà e Formazione 

 

Quest’anno, Coelum Astronomia sceglie di celebrare il Natale con un gesto concreto di solidarietà e supporto alla formazione scolastica. Dal 1° dicembre 2024 al 6 gennaio 2025, per ogni abbonamento sottoscritto o rinnovato, Coelum attiverà due abbonamenti gratuiti a favore di istituti scolastici di secondo grado.

Perché lo facciamo?

Crediamo che la divulgazione scientifica debba raggiungere anche i più giovani e che le scuole siano il terreno fertile per seminare curiosità, passione e conoscenza. Con questa iniziativa, vogliamo contribuire a portare più scienza nelle aule, arricchendo il percorso educativo degli studenti.


Come funziona l’iniziativa?

1️⃣ Ogni abbonamento, due omaggi scolastici
Per ogni abbonamento sottoscritto o rinnovato durante il periodo natalizio, due istituti scolastici di secondo grado riceveranno un abbonamento gratuito a Coelum Astronomia, valido per un anno.

2️⃣ Una lettera speciale nel primo numero
Gli istituti selezionati riceveranno il primo numero dell’abbonamento accompagnato da una lettera che presenterà l’iniziativa e il valore educativo della rivista.

3️⃣ Il tuo contributo conta!
Gli abbonati potranno segnalare le scuole che desiderano includere nell’iniziativa. Inoltre, sarà possibile scegliere se essere citati nella lettera inviata all’istituto oppure mantenere l’anonimato. Se non ci sono segnalazioni, Coelum sceglierà le scuole beneficiarie in base a criteri di necessità e interesse.


Un impegno a lungo termine per le scuole

Questa iniziativa si inserisce in un programma più ampio che Coelum dedicherà agli istituti scolastici per tutto il 2025. Con la nostra rubrica didattica già esistente e nuovi servizi in arrivo, puntiamo a supportare sempre di più gli insegnanti di materie scientifiche (STEM) e a promuovere l’astronomia e l’aerospazio come strumenti per ispirare gli studenti.


Unisciti a noi e fai la differenza!

Con un semplice abbonamento, puoi regalare conoscenza e ispirazione a centinaia di studenti in tutta Italia. Non è solo un dono per te, ma un contributo tangibile alla crescita educativa delle nuove generazioni.

📚 Abbonati ora e regala un Natale di scienza e conoscenza!
Con il abbonamento più scienza nelle scuole: insieme per crescere!


 

La Luna del Mese – Anno 2024

Accedi o registrati per continuare a leggere

I contenuti che stai cercando di visualizzare sono riservati agli utenti registrati.
Per accedere effettua il login con il tuo account Coelum Astronomia
oppure registrarti al sito.

Accedi oppure Registrati per continuare la lettura.

L’abbonamento a Coelum Astronomia offre funzionalità aggiuntive,
l’accesso all’archivio completo della rivista e ai contenuti riservati agli abbonati.

Scopri le formule di abbonamento

SUPERNOVAE aggiornamenti del mese – Dicembre 2024

0

a cura di Fabio Briganti e Riccardo Mancini

 

RUBRICA SUPERNOVAE COELUM   N. 127

SUPERNOVAE AGGIORNAMENTI di Fabio Briganti e Riccardo Mancini

Non sappiamo più quali aggettivi usare per descrivere l’incredibile lavoro portato avanti dal grande ricercatore amatoriale di supernovae Koichi Itagaki, che mette a segno la sesta scoperta del 2024, consolidando la terza posizione nella Top Ten mondiale amatoriale e raggiungendo quota 185 scoperte. Vedere un astrofilo che riesce ripetutamente a battere sul tempo i programmi professionali dedicati a questo tipo di ricerca, ci riempie di gioia. Bisogna però puntualizzare, per non scoraggiare gli altri astrofili, che Itagaki possiede due osservatori controllati in remoto con un numero impressionante di strumenti, superiori a tutti quelli dell’ISSP messi insieme. Inoltre, essendo in pensione, dedica tutto il suo tempo a riprendere e controllare immagini di galassie. E dobbiamo aggiungere che lo fa molto bene.

Nella notte del 15 novembre ha individuato un nuovo transiente di mag.+17,5 nei pressi della bella galassia a spirale barrata peculiare NGC2146 posta nella costellazione della Giraffa a circa 60 milioni di anni luce di distanza ed accompagnata in cielo da una più piccola galassia a spirale barrata denominata NGC2146A. Situate a soli 12° dal Polo Nord Celeste, queste due galassie sono circumpolare e perciò visibili tutta la notte. La caratteristica principale di NGC2146 è la struttura irregolare, con presenza di un immenso braccio di polveri posizionato vicino al nucleo, deformato da un probabile incontro ravvicinato o da una fusione con un’altra galassia più piccola. Questa situazione sembra essere testimoniata anche dall’alta formazione stellare all’interno della galassia, così elevata da far inserire l’oggetto nel novero delle galassie “starburst”.

In tempo di record, dopo solo sei ore dalla scoperta, gli astronomi dell’Indian Astronomical Observatory, situato nell’Himalaya occidentale ad un’altitudine di 4500 metri, uno degli osservatori più alti al mondo, utilizzando l’Himalaya Chandra Telescope da 2,01 metri hanno ottenuto lo spettro di conferma. La SN2024abfl è una supernova di tipo II molto giovane, scoperta circa 3/4 giorni dopo l’esplosione. Un secondo spettro, ripreso due giorni dopo il primo dagli astronomi americani del DLT40, ha confermato il tipo II per questa supernova, con un leggero assorbimento di polveri dovuto alla nostra galassia, che toglie alla luminosità della supernova circa mezza magnitudine. Il nuovo transiente non si è infatti distinto per la sua luminosità, raggiungendo il massimo intorno alla fine del mese di novembre con una luminosità che non è andata oltre alla mag.+16,5. E’ comunque situato in una bella e particolare galassia, oltre che comoda come posizione per gli osservatori dell’emisfero settentrionale. Per chi possiede una strumentazione con un buon campo, può riprendere nel solito scatto la coppia NGC2146 e NGC2146A con la supernova, che appare come un facile oggetto perché posto nella parte periferica della galassia ospite, anche se con una luminosità non elevata. Questa è la terza supernova conosciuta esplosa in NGC2146. La precedente fu la SN2018zd scoperta il 3 marzo 2018 proprio dall’astrofilo giapponesi Koichi Itagaki, che quindi ha un feeling particolare con questa galassia. Inoltre la posizione della SN2018zd è incredibilmente quasi coincidente con quella dell’attuale SN2024abfl. La prima supernova fu invece la SN2005V scoperta il 30 gennaio 2005 dal Nuclear Supernova Search.

1) Immagine della SN2024abfl in NGC2146 ripresa da Riccardo Mancini con un Newton da 250mm F.5 somma di 40 immagini da 180 secondi.

2) Immagine della SN2024abfl in NGC2146 ripresa dall’astrofilo tedesco Manfred Mrotzek con un telescopio da 140mm F.5,4 somma di 27 immagini da 180 secondi.

3) Immagine della SN2024abfl in NGC2146 ripresa dall’astrofilo spagnolo Carlos Segarra con un telescopio da 200mm F.4 somma di 35 immagini da 120 secondi.

 

Per seguire Supernovae Aggiornamenti: Iscriviti alla NewsLetter!

Coelum Astronomia 271 VI/2024 Digitale

0

Accedi o registrati per continuare a leggere

I contenuti che stai cercando di visualizzare sono riservati agli utenti registrati.
Per accedere effettua il login con il tuo account Coelum Astronomia
oppure registrarti al sito.

Accedi oppure Registrati per continuare la lettura.

L’abbonamento a Coelum Astronomia offre funzionalità aggiuntive,
l’accesso all’archivio completo della rivista e ai contenuti riservati agli abbonati.

Scopri le formule di abbonamento

La Galassia Sombrero brilla in una nuova immagine del telescopio JWST

L'immagine mostra una galassia su uno sfondo nero dello spazio. La galassia appare come un disco molto oblongo di colore blu, inclinato da sinistra a destra (circa dalle ore 10 alle ore 5). Al centro spicca un piccolo nucleo luminoso. Un disco interno più definito presenta una dispersione di stelle punteggiate, mentre il disco esterno, di tonalità bianco-azzurro, ha una struttura irregolare e simile a nuvole. Sullo sfondo nero dello spazio si notano puntini colorati, rappresentanti galassie lontane, disseminati intorno alla galassia principale. Credit: NASA, ESA, CSA, STScI

Il telescopio spaziale James Webb JWST ci regala un nuovo spettacolare sguardo alla Galassia Sombrero, una delle strutture cosmiche più affascinanti del nostro universo. Grazie alla sua straordinaria capacità di osservare l’infrarosso, Webb ha catturato dettagli mai visti prima, offrendo agli astronomi informazioni preziose sulla composizione, la storia e i segreti di questa galassia. Scopriamo insieme le ultime rivelazioni di questa icona cosmica, immersa tra polveri stellari e luce antica.

L’immagine mostra una galassia su uno sfondo nero dello spazio. La galassia appare come un disco molto oblongo di colore blu, inclinato da sinistra a destra (circa dalle ore 10 alle ore 5). Al centro spicca un piccolo nucleo luminoso. Un disco interno più definito presenta una dispersione di stelle punteggiate, mentre il disco esterno, di tonalità bianco-azzurro, ha una struttura irregolare e simile a nuvole. Sullo sfondo nero dello spazio si notano puntini colorati, rappresentanti galassie lontane, disseminati intorno alla galassia principale. Credit: NASA, ESA, CSA, STScI

Il telescopio spaziale James Webb della NASA/ESA/CSA continua a stupire il mondo scientifico e il pubblico con le sue straordinarie immagini del cosmo. Stavolta, il protagonista è la Galassia Sombrero (M104), che si presenta in tutta la sua maestosità in una nuova immagine catturata dall’osservatorio spaziale.

La Galassia Sombrero, nota per la sua iconica forma a cappello con un nucleo brillante circondato da un disco scuro di polvere, si trova a circa 31 milioni di anni luce dalla Terra nella costellazione della Vergine. Grazie alle capacità all’infrarosso di Webb, i dettagli precedentemente nascosti di questa galassia sono ora visibili con una chiarezza senza precedenti.

I ricercatori affermano che la natura grumosa della polvere, dove MIRI rileva molecole contenenti carbonio chiamate idrocarburi aromatici policiclici, può indicare la presenza di giovani regioni di formazione stellare. Tuttavia, a differenza di alcune galassie studiate con Webb, tra cui Messier 82 , dove nascono 10 volte più stelle rispetto alla Via Lattea, la galassia Sombrero non è un focolaio particolare di formazione stellare. Gli anelli della galassia Sombrero producono meno di una massa solare di stelle all’anno, rispetto alle circa due masse solari all’anno della Via Lattea.

Il buco nero supermassiccio al centro della galassia Sombrero, noto anche come nucleo galattico attivo (AGN), è piuttosto docile, persino con una massa di ben 9 miliardi di masse solari. È classificato come un AGN a bassa luminosità, che fa lentamente uno spuntino con il materiale in caduta dalla galassia, mentre emette un getto luminoso, relativamente piccolo.

Sempre all’interno della galassia Sombrero risiedono circa 2000 ammassi globulari, una raccolta di centinaia di migliaia di vecchie stelle tenute insieme dalla gravità. Questo tipo di sistema funge da pseudo laboratorio per gli astronomi per studiare le stelle: migliaia di stelle all’interno di un sistema con la stessa età, ma masse e altre proprietà variabili rappresentano un’intrigante opportunità per studi comparativi.

Un’immagine a due pannelli.
Vista Webb (in alto): La galassia appare come un disco molto oblongo, blu, che si estende diagonalmente (dalle 10 alle 5). Il nucleo è piccolo e brillante al centro, circondato da un disco interno chiaro punteggiato di stelle. Il disco esterno, bianco-azzurro, ha una struttura irregolare, simile a nuvole.
Vista Hubble (in basso): La galassia si presenta come un disco oblongo di colore bianco pallido, con un nucleo brillante che domina il disco interno. Il disco esterno è più scuro e presenta una struttura irregolare. Credit:
NASA, ESA, CSA, STScI, Hubble Heritage Team (STScI/AURA)

L’immagine rivela un disco interno luminoso, punteggiato di stelle, che sembra emergere dal nucleo brillante. Intorno, un disco esterno bianco-azzurro mostra strutture irregolari, simili a nuvole, che sembrano catturare la luce delle stelle in formazione. Sullo sfondo, lo spazio nero è punteggiato di galassie lontane che testimoniano l’immensità del cosmo.

Questa osservazione offre agli scienziati un’opportunità unica per studiare la struttura e la composizione della Galassia Sombrero. I dati raccolti da Webb potranno aiutare a rispondere a domande fondamentali sulla formazione e l’evoluzione delle galassie a spirale con bulbi prominenti.

Il telescopio JWST, lanciato nel 2021, continua a dimostrare la sua capacità di spingersi oltre i limiti dell’esplorazione cosmica, aprendo nuove finestre sul nostro universo. Con questa immagine, Webb non solo ci mostra un capolavoro galattico, ma stimola anche l’immaginazione e il desiderio di comprendere meglio l’universo che ci circonda.

Fonte: https://esawebb.org/news/weic2427/

La Nebulosa Chitarra: quando una stella rock lascia la sua scia nel cosmo

Raggi X: NASA/CXC/Stanford Univ./M. de Vries et al.; Ottico: (Hubble) NASA/ESA/STScI e (Palomar) Hale Telescope/Palomar/CalTech; Elaborazione delle immagini: NASA/CXC/SAO/L. Frattare

Gli astronomi hanno recentemente osservato un oggetto cosmico straordinario, soprannominato Nebulosa Chitarra, utilizzando i telescopi spaziali Chandra e Hubble della NASA. Questa struttura, associata alla pulsar PSR B2224+65, deve il suo nome alla somiglianza con una chitarra, visibile nella luce dell’idrogeno incandescente. La forma caratteristica deriva da bolle create dalle particelle espulse dalla pulsar PSR B2224+65 attraverso un vento costante.

Al vertice della “chitarra” si trova la pulsar, una stella di neutroni in rapida rotazione, residuo del collasso di una stella massiccia. Mentre si muove nello spazio, la pulsar emette un filamento di particelle e luce X, catturato da Chandra, che si estende per circa due anni luce. Questo filamento ha mostrato variazioni nel corso di due decenni, come evidenziato dalle osservazioni di Chandra nel 2000, 2006, 2012 e 2021.

La combinazione di rotazione rapida e campi magnetici intensi nella pulsar porta all’accelerazione delle particelle e alla produzione di radiazioni ad alta energia, generando coppie di elettroni e positroni. Queste particelle, spiraleggiando lungo le linee del campo magnetico, emettono raggi X rilevati da Chandra. Quando la pulsar e la sua nebulosa circostante attraversano regioni di gas più denso, le particelle più energetiche riescono a sfuggire, formando il filamento osservato.

Raggi X: NASA/CXC/Stanford Univ./M. de Vries et al.; Ottico: (Hubble) NASA/ESA/STScI e (Palomar) Hale Telescope/Palomar/CalTech; Elaborazione delle immagini: NASA/CXC/SAO/L. Frattare

Le osservazioni suggeriscono che le variazioni nella densità del mezzo interstellare influenzano sia la formazione delle bolle nella nebulosa a idrogeno sia le fluttuazioni nel filamento di raggi X, simile a una fiamma che si accende e si spegne. Questo fenomeno offre agli astronomi l’opportunità di studiare come elettroni e positroni si muovono attraverso il mezzo interstellare e come questi processi contribuiscono all’iniezione di particelle nel cosmo.

Il programma Chandra è gestito dal Marshall Space Flight Center della NASA, mentre lo Smithsonian Astrophysical Observatory controlla le operazioni scientifiche e di volo.

Fonti: NASA

La prima immagine dettagliata di una stella morente fuori dalla Via Lattea: WOH G64

La stella WOH G64, catturata dallo strumento GRAVITY sul Very Large Telescope Interferometer (VLTI) dell’Osservatorio Europeo Australe (ESO). Si tratta della prima immagine ravvicinata di una stella al di fuori della nostra galassia, la Via Lattea. La stella si trova nella Grande Nube di Magellano, a oltre 160.000 anni luce di distanza. Al centro dell’immagine si nota un bozzolo luminoso di polvere che avvolge la stella. Un anello ellittico più debole intorno ad esso potrebbe rappresentare il bordo interno di un toro di polvere, ma saranno necessarie ulteriori osservazioni per confermare questa ipotesi. Credit: ESO/K. Ohnaka et al.

Un passo significativo nell’astronomia è stato compiuto con l’acquisizione della prima immagine ravvicinata di una stella morente in una galassia oltre la Via Lattea.

Grazie alla precisione del Very Large Telescope Interferometer (VLTI) dell’ESO, gli astronomi hanno immortalato WOH G64, una supergigante rossa situata nella Grande Nube di Magellano, a 160.000 anni luce da noi. Questo traguardo, guidato dall’astrofisico Keiichi Ohnaka dell’Universidad Andrés Bello, rappresenta un punto di svolta per lo studio delle stelle extragalattiche, finora estremamente difficili da osservare.

La stella WOH G64, catturata dallo strumento GRAVITY sul Very Large Telescope Interferometer (VLTI) dell’Osservatorio Europeo Australe (ESO). Si tratta della prima immagine ravvicinata di una stella al di fuori della nostra galassia, la Via Lattea. La stella si trova nella Grande Nube di Magellano, a oltre 160.000 anni luce di distanza. Al centro dell’immagine si nota un bozzolo luminoso di polvere che avvolge la stella. Un anello ellittico più debole intorno ad esso potrebbe rappresentare il bordo interno di un toro di polvere, ma saranno necessarie ulteriori osservazioni per confermare questa ipotesi. Credit:
ESO/K. Ohnaka et al.

Una stella gigante in trasformazione
Con una massa circa 2000 volte superiore a quella del Sole, WOH G64 è nota per essere una delle stelle più grandi della sua categoria. L’immagine, ottenuta con lo strumento di seconda generazione GRAVITY, mostra un bozzolo di polvere e gas che circonda la stella in una forma inaspettata e allungata, simile a un uovo. Secondo Ohnaka, questo bozzolo potrebbe essere il risultato della massiccia espulsione di materiale prima dell’inevitabile esplosione in supernova.

Le osservazioni hanno rivelato che la stella si è notevolmente affievolita nell’ultimo decennio, un segno di cambiamenti significativi nelle sue fasi finali. Gli scienziati ritengono che il bozzolo e il suo oscuramento possano essere influenzati da materiali espulsi o dalla presenza di una stella compagna, ancora ipotetica.

Un’opportunità unica di studio in tempo reale
Osservare l’evoluzione di una stella di questa portata è una rara opportunità per gli astronomi. Secondo Gerd Weigelt del Max Planck Institute for Radio Astronomy, questi cambiamenti offrono la possibilità di studiare in diretta gli ultimi istanti di vita di una supergigante rossa. Jacco van Loon, direttore dell’Osservatorio Keele, ha sottolineato l’importanza di WOH G64 come caso estremo di perdita di massa e oscuramento, un fenomeno che potrebbe precedere una catastrofica esplosione.

WOH G64, situata nella Grande Nube di Magellano a oltre 160.000 anni luce di distanza, è una stella morente con una dimensione circa 2000 volte quella del Sole. Questa immagine rappresenta la prima foto ravvicinata di una stella al di fuori della nostra galassia, resa possibile dal Very Large Telescope Interferometer (VLTI) dell’ESO, in Cile.
La foto, ottenuta con lo strumento GRAVITY del VLTI, mostra la stella avvolta in un grande bozzolo di polvere a forma di uovo. Accanto all’immagine reale, un’illustrazione artistica ricostruisce la geometria delle strutture attorno alla stella, tra cui l’involucro luminoso e un torus polveroso più debole. La conferma della presenza e della forma di questo torus richiederà ulteriori osservazioni. Credit:
ESO/K. Ohnaka et al., L. Calçada

Strumentazione e futuro delle osservazioni
Le difficoltà di osservazione aumentano man mano che la stella si affievolisce. Tuttavia, futuri aggiornamenti come GRAVITY+ promettono di migliorare la capacità del VLTI, consentendo ulteriori studi di follow-up. Le nuove osservazioni aiuteranno a comprendere meglio i meccanismi delle fasi finali delle stelle giganti e a verificare modelli teorici.

Questo progresso segna una pietra miliare nell’osservazione delle stelle extragalattiche e prepara il terreno per scoperte future, aumentando la comprensione della vita e della morte stellare su scala cosmica.

Fonti: ESO

DESI d’altro canto è a favore del modello standard

The sparkling band of the Milky Way Galaxy backdrops the Nicholas U. Mayall 4-meter Telescope, located at Kitt Peak National Observatory (KPNO) near Tucson, Arizona.

Dopo le osservazioni del telescopio spaziale James Webb (JWST) pubblicate qualche giorno fa in grado di sollevare dubbi fondamentali sul modello standard Lambda-Cdm a favore della sempre più nota gravità modificata Mond (Modified Newtonian Dynamics), il progetto DESI del NOIRLab interviene per ristabilire gli equilibri.

 

I ricercatori hanno utilizzato il Dark Energy Spectroscopic Instrument (DESI) per mappare quasi sei milioni di galassie in 11 miliardi di anni di storia cosmica, consentendo loro di studiare come le galassie si sono raggruppate nel tempo e di indagare la crescita della struttura cosmica. Questa complessa analisi dei dati del primo anno del DESI fornisce uno dei test più rigorosi finora della teoria generale della relatività di Einstein.

La gravità ha modellato il nostro cosmo. La sua forza attrattiva ha trasformato le piccole variazioni nella distribuzione della materia nell’Universo primordiale nei filamenti tentacolari di galassie che osserviamo oggi. Un nuovo studio, basato sul primo anno di dati raccolti dal Dark Energy Spectroscopic Instrument (DESI), ha tracciato la crescita di questa struttura cosmica negli ultimi 11 miliardi di anni, fornendo il test più preciso mai realizzato sul comportamento della gravità su scala cosmica.

Il Dark Energy Spectroscopic Instrument (DESI) in azione sotto il cielo notturno sul telescopio Nicholas U. Mayall 4-meter Telescope at Kitt Peak National Observatory in Arizona.
Credit: KPNO/NOIRLab/NSF/AURA/T. Slovinský

DESI, un avanzato strumento scientifico, è in grado di catturare la luce di 5000 galassie simultaneamente. Progettato e gestito grazie ai finanziamenti del DOE Office of Science, DESI è installato sul telescopio Nicholas U. Mayall da 4 metri presso il Kitt Peak National Observatory, parte del programma NSF NOIRLab. L’indagine del cielo, giunta al quarto anno dei cinque previsti, si propone di osservare circa 40 milioni di galassie e quasar entro la fine del progetto.

Il progetto DESI coinvolge una collaborazione internazionale di oltre 900 ricercatori provenienti da più di 70 istituzioni in tutto il mondo, sotto la guida del Lawrence Berkeley National Laboratory (Berkeley Lab) del Dipartimento dell’Energia degli Stati Uniti.

Nel nuovo studio, i ricercatori DESI hanno confermato che la gravità si comporta come previsto dalla teoria generale della relatività di Einstein. Questo risultato consolida il modello attuale dell’Universo e restringe il campo delle possibili teorie di gravità modificata, proposte per spiegare fenomeni come l’espansione accelerata dell’Universo, solitamente attribuita all’energia oscura.

La collaborazione ha pubblicato i risultati in diversi articoli disponibili oggi su arXiv, basandosi sull’analisi di quasi sei milioni di galassie e quasar. Grazie a questi dati, i ricercatori sono riusciti a risalire fino a 11 miliardi di anni nel passato, realizzando la misurazione più precisa mai ottenuta sulla crescita della struttura cosmica, superando gli sforzi precedenti che hanno richiesto decenni.

Risultati significativi 

I dati odierni offrono un’analisi estesa del primo anno di osservazioni DESI, che ad aprile ha prodotto la più grande mappa 3D dell’Universo fino a oggi, suggerendo che l’energia oscura potrebbe evolversi nel tempo. Mentre i risultati di aprile si concentravano su un aspetto specifico del raggruppamento galattico, noto come oscillazioni acustiche barioniche (BAO), questa nuova analisi si spinge oltre, studiando la distribuzione di galassie e materia su diverse scale spaziali. Inoltre, ha fornito vincoli più stringenti sulla massa dei neutrini, le uniche particelle fondamentali la cui massa non è ancora stata misurata con precisione.

L’accuratezza dei dati DESI ha permesso di ottenere i limiti più rigorosi mai registrati sui neutrini, complementari a quelli derivati da esperimenti di laboratorio. Questi risultati sono stati ottenuti grazie a mesi di verifiche incrociate e all’impiego di tecniche per mitigare pregiudizi inconsci, mantenendo i risultati nascosti agli scienziati fino alla fase finale.

Secondo Stephanie Juneau, astronoma del NSF NOIRLab e membro della collaborazione DESI:
“Questa ricerca fa parte di uno degli obiettivi principali dell’esperimento: comprendere le caratteristiche fondamentali del nostro Universo su larga scala, come la distribuzione della materia e il comportamento dell’energia oscura, oltre a studiare aspetti fondamentali delle particelle. Confrontando l’evoluzione della materia con le previsioni attuali, tra cui la relatività generale di Einstein, stiamo restringendo sempre più i modelli di gravità.”

La collaborazione sta attualmente analizzando i dati raccolti nei primi tre anni e prevede di pubblicare misurazioni aggiornate sull’energia oscura e sulla storia di espansione dell’Universo nel prossimo anno. I risultati odierni, coerenti con le precedenti analisi, rafforzano l’ipotesi di un’energia oscura in evoluzione, aumentando le aspettative per le prossime scoperte.

Uno sguardo verso il futuro

Mark Maus, dottorando presso il Berkeley Lab e l’UC Berkeley, ha sottolineato:
“La materia oscura costituisce circa un quarto dell’Universo e l’energia oscura un altro 70%, ma non sappiamo ancora cosa siano realmente. Poter osservare l’Universo e affrontare queste domande fondamentali è straordinario.”

Sebbene i dati DESI del primo anno non siano ancora accessibili al pubblico, i ricercatori possono già consultarli in anteprima. Questi dati sono disponibili sotto forma di file tramite la collaborazione DESI e come database ricercabili di cataloghi e spettri tramite l’Astro Data Lab e SPARCL del Community Science and Data Center, un programma del NSF NOIRLab.

Se hai bisogno di ulteriori miglioramenti o adattamenti, fammi sapere!

Fonti: https://noirlab.edu/public/news/noirlab2428/

Terzo Congresso della Space Weather Italian Community (SWICo)

0

27, 28 e 29 NOVEMBRE P.V.
AGENZIA SPAZIALE ITALIANA
VIA DEL POLITECNICO, ROMA

(Roma) L’ASI – Agenzia Spaziale Italiana ospita, dal 27 al 29 novembre p.v., SWICo2024, terzo congresso della Space Weather Italian Community. Tre giorni di interventi e dibattiti: occasione per mettere a confronto e rendere disponibili le competenze del Gruppo Nazionale “Space Weather Italian Community” (SWICo) che sono presenti in varie università, in Enti di Ricerca (INAF, INGV, INFN, CNR), in diverse realtà industriali e presso l’Agenzia Spaziale Italiana.


Con il progressivo sviluppo di sistemi tecnologici sempre più avanzati, le più significative manifestazioni dell’attività solare (emissioni di massa coronale, brillamenti,…) avranno un crescente impatto sulla nostra quotidianità – spiega il Prof. Umberto Villante, Presidente SWICo – Dipartimento Scienze Fisiche e Chimiche, Università degli Studi di L’Aquila – determinando ulteriori problemi per i satelliti, per le
comunicazioni, per il controllo del traffico aereo, blackout nella distribuzione di energia elettrica, etc., con conseguenze economiche assai rilevanti. E’ quindi indispensabile sviluppare le attività e gli studi in questo campo di ricerca che va, appunto, sotto il nome di Space Weather”.
Focus dei lavori di SWICo2024 e degli interventi in programma, gli studi sulle tempeste spaziali di elevata intensità che hanno il potenziale di minacciare le attività spaziali e i voli aerei lungo le rotte polari e che possono, inoltre, disturbare le comunicazioni radio, deteriorare la localizzazione GNSS ed essere la causa di blackout. Ne segue che, oggigiorno, lo studio e l’osservazione dello Space Weather rappresentano un aspetto chiave per le attività spaziali e per le possibili ricadute sulla società. Per questo motivo le grandi organizzazioni scientifiche internazionali, come ad esempio il COSPAR (Committee on Space Research) e la WMO (World Meteorological Organisation), e le agenzie spaziali come NASA (USA), ESA (EU), CNSA (PRC), JAXA (JP), DLR (D), e quella italiana (ASI) contribuiscono attivamente a programmi internazionali di Space Situational Awareness/Space Weather. Il Gruppo Nazionale “Space Weather Italian Community” (SWICo), costituito il 31 ottobre 2014, vede la partecipazione di personale delle Università, degli Enti di Ricerca e del settore privato con competenze scientifico-tecnologica nei settori di interesse del Gruppo. I relativi hanno lo scopo di comprendere e prevedere lo stato del Sole, degli ambienti interplanetari e planetari, e le perturbazioni solari e non solari che li influenzano, nonché di prevedere e fornire previsioni utili relative agli impatti potenziali su sistemi biologici e tecnologici.


Come in occasione dei precedenti Congressi, anche il Terzo Congresso SWICo intende essere un momento di incontro e confronto dell’intera comunità italiana impegnata nelle discipline in questione. Il Congresso è pertanto aperto anche ai non appartenenti a SWICo. E’ inoltre particolarmente incoraggiata la partecipazione attiva di studenti, dottorandi e giovani ricercatori. L’appuntamento dell’ASI offre, inoltre, l’opportunità del conferimento del Premio “Franco Mariani”, istituito per onorare la memoria di una personalità scientifica di statura internazionale, promuovendo il coinvolgimento di giovani ricercatori nelle discipline inerenti lo Space Weather.


Per ulteriori info e per il programma completo: https://swico2024.it/

SKA Square Kilometer Array: la futura rivoluzione arriverà dalle onde radio

SKA-Mid - wide angle artistimpression.jpg Una rappresentazione artistica di SKA-Mid, in Sud Africa: le antenne esistenti del progetto MeerKAT (a destra nell’immagine, ripresa reale) saranno incorporate nella struttura completa di SKA-Mid. La parte a sinistra nell’immagine è una rappresentazione artistica (Credits SKAO)

La ricerca astronomica si prepara a una svolta epocale grazie all’introduzione di tecnologie sempre più avanzate che aprono nuov frontiere nella comprensione dell’Universo. Tra queste, il progetto Square Kilometer Array (SKA) si distingue come una delle iniziative più ambiziose del prossimo decennio, promettendo di rivoluzionare la radioastronomia con una sensibilità e una precisione senza precedenti. Distribuito tra Sudafrica e Australia, SKA permetterà di esplorare con dettaglio fenomeni cosmici complessi, dall’origine delle prime galassie fino alla possibile rilevazione di segnali di vita extraterrestre. Il testo che segue approfondisce la struttura, gli obiettivi scientifici e il significativo contributo italiano a questo straordinario progetto.

Introduzione

Il prossimo decennio sarà sicuramente un periodo di rivoluzioni nella comprensione dell’Universo, grazie ad una nuova generazione di strumenti osservativi che operano in diverse frequenze. Ha inaugurato il nuovo corso il James Webb Space Telescope, che in un anno di osservazioni ci ha mostrato per esempio come l’Universo primordiale non sia popolato da galassie irregolari come si ipotizzava, ma da più placide galassie a disco. O ancora ci sta permettendo di studiare con dettagli impressionanti le atmosfere dei pianeti extrasolari. Ci proponiamo di capire il mistero della materia e dell’energia oscura con il telescopio Euclid, una missione che vanta una numerosa partecipazione italiana. L’Extremely Large Telescope, che con i suoi 39m di specchio principale sarà il più grande telescopio ottico terrestre, entrerà presumibilmente in funzione entro il 2028, permettendoci per esempio di studiare in dettaglio la complessità chimica dei sistemi protoplanetari. E allargando l’orizzonte all’astrofisica multimessaggera, nei prossimi due anni si arriverà alla decisione definitiva sul design tecnico e sulla posizione geografica del nuovissimo interferometro di terza generazione per le onde gravitazionali, l’Einstein Telescope, che vede la forte candidatura dell’Italia con il sito sardo di SosEnattos.

E sul fronte della radio astronomia? Il futuro si chiama SKA, acronimo di Square Kilometer Array, un progetto ambizioso di una vasta schiera di antenne radio e antenne suddivisi tra due continenti, l’Africa e l’Australia. Un progetto che, una volta completato, presumibilmente entro il 2028-29, rivoluzionerà il nostro modo di osservare l’Universo, con la sua gamma senza precedenti di applicazioni scientifiche, dalla cosmologia all’astrobiologia alla scienza dei dati.

Cos’è SKA?

Dopo oltre 30 anni di ideazione, progettazione e test, il progetto Square Kilometer  Array (SKA) sta per diventare una realtà. SI tratta di una struttura radio interferometrica di ultima generazione che promette di rivoluzionare la nostra conoscenza dell’Universo e delle leggi fondamentali della fisica. In breve, il progetto SKA prevede la costruzione di un sistema interferometrico costituito da 197 grandi antenne paraboliche orientabili che opereranno a media frequenza (SKA-Mid, operante tra 350 MHz e 15.4 GHz) e da 131.072 antenne log periodiche a bassa frequenza (SKA-Low, operante nell’intervallo di frequenze 50-350 MHz).

Il nome SKA deriva dal progetto originale, che prevedeva che tutte le sue antenne e parabole avessero un’area effettiva combinata di circa un chilometro quadrato. Il piano è stato in seguito ridimensionato a causa dei costi, anche se rimane la speranza di completarlo nella sua configurazione originale in una seconda fase.

L’area di raccolta rappresenta una componente fondamentale per capire le capacità osservative di SKA: se infatti la linea di base dell’array ne determina il potere risolutivo, cioè la capacità di apprezzare il più piccolo dettaglio della sorgente cosmica osservata, l’area di raccolta ne determina invece la sensibilità, con la conseguente possibilità di rilevare oggetti più deboli. Ci aspettiamo infatti di produrre immagini con una sensibilità 10-100 volte superiore a quella delle attuali infrastrutture radio, e di rilevare oggetti molto più deboli e lontani di quanto possano essere visti dai telescopi esistenti.

La sede principale del progetto si trova presso l’Osservatorio Jodrell Bank nel Cheshire, nel Regno Unito, anche se fisicamente è posizionato nell’emisfero australe, così da osservare la Via Lattea nella sua interezza, e ugualmente accedere allo spazio intergalattico. Nell’emisfero boreale come è noto, il nucleo della nostra galassia sfiora a malapena l’orizzonte durante i mesi estivi.


l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Responsabile della costruzione e della gestione di SKA è l’Osservatorio SKA (SKAO), una organizzazione intergovernativa con sede nel Regno Unito, presso l’Osservatorio Jodrell Bank, nel Cheshire, nel Regno Unito. La costituzione dello SKAO è il risultato del lavoro, iniziato più di venti anni fa, di oltre 500 ingegneri e 1000 scienziati, provenienti da 20 paesi del mondo, che hanno progettato tutti gli elementi dello strumento e ne hanno definito le priorità scientifiche. L’Italia, attraverso l’Istituto Nazionale di Astrofisica (INAF), è uno dei maggiori attori del progetto SKA: è tra i cinque Paesi fondatori dell’Osservatorio SKA ed ha partecipato, in prima linea, al disegno dello strumento e alla definizione dei casi scientifici.

SKA Headquarters.jpg Il quartier generaledella SKA Organisation, pressoil Jodrell Bank Observatory (Manchester, UK). Nello sfondo, il LovellTelescope in the background. Credit: SKA, R. Millenaar (ASTRON/SKA).

L’ambiziosa struttura di SKA: SKA-Mid e Ska-Low

I telescopi SKA rappresentano un punto di svolta per la radioastronomia: due imponenti strutture radioastronomiche complementari posizionate in due continenti, operanti in due diversi intervalli di frequenza, che rivoluzioneranno la nostra comprensione dell’Universo e delle leggi della fisica fondamentale: SKA-Mid e Ska-Low

SKA.jpg Una visione artistica dell’Osservatorio SKA. Lo SKAObservatory (SKAO), con sede nel Regno Unito, gestirà due dei più grandi array di radiotelescopi del mondo in Sudafrica, SKA_Mid, e in Australia, SKA_Low.Credits: SKAO

Le parabole di grandi dimensioni di SKA-Mid saranno situate in una regione del Sud Africa chiamata Karoo e poste a varie distanze tra di loro. La distanza maggiore tra due parabole, quella che tecnicamente viene definita la “linea di base” del sistema, è attualmente di circa 150 km, ma si pensa in futuro di poterla estendere costruendo parabole più remote nei paesi vicini, tra cui Botswana, Ghana, Kenya, Madagascar, Mauritius, Mozambico, Namibia e Zambia. Aumentando la linea di base, infatti, si aumenterà il potere risolutivo di SKA-Mid, un fattore cruciale per poter osservare i dettagli più fini negli oggetti cosmici radio emittenti. Il radiotelescopio MeerKAT, esistente e perfettamente funzionante, farà parte dell’array: le sue parabole da 13,5 metri di diametro si uniranno alle parabole SKA (leggermente più grandi, da 15 metri di diametro), tutte integrate in un unico sistema.

SKA-Mid.jpg Pannello infografico del progetto SKA-Midin Sud Africa(Credits: SKAO)

 

The SKA-MPI dish prototype in South Africa. The prototype dish is the first to be assembled on site, funded by Germany’s Max Planck Institute for Radio Astronomy. Credit: SKAO

Le 131.072 piccole antenne operanti a bassa frequenza del progetto SKA-Low sono invece posizionate in Australia Occidentale. Si tratta di una “foresta d’acciaio” di strutture metalliche alte due metri (6,6 piedi), simili ad alberi di Natale, divise in 512 stazioni di 256 antenne ciascuna, situate a InyarrimanhaIlgari Bundara, nella terra degli indigeni Wajarri Yamaji.

Ska-Low è un vero e proprio “telescopio elettronico”: a differenza delle parabole che compongono lo SKA-Mid, le antenne log periodiche dello SKA-Low, non si possono orientare fisicamente, ma sono fisse. Per combinare insieme i segnali ricevuti dalle singole antenne (una parte o la totalità) viene usata una tecnica nota come beam forming la quale combina elementi di una schiera di antenne in fase in modo tale che in particolari direzioni i segnali interferiscano costruttivamente mentre in altre direzioni l’interferenza sia distruttiva. In pratica, vengono acquisiti tutti i segnali dalle antenne, digitalizzati, e tramite sistemi dedicati si riesce a far sì che si comportino come “occhi elettronici” in grado di puntare in ogni direzione del cielo. In questo modo, il beam forming conferisce al radiotelescopio un enorme campo di vista.

SKA-Low.jpg Pannello infografico del progetto SKA-Lowin Australia (Credits SKAO)

 

Prototipo antenna Ska-Low.jpg Prototipo dell’antenna Skala 4.1 Al, con la sua tipica forma ad “albero di Natale” (Credits SKAO)

Lo SKA sta attraversando una fase di sviluppo graduale iniziato ufficialmente nel 2013 e svolto nell’arco di sette anni, coprendo la progettazione ingegneristica e il lavoro di governance necessari per portare lo SKA sino alla costruzione. Al momento sono attivi dei cosiddetti progetti precursori di SKA: il progetto MeerKAT (originariamente chiamato Karoo Radio Telescope) e l’Hydrogen Epoch of Reionization Array (HERA), entrambi in Sudafrica, e l’Australian SKA Pathfinder (ASKAP) e il Murchison Widefield Array (MWA), entrambi nell’Australia occidentale.

 
SKA-Mid – wide angle artistimpression.jpg Una rappresentazione artistica di SKA-Mid, in Sud Africa: le antenne esistenti del progetto MeerKAT (a destra nell’immagine, ripresa reale) saranno incorporate nella struttura completa di SKA-Mid. La parte a sinistra nell’immagine è una rappresentazione artistica (Credits SKAO)

Il primo importante traguardo per SKA dovrebbe arrivare nel 2024, quando quattro parabole in Australia e sei stazioni di antenne in Sud Africa funzioneranno sincronizzate, come un telescopio di base. Si tratta di un importantissimo test  per attivare il roll-out completo dell’array di radiotelescopi. Entro il 2028, lo SKA avrà un’area di raccolta effettiva di poco meno di 500.000 metri quadrati. Ma l’assetto è tale da poter continuare a crescere, fino all’inizialmente previsto chilometro quadrato.

Il sistema funzionerà su una gamma di frequenze da circa 50 Megahertz a 25 Gigahertz (o, in termini di lunghezza d’onda, nell’intervallo da centimetri a metri). Una simile caratteristica tecnica, insieme all’immensa aria di raccolta, dovrebbe consentire al telescopio di rilevare segnali radio molto deboli provenienti da sorgenti cosmiche a miliardi di anni luce dalla Terra, compresi quei segnali emessi nelle prime centinaia di milioni di anni dopo il Big Bang.

Una volta pienamente operativo, Ska produrrà una mole di dati mai vista, che richiederà un grande sforzo computazionale e anche una revisione del modo in cui gestiamo i dati. Saranno indispensabili infatti non solo reti di supercomputer ma anche una tecnologia di rete che vedrà il flusso di dati a una velocità 100.000 volte più veloce della banda larga media globale.

Le sfide tecnologiche legate al trattamento dei dati astrofisici prodotti da SKA riguardano la gestione delle grandi survey e la loro analisi (un’analisi fortemente condizionata anche dalla loro visualizzazione), la generazione di mappe su larga scala, e l’individuazione automatica di sorgenti compatte, estese e strutture filamentari. Trattamento e analisi che richiederanno un uso massiccio di tecniche di deep learning.

La scienza di SKA

Gli obiettivi scientifici di SKA sono molto ambiziosi e spaziano su diversi settori astrofisici, dall’alba cosmica alla formazione delle primissime stelle e galassie, dalla comprensione del magnetismo cosmico alla formazione della vita nell’Universo, dai test della relatività generale di Einstein in fenomeni fisici estremi come nei buchi neri supermassicci (e la conseguente formazione di onde gravitazionali) allo studio di fenomeni transienti come i fast radio bursts (FRBs), passando per l’epoca della reionizzazione. La comunità si è strutturata in gruppi di lavoro scientifici (Science WorkingGroups, SWGs) in modo da coprire tutte le aree scientifiche possibilmente affrontabili da SKA e fornire un canale di interazione con la comunità astrofisica internazionale.

In particolare, sono stati costituiti 14 SWGs (https://www.skao.int/en/science-users/science-working-groups): Cosmologia, Epoca della Reionizazione, Onde gravitazionali, Scienza galattica con HI, Magnetismo, La nostra galassia, l’Origine della vita, Continuo extragalattico, Spettroscopia extragalattica, particelle cosmiche ad alta energia, Pulsar, Fisica Solare, Eliosferica e Ionosferica, Transienti e VLBI.

L’Italia contribuisce alla definizione di tutti i casi scientifici del progetto SKA attraverso un’ampia partecipazione a questi gruppi di lavoro. Il personale di 15 strutture INAF e di 14 università italiane è infatti coinvolto in 13 dei 14 SKA SWGs: attualmente 6 di questi gruppi sono a leadership Italiana, mentre in 9 l’Italia ha ruoli di coordinamento. Non solo, la comunità italiana sta partecipando in modo massiccio ai progetti scientifici portati avanti con i precursori di SKA (Meerkat+ e Askap), sviluppando competenze ed esperienza che si riveleranno fondamentali quando SKA sarà una realtà pienamente operativa.

Immagine composita di una porzione del campo Scorpio, unico campo galattico finora osservato con Askap e quindi particolarmente importante per la caratterizzazione di alcune popolazioni galattiche. In verde i dati all’infrarosso raccolti da Spitzer/Glimpse, in rosso quelli raccolti da Herschel/Hi-Gal e in blu i dati radio raccolti da Askap. Sovrapponendo i dati infrarossi (che tracciano le polveri) alle mappe radio (che tracciano o il gas ionizzato o il sincrotrone), radio e infrarosso coincidono nelle regioni di formazione stellare, mentre nel caso di resti di supernova (Snr) è visibile solo il radio. Crediti: G. Umana/Inaf.
Gas di idrogeno (rappresentato da macchie verdi) rilevato con il radiotelescopio MeerKAT all’interno e attorno alla galassia NGC 1316, visibile al centro dell’immagine. Le due code di idrogeno appena scoperte con MeerKAT sono visibili nelle parti superiore e inferiore dell’immagine (gli archi curvi sono stati aggiunti per guidare l’occhio). Sono visibili anche ulteriori nubi di idrogeno vicino a NGC 1316. L’immagine in luce visibile sullo sfondo proviene dalla FornaxDeepSurvey – una collaborazione italo-olandese guidata dall’Università di Groningen e dall’INAF – Napoli – ed è stata ottenuta con il telescopio VST dell’Osservatorio Europeo Australe. (Adattato dai risultati presentati in Serra et al. 2019.

Il coinvolgimento tecnologico italiano su SKA: le antenne di SKA-Low

I ricercatori italiani dell’INAF hanno avuto (e hanno tuttora) un ruolo importante nello sviluppo tecnologico del progetto SKA. Nella fase di design di progetto, allo scopo di studiare le caratteristiche del miglior tipo di antenna da usare per SKA-Low e acquisire esperienza e tecnologie utili per lo sviluppo dell’array a bassa frequenza, sono stati realizzati due cosiddetti dimostratori di small aperture array: il Medicina Array Demonstrator (MAD) e il Sardinia ArrayDemonstrator (SAD).

Una immagine delle antenne Vivaldi 2.0 del Medicina Array Demonstrator (SAD), a Medicina (BO). Sullo sfondo la struttura della Croce del Nord (Credits: INAF/Ira)

 

Una immagine delle antenne tipo Vivaldi 3.1 delSardinia Array Demonstrator (SAD), installato a PranuSanguni, San Basilio (CA). Sullo sfondo l’antenna Sardinia Radio Telescope (Credits Matteo Murgia/Inaf).

Anche se poi nessuna delle due tipologie di antenne è stata selezionata per la costruzione finale di SKA-Low, la grande esperienza accumulata è stata messa a frutto nella successiva costruzione dei modelli definitivi presso il Murchison Radio Observatory (MRO), il sito del progetto SKA nel deserto australiano. In Australia gli esperti italiani guidati dall’INAF hanno effettuato test per controllare le prestazioni di due diversi design d’antenna: quello italiano (che è stato poi scelto per la costruzione, lo SKALA 4.1AL) e quello australiano. Il prototipo Skala 4.1 Al – dal caratteristico aspetto simile ad un albero di Natale – è stato sviluppato dall’INAF in collaborazione con il Cnr-Ieiit e l’azienda italiana Sirio Antenne a partire dal design elettromagnetico Skala4 del Consorzio internazionale Aperture Array Design & Construction.


L’importanza scientifica di SKA

Per capire l’importanza scientifica di SKA, abbiamo intervistato la dottoressa Grazia Umana, radioastronoma e Dirigente di Ricerca presso l’Osservatorio Astrofisico di Catania dell’INAF (di cui è stata anche direttrice), a lungo chair del Gruppo di Lavoro SKA “OurGalaxy”.

Grazia Umana, radioastronoma e Dirigente di Ricerca presso l’Osservatorio Astrofisico di Catania dell’INAF (Credits: SKAO)

Come nasce l’idea di SKA?

Una delle domande fondamentali dell’Astrofisica è come ha avuto origine e come si è evoluto l’Universo. Anche se negli ultimi anni la nostra comprensione della cosmologia si è notevolmente ampliata, la cosiddetta alba cosmica, cioè il periodo in cui si sono formate le prime strutture cosmiche, rimane ancora poco esplorata.  Questo periodo dell’Universo primordiale è particolarmente difficile da osservare perché le prime proto-galassie sono oggetti estremamente deboli e gran parte della loro luce viene fortemente assorbita dalla materia che incontra prima di essere rivelata. Non abbiamo le informazioni del primo miliardo di vita dell’Universo e questo rende particolarmente difficile capire come si sono formate le prime strutture cosmiche e se queste avevano caratteristiche simili o diverse da ciò che osserviamo oggi.

La Radioastronomia possiede un formidabile strumento per osservare l’Universo, la riga a 1420 MHz (21cm in lunghezza d’onda) dell’idrogeno neutro. L’idrogeno neutro ha una firma facilmente visibile nella banda in cui operano i radio telescopi.  Quando, studiando lo spettro, cioè la distribuzione dell’energia emessa da un corpo celeste, riusciamo a registrare emissione (o assorbimento) intorno a 1420 MHz, possiamo determinare, in modo univoco, la presenza di idrogeno neutro.

La riga a 1420 MHz, associata a una galassia che si allontana a causa dell’espansione dell’Universo, verrà osservata a una frequenza più bassa e la differenza, tra la frequenza a cui si osserva la riga e 1420 MHz, è una misura della distanza della galassia o del tempo trascorso da quando è stato emesso il segnale rivelato.  Osservazioni a frequenze sempre più basse corrispondono a osservazioni di regioni sempre più distanti e, proprio come una macchina del tempo, ci permettono di raccogliere informazioni sull’Universo primordiale. Man mano che le prime strutture cosmiche si formano e nascono le prime stelle, queste con la loro luce ultravioletta, riescono a ionizzare l’idrogeno circostante che, non essendo più neutro, perde la sua firma caratteristica a 1420 MHz.

Il concetto di SKA nasce all’inizio degli anni ’90, proprio come un radiotelescopio dedicato allo studio della riga a 1420 MHz come tracciante dell’origine ed evoluzione dell’Universo. SKA è stato infatti progettato e disegnato per avere caratteristiche uniche, in termini di sensibilità e potere risolutivo, e con un’ampia copertura in frequenza per riuscire a rivelare e produrre le immagini delle regioni più distanti del nostro Universo, nella riga dell’idrogeno neutro. Grazie a SKA riusciremo a ricostruire come, dove e quando si sono formate le prime stelle, tracciando nel tempo come la distribuzione dell’idrogeno neutro è variata all’avanzare della formazione delle strutture cosmiche

Che sfide scientifiche e tecnologiche affronterà SKA?

SKA ha un potenziale scientifico senza precedenti. Pensato come un radiotelescopio per studiare la riga a 1420 MHz, SKA, grazie alle sue caratteristiche uniche, rivoluzionerà le nostre conoscenze in tutti i campi dell’astrofisica moderna, permettendo tutta una serie di scoperte, alcune al momento nemmeno immaginabili.

La straordinaria sensibilità di SKA, unita al suo grande campo di vista, permetterà di mappare vaste aree di cielo in parallelo, permettendo accurati studi di grandi campioni di diverse popolazioni di oggetti galattici ed extragalattici molto più velocemente di quanto sia possibile fare oggi.

Oltre alla formazione e l’evoluzione delle prime stelle e galassie dopo il Big Bang, SKA avrà un forte impatto e migliorerà la nostra conoscenza sulla natura della gravità, sul ruolo del magnetismo cosmico e sulla possibilità di vita al di fuori della Terra.

SKA sarà in grado di misurare indirettamente gli effetti della gravità sugli oggetti nell’Universo.  La sensibilità unica di SKA permetterà di identificare pulsar in orbita attorno a un buco nero e di osservare gli effetti del forte campo gravitazionale, alla ricerca delle minuscole perturbazioni nel tessuto dello spazio-tempo. Allo stesso tempo, sarà possibile studiare le proprietà dei buchi neri e, dato che la relatività generale fa previsioni chiare sulla natura dei buchi neri, le osservazioni SKA costituiranno un test molto importante della relatività generale.

I campi magnetici permeano tutto l’Universo su scale che vanno fino a miliardi di anni luce, dai pianeti alle stelle, dalle galassie agli ammassi di galassie. Sappiamo che i campi magnetici svolgono un ruolo fondamentale nel controllo della formazione e dell’evoluzione dei corpi celesti e sono gli ingredienti chiave nel controllo del trasporto e dell’accelerazione di particelle ad alta energia. Tuttavia, la loro origine non è ancora chiara, come non è chiaro come si siano potuti mantenere su tempi scala cosmici.  SKA sarà in grado di rivelare l’emissione radio polarizzata prodotta dagli elettroni relativistici che interagiscono con campi magnetici, creando la prima mappa magnetica tridimensionale dell’Universo. Ciò ci permetterà di capire come i campi magnetici influenzano la struttura delle galassie, il loro effetto sulla   formazione di stelle e pianeti e come regolano l’attività solare e stellare.

Una delle scoperte più intriganti degli ultimi anni è l’esistenza di sistemi planetari oltre il nostro sistema solare. Il numero degli esopianeti è in rapida crescita e la maggior parte di loro mostra un’architettura molto diversa di quella del nostro sistema solare. SKA contribuirà a capire il processo che porta alla formazione dei pianeti, osservando l’emissione radio prodotta dalle particelle che si aggregano tar di loro, da scale di centimetri a metri. Grazie alla sua sensibilità e copertura in frequenza, sarà inoltre possibile rivelare l’emissione da molecole complesse, permettendo di capire l’evoluzione della chimica che porta alla formazione di potenziali biosfere. SKA sarà inoltre capace di rivelare anche eventuali segnali dovuti a civiltà extraterrestri tecnologicamente attive.

Osservazioni simulate con SKA-Mid di un disco protoplanetariosimile al famoso HL Tau, che ospita tre pianeti giganti (a sinistra), con una rappresentazione del nostro Sistema Solare sulla stessa scala (a destra). (pubblicata in lee et al. 2020)

[/swpm_protected]

L’articolo è pubblicato in COELUM 265 VERSIONE CARTACEA

SNHUNT133: UN ENIGMATICO TRANSIENTE IN UN NUCLEO GALATTICO

Fig. 3 - Incremento di luminosità del transiente SNhunt133 rilevato dall'Osservatorio di Montarrenti in due distinte epoche

Un evento astronomico transiente è un fenomeno tipicamente violento, improvviso e molto energetico del cielo profondo, che compare e scompare in tempi relativamente brevi, non paragonabili alla scala temporale di milioni o miliardi di anni durante i quali i componenti del nostro Universo si sono evoluti. I transienti infatti, si sviluppano su tempi scala di giorni, mesi o anni, facilmente apprezzabili nel corso della vita umana. L’autore ci accompagna nello studio di un transiente specifico SNHUNT133.

di Simone Leonini

Cenni Storici e Concetti Base

Sin dall’antichità, la comparsa di “stelle nove” ha destato stupore e turbato il senso di immutabilità dei cieli, fondamento della visione aristotelica dell’Universo. L’illusione di un cielo immobile ed incorruttibile ha quindi resistito per secoli. Successivamente, quando si iniziò a mettere in discussione l’idea delle “stelle fisse” correlata al sistema geocentrico, si comprese che le “stelle visitatrici” non potevano appartenere alla sfera sublunare ma rappresentavano dei cambiamenti delle stelle incastonate nella sfera celeste, suscitando l’interesse degli astronomi che si impegnarono in rigorose osservazioni. Solo agli inizi del secolo scorso però, si comprese l’origine della straordinaria luminosità degli astri che apparivano improvvisamente in cielo per poi scomparire. Si intuì che non tutte le stelle che osserviamo nella volta celeste si trovano alla stessa distanza e che esistevano altre galassie oltre alla Via Lattea. Si distinsero quindi le supernovae dalle novae, fenomeni eruttivi meno energetici originati all’interno di un sistema stellare binario.Una nana bianca cattura materiale dalla compagna, principalmente idrogeno, generando un’esplosione dello stato superficiale della stella che non coinvolge la struttura del sistema, tanto che potranno ripetersi altri episodi deflagranti.

Se la ricerca e lo studio di questi eventi ha appassionato gli astronomi sin dai secoli scorsi, lo studio sistematico dei transienti ospitati nei nuclei galattici invece si è sviluppato solo negli ultimi vent’anni, forse anche a causa della loro bassa luminosità intrinseca rispetto al nucleo della galassia e delle difficoltà di scoperta.

I nuclei delle galassie possono mostrare principalmente tre diversi tipi di transienti: nuclei galattici attivi, supernovae o eventi di distruzione mareale.

I nuclei galattici attivi sono oggetti celesti che emettono una enorme quantità di energia non riconducibile ad ordinari processi stellari. Il motore che li alimenta infatti è un buco nero di massa compresa fra un milione e qualche miliardo di volte quella del Sole. In rotazione vorticosa nelle regioni centrali della galassia, ingurgitano enormi quantità di gas residuo di formazione stellare o rilasciato successivamente da stelle in evoluzione. Circondati dal cosiddetto disco di accrescimento in cui la materia in caduta spiraleggia verso il centro, si nascondono dentro una “ciambella” (più propriamente un “toro”) di polvere molecolare coplanare al disco di accrescimento.

Le supernovae sono invece eventi esplosivi stellari. Le supernovae “termonucleari” vengono generate dall’esplosione di un sistema binario stretto, di cui almeno una delle due componenti è una nana bianca. Le due stelle lentamente si attraggono fino a fondersi, oppure può avvenire un trasferimento di materia dalla stella compagna alla nana bianca. Se la massa risultante dalla fusione o dalla cattura di materia è superiore al limite di Chandrasekar (1.44 Masse Solari), la nana bianca non sarà più in grado di sorreggere il proprio peso e, dopo un rapido collasso, si innescherà una reazione termonucleare che disgregherà la stella in una violenta esplosione, espellendo materiale nel mezzo interstellare senza lasciare alcun resto compatto.


l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Le supernovae a “collasso nucleare” derivano da stelle di massa superiore alle 9 Masse Solari. Giunte al termine della propria evoluzione, quando viene esaurito il combustibile nucleare e le reazioni di fusione non sono più in grado di contrastare la forza di gravità,  il nucleo collassa e la stella esplode. L’onda d’urto spazza via gli strati più esterni della stella progenitrice nello spazio circostante lasciando un resto compatto che, a secondo della massa, può rimanere una stella di neutroni o diventare un buco nero.Ci sono poi  gli eventi di distruzione mareale, un  raro fenomeno che avviene quando una stella, avvicinandosi troppo ad un buco nero supermassiccio nel cuore di una galassia, viene inghiottita e disgregata dalle forze mareali causate dal buco nero stesso. Il materiale stellare di questo processo, chiamato di “spaghettificazione”, viene stirato in sottili filamenti. Parte di questo viene espulso mentre l’altra andrà ad accrescere sul buco nero, rilasciando così in poco tempo una grande energia che causa un improvviso aumento di luminosità del sistema.

L’indagine

Proprio un fenomeno transiente avvenuto all’interno di un nucleo galattico ha stimolato per circa un decennio le attività di ricerca svolte da Simone Leonini, Massimo Conti, Giacomo Guerrini, Paolo Rosi e Luz Marina Tinjaca Ramirez presso l’Osservatorio Astronomico di Montarrenti. L’osservatorio sorge tra le colline della Montagnola Senese, presso l’omonimo castello di origine medievale di proprietà della Provincia di Siena e gestito dall’Unione Astrofili Senesi.  Lo strumento principale è un telescopio in configurazione ottica Ritchey-Chrétien dal diametro di 0.53m., automatizzato ed a controllo remoto, equipaggiato di sensore retroilluminato Apogee Alta U47 e di ruota con filtri fotometrici BVRcIc (Fig. 1).

 

Fig. 1 – Telescopio dell’Osservatorio Astronomico di Montarrenti utilizzato per la caratterizzazione
di SNhunt133

NGC6315 è una piccola galassia a spirale barrata di tipo SBc che mostra frontalmente le sue braccia (Fig. 2). Brilla di magnitudine B = 15.4 nella costellazione di Ercole ed ha un redshift  z = 0.023 equivalente ad una distanza di circa 100 Mpc.

 

Fig. 2 –  Al centro dell’immagine (10×10 arcmin.) la galassia ospite NGC6315

L’ 8 giugno 2012, Stan Howerton edil Catalina Real-Time Transient Survey (CRTS) identificaronoin una osservazione del 30 maggio 2012 un inusuale aumento di luminosità nel nucleo della galassia, evidenziato dal programma di analisi mediante il metodo della sottrazione tra l’immagine di riferimento e quella scientifica. Verificato che la galassia non fosse classificata come nucleo galattico attivo e lo spettro di archivio non suggerisse alcuna attività del nucleo, fu ipotizzato che il transiente potesse trattarsi di una supernova. In attesa della caratterizzazione spettroscopica, si poteva supporre la scoperta di un evento di supernova di tipo Ia.

Solo il 23 luglio 2012 gli astronomi del CRTS comunicarono la nuova scoperta nel Transient Objects Confirmation Page (TOCP) del Central Bureau for Astronomical Telegrams con la denominazione di PSN J17124620+2313265, o più brevemente SNhunt133, dal nome del programma di ricerca transienti ottici del CRTS aperto alla collaborazione con gli amatori.

Appena diffusa la comunicazione di scoperta, verificammo che NGC6315 era inserita sin dal 2009 nell’elenco di galassie candidate del programma di ricerca oggetti transienti extragalattici del  Montarrenti Observatory Supernovae Search. Nonostante avessimo monitorato costantemente la galassia nel periodo in oggetto, purtroppo, attraverso semplici controlli visuali (in quel periodo non avevamo ancora sviluppato il programma di rilevamento automatico di nuove sorgenti), non eravamo riusciti ad individuare nulla di nuovo. Solo successivamente, analizzando fotometricamente il nucleo della galassia, ci siamo accorti di un incremento di luminosità di circa   3 decimi di magnitudine. Con molto rammarico, sembrava di aver perso una nuova opportunità di scoperta.

Fig. 3 – Incremento di luminosità del transiente SNhunt133 rilevato dall’Osservatorio di Montarrenti
in due distinte epoche

 

Per confrontarsi sulla natura dell’evento, decidemmo di contattare Andrea Pastorello, ricercatore INAF presso l’ Osservatorio Astronomico di Padova, chiedendo se la nuova sorgente potesse davvero trattarsi di una supernova sovrapposta al nucleo della galassia che sfortunatamente era sfuggita alle nostre ricerche oppure qualcosa di diverso, magari la semplice variabilità di un nucleo galattico attivo.

Pastorello si dimostrò subito disponibile ed interessato alla nostra proposta di approfondimento, tanto da informarci che i colleghi M. McCrum, M. Fraser, R. Kotak e D. E. Wright della Queen’s University di Belfast avevano ripreso uno spettro di SNhunt133 con il Telescopio Nazionale Galileo situato a La Palma che ci avrebbe certamente consentito di dirimere al più presto la questione.

Ad una prima analisi però, l’interpretazione delle righe spettrali del transiente fu inattesa. Queste  sembravano piuttosto simili ad uno spettro d’archivio di NGC6315 (fonte Sloan Digital Sky Survey) ripreso diversi anni prima della scoperta del nuovo transiente, senza la presenza di alcuna tipica firma spettrale di una supernova. Tale caratteristica, e l’andamento fotometrico rilevato dalle misure dell’Osservatorio di Montarrenti, faceva supporre che il transiente non fosse una supernova ma l’esordio della variabilità in una galassia precedentemente quiescente, simile a quella di un nucleo galattico attivo (The Astronomer’s Telegram, ATel. 4274).

Tuttavia, Andrew J. Drake (Department of Astronomy – California Institute of Technology), con la pubblicazione dell’ATel. 4279, confutò questa conclusione. Prima furono confrontati i dati fotometrici di Montarrenti con quelli del Catalina Surveys Data Release 1. Questi risultarono in eccellente accordo, mostrando un insignificante livello di variabilità osservata nell’arco di circa 2500 giorni, tra l’aprile 2005 e lo stesso mese del 2012. Poi, una verifica accurata dello spettro e la mancanza di significative sorgenti radio del nucleo riportate in letteratura, suggerirono che questo fosse più simile ad una normale galassia di tipo star-forming piuttosto che ad un nucleo galattico attivo. Ciò premesso, sembrava più probabile che in NGC6315 fosse in corso un outburst all’interno o vicino al suo nucleo. L’aumento del flusso di luminosità e le caratteristiche spettrali potevano essere coerenti con un evento di distruzione mareale anche se non potevano essere esclusi altri tipi di variabiltà.

Per riuscire a caratterizzare l’esatta natura di questo interessante evento, iniziò quindi una intensa campagna osservativa coordinata da Andrea Pastorello, la cui analisi è stata successivamente condotta da Irene Salmaso (attualmente dottoranda presso l’Università degli Studi di Padova) come lavoro di tesi di laurea magistrale in Astronomia dal titolo “Characterisation of a nuclear transient in NGC6315”.

I Dati

Grazie al contributo osservativo del Telescopio Copernico di Asiago (1.82m), del Telescopio del Cerro Tololo Inter-American Observatory (1.30m), del New Technology Telescope di La Silla (3.58m), del Telescopio Nazionale Galileo (3.58m) e naturalmente del telescopio di Montarrenti, furono raccolte ulteriori misure fotometriche allo scopo di determinare la magnitudine del transiente per ricostruire l’evoluzione della sua curva di luce in varie bande.

Dall’osservatorio senese abbiamo continuato a monitorare la galassia ospite nei 7 anni successivi alla scoperta di SNhunt133 per cercare altre eventuali, significative variazioni di luminosità nel nucleo. Questo avrebbe fatto escludere la possibilità che si trattasse di un evento esplosivo di origine stellare. Come mostrato in Fig. 4, questo però non è mai accaduto.

Fig. 4 – Curva di luce del nucleo di NGC6315 ripresa dall’Osservatorio di Montarrenti negli ultimi dieci anni. I punti rossi rappresentano la somma della magnitudine del nucleo galattico e del transiente mentre quelli blu solo quella del transiente. Il rettangolo in basso a destra mostra la curva di luce in magnitudine assoluta in prossimità dell’outburst (cortesia A. Pastorello).

La curva di luce in banda R dell’evento verificatosi il 2 luglio 2012, mostra un picco ben distinto di luminosità (mmax R = 17.07 ± 0.03) che, dati distanza ed assorbimento, corrisponde ad una magnitudine assoluta Mmax R = -18.4 ± 0.20, successivo ad una lunga salita verso il massimo di circa 50 giorni. Le osservazioni nelle altre bande sono successive al picco luminoso e tutte mostrano un regolare declino. Nelle bande B, V, R, I, una traccia di plateau è visibile circa 50 giorni dopo il massimo.

Contestualmente fu programmato anche un follow-up spettrale con AFOSC montato sul telescopio Copernico di Asiago, XShooter applicato all’UT2 del Very Large Telescope del Paranal Observatory e SofI utilizzato sul telescopio NTT a La Silla. Sono stati misurati flussi, picchi di intensità e lunghezza d’onda di diverse linee di emissione degli spettri raccolti. Nessuna attività simile o righe tipiche (es. OIII) di un nucleo galattico attivo nel cuore della galassia ospite o la firma spettrale di un transiente stellare sono state mai rilevate. In particolare, non è stata osservata nessuna chiara caratteristica di un evento di supernova durante l’evoluzione di SNhunt133 né le classiche linee (es. HeII) frequentemente osservate negli eventi di distruzione mareale.

Per meglio comprendere la natura dell’evento, sono stati confrontati i dati fotometrici e spettrali raccolti con quelli di differenti transienti nucleari conosciuti.

La magnitudine al picco di SNhunt133 si colloca entro i limiti di variabilità di ogni tipo di transiente comparato, quindi ulteriori considerazioni sono state effettuate confrontando la forma della curva di luce. In particolare, la salita verso il massimo di SNhunt133 è più lenta ed ampia di quella di una tipica supernova, ad eccezione delle supernovae superluminose che hanno un tempo di salita più lungo ma un picco di magnitudine assoluta inconsistente con quello di SNhunt133. Inoltre, le supernovae di tipo Ia mostrano un picco secondario nella banda I circa 30 giorni dopo il massimo di luminosità mentre SNhunt133 diminuisce in tutte le bande.

La differenza è ancora più evidente comparando gli spettri di SNhunt133 con uno spettro di una tipica supernova alla stessa fase evolutiva (Fig. 5). Lo spettro di SNhunt133 ha solo righe con profilo stretto residue della galassia, contrariamente alle linee più ampie tipiche dello spettro di una supernova. È pur vero che le supernovae di tipo IIn hanno linee particolarmente sottili con Hα risolto ma nel caso di SNhunt133 questo è miscelato con N II. Ciò significa che l’Hα osservato è un residuo della galassia ospite, in quanto abbiamo potuto escludere che questo provenisse dal mezzo circumstellare. Anche il flusso del continuo di SNhunt133 è più rosso e quindi più freddo rispetto alla media delle supernovae nella stessa fase.

Fig. 5 – Lo spettro di SNhunt133 confrontato con spettri di differenti supernovae ad una simile fase evolutiva. Il confronto è effettuato con una supernova di tipo Ia (2005cf [Wang et al., 2009]), di tipo  Ib (2009jf [Modjaz et al., 2014]), di tipo Ic (2007gr [Modjaz et al., 2014]) e di tipo Ic-BL (2002ap [Modjaz et al., 2014]) (cortesia I. Salmaso).

 

Conclusione

Dopo queste considerazioni, un evento di distruzione mareale poteva sembrare maggiormente compatibile con SNhunt133, poiché mostra una curva di luce più ampia. Il confronto con gli spettri di diversi eventi di distruzione mareale risultava quindi fondamentale per cercare di trovare una somiglianza. Nonostante gli spettri di questi eventi tendano ad essere piuttosto diversi tra loro, mostrano continui spettrali blu persistenti e linee di emissione larghe, specialmente di He II. Tuttavia, nessuna di queste caratteristiche è stata rilevata in SNhunt133.

Inoltre, tutti i parametri indicano che NGC 6315 è chiaramente una galassia a formazione stellare e non mostra alcun comportamento simile ad un nucleo galattico attivo.

Per quanto sin qui, è difficile individuare una corrispondenza precisa per SNhunt133. La sua curva di luce e l’evoluzione spettrale non assomigliano al comportamento tipico di una supernova. Nonostante SNhunt133 mostri una curva di luce simile ad un evento di distruzione mareale, questo differisce in modo significativo nello spettro mostrando un continuum senza caratteristiche, senza linee chiare di He, H o metalli. Una possibilità remota è che SNhunt133 sia un evento di distruzione mareale peculiare, più freddo di quelli osservati fino ad oggi.

In conclusione, la curiosità e la determinazione nel cercare di capire l’esatta natura dell’oggetto che era sfuggito alla nostra scoperta ha incoraggiato una proficua collaborazione tra amatori e professionisti ed un approfondito studio per cercare di caratterizzare correttamente il transiente. La sua natura è stata dibattuta sin dalla sua scoperta con una prima classificazione che indicava la  variabilità di un nucleo galattico attivo e successive analisi che si orientavano verso un evento di distruzione mareale. Dopo attente considerazioni però, è stato verificato che i dati raccolti non corrispondono a nessuno dei transienti più comuni, tanto da ipotizzare che SNhunt133 possa rappresentare una nuova classe di variabilità di un nucleo galattico apparentemente quiescente, seppur meno evidente e meno ricorrente di quella tipicamente osservata nei nuclei galattici attivi.    

SNhunt133 va quindi ad arricchire il gruppo sempre più crescente di transienti scoperti nei nuclei galattici oggi definiti “ambigui” (Ambiguous Nuclear Transient), le cui luminose esplosioni nucleari hanno un’origine che ancora non può essere determinata in modo chiaro e definitivo.

L’individuazione e la caratterizzazione di questi intriganti eventi sono le nuove sfide che ci attendono per tentare di svelare le origini della variabilità di queste misteriose regioni galattiche.

[/swpm_protected]

Desidero ringraziare Irene Salmaso (Università degli Studi di Padova) per la lettura critica e gli utili suggerimenti.

Simone Leonini: Agente di viaggio, sposato e papà di Matilde, è astrofilo sin da bambino, quando si dedicava con passione all’osservazione planetaria e delle stelle variabili. Già direttore dell’Osservatorio Astronomico di Montarredi e presidente dell’Unione Astrofili Senesi, ha condotto per anni attività di divulgazione delle scienze astronomiche

L’articolo è pubblicato in COELUM 265 VERSIONE CARTACEA

Panorama Mosaico: APP per foto panoramiche

Fig. 06

Dopo diverse ore di esperienza sul campo, l’autore dell’articolo Gabriele Iocco, ha ideato e realizzato l’app Panorama Mosaico per facilitare il lavoro degli appassionati di Astrofotografia Paesaggistica.

 

Benché esistano in commercio teste panoramiche che applicate su un treppiedi sono progettate proprio per  la realizzazione di foto panoramiche e che fanno egregiamente il loro lavoro, l’applicazione che ho voluto sviluppare è un’alternativa gratuita e anche molto comoda dato che oramai abbiamo il nostro smartphone sempre con noi.

Ho iniziato a fare foto panoramiche circa due anno fa e man mano che prendevo confidenza con la tecnica è sorto in me il desiderio di creare panoramiche anche notturne includendo le stelle. Di notte però le condizioni di scarsa luminosità contribuiscono ad aumentare la difficoltà, poiché non siamo in grado di vedere cosa sta inquadrando effettivamente la nostra macchina fotografica. L’idea quindi è stata creare un’app che aiuti ad orientare la macchina fotografica di volta in volta nella giusta direzione catturando i fotogrammi che andranno a comporre il nostro mosaico.

Una volta scaricata dal playstore e avviata, l’app ci mostra le info sul suo funzionamento, dopodiché entriamo nella schermata d’inizio dove dobbiamo inserire tre informazioni che riguardano: il tipo di sensore utilizzato dalla nostra macchina fotografica, la lunghezza focale dell’obbiettivo e la percentuale di sovrapposizione che dovranno avere le nostre immagini [fig.1].

Fig.01 Anteprima Schermata APP “Panorama Mosaico”

 

Cliccando su tasto “Calcola” l’app calcolerà il FOV (angolo di campo inquadrato dall’accoppiata sensore/lunghezza focale) sia orizzontale che verticale, ad esempio se il sensore è FullFrame e la lunghezza focale 135mm, il FOV orizzontale sarà di 15.28°. Interpretare un simile dato è abbastanza semplice, avere un FOV di 15.28° significa che ogni scatto che andremo a catturare comprenderà una porzione di paesaggio relativa ad un angolo di 15.28°. Proseguendo, se si è optato per una percentuale di sovrapposizione pari al 50% vuol dire che ogni nuova immagine acquisita dovrà avere il margine sinistro coincidente con il centro dell’immagine precedente [fig.2].

Fig. 02

l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Il passo dunque con cui ruotare la macchina fotografica posta sul cavalletto sarà di 7.64° (la metà del valore precedente e indicato alla voce “Spostamento orizzontale in gradi”. Tutti i valori calcolati sono mostrati nella schermata successiva a cui il tasto “Calcola” rimanda [fig.3]

Fig. 03



La nuova schermata mostra alcune informazioni riassuntive nella parte superiore indicando il tipo di sensore, la lunghezza focale, il FOV orizzontale e verticale e la percentuale di sovrapposizione delle immagini; più i valori calcolati per i gradi di spostamento in orizzontale e in verticale che dovremo misurare muovendo la nostra macchina fotografica.

Nella parte centrale della schermata ci sono due icone selezionabili, che indicano quale direzione stiamo seguendo nella creazione del nostro mosaico (destra-sinistra oppure alto-basso); e  un cursore rosso verticale lampeggiante da utilizzare come feedback visivo (in aggiunta anche un feedback acustico) durante l’acquisizione delle immagini. Il cursore infatti diventerà verde e fisso nel momento in cui orienteremo la macchina fotografica nella giusta direzione,  suggerendo quando sarà possibile scattare. È stata introdotta una barra orizzontale verde per mettere in bolla lo smartphone.

In basso cliccando su Start l’app memorizzerà due informazioni: la sua direzione rispetto al nord tramite la bussola integrata nello smartphone e  l’inclinazione del telefono rispetto al suo asse longitudinale. La posizione dettata dalla bussola sfruttiamo sarà utile per effettuare i movimenti destra-sinistra, l’inclinazione lungo l’asse longitudinale invece per i movimenti alto-basso. Contemporaneamente sono indicate anche la direzione dello smartphone e la sua inclinazione istante per istante.

Con questi due parametri, oltre al FOV calcolato in precedenza, possiamo iniziare a scattare i vari frame che andranno in fine a formare l’immagine panoramica.

Personalmente mi trovo più a mio agio iniziando a scattare da sinistra verso destra per poi “salire” di un passo verso l’alto e tornare indietro verso destra[fig.4].

Fig. 04

Sempre nella schermata Start abbiamo anche due valori, espressi anche questi due in gradi, “Direzione bussola al cambio direzione” e “Inclinazione verticale al cambio direzione”.

Questi valori indicano la posizione e l’inclinazione dello smartphone nel momento in cui abbiamo cliccato su una delle due frecce di movimento.

Vuol dire che se ad esempio siamo passati dal movimento sinistra/destra al movimento alto/basso, dobbiamo inclinare lo smartphone solo  verticalmente e dobbiamo stare attenti a non cambiare la direzione bussola del telefono, in questo caso il parametro da prendere come riferimento è “Direzione bussola al cambio di movimento”. Ma sempre in questo esempio, se durante il movimento verticale lo smartphone cambierà la direzione bussola avremo un allert di colore rosso che ci indicherà:  “Attenzione stai cambiando direzione!”.

Il tasto “Back” in basso a sinistra invece riporta alla schermata iniziale dell’app e resetta anche i parametri.

Prima di iniziare la raccolta degli scatti è necessario compiere alcune operazioni preliminari. Innanzi tutto posizioniamo lo smartphone sulla nostra macchina fotografica, colleghiamo la macchina fotografica ad un cavalletto e mettiamo il cavalletto in bolla.
Allestire la strumentazione prima che faccia buio è un vantaggio sia per evitare di far cadere gli strumenti in maniera accidentale sia perché la presenza di luce di offre la possibilità di controllare velocemente quale porzione di cielo andremo di fatto ad inquadrare anche senza scattare utilizzando sia il mirino ottico che il display della macchina fotografica e muovendo semplicemente la strumentazione [fig. 5 e 6].

Fig. 05
Fig. 06

L’accuratezza dei movimenti è impostata al decimo di grado, poi comunque entra in gioco la precisione del sistema hardware del proprio smartphone (bussola e sensori di movimento).

Per quanto riguarda invece l’attivazione degli allert “Attenzione stai cambiando direzione!” e

“Attenzione ti stai inclinando troppo verticalmente!” è impostato un margine di flessibilità di 0.30° in modo da rendere più semplice il flusso di lavoro.

Ad esempio se il valore da tenere in considerazione è 15°, tutti i valori compresi tra 15° e 15.3° sono ammessi.

È raccomandato avere un supporto stabile (cavalletto stabile) sul quale posizionare macchina fotografica e smartphone [fig.7], sia per limitare il margine di errore a valori molto piccoli e sia per avere immagini ferme e stabili specialmente durante le lunghe esposizioni.

L’applicazione è stata testata per 5 mesi scattando immagini panoramiche di giorno e in special modo di notte, anche perché è proprio nel buio della notte che l’app Panorama Mosaico ci corre in aiuto. In questa lunga fase di test e di debug ciò di cui è stato importante tener conto e l’obiettivo di rendere l’app intuitiva partendo in primis dalla User Interface (Interfaccia utente) così che risulti il meno macchinosa e più chiara possibile.

ATTENZIONE: Per non vanificare il supporto offerto dall’app nel complesso del risultato finale, il consiglio è quello di prestare molta attenzione alla qualità degli scatti che via via, nello spostamento, si registrano. In alcune immagini ad esempio è meglio optare per un’esposizione lunga e la ISO bassissima per avere un miglior rapporto segnale/rumore, il guadagno sarà anche in un più facile lavoro di photomerge di post produzione. Infatti se il cielo ha poche stelle ed è molto scuro il software non riesce ad assemblare le immagini, avendo invece ogni singola immagine una buona luminosità e in aggiunta anche la “strisciata” delle stelle, si può dire che ogni scatto rappresenti uno startrail, il lavoro di assemblaggio sarà facilitato.

L’app è per ora disponibile solo in store Android e eventuali versioni per altri sistemi operativi sono al vaglio.

Alcuni lavori eseguiti con l’app Mosaic Pan

Panoramica Majella con vista sull’Adriatico
Numero scatti del mosaico: 9
Tempo esposizione per ogni scatto: 30 sec a 3200 ISO f4 per evitare di avere le stelle “allungate”.
Macchina fotografica: Canon 6D modificata fullspectrum
Filtro anti inquinamento luminoso: Optolong Lpro
Obiettivo: Samyang 14 mm. CREDITI: Gabriele Iocco

[/swpm_protected]

Panoramica Blockhaus Majella startrail
Numero scatti del mosaico: 27
Tempo esposizione per ogni scatto: 420 sec a 100 ISO f4.
Macchina fotografica Canon 6D non modificata
Filtro anti inquinamento luminoso: No
Obiettivo: Samyang 135 mm.
CREDITI: Gabriele Iocco
“Panoramica Blockhaus Majella stelle”
Numero scatti del mosaico: 12
Tempo esposizione per ogni scatto: 5 sec a 4000 ISO f4 per evitare di avere le stelle “allungate”.
Macchina fotografica: Canon 6D modificata fullspectrum
Filtro anti inquinamento luminoso: Optolong Lpro
Obiettivo: Samyang 135 mm.

 

L’articolo è pubblicato in COELUM 265 VERSIONE CARTACEA

Gli astronomi amatoriali scoprono due pianeti intorno alla stella TIC 393818343

La scoperta di mondi oltre il nostro Sistema Solare è un nuovo e affascinate campo di ricerca i cui protagonisti sono sia astronomi che astrofili cacciatori di pianeti. Alcuni di loro hanno scovato di recente due pianeti attorno a una stella simile al Sole: si tratta di un team con diversi italiani, coordinati da Giuseppe Conzo. La stella madre, TIC 393818343 di classe G, si trova nella costellazione del Delfino a circa 307 anni luce di distanza dal Sole. Ha una magnitudine di 8,98 ed è circa il 9% più grande del Sole. Oggi, alla luce delle recenti scoperte effettuate dagli astrofili, possiamo dire che TIC 393818343 è il centro di un sistema multi-planetario.

A maggio del 2024 Giuseppe Conzo e Mara Moriconi hanno scoperto il primo esopianeta orbitante attorno a questa stella: TIC 393818343 b – un gigante gassoso, quattro volte più massiccio di Giove, classificato come un Gioviano caldo e confermato dal Team del SETI guidato da Lauen Sgro, con un periodo orbitale di circa 16 giorni. Il pianeta orbita attorno alla stella madre su un’orbita altamente eccentrica (eccentricità pari a 0,6). È vicino alla sua stella molto più di quanto la Terra lo sia al Sole.

Light Curve TIC 393818343 b

Il secondo pianeta è TIC 393818343 c, scoperto in un secondo momento grazie alla collaborazione tra Conzo, Moriconi e altri astronomi dilettanti che hanno lavorato insieme utilizzando tecniche come la fotometria dei transiti e osservazioni da terra.

Il pianeta, nel sistema, ha un periodo orbitale di solo 7,8 giorni e orbita due volte più vicino alla sua stella madre. La sua temperatura di equilibrio dovrebbe essere intorno a 1027 K. Sulla base dei dati ottenuti, gli astrofili hanno classificato TIC 393818343 c come un gigante gassoso super nettuniano, escludendo la possibilità che possa essere un mondo terrestre. Pianeti come TIC 393818343 c sono generalmente poco comuni attorno alle stelle di tipo solare.

Light curve di TIC 393818343 c

Giuseppe Conzo ci spiega:

 “Stavamo osservando il pianeta TIC 393818343 b appena scoperto, perché volevamo monitorare eventuali ritardi o anticipi sul periodo. E’ una prassi che si utilizza normalmente sui pianeti recentemente trovati. Ci siamo accorti da queste osservazioni di un ritardo di circa 1 ora sul periodo in letteratura, dunque ci eravamo prefissati ulteriori osservazioni. Caso ha voluto che sbagliassimo involontariamente data della successiva osservazione, accorgendoci solo al mattino seguente che avessimo ripreso in una data errata. Non volendo buttare i dati ottenuti, abbiamo fatto a cuor leggero la fotometria, convinti di attenderci una magnitudine costante della stella in esame. Così non è stato ed abbiamo rilevato un primo transito molto diverso da quello osservato per il pianeta b. Chiaramente sono proseguite le osservazioni che hanno mostrato lo stesso evento nel tempo.”

A questo studio e alla scoperta sono coinvolti oltre a Giuseppe Conzo e Mara Moriconi (del Gruppo Astrofili Palidoro a Fiumicino), Nello Ruocco (Osservatorio Nastro Verde a Sorrento), Toni Scarmato (Toni’s Scarmato Observatory a Briatico) e gli americani Kyle Lynch e Nicolas Leiner.

È stato un affascinante lavoro di gruppo:

*Giuseppe Conzo* ha individuato per primo un transito sospetto ed ha condotto il team per le osservazioni necessarie e coordinato la stesura dell’articolo scientifico;

*Mara Moriconi* ha effettuato calcoli analitici sui principali parametri fisici del pianeta;

*Nello Ruocco* ha effettuato le osservazioni;

*Toni Scarmato* ha effettuato le osservazioni, ha condotto stime per le effemeridi preliminari ed ha analiticamente verificato la bontà del segnale ricevuto;

*Kyle Lynch* ha studiato l’aspetto genuino della sorgente e valutato la natura planetaria dell’oggetto;

*Nicolas Leiner* ha condotto un’analisi analitico-statistica per la stima della massa del pianeta.

Riguardo alla scoperta abbiamo chiesto un parere scientifico al Prof. Giovanni Covone, astrofisico della Federico II di Napoli:

“si tratta di una scoperta interessante per diversi motivi. Innanzitutto, è uno dei pochi sistemi planetari multipli intorno a stelle molto simili al Sole. Inoltre, dimostra che i dati raccolti dal telescopio TESS sono ancora ricchi di sorprese e il ruolo degli astrofili in questo campo è fondamentale.”

Il JWST sfida il modello standard: nuove prospettive sull’universo primordiale

JADES-GS-z14-0 (mostrata nell'estrazione), è stata determinata a un redshift di 14,32 (+0,08/-0,20), il che la rende l'attuale detentrice del record per la galassia più distante conosciuta. Ciò corrisponde a un periodo inferiore a 300 milioni di anni dopo il big bang. Credito: NASA, ESA, CSA, STScI, B. Robertson (UC Santa Cruz), B. Johnson (CfA), S. Tacchella (Cambridge), P. Cargile (CfA).
JADES-GS-z14-0 (mostrata nell'estrazione), è stata determinata a un redshift di 14,32 (+0,08/-0,20), il che la rende l'attuale detentrice del record per la galassia più distante conosciuta. Ciò corrisponde a un periodo inferiore a 300 milioni di anni dopo il big bang. Credito: NASA, ESA, CSA, STScI, B. Robertson (UC Santa Cruz), B. Johnson (CfA), S. Tacchella (Cambridge), P. Cargile (CfA).

Le osservazioni del telescopio spaziale James Webb (JWST) stanno sollevando interrogativi fondamentali sulla comprensione dell’universo primordiale. I dati ottenuti non sembrano confermare il modello standard Lambda-Cdm, che prevede che la formazione delle galassie sia agevolata dalla presenza di materia oscura, ma trovano maggiore coerenza con la teoria alternativa della gravità modificata Mond (Modified Newtonian Dynamics), che elimina la necessità della materia oscura.

Galassie luminose e massicce nell’universo primordiale

Secondo il modello Lambda-Cdm, le galassie nell’universo primordiale si sarebbero dovute formare attraverso un processo graduale: piccoli aloni di materia oscura avrebbero attirato materia ordinaria, portando alla formazione di galassie di massa crescente. Il James Webb, tuttavia, ha rivelato galassie antiche che appaiono già grandi e luminose, contraddicendo le aspettative del modello standard.

Come spiega Federico Lelli, ricercatore dell’INAF di Arcetri e coautore dello studio pubblicato su The Astrophysical Journal, il modello Lambda-Cdm prevede che galassie massicce come quelle ellittiche si formino in epoche più tarde della storia cosmica. Tuttavia, osservazioni precedenti di telescopi come Hubble, Spitzer e Alma avevano già suggerito che le galassie massicce esistessero sorprendentemente presto. Ora, il JWST ha fornito prove ancora più solide in questa direzione.

Teoria Mond: una sfida alla materia oscura

La teoria Mond, proposta da Mordehai Milgrom oltre 40 anni fa, introduce modifiche alle leggi di Newton ed Einstein per spiegare i fenomeni gravitazionali senza ricorrere alla materia oscura. Secondo Mond, le galassie massive si formano rapidamente nei primi centinaia di milioni di anni dopo il Big Bang, come confermato dai dati di JWST. Questa teoria è stata inizialmente ignorata dalla comunità scientifica, ma le recenti scoperte stanno spingendo gli esperti a riconsiderarla.

Il primo autore dello studio, Stacy McGaugh della Case Western Reserve University, sottolinea che le predizioni del modello standard non corrispondono a ciò che il JWST ha effettivamente osservato. «Gli astronomi hanno ipotizzato la materia oscura per spiegare la formazione delle strutture cosmiche, ma ciò che vediamo ora è più coerente con Mond», afferma.

Nuove prospettive dall’universo primordiale

Le osservazioni del JWST hanno mostrato che le galassie massive non solo si formano velocemente, ma alcune diventano “passive” (cessano di formare stelle) molto prima di quanto previsto dal modello standard. Inoltre, il telescopio ha individuato ammassi di galassie a epoche cosmiche più antiche di quelle compatibili con Lambda-Cdm, una scoperta che potrebbe riscrivere la nostra comprensione del tempo cosmico.

Un telescopio per nuove domande

Il JWST è stato progettato per rispondere a domande fondamentali sull’universo, ma i suoi dati stanno aprendo scenari inaspettati. A soli tre anni dal suo lancio, il telescopio sta già contribuendo a rivedere teorie consolidate, come dimostra questo studio che coinvolge anche ricercatori italiani come Federico Lelli.

Molte delle osservazioni necessitano di ulteriori conferme, ma la promessa di JWST di ridefinire l’astrofisica sembra più viva che mai. Se i dati continueranno a supportare la teoria Mond, potremmo trovarci a un passo dal superare uno dei pilastri della cosmologia moderna: l’idea della materia oscura.

Fonti: Media Inaf  Global Science   Arvix.org

Gestione delle crisi e rischi da disastro ambientale

LA VIA DELLA COMPLESSITA’ PER GLI STRUMENTI DI GESTIONE DELLE CRISI E DEI RISCHI DI DISASTRO

a cura di Alfonso Mangione Dip. FIBIOTEC –Fisica e Biotecnologie applicate allo Spazio, alla Geologia e all’ Ambiente, Istituto Euro-Maditerraneo di Scienza e Tecnologia

ABSTRACT

I recenti disastri che hanno colpito la zona di Valencia hanno messo in luce la vulnerabilità del territorio e la complessità delle risposte necessarie per gestire le crisi. Senza voler entrare nello specifico delle cause di tali eventi, l’obiettivo di questo articolo è offrire una prospettiva sul giusto approccio alla gestione dei rischi e delle emergenze. La gestione efficace delle crisi non può infatti limitarsi a un approccio tradizionale, ma deve abbracciare la complessità intrinseca degli scenari, integrando discipline diverse e sfruttando strumenti innovativi come le tecnologie virtuali e immersive. Questo articolo esplora come tale approccio multidisciplinare possa fornire nuove opportunità per migliorare la consapevolezza, la preparazione e l’operatività di soccorritori e cittadini di fronte a eventi disastrosi.

INTRODUZIONE

Uno scenario di rischio o di crisi coinvolge una serie di attività che possono essere pensate come parti di sistema tipicamente complesso, in cui ogni elemento mostra connessioni, anche multiple e spesso non lineari, con gli altri. Senza addentrarsi nel dettaglio delle definizioni risulta intuitivo collegare ad una situazione di rischio alcune idee che accompagnano la nozione della complessità quali quella del sistema a molte componenti, fuori dall’equilibrio, adattivo, la non-linearità, il caos, l’auto-organizzazione, i comportamenti emergenti, e molti altri, inclusa la multidisciplinarità. Quest’ultima vede affiancare alla fisica discipline che vanno dalla psicologia all’antropologia, alla sociologia, alla storia ed oltre. Un segno dell’interesse crescente nei confronti degli aspetti psicologici, sociologici, e storici collegati alle crisi e ai disastri, in aggiunta e in connessione con le discipline tecniche è dato dall’attenzione specifica a loro dedicata nei programmi di finanziamento EU degli ultimi anni (un esempio indicativo in Ref [1] ).

Esaminare gli scenari di crisi sotto la luce della loro complessità, e quindi, innanzitutto, delle connessioni multiple tra un congruo numero di parti componenti (geografiche, gestionali, operative, culturali, economiche, etc.) potrebbe apparire un esercizio dispersivo, non esattamente a vantaggio della pronta operatività e in generale della promozione della resilienza di un territorio colpito. In prima analisi, infatti, risulta evidente la numerosità degli ambiti da tenere in considerazione, la loro vastità e articolazione, e la difficoltà di individuare le cause che conducono a determinati effetti risultanti, all’interno di un sistema (ovvero l’“ecosistema” a rischio) che si auto-organizza in molte componenti dialoganti.

Tuttavia, l’approfondimento di (almeno) una parte significativa delle componenti del sistema in crisi (il territorio, le comunicazioni, le relazioni trans-nazionali, la multiculturalità sociale, il rapporto con i media, la storia e l’evoluzione locale della percezione, etc.), permette di “pesare” il contributo di ognuna delle parti sul risultante scenario di rischio che si è presentato o che si potrebbe presentare. A questo scopo, appare chiaro il ruolo fondamentale dell’aspetto simulativo (numerico e virtuale/immersivo). Si aggiunga inoltre che l’approccio “per parti concorrenti” nell’analisi di uno scenario di rischio non deve necessariamente riguardare tutti gli ambiti dialoganti e le scale di analisi più ampie, ma può essere ridotto a territori circoscritti, a singoli tipi di rischio (incendio, terremoto, inondazione, crisi sanitaria o altro), può riguardare solo porzioni di popolazione (ad es. gruppi considerati “vulnerabili” per quel rischio in particolare), o soltanto alcune categorie di soccorritori, o un settore economico in particolare. Gli ambiti e la scala dell’analisi possono quindi essere ridotti ad esempio ad un singolo evento o territorio o gruppo di popolazione etc.. Operativamente, tale approccio può portare ad un contributo innovativo nell’analisi degli scenari da disastro che si presentano al singolo soccorritore che opera sul terreno, quando supportato dalle tecniche di realtà virtuale/immersiva. Molte ricerche e progetti, basati sulla realtà virtuale sono stati sviluppati in anni recenti per supportare i piani di intervento (coordinamento e attività operative sul terreno) [2,3]. Gli scenari possono essere costruiti aggiungendo gradualmente le diverse cause concorrenti, per consentire di testare direttamente l’influenza sull’operatività sul campo.

 

Complessità negli scenari da disastro

Il presentarsi di un evento di grande impatto generalmente modifica lo scenario reale nel quale i soccorritori sono chiamati ad operare, e nel quale le vittime devono muoversi, rispetto alla sua forma consueta. In generale, un gap sostanziale esiste tra ciò che la popolazione potrebbe comunemente attendere dal verificarsi dell’evento impattante e quello che ne risulta nel caso reale, a causa delle diverse variabili concorrenti. In termini estremamente semplici ed esemplificativi, è possibile considerare il caso di un evento off-shore quale un terremoto (o lo scorrimento della lava da un vulcano nel mare), che causa le conseguenti onde di maremoto. Sulla base delle esperienze comuni, si può immaginare la semplice situazione di una goccia d’acqua che, una volta lasciata cadere in un contenitore riempito di liquido, genera una serie di onde che si propagano fino ad infrangersi contro le pareti del contenitore. Similmente, se si agisce con una ferma spinta data sul fondo del contenitore, se non troppo rigido. Si potrebbe traslare tale idea di base sulla scala di un oceano, come situazione di partenza, per poi aggiungere gradualmente gli elementi (le parti) che concorrono successivamente alla costruzione dello scenario. In termini di simulazione dell’evoluzione, questo implica la descrizione fisica di alcune fasi salienti: l’evento “t0”, tipicamente un distacco che accade sul fondo del mare; le risultanti onde, che solitamente si propagano in un regime per il quale è almeno soddisfatta l’eguaglianza D:λ=1:20, dove D è la profondità delle acque, e λ è la lunghezza d’ onda, con una velocità v=(gD)1/2 (dove g è l’accelerazione di gravità), non dipendente da λ, che consente loro di procedere quasi inalterate (si consideri inoltre che le variazioni significative del fondo avvengono su scale molto maggiori rispetto alle lunghezze d’onda in questione, quando lontano dalla costa); infine, l’infrangimento sulla costa, dove ci si aspetta una riduzione della lunghezza d’onda e un aumento dell’ampiezza (i meccanismi sono descritti nei testi di base, e in alcuni studi, esperimenti e simulazioni specifici, ad es. Ref [4,5]). Lo schema di base restituisce quindi la possibilità di calcolare i tempi di arrivo, conoscendo la distanza dall’epicentro. Quello che accade nel caso reale può risultare non esattamente sovrapponibile alla sola descrizione di base sopra riportata, a causa di una serie di effetti locali (elementi concorrenti allo scenario) che influenzano l’effettiva propagazione dell’evento. Un livello ulteriore di dettaglio andrebbe oltre gli scopi del presente lavoro, tuttavia è possibile riassumere almeno alcuni degli elementi che possono influenzare la rappresentazione finale dello scenario, quali: (i) la velocità di rottura, il tempo di risalita e la modifica del fondo marino durante l’evento-origine, che forniscono il profilo iniziale delle onde [4,6-7]; (ii) la correzione per le maree [6]; (iii) gli eventuali effetti locali dovuti all’interazione con le coste, il terreno e le isole, così come gli effetti di amplificazione delle baie chiuse, gli effetti di diffrazione e riflessione [4,6-7]. Tali elementi concorrono ad aumentare il livello di complessità del fenomeno, così come delle simulazioni collegate e quindi la sua rappresentazione virtuale/immersiva (ad esempio quando implicano la necessità di utilizzare modelli di evoluzione non lineari o quando i termini descrittivi dell’amplificazione delle onde a partire dalla costa differiscono da funzioni polinomiali [6]) ma allo stesso tempo ne restituiscono una rappresentazione più adeguata.

Quindi, la “sfida” per una conoscenza accurata dei fenomeni e delle caratteristiche locali che contribuiscono ad accrescere il grado di complessità degli scenari, la loro catalogazione e la possibilità di inserirli gradualmente all’interno delle simulazioni e delle conseguenti riproduzioni virtuali, può rappresentare uno strumento considerevole sia nell’addestramento mirato dei soccorritori, che per i gestori delle crisi, oltre ad avere un ruolo nell’incrementare la consapevolezza del rischio da parte della popolazione.

NB: al momento della stesura e pubblicazione dell’articolo i recenti fatti di Valencia non erano ancora accaduti, perciò per accompagnare visivamente lo scenario di intervento la redazione e l’autore hanno optato per un’immagine di fantasia. Quella a seguire. Alla luce però dei nuovi fatti e riproponendo la lettura digitale dello studio del dott. Mangione una recente immagine tratta proprio dall’emergenza spagnola si presenta come più che opportuna. Vedi immagine a destra.

Generata con AI

Proposte metodologiche

La possibilità di incrementare la cognizione spaziale (intesa quale la capacità di avere contezza della posizione del proprio corpo all’interno di un ambiente, e di muoversi in questo senza perdersi) all’ interno di scenari complessi può contribuire in tutte le fasi collegate ad eventi impattanti. Una combinazione tra metodi utilizzati in ambiti differenti (quali la psicologia e le neuroscienze), le simulazioni numeriche (e la fisica in queste inclusa) e la realtà virtuale/immersiva può essere proposta quale schema per sviluppare strumenti utili allo scopo. In Ref [8] viene fatto uso di ambienti di realtà virtuale per indagare la qualità del trasferimento dell’apprendimento da un ambiente virtuale ad uno reale per indagare la cognizione spaziale, sulla base di tre fasi di conoscenza (Landmark, Route, e Survey), e secondo indicatori quali gli errori di percorso o le esitazioni.  Nel caso di uno scenario da disastro, questa attività, sia essa inglobata nelle sessioni di addestramento o anche quale strumento digitale autoconsistente, risulterebbe di supporto per i soccorritori, i gestori delle crisi e anche per le popolazioni. I soggetti coinvolti, in una prima fase, aumenterebbero la loro capacità di fissare nell’immediatezza un numero sufficiente di punti di riferimento caratteristici individuati nei diversi scenari ipotizzati. In una fase successiva, i soggetti sarebbero allenati ad acquisire le vie più brevi tra i punti di riferimento individuati, al fine di stimare distanze e scorciatoie. Le task sarebbero presentate con livelli di complessità crescente. A tale scopo, sarebbero simulati scenari di disastri differenti, gradualmente implementati, sulla base dei diversi elementi che possono influire sulla reale evoluzione del fenomeno. Oltre che per i soccorritori, l’attività risulterebbe utile alle vittime dei disastri (si pensi ad esempio ai casi di persone con disabilità). In questo caso, lo scopo finale sarebbe di muoversi con rapidità e in sicurezza al’ interno dello scenario proposto, e possibilmente allontanarsi da esso (a differenza del caso dei soccorritori, che necessitano invece di raggiungerlo). Inoltre, risulterebbe interessante introdurre la distinzione tra task presentate in un riferimento esocentrico ed egocentrico rispettivamente [8]. Nel caso dei disastri, il primo punto di vista si riferirebbe ai gestori della crisi, mentre il secondo sarebbe più appropriato per i soccorritori e le vittime.

Conclusioni

L’utilizzo degli scenari virtuali da disastro con crescente livello di complessità dovuto a variabili di contesto, è stato preso in considerazione al fine di migliorare la capacità di cognizione spaziale di gestori della crisi, soccorritori, e vittime. All’interno di un approccio multidisciplinare, è stato proposto uno schema che coinvolge specifiche task per aumentare l’individuazione dei punti di riferimento e dei percorsi più rapidi e più sicuri per muoversi all’interno di uno scenario da disastro, al fine di raggiungere le aree di crisi, o di abbandonarle.

Reference

[1] https://tinyurl.com/2p86725b

[2] Bernardini, G. et al., A Non-Immersive VirtualReality Serious Game Application for FloodSafety Training, SSRN Electronic Journal,2022. DOI:10.2139/ssrn.4110990, 2022

[3] Lovreglio, R., Proceedings, Fire andEvacuation Modeling Technical Conference(FEMTC) 2020. https://www.researchgate.net/publication/3438091011961, 2020

[4] Stevenson, D., Physics Today 58, 6, 10 (2005).doi: 10.1063/1.1996451, 2005

[5] Uy, A., The Physics of Tzunami, TheUniversity of British Columbia

[6] Mori, N., CEJ, 2012, 54:1,1250001-1-1250001-27, DOI:10.1142/S0578563412500015, 2012

[7] Shigihara, Y., CEJ, 2021, https://doi.org/10.1080/21664250.2021.1991730,2021

[8] Wallet, G., Journal of Virtual Realityand Broadcasting, Volume 6, no. 4urn:nbn:de:0009-6-17577, ISSN1860-2037, 2009

[/swpm_protected]

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA

Stelle Giganti Sparse nel Blu – RCW 7

ESA/Hubble & NASA, J. Tan (Chalmers University & University of Virginia), R. Fedriani (Institute for Astrophysics of Andalusia)

ABSTRACT

La regione di formazione stellare RCW 7 rappresenta un’affascinante finestra sul complesso processo di nascita delle stelle massicce. Situata nella costellazione della Poppa a circa 5.300 anni luce di distanza, RCW 7 è una vasta nebulosa in cui gas e polveri interstellari si aggregano e collassano, dando origine a giovani e potenti astri. La radiazione ultravioletta e i forti venti stellari emessi da queste stelle in formazione non solo illuminano, ma anche plasmano il materiale circostante, generando una regione HII dal caratteristico bagliore rosato. Lo studio di RCW 7, e in particolare del sistema binario IRAS 07299-1651, permette di comprendere meglio le dinamiche che regolano i primi stadi della vita stellare, offrendo nuove prospettive sui processi che plasmano le galassie e influenzano l’evoluzione delle nubi molecolari.


RCW 7 o NGC 2409 Regione di Formazione stellare


Luci stellari come brillantini sparsi in un cielo azzurro in cui si addensano a tratti nubi tempestose: è la turbolenta regione di formazione stellare RCW 7, soggetto di questa straordinaria ripresa del telescopio Hubble. RCW 7 è una vasta nebulosa ricca di gas e polveri interstellari. Ospita stelle in formazione particolarmente massicce, capaci di emettere forti radiazioni ultraviolette e impetuosi venti stellari, che illuminano e modellano il materiale circostante, trasformando questo insieme di nubi cosmiche in una variopinta regione HII.

L’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]


La nebulosa è situata a oltre 5.300 anni luce di distanza da noi, nella Costellazione della Poppa. Laggiù, per effetto della gravità, le nubi molecolari più dense collassano fino a dare origine a protostelle, circondate da dischi rotanti di gas e polveri da cui traggono nutrimento. L’energetica radiazione ionizzante emessa dalle giovani stelle massicce eccita l’idrogeno, portandolo a emettere luce e donando alla nube il caratteristico, delicato bagliore rosato. In aggiunta, i poderosi venti stellari contribuiscono a plasmare questo insieme intricato di gas e polveri, creando cavità nel mezzo interstellare o zone più dense in cui il gas può collassare per formare ulteriori stelle.

Credit: ESA/Hubble & NASA, J. Tan (Chalmers University & University of Virginia), R. Fedriani (Institute for Astrophysics of Andalusia)

Immerso in profondità in questa magnifica nursery stellare risplende un sistema stellare binario in formazione, IRAS 07299-1651, composto da due protostelle entrambe massicce e ancora circondato dalle vorticose nubi di polveri visibili nella parte superiore dell’immagine. Per poter osservare meglio questa stella binaria e le sue compagne neonate, è stata utilizzata la Wide Field Camera 3 a bordo di Hubble, che cattura la luce nel vicino infrarosso, in grado di penetrare le cortine di polveri oscuranti che avvolgono le stelle neonate. Molte delle altre stelle più grandi visibili nella ripresa non appartengono alla nebulosa, ma si interpongono lungo la nostra linea di vista.

Precedenti osservazioni in banda radio avevano permesso di dedurre che le due baby-stelle nel sistema IRAS 07299-1651 sono separate tra loro da una distanza di circa 180 unità astronomiche e che la loro massa totale è pari ad almeno 18 volte quella solare. In aggiunta si è appreso che ognuna delle due stelle, oltre ad essere circondata da un proprio disco circumstellare più piccolo, si nutre ancora del materiale contenuto in un singolo disco che le avvolge entrambe, alimentato su vasta scala dalla nube in via di collasso. Ma la scoperta più importante derivante dalle osservazioni è che la stella secondaria si è formata come risultato della frammentazione del disco presente originariamente attorno alla primaria. In base a questo processo, la seconda protostella, inizialmente più piccola, “ruba” alla sua compagna il materiale in caduta e il risultato finale potrebbero essere due stelle “gemelle” giganti piuttosto simili.

Studiare lo stadio precoce della formazione delle stelle massicce non è un compito semplice, pertanto il sistema si è rivelato un laboratorio fondamentale per ricavare informazioni cruciali sulle complesse dinamiche in atto all’interno di una singola nube molecolare. In particolare, non è ancora chiaro se le stelle massicce nascano come binarie già durante il collasso iniziale della nube o se le coppie si formino in fasi più tardive, magari per incontri occasionali in un ammasso stellare affollato. Le osservazioni del sistema supportano l’ipotesi che la suddivisione in due stelle avvenga fin dall’inizio del processo, in seguito a frammentazione del disco circumstellare, quando le protostelle si stanno ancora formando nella nube.

La creazione di una regione HII è l’inizio della fine per una nube molecolare gigante. Nel corso di pochi milioni di anni la radiazione e i venti delle stelle massicce, nonché potenti esplosioni di supernova, disperderanno gradualmente il gas. Solo una parte del materiale a disposizione nella nebulosa verrà incorporato in nuove stelle, mentre il resto andrà disperso nello spazio, per formare eventualmente altre nubi molecolari.

Descrizione dell’Immagine: La nebulosa RCW 7, un’affascinante raccolta di gas e polveri interstellari, è il soggetto della Hubble Picture of the Week. Situata a circa 5.300 anni luce dalla Terra nella costellazione della Poppa, questa nebulosa ospita stelle in formazione particolarmente massicce. Queste protostelle emettono radiazioni ionizzanti e venti stellari intensi, trasformando RCW 7 in una regione HII. In queste aree, l’idrogeno è ionizzato dalla radiazione ultravioletta delle giovani stelle, che conferisce alla nebulosa un caratteristico bagliore rosato. In particolare, Hubble ha osservato il sistema stellare binario IRAS 07299-1651, avvolto in un bozzolo di gas. Per penetrare il velo di polveri che circonda queste stelle, è stata utilizzata la Wide Field Camera 3 in luce infrarossa, capace di attraversare il gas e le polveri. La creazione di una regione HII rappresenta l’inizio della dispersione della nube molecolare: nel giro di pochi milioni di anni, la radiazione e i venti stellari disperderanno gran parte del gas, una parte del quale andrà a formare nuove stelle, mentre il resto verrà disperso nella galassia per generare future nubi molecolari.


Come Osservare

a cura di Cristian Fattinnanzi

Il cielo invernale, sebbene ci mostri la parte periferica della Via Lattea, nasconde una moltitudine di oggetti particolari ed interessantissimi, spesso di natura nebulare associata ad ammassi stellari. È il caso di questa tenue nebulosa blu che HST ci ha mostrato recentemente con un dettaglio incantevole, RCW 7, associata anche ad NGC 2409.

La posizione di RCW 7 nella costellazione della Poppa indicata con il punto rosso. Coordinate:: AR: 7h31m11.89s DEC: -17° 16′ 10.0″

Per rintracciarla, nella parte più settentrionale della costellazione della Poppa, potremo prendere come punti di riferimento la stella Sirio del cane Maggiore e spostarci di una decina di gradi verso est, in una zona famosa per la presenza della nebulosa “Snowman”, o anche “Pupazzo di neve”.

Purtroppo la regione in questione, per le latitudini italiane, non sale molto sopra l’orizzonte, spaziando tra i 25 ed i 35°, fondamentale sarà quindi tentare l’osservazione e la ripresa nei momenti vicini al culmine, nel periodo che va da inizio dicembre a fine febbraio.

Visualmente siamo di fronte ad un oggetto molto debole, quello che suggerisco è di tentare prima di tutto l’identificazione della nebulosa “Snowman”, chi dispone di strumenti con diametri oltre i 40 cm usati e di cieli bui non dovrebbe aver problemi a rintracciarla, a questo punto potrete esser certi di aver inquadrato anche il complesso nebulare oggetto di questo articolo.

Per cogliere digitalmente qualche dettaglio, sono consigliabili focali medio lunghe, per inquadrare la “Snowman” e le regioni appena circostanti. Il campo per contenere la nebulosa è di circa mezzo grado, pari a quello necessario per inquadrare la Luna piena. Se conosciamo la dimensione del nostro sensore, sarà bene usare una lunghezza focale circa 50 volte il lato breve del sensore stesso. Una volta identificata la regione in questione, potremo spingerci oltre per aumentare l’ingrandimento anche di 3-4 volte e tentare di risolvere dettagli più minuti.

I filtri nebulari possono dare un buon aiuto sia visualmente che nelle riprese CCD, in questo caso ovviamente sono da preferire quelli a banda più stretta, in modo da attenuare il disturbo luminoso dovuto alla bassa altezza sull’orizzonte.

Giudizio sulla difficoltà (1 oggetto molto semplice, 5 oggetto difficilissimo):

Visuale: 4/5

Fotografica: 3/5

RIF: https://esahubble.org/images/potw2425a/

[/swpm_protected]

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA

 

È nata una Stella di Neutroni

Introduzione

Come tutti sappiamo, la materia che ci circonda è formata da atomi, costituiti a loro volta da un nucleo centrale fatto da protoni e neutroni, e dagli elettroni che gli gravitano vorticosamente intorno.

Un po’ meno noto è forse il fatto che un atomo è quasi completamente vuoto; il nucleo, infatti, ha un diametro che è circa un centomillesimo di quello dell’atomo che lo ospita, mentre gli elettroni sono addirittura considerati puntiformi. Quasi completamente vuoto, quindi, allora perché non si può schiacciare un po’?

Normalmente, stando alle nostre esperienze quotidiane, un gas (che è fatto da atomi o da molecole libere tra loro) può essere compresso facilmente in un volume un po’ più piccolo aumentandone semplicemente la pressione, esattamente come quando gonfiamo una ruota di una bicicletta, con il risultato che gli atomi del gas si avvicinano un po’ tra di loro, di pari passo cresce anche la densità.

Un’operazione però che non si può eseguire ad oltranza; succederà infatti prima o poi che, come in un liquido o in un solido, gli atomi saranno vicini a tal punto che i loro orbitali atomici arriveranno a toccarsi, inutile continuare a “pressare”, non si andrà oltre. O quasi.

Al centro del nucleo terrestre che è composto quasi esclusivamente di ferro e dove vigono pressioni elevatissime che arrivano a 360 GPa (circa 3,5 milioni di atmosfere), la densità sale a circa 13 g/cm3 contro il classico 7,8 g/cm3 in condizioni normali; ancora più estremo è il centro del nostro Sole, dove, grazie ad una pressione di oltre 230 miliardi di atmosfere, la densità tocca picchi di circa 150 g/cm3, ovvero circa 20 volte la densità dell’acciaio.

Nane Bianche

Ma questo è solo l’inizio.

Una volta che il nostro Sole avrà terminato il suo combustibile nucleare, la materia che lo compone, non più sorretta dall’energia prodotta dalle reazioni nucleari, collasserà su se stessa, aumentando sempre di più la sua densità.

In condizioni normali la pressione di un gas ideale è proporzionale alla sua temperatura e alla sua densità; superando però una densità di 105 g/cm3, le distanze interatomiche sono tali che le nubi elettroniche dei vari atomi sono portate a compenetrarsi a vicenda e, viste le temperature in gioco (circa cento milioni di gradi Kelvin) sono completamente ionizzati, formando così un gas di nuclei ed elettroni; raggiunto il milione di gr/cm3 (1.000 kg/cm3), la pressione del gas è a un livello tale che essa risulta indipendente dalla temperatura e non segue più le leggi classiche, bensì viene regolato in base alla fisica della materia condensata, in cui il maggior contributo alla pressione è dato dal principio di esclusione di Pauli (vedi Coelum Astronomia n°258 pag.92).

Questa sostanza che abbiamo ottenuto, un gas di Fermi relativistico, è chiamata ‘gas degenere di elettroni’, si comporta non differentemente da un gas di elettroni allo zero assoluto e la sua densità media è dell’ordine delle tonnellate per centimetro cubo (un elefante adulto pesa tre tonnellate, pensate a condensarlo in una zolletta di zucchero).

Ma questo gas degenere è ancora relativamente comprimibile: aumentando la pressione, se la massa della stella di partenza è sufficiente, gli elettroni acquisteranno sempre maggiore velocità e la densità salirà di conseguenza; ne deriva che una nana bianca, dalle dimensioni tipicamente paragonabili a quelle della Terra, sarà stranamente più piccola nelle stelle con maggiore massa, grazie alla pressione finale più elevata.

Questo però vale fino a che la massa della stella rientra entro un certo valore, chiamato “limite di Chandrasekhar”; per i più arditi, questo valore si ottiene applicando la formula

dove ħ è la Costante di Planck ridotta, c è la velocità della luce nel vuoto, G è la Costante Gravitazionale, μe è la massa molecolare media per elettrone che dipende dalla composizione chimica della stella, mH è la massa dell’atomo di idrogeno e ω03 (≈ 2.0182) è una costante connessa alla soluzione dell’equazione di Lane-Emden (fonte: Wikipedia), e vale 1,44 masse solari.

Un’immagine ad alta definizione di Cassiopea A, che contiene
una stella di neutroni vicino al suo centro (Autore: Space Telescope
Science Institute Office of Public Outreach; Ringraziamenti:
NASA, ESA, CSA, STScI, D. Milisavljevic (Purdue University), T.
Temim (Princeton University), I. De Looze (University of Gent).

Stelle di Neutroni

Superato questo valore, la densità cresce sempre più e con essa la velocità degli elettroni, che giunge ad essere vicina a quella della luce; a questo punto, gli elettroni urtano così violentemente i protoni dei nuclei da fondersi con essi, dando origine ai neutroni.

È nata una stella di neutroni.

In realtà il processo è più complesso e comunque non omogeneo; un neutrone, nel vuoto e in quiete, ha una vita media di circa 15 minuti, e decade in un protone, un elettrone e un antineutrino:

 

l’energia rilasciata da questa reazione, distribuita come energia cinetica nelle tre particelle ottenute, è di 0,782±0,013 MeV, e questo significa che, per mantenere stabile un neutrone indefinitamente, è necessario rendere questo decadimento non più conveniente dal punto di vista energetico.

Ora, un aumento della densità del gas degenere comporta un innalzamento del livello di Fermi e quindi un corrispondente aumento dell’energia cinetica di ogni singola particella del gas, fino a che questo raggiunge la soglia necessaria a impedire quanto sopra e addirittura a ottenere il processo inverso, ovvero il processo chiamato neutronizzazione:

 

dove alcuni elettroni liberi vengono catturati dai protoni presenti nei nuclei, rilasciando neutrini che sfuggono dalla stella e formando neutroni, rendendone così i nuclei sempre più ricchi a spese dei protoni originari; la conseguenza è che il rapporto neutroni/protoni aumenta, creando nuclei che in condizioni normali sarebbero altamente instabili e decadrebbero quasi istantaneamente, ma che ora risultano stabili visto l’alto livello di Fermi degli elettroni e al gas degenere; contemporaneamente, grazie alla cattura elettronica, la pressione del gas cala e le forze gravitazionali possono continuare il loro lavoro di compressione.

Scendendo verso le profondità della stella, al crescere della densità i nuclei tenderanno ad avere un numero di massa sempre maggiore: fino a un ρ<1011 g/cm3 (ρ è rho, o ro: la diciassettesima lettera dell’alfabeto greco, e indica la densità) prevarranno quelli con numero di massa attorno agli 80, mentre arrivati a ρ=2×1011 g/cm3 predomineranno quelli vicini a 120.

Arrivati ad una densità critica di 4,3×1011 g/cm3, inizia quello che viene chiamato il ‘gocciolamento di neutroni’, ovvero un fenomeno in cui questi ultimi iniziano a fuoriuscire dai nuclei, dato che la forza di coesione nucleare n-n è inferiore a quella p-p e non è più sufficiente a mantenerli coesi; questo processo continua scendendo sempre più in profondità fino alla dissoluzione totale dei nuclei, o, meglio, fino al punto in cui questi tendono ad avere una distribuzione della densità nello spazio sempre meno localizzata nei loro centri, arrivando a sovrapporsi attorno a un ρ=2×1014 g/cm3; il risultato è così un gas degenere di neutroni liberi, con la presenza di un 2 o 3% di elettroni e protoni a un ρ=3×1014 g/cm3.

A pressioni più elevate, andando verso il centro, neppure i neutroni riusciranno a sopravvivere, come vedremo.

Mosaico tratto da 24 immagini effettuate dall’Hubble Space
Telescope tra il 1999 e il 2000 della Nebulosa del Granchio, al
cui centro troviamo una stella di neutroni. Crediti:NASA/JWST

Struttura di una Stella di Neutroni

Una volta terminata l’implosione della stella, otterremo un oggetto di una ventina di chilometri di diametro e fatto a strati, un po’ come una cipolla: 

Atmosfera

All’esterno troviamo una sottile atmosfera di carbonio spessa solo 10 centimetri, con una temperatura di circa 2 milioni di gradi Kelvin e una densità simile a quella del diamante vista l’enorme gravità presente sulla superficie, ovvero circa 100 miliardi di volte a quella a cui siamo normalmente abituati (analisi ottenuta dalle recenti osservazioni da parte di Chandra sulla Pulsar presente in Cassiopea A).

Per confronto, la nostra atmosfera si innalza per circa 100 km e ha una densità al livello del mare di 0,001 g/cm3.

Crosta Esterna

Subito sotto troviamo la crosta esterna, profonda circa 200 metri con un ρ che va da ≃ 1×109 g/cm3 a ≃ 4×1011, costituita da nuclei che partono dal 56Fe negli strati superiori ma che aumentano di massa e soprattutto di neutroni a mano a mano che si scende, fino a quando non inizia il fenomeno del gocciolamento dei neutroni; si presume che il fenomeno grazie al quale un nucleo di 56Fe possa aumentare di massa fino a divenire ad esempio 122Rb, fenomeno tutt’altro che banale, sia dovuto alla fotodisintegrazione di alcuni nuclei in particelle α e alla ricombinazione di queste ultime.

Grazie all’estrema gravità, le eventuali ‘montagne’ presenti sulla superficie sarebbero alte non più di qualche frazione di millimetro

Crosta Interna

C’è poi la crosta interna, spessa circa un chilometro e che arriva ad un ρ ≃ 2×1014g/cm3, pari alla densità nucleare, e che è composta da un reticolo cristallino di nuclei, elettroni relativistici e un superfluido di neutroni.

Questa zona finisce quando i nuclei iniziano a dissolversi

Nucleo Esterno

Il nucleo esterno invece è essenzialmente costituito da neutroni superfluidi, con una piccola percentuale di protoni superconduttivi ed un’identica quantità di elettroni degeneri relativistici, necessari per mantenere un equilibrio nelle cariche elettriche e che poi scompaiono completamente nella parte più interna (si arriva fino a un ρ circa doppio alla normale densità nucleare).

A queste densità inizia la creazione di particelle che normalmente non sono stabili in condizioni normali: attorno a un ρ di 2×1014g/cm3, il livello di Fermi degli elettroni raggiunge quello della massa di un muone (particella che come simbolo μ, che a riposo ha una massa di 105 MeV), e a questo punto diviene più conveniente introdurre un muone negativo con energia cinetica nulla piuttosto che creare un elettrone con un’alta energia cinetica.

Nucleo Interno

Il nucleo interno è ancora più interessante: viste le estreme densità ed energie raggiunte, vengono a crearsi le condizioni per cui è più conveniente creare degli iperoni ‘pesanti’ piuttosto che mantenere dei semplici neutroni, che hanno una massa a riposo minore; iniziano così ad essere create particelle come Σ⁻, Λ⁰ e altre ancora, con masse sempre più elevate a mano a mano che la pressione aumenta.

Altre teorie poi prevedono l’esistenza al centro di questi corpi celesti di un plasma di quark in stato superconduttivo e di gluoni, e altre ancora che ipotizzano la formazione in tali condizioni di quella che viene chiamata ‘materia strana’, formata da quark strani e che si presume possa addirittura rimanere stabile al di fuori di quelle immense pressioni; capire quali di queste teorie corrisponda al vero è tutt’ora una questione molto delicata e ben lungi dall’essere completamente chiarita, anche perché non è neppure sicuro che si riescano a raggiungere tali densità senza che la stella collassi definitivamente in un buco nero.

Tuttavia osservazioni recenti effettuate con l’osservatorio a raggi X Chandra hanno trovato due candidate precedentemente considerate stelle di neutroni ‘normali’, dove una risulta molto più piccola e l’altra molto più fredda di quello che dovrebbero essere secondo le leggi fisiche oggi conosciute, suggerendo l’ipotesi che esse siano composte da materia più densa del neutronio; queste deduzioni sono comunque messe in dubbio da parecchi ricercatori, e non sono conclusive.

Stelle da record

Con queste premesse, arrivare a stracciare dei record è molto facile, vediamoli insieme:

Campo Magnetico

Alcune stelle di neutroni hanno dei campi magnetici miliardi di volte di quello terrestre (che è di circa 50 μTesla), e in questi casi prendono il nome di Magnetar (contrazione di ‘Magnetic Star’).

Attualmente se ne conoscono meno di 30, e quella che ha la palma per il campo magnetico più potente sembra essere la SGR 1806−20, una stella sita a 42.000 anni luce da noi il cui campo, secondo il McGill Online Magnetar Catalog, arriva alla bellezza di 2×1011 Tesla.

Tenete presente che una simile intensità ucciderebbe qualunque essere umano lacerandone i tessuti a una distanza di oltre 1000 km per via del diamagnetismo dell’acqua, e che arriverebbe a smagnetizzare una carta di credito a una distanza corrispondente a quella dalla Terra alla Luna; inoltre questi campi deformano le strutture orbitali degli atomi facendo loro assumere la forma di un sigaro, così che, sottoponendo un atomo di idrogeno a un campo di 1010 Tesla, questo si allunga di 200 volte il proprio diametro originario.

Velocità di Rotazione

Tutti sappiamo che il periodo di rotazione terrestre è di 24 ore (un giorno), mentre il Sole ruota attorno al proprio asse in 27 giorni circa; quando però una stella collassa su se stessa, a causa della legge di conservazione del momento angolare (così come una pattinatrice che accelera la sua rotazione chiudendo le braccia), la stella è costretta ad accelerare in maniera vertiginosa la propria rotazione.

Tipicamente, le stelle di neutroni ruotano su se stesse con periodi che vanno da 1 a 30 secondi, ma uno studio del 2007 ha rilevato che la pulsar chiamata XTE J1739-285 ha un periodo di poco superiore ai 0,8 millisecondi (anche se in tempi successivi altri astronomi non sono riusciti ad ottenere lo stesso risultato), quindi la palma andrebbe a PSR J1748-2446ad, con una velocità di rotazione di 716 giri al secondo.

C’è comunque un limite alla velocità di rotazione raggiungibile: se questa superasse infatti i 1.500 giri al secondo, nonostante l’intensissima attrazione gravitazionale le pulsar potrebbero andare in pezzi; inoltre, oltre i 1.000 giri al secondo le stelle perderebbero più velocemente energia di quanto il processo di accrescimento possa renderle veloci grazie alla produzione di onde gravitazionali.

Gravità

Le stelle di neutroni sono gli oggetti ‘solidi’ (quindi buchi neri esclusi) con il campo gravitazionale più intenso sulla loro superficie, che arriva ad essere cento miliardi di volte (1011) quello terrestre, e quindi una monetina da un euro peserebbe lì come 200.000 (duecentomila) elefanti sulla Terra; questo comporta anche una velocità di fuga elevatissima, che è circa un terzo della velocità della luce nel vuoto (100.000 km/s).

Sono valori enormi: se un malcapitato astronauta volesse avventurarsi sulla sua superficie, nell’improbabile caso che riuscisse ad atterrare sano e salvo (dovrebbe sopportare enormi forze mareali mentre si avvicina, proprio come succede avvicinandosi ad un buco nero), verrebbe stritolato, schiacciato e infine annichilito dal calore presente e da quello generato dai suoi atomi leggeri, che subirebbero una fusione nucleare.

Densità

Beh, che dire, ci piace vincere facile 🙂

La densità nel nucleo interno, secondo quanto teorizzato, sarebbe dell’ordine dei 1015gr/cm3, ovvero l’equivalente di oltre 2.000.000.000 (due miliardi!) di elefanti per ogni cucchiaino da tè di detta sostanza (10 ml), oppure 1.400 (millequattrocento!) piramidi di Cheope, se preferite!

Da tenere presente che la densità all’interno di un nucleo atomico in condizioni normali è dell’ordine dei 1014g/cm3

Pressione

Qua è più difficile fare mente locale, visto che non abbiamo nessuna pietra di paragone a noi familiare che si possa facilmente usare.

Come stima dell’ordine di grandezza, diverse fonti riportano una pressione all’interno del nucleo di una stella di neutroni un valore di circa 1035 Pa (Pascal); ora, tenuto conto che 105 Pa equivalgono circa alla pressione dell’aria sulla superficie terrestre, avremo che la pressione al centro di una stella di neutroni è in una prima approssimazione equivalente a:

  • 1030 volte la pressione dell’aria al livello del mare (P = 105 Pa)
  • 1027 volte la pressione nella Fossa delle Marianne (P = 108 Pa)
  • 2,5×1023 volte la pressione al centro della Terra (P = 4×1011 Pa)
  • 3×1018 volte la pressione esistente nel centro del Sole (P = 3×1016 Pa)

Numeri a cui è difficile dare un senso; diciamo quindi solo che, nel centro di una stella di neutroni, la pressione è circa tre miliardi di miliardi di volte più forte che nel centro del Sole.

E ho detto tutto.

Riferimenti

  1. Bernardini, C. Guaraldo: Fisica del Nucleo
  2. Gittins, N. Andersson: Modelling neutron star mountains in relativity

Craig Heinke:Chandra X-Ray Observatory -Chandra Peers into Neutron Stars

Andrew W. Steiner: neutronstars.utk.edu

NASA’s HEASARC: Education& Public Information (per dimensioni e spessori degli strati)

Chandra X-Ray Observatory: press_110409

L’articolo è pubblicato in COELUM 266 VERSIONE CARTACEA

Nebulosa di Orione | M42 |

0

La protagonista dell’arco celeste invernale: M42

Salve a tutti appassionati Astronomi. Vi lascio una mia opera fatta nella serata di Halloween: Nebulosa di Orione | M 42 |, situata al di sotto della cintura nella costellazione di Orione a 1.350 anni luce dalla Terra.

La Nebulosa di Orione è un oggetto ad emissione a luce diffusa ed è facilmente visibile ad occhio nudo non solo grazie alla sua luminosità (magnitudine apparente di +4.0) ma alla sua immensa grandezza di circa 24 anni luce (pari a 210 mila miliardi di km).

La nebulosa si è generata grazie ad una potente esplosione di una stella (attualmente “Nana Bianca”), chiamata comunemente in astronomia con il termine: “Supernova”. I colori della nebulosa sono dovuti ai gas espulsi dalla stella stessa che lo ha generato (presente nel nucleo di Orione se andiamo a zoomare la fotografia). Gli astronomi hanno rilevato che all’interno di questo ammasso di gas e polveri ci sono degli elementi in particolare che compongono la nebulosa e sono: “idrogeno molecolare, acqua, il monossido di carbonio, la formaldeide, il metanolo, l’etere dimetilico, l’acido cianidrico, l’ossido e il biossido di zolfo”.

La Nebulosa di Orione è soprannominata come una “fucina di stelle”. Attualmente, nella regione Sud della nebulosa, si possono notare dei “dischi neri” (dischi protoplanetari) di dimensione importante che ruotano attorno ad una piccola stella (nana bruna) appena nata: questo vuol dire che si formando dei nuovi sistemi solari (sistemi extrasolari) nella quale presenteranno nuovi pianeti e oggetti celesti di varia forma e dimensione, esattamente com’è successo al nostro sistema solare circa 5 miliardi di anni fa. Sembra assurdo ma è reale.

La Nebulosa di Orione brilla nel periodo invernale, scomparendo poi nei periodi estivi dell’anno regalando uno spettacolo senza eguali, permettendo all’umanità di conoscere com’è stato l’avvenire del nostro sistema solare.

Questa foto è stata scattata dal mio semplice Seestar S50 e processata su PixInsight.

•- IL MIO SETUP -•

• Telescopi: Skywatcher 305/1500 – Seestar S50

• Montature: EQ6 – R Pro | Alt/Az Seestar S50

• Camera: Sony IMX 462 (Seestar S50) | SW 300″ (Camera del Samsung S23+ Ultra per il Planetario).

Cieli sereni ✨️.

SUPERNOVAE aggiornamenti del mese – Novembre 2024

a cura di Fabio Briganti e Riccardo Mancini

 

RUBRICA SUPERNOVAE COELUM   N. 126

SUPERNOVAE AGGIORNAMENTI di Fabio Briganti e Riccardo Mancini

Questo mese soffermiamo la nostra attenzione su tre supernovae, che ci riguardano da vicino e che possiamo definire come semi-amatoriali. Sono state infatti scoperte da una coppia di astrofili italiani, controllando però immagini ottenute con strumentazione professionale. I due bravi ed esperti astrofili sono: Mirco Villi e Michele Mazzucato, mentre la strumentazione professionale è quella del CRTS Catalina che utilizza il telescopio Cassegrain di 1,5 metri di diametro dell’osservatorio americano sul Mount Lemmon in Arizona. Le tre supernovae sono oltre la mag.+20 e sono state scoperte in ordine cronologico: la prima AT2024wpa individuata la notte del 12 settembre nella galassia a spirale barrata PGC71752 posta nella costellazione dei Pesci a circa 180 milioni di anni luce di distanza; la seconda AT2024ycq individuata la notte del 13 ottobre nella galassia irregolare UGC4882 nella costellazione della Lince a circa 130 milioni di anni luce di distanza; infine la terza SN2024yhg della notte del 15 ottobre nella galassia lenticolare UGC1596 costellazione del Triangolo a circa 210 milioni di anni luce di distanza. Nota: La galassia UGC 1596 accompagnata in cielo dalla galassia a spirale vista di taglio UGC1591, posta anche lei a circa 210 milioni di anni luce di distanza ed entrambe vicine (circa 6°) alla più bella e famosa galassia a spirale M33.

1) Immagine di scoperta della AT2024wap in PGC71752 ripresa dal Catalina con il telescopio Cassegrain da 1,5 metri.

2) Immagine di scoperta della AT2024ycq in UGC4882 ripresa dal Catalina con il telescopio Cassegrain da 1,5 metri.

3) Immagine di scoperta della SN2024yhg in UGC1596 ripresa dal Catalina con il telescopio Cassegrain da 1,5 metri.


Se per le prime due supernovae non è stato ad oggi ripreso uno spettro di conferma, forse anche a causa della debole luminosità, per la terza (SN2024yhg) la situazione è ben diversa.

4) Immagine della SN2024yhg in UGC1596 ripresa da Claudio Balcon con un Newton da 410mm F.5 somma di sei immagini da 60 secondi.

5) Immagine della SN2024yhg in UGC1596 ripresa dall’astrofilo spagnolo Jordi Camarasa in remoto dalla Namibia con un riflettore da 360mm F.8,4 somma di due immagini da 60 secondi.


Scoperta quando mostrava una luminosità pari alla mag.+20,3 nei giorni la sua luminosità è aumentata fino a raggiungere intorno al 25 ottobre la mag.+17,5. Nella notte del 22 ottobre dall’Osservatorio di Mauna Kea nelle Isole Hawaii, con il telescopio UH88 da 2,2 metri di diametro, è stato ripreso lo spettro di conferma. Si tratta di una supernova di tipo Ia-91bg-like, una sottoclasse di supernova di tipo Ia che i cui soggetti si mostrano leggermente più deboli ed evolvono più rapidamente. Hanno gli spettri con righe più strette e presentano le righe del Calcio e del Titanio più intense e meno quelle del Ferro, rispetto ad una tradizionale supernova di tipo Ia. La galassia UGC1596 ha un modulo di distanza di pari a 34, se questa supernova fosse stata una normale tipo Ia, la sua luminosità sarebbe salita fino alla mag.+15 (34-19=15). Comunque  la posizione della galassia ospite in questo periodo dell’anno è ottimale trovandosi quasi allo Zenit già in prima serata. Non sarà perciò difficile ottenere una buona immagine di questa supernova italo-americana insieme a questa interessante coppia di piccole galassie.

Immagine della SN2024yhg in UGC1596 ripresa da Riccardo Mancini con un Newton da 250mm F.5 somma di 20 immagini da 180 secondi.

 

Per seguire Supernovae Aggiornamenti: Iscriviti alla NewsLetter!

Il Progetto DUSTER – Polvere di Luna

Mentre alcune agenzie spaziali si preparano per le prossime missioni di ritorno sulla Luna, scienza e ingegneria devono affrontare la sfida di misurare, controllare e mitigare un importante rischio ambientale associato: la polvere. Nasce il progetto DUSTER

Dalla polvere sulla Terra…

La polvere è onnipresente e può diventare un vero incubo. Sulla Terra, questo conglomerato di minuscole particelle, composte da acari, fibre, terra e polline, si trova su ogni tipo di superficie. Quando viene smossa, la polvere depositata può rimanere sospesa nell’aria: alcuni ne restano affascinati nel vederla illuminata dalla luce solare, tracciando traiettorie Browniane, mentre altri semplicemente starnutiscono. Fortunatamente, utilizzando uno strofinaccio o un aspirapolvere, ce ne possiamo facilmente liberare.

…alla polvere sulla Luna

Peró la polvere può essere fastidiosa e sgradevole anche fuori dalla nostra Terra, più in là, nello spazio. Quando gli astronauti delle missioni Apollo tornarono a casa dal nostro satellite, si resero conto di avere della polvere, proveniente dalla superficie lunare, attaccata alle tute spaziali, la quale provocava irritazione alla gola e lacrimazione.

Apollo 17 Harrison
Figura 0 L’astronauta dell’Apollo 17 Harrison Schmitt mentre raccoglie un campione di terreno, con la sua tuta spaziale ricoperta di polvere. Credito: immagine NASA AS17-145-22157.

Sulla Luna la polvere è composta da minuscole particelle affilate e abrasive, generate da granelli di roccia frantumata dall’impatto di meteoriti e micrometeoriti sulla superficie lunare.  Sono particelle, dotate di carica elettrostatica e si attaccano su tutte le superfici, dalle tute spaziali alle parti strumentali elettroniche ed ottiche dei moduli spaziali, e possono persino infiltrarsi nei polmoni degli astronauti.

A differenza della Terra, sulla Luna non è così facile liberarsi da questi minuscoli detriti  nonostante i tentativi degli equipaggi di spazzarli via dalle loro tute spaziali con spazzole o spesso con le mani, nessuno dei metodi è risultato efficace. La minore gravità lunare – un sesto di quella terrestre – inoltre fa sì che le minuscole particelle rimangano sospese per più tempo e possano quindi penetrare più profondamente nei polmoni.

Venere visto dalla Luna
Quando la missione Apollo orbitò attorno al lato nascosto della Luna, gli astronauti videro un arco di luce incredibilmente luminoso brillare all’orizzonte subito dopo il tramonto. Il punto luminoso in alto è il pianeta Venere. Credito: NASA.

Insomma saper controllare la presenza di polvere, che si trova anche sulla superficie di Marte, come su comete e asteroidi, rappresenta una vera sfida per le future missioni di esplorazione – sia con equipaggio umano che robotiche – su diversi corpi del Sistema Solare, incluso sul nostro satellite. Oltre a compromettere la salute degli astronauti per irritazione e inalazione, la polvere lunare ha molti altri effetti deleteri sulla strumentazione e l’equipaggiamento tecnico: tra i tanti il danneggiamento e la rottura delle tute spaziali, l’oscuramento della visione esterna, a causa del deposito sulle lenti delle telecamere e dei visori, false letture strumentali, perdita di adesione, intasamento delle meccaniche, abrasione, problemi di controllo termico (per esempio surriscaldamento dei radiatori), guasti nelle giunture sigillanti, l’elenco è decisamente lungo!

Differenze tra il suolo terrestre e lunare


l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Continuiamo allora il nostro viaggio, perché la vita e le scoperte dell’astronomo americano ci offrono molto altro.

All’indomani della prima guerra mondiale, a cui partecipò arruolandosi ma senza mai combattere, nel 1919, il direttore dell’Osservatorio di Mount Wil

Sebbene usiamo la stessa terminologia, esistono notevoli differenze tra il suolo terrestre e quello lunare. Sulla Terra, il suolo si forma tramite processi biologici, fisici (erosione causata da acqua, vento ed altri agenti atmosferici) o chimici. D’altra parte il suolo lunare è privo di materia organica e si forma esclusivamente per frantumazione e rottura meccanica di meteoroidi e dall’interazione con il vento solare e altre particelle ad alta energia.

A differenza della Terra, dove i ciottoli si erodono e arrotondano col passare del tempo a causa dell’esposizione agli elementi naturali, il suolo lunare non é soggetto a erosione significativa. Senza vento né acqua che consumino i loro bordi, i granelli di suolo lunare rimangono estremamente affilati e angolosi. Affilati come il vetro, ma sottili come la polvere terrestre, questi granelli possono avere una dimensione inferiore a 20 μm, il che li rende straordinariamente dannosi mediante dinamiche differenti rispetto a quelle osservate sulla Terra.

Un’altra differenza con la Terra è che la polvere lunare non è compatta. Qualsiasi minima attività sulla sua superficie ne può sollevare grandi quantità, anche senza astronauti che camminano o un modulo lunare che si posa sul suolo. Sono state osservate particelle e nuvole di polvere fluttuare da pochi centimetri fino ad alcuni metri al di sopra della superficie, nonostante l’assenza di vento o acqua che possa generare un simile comportamento e allora da cosa dipende? Sulla Luna, persino minuscole particelle possono muoversi lungo grandi distanze. L’attività della polvere lunare è attribuita alle forze elettrostatiche e fenomeni simili potrebbero verificarsi anche su altri corpi celesti senza atmosfera, come comete o asteroidi.

Caricate le polveri, la polvere è carica

La polvere lunare ha un’apparenza ed un comportamento diverso a seconda della sua localizzazione sulla superficie in relazione alla posizione del Sole, ovvero in funzione dell’angolo zenitale.

Il lato diurno della Luna infatti è esposto alla radiazione solare, la quale, nella banda dell’ultravioletto (UV) e dei raggi X, provoca la fotoemissione di elettroni. Ciò genera una leggera carica elettrica positiva nella polvere di questa faccia della Luna, con un potenziale di circa 10V, che la fa aderire a ogni tipo di superficie, in modo simile a come avviene con l’elettricità statica sulla Terra.

Al contrario, sul lato notturno, la superficie lunare è influenzata solo dal plasma circostante, proveniente dal vento solare e la principale fonte della carica elettrica dei granelli di polvere é dovuta alla cattura di elettroni da parte del plasma, parzialmente mitigata dall’emissione di elettroni secondari dalla superficie. Si tratta di un potenziale negativo stimato tra -100V e -200V al di fuori della magnetosfera terrestre [1][2].

Vicino al terminatore, la regione che divide la zona illuminata dal sole da quella in ombra, si producono a questo punto, forti campi elettrici a causa della rapida transizione da potenziali positivi a negativi. Ci sono poi le strutture di media o piccola scala, come crateri o rocce, che possono contribuire ad amplificare il fenomeno. E’ proprio il campo elettrico generato il principale indiziato della levitazione elettrostatica e successivamente del trasporto orizzontale dei granelli di polvere lunare dall’emisfero oscuro a quello illuminato dal Sole, dovuto alla differenza della lunghezza di Debye[1] (vedi figura 1).

Grafico del plasma che circonda la Luna
Fig. 1. Rappresentazione (non in scala) del plasma circostante la luna che indica i vari processi di generazione di cariche che agiscono sulla superficie della Luna: fotoelettroni emessi dai raggi UV solari e raggi X a bassa energia, elettroni del plasma termico incidente e ioni del plasma in forma di fasci, nonché elettroni di emissione secondaria. Le frecce circolari sul lato diurno lunare indicano i fotoelettroni di “ritorno” che non sono in grado di sfuggire alla superficie caricata positivamente. La discontinuità nell’estensione dello strato di plasma, proprio sulla parte diurno terminale, indica la transizione da uno stratofreddo e ricco di fotoelettroni sopra una superficie con carica netta positiva (λD∼1m) a uno strato di Debye piú tenue e più caldo sopra una superficie carica netta negativa ( λD∼10m). Credito: [2].

Il progetto DUSTER

Mentre agenzie spaziali come la NASA si preparano a tornare sulla Luna, alcuni gruppi internazionali di ricercatori in scienza ed ingegneria stanno studiando a fondo le proprietà fisiche della polvere superficiale lunare, con l’obiettivo di valutarne i rischi di contaminazione ed elaborare quindi le strategie per attenuare in maniera efficace i possibili danni, sia per la salute degli astronauti sia per gli strumenti spaziali.

Logo del progetto Duster
Logo del progetto Duster

Un team coordinato dal “Institut royal d’Aéronomie Spatiale de Belgique” (BIRA-IASB, reale istituto belga di aeronomia spaziale belga), ha unito gli sforzi con l’ “Office national d’études et de recherches aérospatiales” (ONERA, laboratorio nazionale aerospaziale francese), dell’ “Instituto de Astrofisica de Andalucía” (IAA-CSIC, istituto di astrofisica andaluso, spagnolo) e della societá aereospaziale spagnola Thales Alenia Space–España (TAS-E) nel progetto “Horizon Europe DUSTER”.

DUSTER, acronimo di “Dust Study, Transport, and Electrostatic Removal for Exploration Missions” (Studio della polvere, del trasporto e della rimozione elettrostatica per le missioni di esplorazione spaziale), ha come obiettivo principale quello di studiare la carica elettrostatica e l’adesione dei granelli di polvere del regolite lunare, vale a dire del sottile strato incoerente di polvere, pulviscolo e pietre che copre la superficie del nostro satellite.

Uno studio che diviene cruciale per comprendere il trasporto dei granelli di polvere sulla superficie di corpi celesti privi di atmosfera. A partire da esperimenti di laboratorio, DUSTER ha l’obiettivo di sviluppare un modello tecnico-ingegneristico di uno strumento capace di realizzare le necessarie misure per osservare e valutare i fenomeni inerenti le polveri in situ, sulla superficie lunare.

Inoltre, DUSTER è impegnato nella progettazione della tecnologia necessaria per spostare elettrostaticamente i granelli di polvere in modo controllato, implementando un primo passo verso un dispositivo per la pulizia delle superfici sensibili.

 

I test sulla polvere lunare artificiale in un ambiente spaziale simulato

Per comprendere meglio la carica del regolite nello spazio, il team di DUSTER sta analizzando come prima cosa la carica delle polveri ricreate in laboratorio, sfruttando un approccio sperimentale e di modellizzazione. L’installazione di DROP (Dust Regolith Or Particles) nell’istituto ONERA di Toulouse riproduce le condizioni dell’ambiente lunare nel modo più realistico possibile (vedi figura 2). Questa camera a vuoto è dotata di una pompa turbomolecolare che consente di effettuare dei test a una pressione di 10^-6 mbar. Per simulare l’irradiazione solare del suolo, viene utilizzato un fascio di fotoni ultravioletti sottovuoto (VUV) pari al flusso solare per illuminare lo strato di polvere. Il potenziale medio della polvere dopo l’irradiazione VUV viene misurato con una sonda Kelvin [2] senza contatto. La polvere attratta dalla griglia e dagli elettrodi viene raccolta in un pozzo di Faraday [3] (vedi figura 3).

Camera Dust
Fig. 2 La camera Dust Regolith Or Particles (DROP) sviluppata dall’istututo ONER, Office National d’Études et de Recherches Aérospatiales, di Toulouse, utilizzata per effettuare esperimenti di laboratorio. Credito: ONERA.

Grazie ad un simile apparato, gli scienziati hanno la possibilità di misurare diverse grandezze fisiche, tra cui il campo elettrico necessario per generare un flusso di granelli carichi, la carica elettrica trasportata dagli stessi, i parametri di carica e il campo elettrico sulla superficie dello strato di polvere.

L’accesso diretto al suolo lunare è complicato, è ovvio, e perciò gli scienziati e ingegneri si avvalgono di polveri lunari artificiali, progettate per riprodurre quanto più fedelmente quelle che si trovano realmente sulla superficie della Luna e utilizzate per simulare il comportamento della polvere lunare nei rispettivi laboratori. Sono disponibili diversi tipi di prototipi di polvere lunare, conosciuti in gergo tecnico con le sigle di JSC-1A, LHS-1 e LMS-1. Per i suoi test, l’ONERA ha scelto il JSC-1A (Johnson Space Center-One A), ottenuto dalla frantumazione di rocce basaltiche.

Fig. 3 Configurazione del rilevatore di polveri per il progetto DUSTER: uno sguardo all’interno della camera DROP. Il supporto per la polvere lunare misura 5×5 cm², e dispone di un foro centrale per collocare i campioni. La griglia utilizzata per attirare le particelle di polvere è unita al suo supporto. Il vetro trasparente serve per osservare la deposizione della polvere. Il pozzo di Faraday misura la corrente, che viene successivamente amplificata. A sinistra é possibile osservaere la sonda Kelvin, utilizzata per misurare il potenziale delle polveri. Credito: figura adattata da ONERA.

I primi risultati sono molto incoraggianti: essi suggeriscono come in laboratorio sia possibile attirare i granelli di polvere mediante forze elettrostatiche, misurare una relativa corrente quando essi entrano ed escono dal pozzo di Faraday e dedurre infine la quantità di carica elettrica che sono in grado di trasportare. Si tratta di un passo importante per il progetto.

Un prototipo di strumento per le misure in situ

Basandosi sui risultati ottenuti in laboratorio, si procederà alla progettazione, alla fabbricazione e alla prova in un ambiente controllato di un prototipo di strumento specifico per operare in situ. Lo strumento, il compatto DUSTER, una volta installato in un piccolo modulo di atterraggio lunare, potrà analizzare le proprietà meccaniche ed elettriche della polvere, nonché il trasporto elettrostatico.

Inoltre, dovrà avere la capacità di estrarre in modo controllato i granelli di polvere che compongono il regolite naturale esposto in un ambiente naturale, ovvero non controllato. A tale scopo, l’apparato alloggerà tre sensori: una sonda Langmuir[4], una sonda di campo elettrico e un collettore di polvere che consiste in un elettrodo ad alta tensione accoppiato a un elettrometro (un misuratore di cariche).

Le sonde di Langmuir e di campo elettrico misureranno rispettivamente il plasma dell’ambiente e il campo elettrico vicino alla superficie, mentre il collettore di polvere applicherà una forza controllata sulla polvere carica per attrarla e misurare la corrente risultante dal movimento delle particelle di polvere cariche nel pozzo di Faraday.

I parametri risultanti determineranno il campo elettrico necessario per attrarre e raccogliere la polvere in funzione delle condizioni ambientali (illuminazione, densità del plasma e temperatura), il che permetterà di progettare dispositivi di mitigazione della polvere elettrostatica e collettori di campioni di polvere per una vasta gamma di ambienti, sia per il nostro satellite, sia per altri corpi del Sistema Solare come Marte, comete o asteroidi.

 

Il ruolo dell’Istituto di Astrofísica di Andalucía, IAA-CSIC, nel progetto DUSTER

L’IAA è responsabile del computer di bordo, del software di controllo e della meccanica dello strumento DUSTER.

All’interno del progetto DUSTER, si occupa della progettazione del case dove saranno alloggiate le schede elettroniche per l’elaborazione e il controllo dello strumento, anch’esse realizzate dallo stesso istituto, l’elettronica di adattamento dei tre sensori, ad opera di BIRA-IASB, e le fonti di alimentazione ad alta, media e bassa tensione, progettate da TAS-E.

Lo chassis ha tra le sue funzioni quella di proteggere le schede elettroniche da interferenze elettromagnetiche da parte di altri dispositivi elettronici o di fattori esterni (figura 4), per questo motivo, l’IAA-CSIC è responsabile dell’integrazione dell’elettronica con le schede di BIRA-IASB e TAS-E, e offrirà supporto nei test di compatibilità elettromagnetica e interferenza elettromagnetica che saranno effettuati presso Thales Alenia Space – España. Inoltre si incaricherá di effettuare una verifica funzionale del software e dell’hardware in laboratorio.

case
Fig. 4 Modello in rendering 3D del case (o dello chassis) di DUSTER: Credito: Istituto de Astrofísica de Andalucía, IAA-CSIC.

L’IAA-CSIC progetterà anche l’hardware, il firmware e il software della scheda di controllo ed elaborazione dello strumento, nonché un simulatore di comunicazione della navicella spaziale e del lander con lo strumento DUSTER, responsabile di trasmettere i comandi a distanza e ricevere le misure telemetriche (figura 5).

Fase di sviluppo del software
Fig. 5 Sviluppo del software di controllo e del simulatore della navicella spaziale per l’invio dei telecomandi e la ricezione delle telemetríe. Credito: IAA-CSIC.

[1]In fisica, la lunghezza di Debye è la distanza entro la quale si verifica separazione di carica in modo significativo all’interno di un plasma, ovvero è la distanza spaziale entro la quale le cariche elettriche mobili schermano il campo elettrico all’interno di un plasma o di altri insiemi di cariche.


[2]     https://it.frwiki.wiki/wiki/Sonde_de_Kelvin

[3]     https://it.wikipedia.org/wiki/Coppa_di_Faraday

[4]     https://en.wikipedia.org/wiki/Langmuir_probe

[/swpm_protected]

AUTORI

Karolien Lefever, direttrice del dipartimento di “Comunicazione e Documentazione” del Reale Istituto Belga di Aeronomia Spaziale (BIRA-IASB) 

Sylvain Ranvier, scienziato del gruppo di ricerca “Accoppiamento magnetosfera-ionosfera” del BIRA-IASB e coordinatore del progetto DUSTER 

Rosario Sanz Mesa, scientific manager e divulgatrice, e Julio Rodríguez Gómez PI presso l’unitá di sviluppo di strumentazione tecnologica, UDIT, dell’ Istituto di Astrofisica di Andalucía, IAA-CSIC

Traduzione all’italiano di Sebastiano de Franciscis, ricercatore e divulgatore scientifico presso l’IAA-CSIC.

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA

Arp 263 nella Costellazione del Leone

Credit: ESA/Hubble & NASA, J. Dalcanton, A. Filippenko

ABSTRACT

In questa insolita ripresa del telescopio Hubble una stella della Via Lattea, brillante come un fulgido diamante, mette in ombra la luce emessa dalle stelle di un’intera galassia di fondo, che appare come un insieme fitto di lucine sparse. Nonostante la predominanza della stella nella scena celeste, Arp 263 è un oggetto interessante e attraente da osservare, in particolare per le vaste e diffuse regioni di formazione stellare, simili a delicati mazzolini di fiori rosati.


Fiori Rosa per una Galassia Irregolare


L’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]


La galassia, situata a oltre 25 milioni di anni luce da noi nella Costellazione del Leone, è stata scoperta nel 1784 dall’astronomo William Herschel e si estende per circa 40.000 anni luce. Prive di una struttura distintiva, le galassie irregolari come Arp 263 hanno spesso un aspetto caotico e disordinato, senza un bulge centrale né evidenti bracci a spirale, ben differente rispetto a quello delle più note spirali ed ellittiche. Secondo gli astronomi molte galassie irregolari erano un tempo spirali, che in qualche periodo della loro storia sono andate soggette a deformazione in seguito a interazioni mareali o fusioni con altri oggetti nelle vicinanze.

Stelle brillanti si addensano al centro di Arp 263, illuminandolo di un diffuso splendore, mentre smaglianti addensamenti rosati, rivelatori di nuova formazione stellare, sono sparsi lungo le regioni esterne. Particolarmente evidente nell’immagine la gigantesca regione HII visibile sul bordo sinistro della galassia, al di sotto della quale una debole coda di stelle sparse si allunga nello spazio, assumendo una forma ad uncino. Un’altra coda ricca di stelle, parzialmente visibile nell’immagine, si estende dalla parte centrale della galassia oltre il bordo destro della ripresa. Attorno alle regioni di formazione stellare si radunano le stelle più brillanti e massicce. Arp 263 è molto asimmetrica, non omogenea per luminosità e relativamente isolata nello spazio.

La posizione di Arp 263 nella costellazione del Leone
AR: 10h25m04.94s – DEC: 17° 09′ 44.7”

Gli astronomi hanno studiato in banda radio la distribuzione e la dinamica del gas freddo all’interno della galassia, scoprendo che Arp 263 ha subìto in tempi recenti una fusione. Un evento devastante che ha provocato la distorsione della sua struttura e la formazione delle code mareali di stelle. Molto probabilmente osserviamo il risultato della fusione tra Arp 263 e una galassia di piccola massa, o il risultato dell’interazione con una galassia debole con elevato rapporto massa/luminosità, poiché non è stata osservata chiaramente la presenza di alcun resto di una galassia “inghiottita” o di una galassia satellite nelle vicinanze.

Gli scienziati hanno inoltre scoperto che la massa gassosa in Arp 263 supera quella della popolazione stellare, con numerosi siti locali ricchi di materiale per formare nuove stelle, distribuiti in modo disomogeneo. Sembra che, durante il processo di fusione, parte del gas sia stato espulso dal disco centrale e ora stia gradualmente ricadendo verso le regioni interne, alimentando la nascita di stelle in seguito a compressione del materiale.

 

Credit: ESA/Hubble & NASA, J. Dalcanton, A. Filippenko

Due differenti strumenti a bordo del telescopio Hubble hanno raccolto dati utili per ottenere questa immagine. In particolare, le riprese della Wide Field Camera 3 sono servite agli astronomi per cercare nella galassia i siti di recenti esplosioni di supernova, come SN 2012A, osservata oltre un decennio fa. Altri studi scientifici hanno utilizzato l’Advanced Camera for Surveys per riprendere le galassie peculiari del catalogo Arp, come Arp 263, allo scopo di scoprire soggetti interessanti da osservare successivamente tramite il telescopio James Webb.

Particolarmente evidente nella ripresa, la stella in primo piano BD+17 2217 è attorniata da due serie di spike di diffrazione, per un totale di 8 “punte”, a dimostrazione del fatto che l’immagine è stata creata utilizzando due set di dati del telescopio Hubble, acquisiti da angolazioni differenti. La scena è arricchita inoltre da una serie di galassie di fondo di varia forma e colore, come la bella spirale ben visibile vicino al bordo superiore dell’immagine. 


Come Osservare

a cura di Cristian Fattinnanzi

Arp 263 è una delle 338 galassie interagenti elencate e studiate dall’astronomo statunitense Halton Arp. Si trova nella costellazione del Leone, poco sotto Algeiba, immaginando il grande felino di profilo, in una posizione che potremmo definire vicina al cuore dell’animale. La posizione suggerisce il periodo migliore per osservare la galassia, che va dall’inizio dell’inverno alla fine della primavera, sebbene in giugno risulti piuttosto bassa sull’orizzonte ovest. Nelle migliori condizioni potremo catturarla ad un’altezza sull’orizzonte tra i 60 ed i 65° per le latitudini italiane. Si stima che si trovi a circa 25 milioni di anni luce dalla Via Lattea, una distanza non impossibile per coglierne digitalmente interessanti dettagli. Anche l’osservazione visuale si può intraprendere, sotto buoni cieli di alta montagna e possibilmente con un telescopio dal diametro oltre i 30 cm. La sfida sarà percepire l’evanescente bagliore della galassia con alcuni rinforzi delle diffuse regioni nebulari in essa contenute, la cui magnitudine complessiva si attesta tra la 13 e la 14. Le nebulosità potrebbero essere evidenziate meglio con filtri nebulari (O3 ed H-alfa), che nello stesso tempo però abbatteranno la debole luce diffusa della galassia. Occorreranno inoltre ingrandimenti almeno medi (pupilla d’uscita di circa 1,5-2mm), in grado di rendere il fondo cielo abbastanza scuro e non disperdere troppo la debole luce del soggetto.

Fotograficamente, è un oggetto al limite per le camere digitali, specie quelle un po’ datate, molto meglio potranno fare i CCD raffreddati, sebbene le dimensioni piuttosto contenute (circa 4’ di asse maggiore) rendano indispensabili lunghezze focali elevate (sul sensore l’immagine avrà una dimensione pari a circa 1/1000esimo della focale, quindi circa 3mm usando uno strumento come un C11, che ha una focale di ben 2800mm). Come già detto, l’introduzione dei filtri sarà di scarso aiuto per la galassia, ma potranno aiutare ad evidenziare le nebulose in essa contenute. In ogni caso, sfruttando una serata con condizioni di trasparenza atmosferica elevata sarà interessante affrontare la sfida per ottenere il ritratto di questo particolare oggetto.


Giudizio sulla difficoltà (1 oggetto molto semplice, 5 oggetto difficilissimo):

Visuale: 4/5

Fotografica: 4/5

RIF: https://esahubble.org/images/potw2329a/

[/swpm_protected]

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA

 

TFOP – TESS FOLLOW-UP OBSERVING PROGRAM

“Ci sono infiniti mondi simili e diversi da questo nostro” – Epicuro 341-270 s.C.

Gli Esopianeti, gioielli cosmici, sono ovunque nell’universo eppure trovarli è molto più impegnativo che trovare il classico ago nel pagliaio. Anche se sono impossibili da fotografare direttamente possono essere osservati grazie a missioni dedicate per cercarli e caratterizzarli utilizzando tecniche indirette.

La prima missione progettata per la caccia ai pianeti nasce con la NASA, il 7 marzo 2009 con il lancio del telescopio spaziale Kepler il cui scopo era individuare nuovi esopianeti monitorando i cali periodici di luminosità causati dai transiti planetari.

Kepler ha scoperto più di 2300 mondi, sistemi multi-planetari e perfino pianeti nella zona abitabile ma i limiti di Kepler erano ben noti da prima del suo lancio e già al momento della progettazione si considererò che il satellite potesse esplorare una piccola una porzione della Via Lattea alla ricerca di pianeti delle dimensioni della Terra.

ALLA SCOPERTA DI NUOVI MONDI: TESS SEGUE LA MISSIONE KEPLER

Nel 2013 a seguito di un guasto il programma di indagine di Kepler termina e nel 2013 per prenderne il posto viene finanziato il nuovo strumento TESS Transiting Exoplanet Survey Satellite lanciato poi con successo nel 2018. Mentre Kepler si immergeva in profondità in una regione specifica del cielo, TESS ancora oggi osserva stelle che sono da 30 a 100 volte più luminose di quelle che osservava Kepler – in un’area 400 volte più grande – dove molte delle quali sono stelle simili al nostro Sole.

TESS ha prodotto e continua a produrre una grande quantità di dati che devono essere innanzitutto confermati. Infatti, nonostante la precisione dei suoi strumenti e il vantaggio di non essere disturbato dall’atmosfera terrestre, anche le osservazioni di TESS possono essere contaminate da fattori esterni. Ben una frazione importante dei pianeti candidati trovati da TESS si rivelano essere ad un’indagine successiva “falsi positivi”. Un falso positivo è un segnale simile a quello emesso dal transito di un pianeta davanti alla sua stella ma che in realtà la sua origine è diversa, forse strumentale oppure legata a fenomeni astrofisici. Rientrano ad esempio in questa ultima categoria le stelle variabili (come le binarie ad eclisse) che si trovano vicino ai target osservati.

A sostegno della missione TESS occorrono quindi osservazioni follow-up da terra al fine di escludere i falsi positivi e successivamente perfezionare le effemeridi dei pianeti confermati. Nasce così TFOP Tess Follow-Up Observing Program programma di follow-up di TESS con lo scopo di completare le osservazioni di TESS con dati raccolti da osservatori terrestri.

ASTROFILI A CACCIA DI ESOPIANETI

Il TFOP, grazie al contributo di Astronomi professionisti e di Astrofili, ha fino ad oggi confermato circa cinquecento pianeti extrasolari.

Gli osservatori terrestri si impegnano a riprendere fotometricamente i pianeti candidati trovati dal telescopio spaziale al fine di confermarne i transiti oppure tentano di ripetere l’osservazione mettendo in campo strumenti diversi come, ad esempio, spettroscopi, utile per determinare la massa dei target.

Abbiamo chiesto all’astronoma Karen Collins, membro dell’ufficio scientifico TESS, di raccontarci come opera TESS.

 “Il TESS Follow-up Observing Program (TFOP) ha l’obiettivo di confermare i cosiddetti TOI (TESS Object of Interest), che in genere sono segnali di possibili esopianeti in transito. Il gruppo è organizzato in cinque diversi sottogruppi (SG) e attualmente comprende oltre 650 cittadini fra astrofili, studenti e astronomi professionisti di tutto il mondo. Tutti gli osservatori con le competenze necessarie per contribuire a uno o più sottogruppi sono invitati a candidarsi per entrare a far parte del TFOP seguendo le istruzioni riportate sul nostro  sito web dedicato alle candidature (https://tess.mit.edu/followup/apply-join-tfop).”

Specificità dei gruppi di lavoro TESS

SG1 utilizza fotometria per identificare i falsi positivi dovuti a binarie ad eclisse vicine al TOI che contaminano le misure fotometriche di TESS e, nella maggior parte dei casi, per rilevare gli eventi di transito sul target. I tempi di transito misurati sono utilizzati per contribuire a perfezionare le effemeridi di TESS e, in alcuni casi, per misurare le variazioni temporali. Quando è possibile, si raccolgono anche osservazioni multibanda per verificare la dipendenza del segnale di transito dalla lunghezza d’onda: conferma di una binaria ad eclisse che non può essere distinta dal TOI.

Il team SG2 individua e misura parametri spettroscopici per calcolare in maniera più precisa la massa e il raggio delle stelle madri dei pianeti, per individuare i falsi positivi causati dalle binarie spettroscopiche e per identificare le stelle non adatte a misure precise di RV (quelle in rapida rotazione)

Il team SG3 usa immagini ad alta risoluzione (ad esempio con ottiche adattive) per rilevare oggetti vicini che non sono risolti nelle osservazioni di TESS o ad integrazione dei lavori del gruppo SG1.

Il team SG4 ottiene misure accurate di velocità radiali delle TOI con l’obiettivo di determinare le orbite dei pianeti intorno alla stella madre e calcolarne la massa.

Il gruppo SG5 compina dati fotometrici raccolti da più fonti come HST, Spitzer (non più attivo), MOST, CHEOPS e JWST, per confermare e migliorare le effemeridi fornite da TESS, ma anche per fornire curve di luce migliorate per eventi di transito o addirittura TTV Transit Timing Variation in alcuni casi.

Intervista a Karen Collins

Approfittiamo della preziosa disponibilità di Karen Collins per rivolgerle ancora qualche domanda.

Qual è il suo ruolo all’interno del programma TESS e più nello specifico nel TFOP?

Sono a capo del team SG1, insieme alla collega Cristilyn Watkins. Insieme, esaminiamo tutte le osservazioni presentate dai membri del team SG1 e aggiorniamo le valutazioni dei pianeti candidati man mano che il processo di follow-up procede fino alla conferma del pianeta o del falso positivo. Specifichiamo inoltre quale tipo di osservazione è necessaria per ogni TOI. Gli osservatori che hanno fornito le curve di luce secondo le nostre richieste e che si sono rivelate utili per la completa valutazione di un candidato pianeta diventano coautori degli articoli sulla scoperta di pianeti.

Karen Collins presso l’Apache Point Observatory

Cosa cerca principalmente il vostro team e qual è stata la scoperta più importante dell’ ultimo anno grazie ai dati di follow-up di TESS?

L’obiettivo generale del team TFOP è quello di contribuire alla conferma dei pianeti trovati da TESS. La maggior parte degli autori degli articoli sulla scoperta dei pianeti sono anche membri del TFOP, quindi lavoriamo a stretto contatto con loro durante il processo di pubblicazione. Ad oggi sono stati scoperti quasi 500 pianeti grazie a TESS e non saprei dire quale fra essi può rappresentare la scoperta più importante. Suppongo invece che sia proprio il gran numero di scoperte di pianeti da parte di TESS e del TFOP a rivestire una notevole importanza per gli studi statistici sugli esopianeti, sulla loro formazione e soprattutto indirizzare gli approfondimenti delle atmosfere grazie al James Webb Space Telescope (JWST).

La NASA consente l’accesso al database Exo FOP-TESS affinché tutti i membri di TFOP possano caricare le proprie osservazioni una volta che un esopianeta viene stato confermato.

Per i curiosi, tutti i candidati pianeti trovati da TESS, che dovranno poi essere confermati dal TFOP, sono presenti nel catalogo TOI (TESS Objects of Interest). Per consultarli https://tess.mit.edu/followup/

TESS non è in grado di approfondire lo studio e l’analisi delle caratteristiche dei nuovi pianeti non essendo stato progettato specificatamente per questo scopo non possiede infatti la strumentazione necessaria. In futuro, ed anche ora, TESS ricoprirà il ruolo di “puntatore” del telescopio spaziale James Webb (JWST). Una volta individuati quindi gli oggetti più interessanti sarà TESS a indicare al JWST la direzione verso cui puntare.

L’articolo è pubblicato in Coelum Astronomia 270

LE SUPERNOVAE EXTRAGALATTICHE PIU’ LUMINOSE ED IMPORTANTI DELLA STORIA (pt.2): SN1895B IN NGC5253

ABSTRACT

Quando si parla di supernovae, il nostro sguardo si allarga inevitabilmente verso gli angoli più remoti e affascinanti dell’Universo. L’articolo che segue vi guiderà attraverso le scoperte di alcuni degli eventi astronomici più luminosi e significativi mai osservati: le supernovae extragalattiche. In particolare, ci concentreremo su quelle che, grazie alla loro vicinanza e brillantezza, hanno lasciato un segno indelebile nella storia dell’astronomia. Attraverso un viaggio che inizia con la celebre SN1895B, scoperta dalla pioniera dell’astronomia Williamina Fleming, esploreremo come tali fenomeni abbiano contribuito a ridefinire la nostra comprensione delle galassie e del cosmo. Preparatevi dunque ad immergervi nella storia di queste esplosioni stellari, alla scoperta delle meraviglie e dei misteri che esse portano con sé.

SN1895B di Williamina Fleming

1)	Primo piano dell’astronoma scozzese, naturalizzata statunitense, Williamina Paton Stevens Fleming realizzato intorno all’anno 1890.
1) Primo piano dell’astronoma scozzese, naturalizzata statunitense, Williamina Paton Stevens Fleming realizzato intorno all’anno 1890.

L’articolo prosegue cronologicamente l’analisi delle supernovae più luminose e quindi più vicine ed importanti della storia. Dopo la SN1885A scoperta dall’astronomo tedesco Ernst Hartwig nella galassia di Andromeda (prima supernova extragalattica della storia), che abbiamo trattato nella puntata precedente (vedi COELUM 269), ci spostiamo di circa dieci anni più avanti, arrivando alla scoperta della SN1895B ad opera dell’astronoma scozzese, naturalizzata statunitense, Williamina Paton Stevens Fleming il 12 dicembre 1895, analizzando una lastra fotografica del 18 luglio 1895 nella galassia NGC5253.

L’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

L’articolo prosegue cronologicamente l’analisi delle supernovae più luminose e quindi più vicine ed importanti della storia. Dopo la SN1885A scoperta dall’astronomo tedesco Ernst Hartwig nella galassia di Andromeda (prima supernova extragalattica della storia), che abbiamo trattato nella puntata precedente (vedi COELUM 269), ci spostiamo di circa dieci anni più avanti, arrivando alla scoperta della SN1895B ad opera dell’astronoma scozzese, naturalizzata statunitense, Williamina Paton Stevens Fleming il 12 dicembre 1895, analizzando una lastra fotografica del 18 luglio 1895 nella galassia NGC5253. Come vedremo più avanti, la prima immagine di scoperta di questa supernova è però datata 8 luglio 1895, anche se sul web a volte viene riportato il 7 luglio 1895. La galassia che ha ospitato questa luminosa supernova, che nel luglio di quell’anno raggiunse la notevole mag.+8, è una galassia nana irregolare situata subito al di fuori del Gruppo Locale, nella costellazione del Centauro, a “soli” 10 milioni di anni luce di distanza da noi. Prima di addentrarci nel racconto della scoperta, ci sembra giusto spendere due parole per capire chi fu Williamina Fleming.

L’astronoma nacque a Dundee in Scozia il 15 maggio del 1857, all’età di 21 anni emigrò a Boston negli Stati Uniti assieme al marito James Orr Fleming, che purtroppo la abbandonò una volta saputo che era rimasta incinta. Williamina, chiamata dagli amici con il diminutivo di “Mina”, fu perciò costretta a trovare un lavoro per mantenere se stessa e il suo futuro bambino, che chiamò Edward. Il destino volle che trovasse lavoro come cameriera in casa dell’astronomo Edward Charles Pickering, direttore dell’Harvard College Observatory, che ne apprezzò subito la bravura e precisione, tanto da assumerla presso il suo osservatorio con il compito di studiare e catalogare un enorme numero di lastre fotografiche. In pochi anni Williamina e un altro gruppo di donne che lavoravano negli uffici dell’osservatorio, classificarono oltre 10.000 spettri di stelle. Naturalmente, analizzando un così elevato numero di immagini era prevedibile arrivare ad interessanti scoperte.

2)	Il Bache Doublet Telescope, un rifrattore da 8 pollici (200mm) con il quale Williamina ottenne la scoperta della SN1895B e della Nebulosa Testa di Cavallo.
2) Il Bache Doublet Telescope, un rifrattore da 8 pollici (200mm) con il quale Williamina ottenne la scoperta della SN1895B e della Nebulosa Testa di Cavallo.

L’Harvard College Observatory ha realizzato un lavoro incredibile su questa enorme mole di dati, digitalizzando oltre 500.000 lastre fotografiche, brogliacci e note ottenute dal 1885 al 1989. Un lavoro perfetto per noi! Abbiamo perciò contattato l’osservatorio che gentilmente ci ha fornito molte delle informazioni ed immagini di questo articolo, alcune anche inedite.  Dobbiamo ringraziare l’Harvard College Observatory ed in modo particolare Thomas Burns e Lisa Bravata, responsabili della collezione delle lastre fotografiche dell’osservatorio, che ci hanno fornito del materiale veramente prezioso. Veniamo alla famosa scoperta: nell’agosto del 1885 all’Harvard College Observatory entrò in funzione il Bache Doublet Telescope, un rifrattore da 8 pollici (200 mm) che successivamente, nel marzo del 1891, fu trasferito nel distaccamento meridionale del Harvard Observatory, nella stazione di Arequipa in Perù. Al rifrattore veniva applicato un prisma obbiettivo per scomporre la luce delle stelle più luminose e classificarle a livello spettrale.

Brogliaccio della lastra B14151 relativo all’immagine di scoperta della SN1895B
Brogliaccio della lastra B14151 relativo all’immagine di scoperta della SN1895B

Dai manoscritti presenti negli archivi dell’osservatorio, l’unico dato che emerge su questo prisma è il numero 50 che forse indicava la dimensione in millimetri del lato del prisma stesso. Il 12 dicembre 1895, analizzando una di queste lastre spettrofotografiche, dove le stelle sono rappresentate da una traccia allungata (lo spettro), precisamente quella dell’8 luglio 1895 denominata B14151 con un’esposizione di 52 minuti, Williamina si accorse di una traccia di una stelle che non era presente in immagini riprese negli anni precedenti. Approfondì la ricerca e si accorse che in una lastra datata 8 luglio 1895 denominata B13965, con un’esposizione di 10 minuti, ottenuta senza il prisma, era presente questa nuova stella con una luminosità intorno alla mag.+8. Erano passati circa cinque mesi, ma questa era la prova inconfutabile che il nuovo transiente era reale. Per sfumare ogni qualsiasi ulteriore dubbio fu puntato nuovamente il telescopio verso NGC5253 e l’oggetto era sempre lì, anche se sceso alla magnitudine +12.

Appunti della lastra B14151 scritti di pugno da Williamina relativi all’immagine di scoperta della SN1895B.
Appunti della lastra B14151 scritti di pugno da Williamina relativi all’immagine di scoperta della SN1895B.

Come spiegato nel precedente articolo sulla SN1885A, alla fine del 1800 non era ancora nota la vera natura delle galassie, considerate per lo più come nebulose della nostra Via Lattea e pertanto anche questo nuovo oggetto fu classificato come una stella variabile, assegnandole la sigla Z Cen. Soltanto nel 1923, grazie all’astronomo statunitense Edwin Hubble, si capì che le galassie non erano nebulose della nostra Via Lattea, ma bensì galassie simili alla nostra, ma situate molto più lontano, a milioni di anni luce di distanza. Alla luce di questa importante scoperta si capì che questi nuovi oggetti erano qualcosa di diverso rispetto alle classiche stelle Novae o stelle Variabili presenti nella nostra galassia. Agli inizi degli anni ’30 gli astronomi Edwin Baade e Fritz Zwicky coniarono il nome “supernova” per distinguerle appunto dalle classiche Novae; alla stella variabile Z Cen scoperta da Williamina Fleming fu perciò assegnata la nuova sigla SN1895B, cioè la seconda supernova scoperta nell’anno 1895. Per onor di cronaca la prima supernova del 1895 fu la SN1895A, scoperta il 16 marzo 1895 dall’astronomo tedesco Maximilian Wolf nella galassia a spirale barrata NGC4424, che raggiunse la mag.+12,5.

Immagine di scoperta della SN1895B lastra B14151
Immagine di scoperta della SN1895B lastra B14151 ottenuta con il Bache Doublet Telescope e 52 minuti di posa, realizzata il 18 luglio dalla stazione meridionale dell’ Harvard Observatory ad Arequipa in Perù. La SN1895B appare come una debole striscia allungata (spettro). Gli appunti sulla lastra in colore nero sono stati realizzati da Williamina stessa, mentre quelli di colore rosso sono stati realizzati dell’astronomo statunitense Bradley Schaefer, che nel 1995 realizzò uno studio approfondito sulla scoperta di questa luminosa supernova.

Tornando alla SN1895B in NGC5253, grazie ad un lavoro dell’astronomo statunitense Bradley Schaefer, pubblicato su The Astrophisical Journal nel luglio del 1995, è stato possibile risalire al tipo di questa supernova, analizzando principalmente la curva di luce in relazione alla distanza della galassia ospite NGC5253. Si trattava quasi sicuramente di una supernova di tipo Ia che raggiunse il massimo di luminosità nei primi giorni del luglio 1895. Concludiamo con una notizia che forse non tutti sanno: Williamina Fleming oltre alla scoperta di questa importante supernova (la terza supernova extragalattica di tutti i tempi) vanta al suo attivo anche la scoperta di 310 stelle variabili, 10 Novae e 59 Nebulose fra cui spicca la famosissima nebulosa Testa di Cavallo nella costellazione di Orione. Thomas Burns e Lisa Bravata ci hanno fornito anche la lastra di scoperta della nebulosa Testa di Cavallo denominata B02312 ottenuta da Williamina con il Bache Doublet Telescope quando era installato all’Harvard College Observatory in Cambridge, il 6 febbraio 1888 con un’esposizione di 90 minuti. Se confrontiamo le immagini di scoperta della SN1895B in NGC5253 e quella della Nebulosa Testa di Cavallo, con quelle ottenute dall’Hubble Space Telescope, possiamo apprezzare come in poco più di cento anni le tecniche di ottenimento delle immagini del profondo cielo abbiano compiuto dei veri e propri passi da gigante.

 

Brogliaccio della lastra B13965 relativo alla primissima immagine di scoperta della SN1895B.
Brogliaccio della lastra B13965 relativo alla primissima immagine di scoperta della SN1895B.

 

Primissima immagine di scoperta della SN1895B lastra B13965 ottenuta con il Bache Doublet Telescope da 200mm e 10 minuti di posa, realizzata l’8 luglio dalla stazione meridionale dell’ Harvard Observatory ad Arequipa in Perù. Questa immagine fu ottenuta in luce diretta senza il prisma e pertanto è ben visibile sia la galassia ospite NGC5253 che la SN1895B che aveva superato da pochi giorni il massimo di luminosità.
Primissima immagine di scoperta della SN1895B lastra B13965 ottenuta con il Bache Doublet Telescope da 200mm e 10 minuti di posa, realizzata l’8 luglio dalla stazione meridionale dell’ Harvard Observatory ad Arequipa in Perù. Questa immagine fu ottenuta in luce diretta senza il prisma e pertanto è ben visibile sia la galassia ospite NGC5253 che la SN1895B che aveva superato da pochi giorni il massimo di luminosità.

 

Immagine di scoperta della Nebulosa Testa di Cavallo lastra B02312 ottenuta il 6 febbraio 1888 con il Bache Doublet Telescope da 200mm e 90 minuti di posa.
Immagine di scoperta della Nebulosa Testa di Cavallo lastra B02312 ottenuta il 6 febbraio 1888 con il Bache Doublet Telescope da 200mm e 90 minuti di posa.
Brogliaccio della lastra B02312 relativo all’immagine di scoperta della famosa Nebulosa Testa di Cavallo.
Brogliaccio della lastra B02312 relativo all’immagine di scoperta della famosa Nebulosa Testa di Cavallo.

[/swpm_protected]

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA

Edwin Hubble a cento anni dalla sua prima grande scoperta

IL 23 NOVEMBRE 1924, CENTO ANNI FA, EDWIN HUBBLE PUBBLICÒ IN THE OBSERVATORY: “CEPHEIDS IN SPIRALNEBULAE“. UNO STUDIO BASATO SULLE SUE OSSERVAZIONI ASTRONOMICHE, NEL QUALE DIMOSTRÒ CHE LA VIA LATTEA NON È L’UNICA GALASSIA DELL’UNIVERSO DANDO COSÌ UNA SVOLTA ALLA STORIA DELL’ASTRONOMIA ED ALLA COMPRENSIONE DEL CIELO SOPRA DI NOI.

Il centenario di una delle sue scoperte più importanti ci offre l’opportunità di guardare da vicino il lavoro straordinario di Edwin Hubble. I suoi studi rivoluzionarono nel secolo scorso la nostra conoscenza del cosmo al pari di quanto fecero Copernico e Galileo tra 1500 e 1600. Possono la scienza e la tecnica restituirci non solo maggiore conoscenza della realtà che ci circonda, ma anche senso e significato? È buona cosa che qualunque disciplina non risponda a domande che non sono pensate per quella disciplina e che stia, per dirla con parole proprie, nel suo statuto epistemologico. Tuttavia è possibile, se non auspicabile, che le scoperte della scienza ed i traguardi della tecnica, spingano tutti e chiunque a riflettere sul significato della vita e sulle grandi domande umane. Diversamente la scienza e la tecnica rischiano di essere solo a servizio del potere, e rivestite di una presunta neutralità, che non hanno mai avuto davvero, essere concluse in sé stesse. Analoghe considerazioni si possono fare della vita e del modo di fare scienza delle donne e degli uomini che hanno accompagnato l’umanità nel viaggio del sapere, perché le persone e le scoperte che hanno fatto restano sempre un tutt’uno nel fluire della storia. Quando si tratta di esplorazione dello spazio, cielo profondo, fisica ed astrofisica, tutto sembra ancora più favorevole ed invitante.

Nato a Marshfield negli Stati Uniti il 20 novembre 1889, Edwin Powell Hubble alle leggi della terra, si laurea nel 1910 in giurisprudenza per compiacere il padre, preferì le leggi del cielo, studiando astronomia all’Osservatorio dell’Università di Chicago, dove conseguì il dottorato nel 1917 discutendo una tesi dal titolo “Investigazione fotografica di nebulose deboli”. E le nebulose furono, in effetti, il suo grande amore. Colgo qui un primo elemento di senso che possiamo condividere: il valore inestimabile della vocazione personale di ciascuno di noi. Uso un termine teologico, ma che rende ragione di un significato denso anche al di fuori dell’orbita di un credo religioso. Lo psicoanalista e psichiatra Jacques Lacan esprimeva questo concetto con una domanda: “Vivi all’altezza dei desideri che ti abitano?”. Una domanda seria che possiamo legare più di altre proprio al cielo. Hubble ci mostra come la vita non sia prima di tutto una serie di scelte, ma una risposta a qualcosa di misterioso e profondo che ci abita sin dall’infanzia. Benché l’astronomo abbia afferrato in gioventù il suo desiderio, non è mai tardi per chiunque per investigare il cuore alla ricerca di quella radice, o di una domanda che è così strutturale da poter essere fatta fiorire in modi diversi a qualunque età.  Per chi è appassionato di cielo e spazio questo piccolo passo, ma che segna la propria storia, potrebbe essere anche più semplice. Il detto popolare secondo cui è possibile esprimere un desiderio al vedere una stella cadente, non è così sbagliato se le “stelle cadenti” ci aiutano non tanto a realizzare, ma a focalizzare i nostri desideri più significativi.

l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Continuiamo allora il nostro viaggio, perché la vita e le scoperte dell’astronomo americano ci offrono molto altro.

All’indomani della prima guerra mondiale, a cui partecipò arruolandosi ma senza mai combattere, nel 1919, il direttore dell’Osservatorio di Mount Wilson a Pasadena, California, offrì ad Hubble una posizione in quello che allora era l’osservatorio con le apparecchiature più all’avanguardia del mondo. Egli accettò e Mount Wilson divenne per il resto della vita il suo punto di osservazione del cosmo. A quel tempo l’astronomia concepiva l’Universo come statico e limitato alla Via Lattea, la nostra galassia. Osservando quelle che venivano definite “nebulose”, Hubble identificò una classe di stelle variabili, le cefeidi, caratterizzate da una chiara correlazione tra il periodo di variabilità – il tempo necessario affinché la sua luminosità cambi ciclicamente – e la loro luminosità assoluta, permettendo di calcolarne la distanza con estrema precisione. Le cefeidi divennero e sono ancora tutt’ora il metro di misurazione per gli spazi cosmici. Il 23 novembre 1924, cento anni fa, pubblicò su The Observatory: “Cepheids in spiralnebulae“. Uno studio basato sulle sue osservazioni astronomiche, nel quale dimostrò che la Via Lattea non è l’unica galassia dell’universo dando così una svolta alla storia dell’astronomia ed alla comprensione del cielo sopra di noi. Gli astronomi stimavano che le dimensioni massime della Via Lattea fossero di circa 300.000 anni luce. Tuttavia, secondo i calcoli effettuati con il telescopio di Mount Wilson, la galassia di Andromeda si trovava a una distanza di ben 900.000 anni luce, il che la posizionava giocoforza al di fuori dei confini conosciuti della Via Lattea. Andromeda era un’altra galassia distinta dalla nostra. Quindi la nostra non era l’unica galassia esistente. Hubble rende testimonianza con questa scoperta tanto alla grandezza dell’essere umano quanto alla sua piccolezza, alla sua insignificanza cosmica. Non solo il nostro pianeta non è al centro del Sistema Solare e dunque del nostro piccolo universo ristretto, ma neppure la nostra galassia, di cui peraltro abitiamo la periferia, è il mondo conosciuto.

È una delle molte, delle innumerevoli. Non conta neppure più sapere quale possa essere la sua posizione relativa rispetto alle altre, centro o meno di un insieme di galassie. Il dato di fatto e che siamo meno che polvere, in ogni possibile senso e significato attribuibile a questa espressione. Tuttavia siamo polvere cosciente, polvere che è stata capace di misurarsi e di misurare, di vedere oltre e di vedersi oltre. Hubble non ha scoperto esclusivamente la nostra residualità, ha anche ribadito la nostra meravigliosa peculiarità. Forse non unica nell’Universo, certamente unica per quello che oggi sappiamo di noi e del resto del cosmo. Edwin ci insegna che la conoscenza autentica, e per quanto possibile vera, non umilia, consegna semplicemente nuove visioni che ci aiutano non a relegare l’umano in un angolo, quanto piuttosto a rendersi consapevoli e responsabili di sé e di quel pezzetto di mondo che abitiamo, fino alla prossima scoperta. Sino al prossimo confine.

L’astronomo americano nel descrivere la sua scoperta straordinaria sceglie di condividerne gli onori con il suo telescopio ed in modo quasi commuovente. Così scrive nel 1932 in The Realm of the Nebulæ, una raccolta di lezioni tenute nell’ambito delle Silliman Memorial: “Lo strumento che ha definitivamente stabilito l’identificazione e ampliato il dominio della conoscenza concreta di mille milioni di volte è il telescopio Hooker, il riflettore da 100 pollici dell’Osservatorio di Mount Wilson della Carnegie Institution di Washington. È il più grande telescopio in funzione, ha il maggior potere di raccolta della luce e penetra alla massima distanza. Per questi motivi, definisce l’attuale estensione della regione osservabile dello spazio e ha contribuito i dati più significativi allo studio della regione come campione dell’universo. In riconoscimento del ruolo unico che il telescopio da 100 pollici ha svolto nel progresso della ricerca sulle nebulose, le illustrazioni in questo libro sono quasi tutte riproduzioni di fotografie scattate con il grande telescopio”.

Un amore ed una ammirazione che due anni prima l’astronomo aveva già condiviso con Einstein durante una visita all’osservatorio del grande fisico tedesco. Questo particolare, quasi un aneddoto, è il terzo elemento di senso che vorrei sottolineare e condividere. Hubble, come Galileo prima di lui, è stato capace di fare alleanza con la tecnologia, rispettandone i limiti e riconoscendone i meriti. Nel suo telescopio si concentra la ricerca, lo sforzo, il lavoro e la generosità di chi prima di lui ha reso possibile l’impresa. Uomini e donne dai nomi sconosciuti alla grande storia, ma ugualmente parte di un noi che scopre la realtà attorno a sé. Questo mi richiama ad una attitudine di gratitudine permanente ogni volta che accosto l’occhio all’oculare di un telescopio. Benché quell’oggetto sia “mio” nel senso del diritto positivo, esso è sempre un “nostro” quale appartenente all’umano che lo ha pensato e realizzato. In ogni scoperta scientifica c’è sempre un noi alle nostre spalle, una maggiore consapevolezza ci aiuterebbe ad avere parimenti un “noi” di fronte al nostro desiderio di scoprire ed andare oltre. Ad aggiungere un ringraziamento a chi ha fatto per noi un lavoro, non delegando alla remunerazione il senso di una relazione.

La corsa ed il genio di Hubble non si fermò al suo primo successo. Tra il 1925 ed il 1930, studiando altre galassie che nel frattempo erano state scoperte, si accorse che esse si allontanavano da noi ad una velocità direttamente proporzionale alla loro distanza (legge di H., a cui sono legate anche la costante di H. e il tempo di H.). A dispetto della pochezza del primo articolo accademico con cui palesò la sua scoperta, solo sei paginette, il fatto era ed è di rilevanza assoluta. In “A Relation Between Distance and Radial Velocity Among Extra-Galactic Nebulae” del marzo 1929 non menzionò da nessuna parte il concetto di espansione dell’universo, tuttavia era ben consapevole di quanto aveva misurato e scoperto al punto che, nelle conclusioni, scrisse: “C’è da aspettarsi nuovi dati nel prossimo futuro che potrebbero modificare il significato della presente indagine o, se li confermeranno, porteranno a una soluzione con un peso di molto superiore.” In verità di dati ne aveva già una quantità tale da essere sicuro della scoperta che aveva per le mani. Modestia o astuzia che sia, in ogni caso, tutto fu confermato dalle indagini successive.

L’universo non è statico. La legge di Hubble è oggi un principio fondamentale dell’astrofisica che descrive l’espansione dell’universo. L’astronomo rilevò che esiste una relazione lineare tra lo spostamento verso il rosso – redshift – della luce emessa dalle galassie e la loro distanza. Uno spostamento verso il rosso di una fonte luminosa consiste nel fenomeno per cui la lunghezza d’onda della luce emessa da un oggetto si allunga, spostandosi verso la parte rossa dello spettro elettromagnetico. Questo può essere dovuto o ad una perdita di energia oppure, come dimostrò Hubble, da un processo di allontanamento della fonte luminosa. Tanto maggiore è la distanza della galassia e tanto maggiore sarà il suo spostamento verso il rosso. Ne deriva che più una galassia è lontana, più velocemente si sta allontanando. Come anticipato a questa scoperta è legata anche la costante detta di Hubble che misura il gradiente di espansione. Se la legge di Hubble è stata confermata da numerose osservazioni, non così la determinazione esatta della costante che rimane ancora oggetto di studio, con diverse misurazioni che portano a valori leggermente differenti. Questo tema è uno dei principali argomenti di ricerca nella cosmologia moderna, noto come “tensione di Hubble”.

In realtà il fatto che esistesse una legge di espansione fu scoperto nel 1927 dal sacerdote belga George Lemaître, ma il merito della scoperta è sempre stato riconosciuto solo al nostro Edwin Hubble, che ad onor del vero la fece in modo autonomo. Il mancato riconoscimento a Lemaître è dovuto a diverse cause ed incastri della storia. Soltanto nel 2018 la comunità astronomica ha riconosciuto la paternità della legge a entrambi. Ma questa è una storia che racconteremo a tempo debito.

Fedeli al nostro mandato iniziale, cosa ci può raccontare questa ulteriore scoperta dell’astronomo americano? Che davvero, come scriveva Eraclito, pántarheî, tutto scorre, tutto è dinamico e dinamica. Tutto e dunque anche io, apparteniamo ad un sistema in movimento, lento o veloce che sia. Ogni tentativo di trattenere, fissare, immobilizzare è contrario alla natura di ciò che esiste. Quello che possiamo fare è governare questo movimento, orientarlo per quanto possibile, cavalcarlo per quanto opportuno. Ciò mi porta ad una seconda considerazione. Nel fluire dell’universo attorno a noi e nel nostro navigare in questo mare cosmico, resta per ora unica la navicella in cui ci spostiamo, che ci protegge ed avvolge in queste dinamiche universali. Ancora una volta l’esplorazione dello spazio e delle sue leggi ci possono riportare ad uno sguardo attento e consapevole sulla Terra e per la Terra. Sul valore inestimabile di questa bolla nel cosmo che si espande che chiamiamo casa.

La corsa di Hubble continuò e tra i molti altri notevoli suoi contributi all’astrofisica galattica ed extragalattica, ricordiamo ancora: gli studi sulle nebulose a riflessione e, in particolare, la scoperta della relazione che lega le dimensioni angolari di questi oggetti alla magnitudine apparente della stella che li illumina ed uno schema di classificazione delle galassie (vedi il qcode in questa pagina con un bel video di INAF), che, opportunamente ampliato e modificato, è tuttora in uso. L’astronomo americano ci consegna dunque un mandato: non smettere di cercare, domandare, curiosare attorno a noi e dentro di noi. Non smettere di investire nuovamente, anche a costo di sbagliare, quanto abbiamo capito, quanto abbiamo perseguito e consolidato. E tanto più ognuno di noi è stato fatto segno di doni particolari, tanto più è bello e desiderabile metterli a frutto nel corso della vita. Hubble muore per infarto a San Marino il 28 settembre del 1953, ma il viaggio oltre le frontiere dell’astronomia portano ancora il suo nome grazie al telescopio spaziale a lui intitolato che dall’orbita bassa continua a fare scienza dal 1990.

Un’ultima nota per chiudere a cerchio la straordinaria vita e carriera di Hubble, una nota che può sembrare di colore, ma non lo è. Fin dalla giovane età, l’astronomo fu appassionato lettore dei romanzi di fantascienza di Jules Verne ed è ampiamente documentato quanto le letture della sua infanzia, in un periodo d’oro della letteratura per ragazzi, abbiano ispirato le sue scelte più mature. Esiste una meravigliosa circolarità tra scienze cosiddette dure e le altre scienze, più in generale quanto l’essere umano è capace di generare come la letteratura e la musica. La grande complessità della ricerca ci ha restituito l’idea della necessità, a mio giudizio erronea, di una iperspecializzazione degli studi, di una frammentazione e verticalizzazione del sapere che ha prodotto, ad esempio a livello universitario, una grande varietà di cattedre molto specialistiche ed una perdita progressiva di quegli studi più generali, ma non necessariamente più generici, che davano quadri di insieme. Per raggiungere grandi traguardi non serve una testa ben piena, come diceva Edgard Morin, riprendendo il pensiero di Montaigne, ma una testa ben fatta. Ed ogni modalità di esercizio dell’ingegno e della creatività umane possono contribuirvi, senza preclusioni o a priori che diventano velocemente inutili gabbie. Una piccola prova a contrario, sempre attinta dall’astronomia, ce la regala il giovane Giacomo Leopardi che, prima di cimentarsi nelle lettere per cui resta un gigante della letteratura mondiale, scrive nel 1813 una Storia dell’astronomia sino ai giorni nostri poiché, si legge nell’introduzione: “La più sublime, la più nobile tra le Fisiche scienze ella è senza dubbio l’Astronomia. L’uomo s’innalza per mezzo di essa come al di sopra di se medesimo, e giunge a conoscere la causa dei fenomeni più straordinari. Una così utile scienza dopo essere stata per molto tempo soggetta alle tenebre dell’errore ed alle follie degli antichi filosofi, venne finalmente ne’ posteriori secoli illustrata a segno, che meritamente può dirsi, poche esser quelle scienze, che ad un tal grado di perfezione sieno ancor giunte”. Queste le ragioni per cui, in conclusione, si perdonerà all’editore ed a me di aver scritto della vita e delle scoperte di Edwin Hubble pur non essendo io che un modesto astrofilo e per vocazione un sacerdote che si occupa di teologia, fede e scienza. Uno sguardo a cielo, affinché si possano cercare sguardi nuovi sulla terra. Insieme.

[/swpm_protected]

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA

ShaRA#9 – Le Galassie Antenne

Dettagli del sistema Galassie Antenne. Crediti @ShaRA Team
Dettagli del sistema Galassie Antenne. Crediti @ShaRA Team

ABSTRACT

Nel corso degli ultimi progetti del team ShaRA, ci siamo immersi nell’esplorazione di alcuni tra i più affascinanti oggetti del cielo profondo. Dopo aver catturato l’interazione gravitazionale tra le galassie NGC 3169 e NGC 3166, abbiamo deciso di posare il nostro sguardo su un oggetto tra i più iconici del cielo notturno. ShaRA#9 ci ha così trasportato in un angolo di universo oltre il nostro gruppo locale, dove due remote galassie stanno danzando una complessa coreografia di collisione e fusione, tra le più studiate in letteratura: le Galassie delle Antenne (NGC 4038 e NGC 4039).

di Alessandro Ravagnin e ShaRA Team

Il Target

Le Galassie delle Antenne (NGC 4038 e NGC 4039) nel campo inquadrato, sono visibili moltissime galassie di sfondo, tra le quali anche una coppia di galassie interagenti non classificate in letteratura.
Le Galassie delle Antenne (NGC 4038 e NGC 4039) nel campo inquadrato, sono visibili moltissime galassie di sfondo, tra le quali anche una coppia di galassie interagenti non classificate in letteratura.

l’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Il gruppo ShaRA continua attivamente la caccia ai più affascinanti target dell’emisfero australe, facendo ogni tanto una capatina su soggetti visibili anche dall’emisfero boreale, nonostante la scarsa altezza sull’orizzonte.

Le Galassie delle Antenne si trovano a circa 50/70 milioni di anni luce di distanza da noi, nella costellazione del Corvo anche se l’esatta distanza è ancora fonte di dibattito in letteratura. Le due galassie a spirale sono in procinto di fondersi, e la loro interazione gravitazionale ha dato vita a spettacolari archi di stelle e gas che ricordano l’aspetto delle antenne di un insetto, da cui il nome. La collisione ha scatenato intense esplosioni di formazione stellare, trasformando le Antenne in uno dei più impressionanti esempi di galassie interagenti.

Il nostro obiettivo in questo progetto era di catturare i dettagli più fini della dinamica fusione, con un’attenzione particolare ai flussi di materia e alle giovani regioni di formazione stellare che brillano in tutto il gruppo galattico. Inoltre eventi simili ci offrono uno sguardo privilegiato su ciò che potrebbe accadere quando la nostra Via Lattea finirà per scontrarsi con Andromeda tra miliardi di anni, con la differenza che quel giorno, se saremo ancora sulla faccia della Terra, assisteremo all’evento direttamente dal suo interno (dall’interno di una delle due galassie in collisione).

Le Riprese

Per ShaRA#9, abbiamo utilizzato il telescopio remoto T1 (RC1000) di Rio Hurtado, in Cile, lo stesso che ci ha assistito nei progetti precedenti. Le condizioni di ripresa non sono state ideali in tutte le sessioni ma, grazie alla pazienza e alla perseveranza del nostro team, siamo riusciti a ottenere un set di dati che ci ha permesso di produrre un’immagine, per noi, avvincente.

Versione a contrasti invertiti che permette di evidenziare meglio le code mareali delle galassie interagenti (le Antenne appunto). Crediti @ShaRA Team
Versione a contrasti invertiti che permette di evidenziare meglio le code mareali delle galassie interagenti (le Antenne appunto). Crediti @ShaRA Team

Abbiamo lavorato in composizione LRGB, acquisendo 40 frame da 600s in Luminanza e 18 frame per ciascun canale RGB. Il totale di ore di posa è stato di circa 15,6 ore. Durante le fasi di acquisizione, abbiamo dovuto fare i conti con alcune sessioni compromesse da un seeing non ottimale e da problemi tecnici con il rotatore di campo, ma alla fine siamo riusciti a recuperare il tempo perso e completare il progetto.

Per i lettori di COELUM che ci seguono nelle nostre avventure fin dl primo progetto, ricordiamo che le galassie Antenne erano state selezionate già un anno fa. Purtroppo, anche quella volta, incappammo in una serie di disavventure che ci obbligarono a mettere in pausa le sessioni di ripresa, sessioni che finalmente siamo riusciti a completare quest’anno (chi avesse voglia e volesse divertirsi nella ricerca, provi a trovare il numero di COELUM ed il punto esatto dell’articolo dove abbiamo raccontato il fatto).

L’Elaborazione

L’elaborazione delle immagini è stata una bella sfida, data la complessità del soggetto e la variabilità dei dati grezzi, ottenuti in due anni diversi. Abbiamo dovuto fare attenzione con i file di calibrazione in particolare che nel mentre erano cambiati. Un RC da 1m è inoltre abbastanza “sensibile” a polveri e similari, i tecnici che gestiscono il telescopio procedono ai flat field, dark e bias 2/3 volte all’anno (i flat sono eseguiti riprendendo coi vari filtri il cielo al tramonto o al sorgere del Sole) ma, nonostante le difficoltà, la collaborazione tra i membri del team come sempre è stata vincente. Le immagini finali mostrano chiaramente le estese antenne stellari che si dipanano dalle due galassie, nonché i dettagli interni delle regioni di collisione.

Procedendo come da abitudine abbiamo ottenuto l’immagine finale (il nostro “Superstack”) montando le varie elaborazioni personali che, grazie alla creatività e alla competenza dei vari partecipanti, erano già di partenza tutte di ottima qualità. Dell’immagine finale abbiamo estratto anche alcune versioni differenti: in particolare, l’elaborazione a contrasti invertiti che ha messo in risalto le strutture filamentose e i ponti di materia che collegano le due galassie, permettendoci di apprezzare la complessità della loro interazione, nonché la versione del nucleo centrale, che ha permesso di ammirare in miglior modo le zone di formazione stellare dove gas e polveri sono state compresse e “scioccate” dall’interazione gravitazionale dei due corpi interagenti.

Immagine finale del sistema Galassie Antene ottenuta con la tecnica del Superstack ShaRA. Crediti @ShaRA Team
Immagine finale del sistema Galassie Antene ottenuta con la tecnica del Superstack ShaRA. Crediti @ShaRA Team

Conclusioni

ShaRA#9 ha rappresentato una nuova sfida per il nostro gruppo ma anche un’opportunità per spingerci oltre i nostri limiti nell’astrofotografia remota elaborando un target storico e famoso nel campo scientifico. Le Galassie delle Antenne ci ricordano quanto possa essere violento e spettacolare l’universo, e quanto sia importante continuare a esplorare questi fenomeni per comprendere meglio il nostro posto nel cosmo.

Il viaggio del team non finisce qui. Il prossimo progetto ShaRA ci porterà verso nuovi orizzonti cosmici, e siamo entusiasti di continuare a condividere con voi le meraviglie dell’universo. E come sempre, chiunque voglia unirsi a noi in questa avventura è il benvenuto!

[/swpm_protected]

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA


L’Anello Prezioso Creato da un Quasar

Una piccola immagine di una galassia distorta dalla lente gravitazionale in un anello fioco. Nella parte superiore dell'anello ci sono tre punti molto luminosi con punte di diffrazione che fuoriescono da essi, uno accanto all'altro: in realtà si tratta di copie di un singolo quasar nella galassia, duplicate dalla lente gravitazionale. Al centro dell'anello, la galassia ellittica che esegue la lente appare come un piccolo punto blu.
Una piccola immagine di una galassia distorta dalla lente gravitazionale in un anello fioco. Nella parte superiore dell'anello ci sono tre punti molto luminosi con punte di diffrazione che fuoriescono da essi, uno accanto all'altro: in realtà si tratta di copie di un singolo quasar nella galassia, duplicate dalla lente gravitazionale. Al centro dell'anello, la galassia ellittica che esegue la lente appare come un piccolo punto blu. Credit: ESA/Webb, NASA & CSA, A. Nierenberg

L’insolito oggetto immortalato in questa sorprendente ripresa del telescopio JWST sembra quasi un prezioso anello tempestato di rubini brillanti, appoggiato su uno sfondo di velluto nero profondo. Si tratta in realtà di un quasar distante oltre 6 miliardi di anni luce da noi nella Costellazione del Cratere, un oggetto estremamente brillante, la cui immagine risulta duplicata e deformata per effetto di un fenomeno noto come lente gravitazionale.

I quasar sono sorgenti estremamente luminose localizzate nel cuore di remote galassie attive: la luminosità eccezionale e la prodigiosa quantità di energia emesse da un quasar sono dovute al processo di accrescimento del buco nero supermassiccio centrale, circondato da un disco da cui divora avidamente materia. Il materiale in caduta nel vorace buco nero accresce la sua massa ed è anche responsabile della luminosità di un quasar. 

Nel caso del quasar RX J1131-1231, accade che lungo la nostra linea di vista si interponga nello spazio una massiccia galassia ellittica, situata circa a metà strada tra noi e il quasar, a 3,5 miliardi di anni luce di distanza dalla Terra. A causa della presenza ingombrante di una grande quantità di massa, come previsto dalla Relatività Generale di Einstein, la deformazione del tessuto spaziotemporale fa sì che la luce emessa dal quasar venga forzata a viaggiare lungo percorsi differenti per arrivare fino a noi, cosicchè la sua immagine risulta deformata e riprodotta più volte. Inoltre, la galassia in primo piano agisce come una sorta di lente, un telescopio naturale che ci permette di osservare chiaramente il quasar remoto, la cui radiazione luminosa viene amplificata.

Una piccola immagine di una galassia distorta dalla lente gravitazionale in un anello fioco.
Una piccola immagine di una galassia distorta dalla lente gravitazionale in un anello fioco. Nella parte superiore dell’anello ci sono tre punti molto luminosi con punte di diffrazione che fuoriescono da essi, uno accanto all’altro: in realtà si tratta di copie di un singolo quasar nella galassia, duplicate dalla lente gravitazionale. Al centro dell’anello, la galassia ellittica che esegue la lente appare come un piccolo punto blu. Credit: ESA/Webb, NASA & CSA, A. Nierenberg

I tre punti brillanti affiancati e il puntino luminoso dalla parte opposta dell’anello sono in realtà quattro immagini distinte di questo singolo quasar, la cui luce lungo il percorso si è “piegata” creando l’illusione che la galassia ellittica in primo piano, visibile come piccolo puntino blu al centro dell’anello, sia circondata da quattro oggetti luminosi distinti, mentre la galassia in cui si trova il quasar ha assunto una forma simile ad un anello. Il numero e la forma delle immagini di un quasar lensato in questa sorta di miraggi cosmici dipende dalla posizione relativa del quasar, della galassia lente e del telescopio.

Il processo di accrescimento di materiale e l’ambiente estremamente energetico provocano un surriscaldamento del disco circostante il buco nero supermassiccio, con conseguente emissione di luce in varie lunghezze d’onda. Al di sopra del bordo interno del disco si trova la corona, una regione ricca di particelle altamente energetiche, accelerate dal campo magnetico del buco nero, che brillano in banda X. Grazie al fenomeno della lente gravitazionale e a osservazioni del telescopio spaziale Chandra, gli astronomi hanno ottenuto informazioni dettagliate sulla quantità di radiazione X a differenti energie emessa dal quasar. Questo ha permesso di misurare il tasso di rotazione del buco nero supermassiccio attivo responsabile della luminosità del quasar. Sembra che il buco nero volteggi a un tasso prodigioso, pari a circa metà della velocità della luce.

Misurare la rotazione dei buchi neri supermassicci nel giovane Universo può aiutare i ricercatori a capire se questi mostruosi oggetti crescano essenzialmente attraverso collisioni o grandi fusioni tra galassie, nel qual caso avrebbero a disposizione una fornitura costante di materiale proveniente da una direzione principale, formando un disco di accrescimento stabile, in grado di ruotare rapidamente. Oppure se acquisiscano massa attraverso molti episodi minori di accrescimento, da una serie di direzioni casuali variabili, nel qual caso il tasso di rotazione risulterebbe inferiore. I dati ottenuti dai ricercatori supportano la prima ipotesi, data l’eccezionale rapidità di rotazione calcolata in RX J1131.

L’immagine è stata ripresa dallo strumento MIRI (Mid-Infrared Instrument) a bordo del telescopio Webb, come parte di un programma osservativo volto a studiare la materia oscura. Queste osservazioni di quasar distanti permetteranno agli astronomi di sondare la natura della materia oscura su scale molto piccole, grazie al fenomeno della lente gravitazionale.

L’articolo è pubblicato in Coelum Astronomia 270

Fonte: https://esawebb.org/news/weic2324/

Modelli 3D per le Supernovae

Rappresentazione artistica delle fasi che portano all’esplosione di una supernova
Figura 1. Rappresentazione artistica delle fasi che portano all’esplosione di una supernova a collasso del nucleo:la stella progenitrice espelle parte degli strati più esterni nei decenni che precedono l’esplosione (a sinistra); un numero cospicuo di neutrini viene emesso negli istanti successivi al collasso del nucleo (al centro); l’onda d’urto generata dal collasso raggiunge la superficie della stella determinandone la distruzione (a destra). Crediti: S. Orlando/INAF Palermo.

Come i Modelli Scientifici Stanno Rivoluzionando lo Studio delle Supernove

INTRODUZIONE

Nell’articolo l’autore esplora come i modelli scientifici tridimensionali (3D) stiano rivoluzionando lo studio delle supernove, con particolare enfasi sulle supernove a collasso del nucleo (cc-SNe). Queste esplosioni stellari, tra gli eventi più energetici dell’universo, giocano un ruolo cruciale nell’evoluzione delle galassie, contribuendo alla distribuzione degli elementi chimici necessari alla formazione di nuove stelle e pianeti. Tuttavia, la comprensione dei processi fisici che guidano queste esplosioni è estremamente complessa a causa della loro imprevedibilità e della difficoltà di osservare direttamente le fasi che precedono e seguono immediatamente il collasso del nucleo.

Gli scienziati affrontano queste sfide utilizzando modelli 3D avanzati che, grazie alla potenza dei supercomputer, permettono di simulare dettagliatamente l’evoluzione delle supernove dal collasso del nucleo fino alla propagazione dell’onda d’urto attraverso l’ambiente circostante. Questi modelli non solo riproducono le condizioni fisiche e chimiche delle stelle progenitrici, ma consentono anche di collegare le strutture osservate nei resti di supernova ai processi fisici che le hanno generate.

Un caso di studio significativo è rappresentato dalla supernova SN 1987A, la cui esplosione è stata modellata in 3D, rivelando dettagli cruciali sulla sua asimmetria e sulla stella progenitrice.

Le Sfide per la Comprensione delle Supernove

Nonostante il ruolo cruciale che le supernove rivestono in numerosi campi dell’astrofisica, comprenderne i processi fisici è una sfida estremamente complessa. Gli eventi catastrofici, caratterizzati da esplosioni violente, sono infatti difficilmente prevedibili: non possiamo mai sapere con esattezza quando e dove si verificheranno e l’incertezza ci impedisce di catturare con precisione

Figura 2. La supernova extragalattica SN 2014C osservata in banda ottica e nei raggi X. L’immagine principale ottenuta con lo Sloan Digital Sky Survey (SDSS) mostra la galassia a spirale NGC 7331. Gli inserti mostrano le osservazioni del Chandra X-ray Observatory dell'insolita supernova SN 2014C.Crediti: immagini a raggi X: NASA, CXC, CIERA, R.Margutti et al.;immagine ottica: SDSS.
Figura 2. La supernova extragalattica SN 2014C osservata in banda ottica e nei raggi X. L’immagine principale ottenuta con lo Sloan Digital Sky Survey (SDSS) mostra la galassia a spirale NGC 7331. Gli inserti mostrano le osservazioni del Chandra X-ray Observatory dell’insolita supernova SN 2014C.Crediti: immagini a raggi X: NASA, CXC, CIERA, R.Margutti et al.;immagine ottica: SDSS.

i momenti più cruciali, sia immediatamente prima che subito dopo l’esplosione.
Inoltre, i processi che avvengono all’interno di una supernova sono nascosti dagli strati esterni della stella, rendendo impossibile osservare direttamente le fasi che portano al collasso del nucleo e allo sviluppo dell’esplosione. Un limite che condiziona fortemente la nostra capacità di cogliere quei dettagli fondamentali che potrebbero svelarci i segreti più profondi di questi straordinari fenomeni.
Come se non bastasse, le supernove sono anche eventi rari nella nostra galassia e, negli ultimi quattro secoli, non ne abbiamo osservate direttamente. Per studiarle, dobbiamo quindi rivolgere lo sguardo a galassie lontane, dove queste esplosioni appaiono come minuscoli punti di luce distanti, impossibili da risolvere nei dettagli (Figura 2). Siamo perciò costretti ad estrarre informazioni cruciali da ciò che possiamo osservare, come le curve di luce che descrivono l’evoluzione della luminosità o gli spettri elettromagnetici che forniscono indizi sulle proprietà fisiche e chimiche del materiale che emette la radiazione. Tuttavia, interpretare questi dati è un compito complesso, e non sempre porta a risultati definitivi.
Insomma non mancano difficoltà ci privano quindi di informazioni essenziali per comprendere i meccanismi dell’esplosione e la natura della stella progenitrice. Infatti i giorni e le settimane immediatamente successivi a una supernova sono un periodo di straordinaria importanza: in quel momento, i suoi detriti conservano ancora in modo nitido le tracce della stella che è esplosa e dei processi che ne hanno guidato l’esplosione, offrendo una rara opportunità per studiarne la natura in profondità.

Le Informazioni Codificate nei Resti delle Supernove

L’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Ma c’è speranza: anche se non possiamo osservare nel dettagli o le complesse fasi di evoluzione delle supernove, i loro resti, noti come resti di supernova (indicati con l’acronimo SNR), ci raccontano una storia affascinante e dettagliata, anche centinaia o migliaia di anni dopo l’esplosione. Gli SNR appaiono come splendide sorgenti nebulose visibili in diverse bande spettrali, dal radio al visibile fino alla banda X, rivelando una natura complessa e intricata (Figura 3). Utilizzando tecniche avanzate come la spettroscopia, gli astronomi possono analizzarne le strutture e svelare informazioni sulle proprietà fisiche e chimiche del materiale espulso e del mezzo circostante investito dall’esplosione.

Figura 3. (a) Resto di supernova Cassiopeia A ad una distanza di 11 mila anni luce dalla Terra. Crediti: NASA, CXC, SAO (in banda X), NASA, ESA, STScI (in luce visibile); NASA, ESA, CSA, STScI, JPL, CalTech, Milisavljevic et al. (in banda infrarossa). Processamento delle immagini: NASA/CXC/SAO/J. Schmidt e K. Arcand. (b) Resto di supernova 1987A ad una distanza di circa 168 mila anni luce. Crediti: NASA, ESA, CSA, M. Matsuura (Università di Cardiff), R. Arendt (GSFC e Università del Maryland), C. Fransson (Università di Stoccolma). (c) Resto di supernova Cygnus Loop ad una distanza di 2400 anni luce. Crediti: NASA/JPL-Caltech.
Figura 3. (a) Resto di supernova Cassiopeia A ad una distanza di 11 mila anni luce dalla Terra. Crediti: NASA, CXC, SAO (in banda X), NASA, ESA, STScI (in luce visibile); NASA, ESA, CSA, STScI, JPL, CalTech, Milisavljevic et al. (in banda infrarossa). Processamento delle immagini: NASA/CXC/SAO/J. Schmidt e K. Arcand. (b) Resto di supernova 1987A ad una distanza di circa 168 mila anni luce. Crediti: NASA, ESA, CSA, M. Matsuura (Università di Cardiff), R. Arendt (GSFC e Università del Maryland), C. Fransson (Università di Stoccolma). (c) Resto di supernova Cygnus Loop ad una distanza di 2400 anni luce. Crediti: NASA/JPL-Caltech.

Una parte della complessità osservata nei resti delle supernove a collasso del nucleo deriva da strutture interne che si sono sviluppate a seguito dell’esplosione. Esse nascono da instabilità idrodinamiche e magnetoidrodinamiche, causate da processi caotici (stocastici in linguaggio scientifico) che governano l’evoluzione dell’esplosione e la propagazione dell’onda d’urto attraverso l’interno della stella. Un esempio emblematico è il resto di supernova Cassiopea A, uno dei più studiati nella nostra Galassia, con un’età stimata di circa 350 anni (Figura 3a). La sua morfologia, caratterizzata da asimmetrie (o anisotropie) su grande scala e un tasso di espansione irregolare, suggerisce che l’esplosione non è stata un evento simmetrico, ma un processo dinamico e caotico che ha lasciato un’impronta indelebile nella sua struttura.
Le fasi finali della vita di una stella sono un periodo turbolento e poco compreso, ma i resti di supernova possono aiutarci a svelarne i segreti. Studi recenti hanno mostrato che la geometria delle anisotropie post-esplosione è strettamente legata alla struttura di densità della stella prima del collasso. Ciò significa che osservando come si distribuiscono i detriti dell’esplosione, possiamo ricostruire la struttura in densità che aveva la stella al momento del collasso e risalire alla sua stessa natura.
Le interazioni tra i resti di supernova e il mezzo circostante offrono inoltre preziose informazioni sull’evoluzione delle stelle progenitrici e sul loro impatto sull’ambiente galattico. Un esempio straordinario è rappresentato dalla supernova osservata nel febbraio del 1987 nella Grande Nube di Magellano, una piccola galassia satellite della nostra. Questa supernova, nota come SN 1987A, è stata un’opportunità unica per gli astronomi, poiché la sua relativa vicinanza ci ha permesso di seguire nel dettaglio la trasformazione di una supernova in un resto interagente con il mezzo circostante (Figura 3b). Le osservazioni di SN 1987A hanno rivelato strutture ad anello spettacolari, formate dall’interazione dell’esplosione con il mezzo circumstellare costituito da una densa regione HII composta di gas e polveri e modellata dai potenti venti stellari nei millenni precedenti l’esplosione. Sono quindi indizi fondamentali sulla storia della stella progenitrice.

In altri resti di supernova, come la Nebulosa Velo (o Cygnus Loop), che secondo le stime del satellite Gaia ha un’età di circa 20,000 anni, le osservazioni hanno rivelato chiari segni dell’interazione dell’onda d’urto con dense nubi interstellari (Figura 3c). In resti di supernova maturi come la Nebulosa Veloquesti dettagli offrono quindi un’opportunità unica per ricostruire la struttura del mezzo interstellare circostante la stella esplosa, altrimenti invisibile ai nostri telescopi. Quando invece questi dettagli emergono nei resti di supernova più giovani, che interagiscono con le disomogeneità del mezzo circumstellare come SN 1987A, ci permettono di ricostruire la complessa storia della perdita di massa della stella progenitrice e di ottenere una comprensione più approfondita delle ultime fasi della sua vita.
I resti di supernova quindi sono veri e propri scrigni di preziose informazioni. Studiarli ci consente di comprendere meglio i complessi processi che portano una stella massiccia a esplodere in una supernova, offrendoci informazioni cruciali su come queste esplosioni plasmino l’ambiente interstellare e influenzino l’evoluzione delle galassie. In un Universo dove tutto è connesso, queste esplosioni sono i motori che guidano il ciclo di evoluzione delle stelle, con un profondo impatto sulla struttura del mezzo interstellare e sulla dinamica e l’energetica della Galassia.

 

Come Estrarre Informazioni dalle Supernove e dai loro Resti

Studiare le supernove e i loro resti è quindi come intraprendere un affascinante viaggio nel tempo e nello spazio, esplorando eventi catastrofici che modellano la struttura delle galassie. Ma come possiamo ottenere informazioni dettagliate su questi fenomeni esplosivi e sulle stelle che li hanno generati? È qui che entrano in gioco i modelli scientifici tridimensionali (3D), strumenti che ci permettono di creare, con l’ausilio di supercomputer, simulazioni straordinarie e svelare i segreti di queste esplosioni stellari e delle stelle da cui hanno avuto origine.
Le osservazioni astronomiche sono il nostro primo contatto diretto con le supernove (Figura 3). Grazie a immagini spettacolari in diverse lunghezze d’onda, come raggi X, onde radio e luce visibile, insieme a dati che rivelano la luminosità, la dinamica e la composizione chimica del materiale espulso, possiamo osservare l’evoluzione di una supernova e i detriti che lascia dietro di sé. A partire da queste osservazioni, vengono sviluppati modelli scientifici che, attraverso la risoluzione di complessi sistemi di equazioni, descrivono i processi fisici e le loro interazioni responsabili del fenomeno in esame.
Fino a circa dieci anni fa, i modelli scientifici per descrivere le supernove erano limitati e non riuscivano a seguire l’intera sequenza di eventi in modo autoconsistente, dal collasso del nucleo della stella fino alla propagazione dell’onda d’urto attraverso il mezzo circumstellare e interstellare.

Figura 4. Schema evolutivo dalla stella progenitrice (supergigante rossa) alla supernova ed al resto di supernova. I modelli non sono in scala. Crediti: S. Orlando / INAF Palermo.
Figura 4. Schema evolutivo dalla stella progenitrice (supergigante rossa) alla supernova ed al resto di supernova. I modelli non sono in scala. Crediti: S. Orlando / INAF Palermo.

Nel corso degli anni, diversi modelli si sono specializzati in specifiche fasi dell’esplosione: alcuni si concentravano sul collasso del nucleo, altri sull’evoluzione della luminosità della supernova (nota come curva di luce), e altri ancora sulla propagazione dell’onda d’urto nell’ambiente circostante, basandosi però su ipotesi arbitrarie riguardo alla struttura iniziale del materiale espulso. I modelli, non essendo integrati tra loro, rendevano difficile confrontare i risultati con le osservazioni reali, limitando così la nostra capacità di collegare le strutture osservate nei resti di supernova alla proprietà delle supernove che li hanno generati e agli stadi finali della vita di una stella di grande massa.

Oggi, grazie ai progressi nella modellistica e alla potenza dei supercomputer raggiunti negli ultimi dieci anni, siamo finalmente in grado di costruire simulazioni 3D che seguono ogni fase dell’esplosione, dal collasso iniziale del nucleo fino all’espansione dei detriti stellari attraverso il mezzo circostante. In alcuni casi, è persino possibile collegare l’evoluzione della supernova e del suo resto all’evoluzione della stella progenitrice (Figura 4). I nuovi modelli integrati ci permettono di confrontare direttamente le simulazioni con le osservazioni, svelando i misteri nascosti dietro questi eventi titanici e consentendoci di collegare le caratteristiche osservate nei resti di supernova ai processi fisici che guidano l’esplosione di una supernova, alla natura della stella progenitrice e alla struttura del mezzo circumstellare, che riflette le fasi finali dell’evoluzione della stella stessa.

Un Nuovo Approccio per Modellare le Supernove in 3D

Circa dieci anni fa, è stato introdotto un nuovo approccio rivoluzionario per lo sviluppo di modelli 3D che riescono a integrare e unificare gran parte delle informazioni disponibili sulle supernove e i loro resti. Grazie all’uso di potenti supercomputer, composti da migliaia di processori che lavorano in parallelo, gli scienziati sono riusciti a creare modelli fisici 3D che ricostruiscono l’ambiente fortemente dinamico e turbolento della stella nei periodi precedenti al collasso del nucleo (Figura 5a), l’intero processo di esplosione della supernova (Figura 5b) e l’espansione successiva dei detriti stellari attraverso il mezzo circostante disomogeneo e magnetizzato (Figura 5c-d).
Alcuni di questi modelli sono in grado di seguire l’intera evoluzione di una stella massiccia, dalla sua formazione iniziale, attraverso le fasi di supergigante rossa o blu, fino al collasso del nucleo che innesca la supernova. Sebbene queste simulazioni siano attualmente possibili solo in una dimensione a causa della complessità dei calcoli, esse offrono comunque un livello di dettaglio senza precedenti, tenendo conto di variabili fondamentali come la distribuzione della densità, la pressione, la velocità di rotazione e la composizione chimica della stella. Tali modelli di evoluzione stellare servono a descrivere le condizioni fisiche in cui si trova la stella al momento del collasso.

 

Figura 5. (a) Modello 3D che descrive la struttura della stella nelle regioni prossime al nucleo nei momenti precedenti il suo collasso. Crediti: Yoshida et al. (2021, ApJ 908, 44). (b) Modello 3D che descrive l’evoluzione di una supernova a collasso del nucleo pochi secondi dopo il collasso. Crediti: T.-H. Janka (MPA, Garching, Germania). (c) e (d) Modello 3D che descrive l’evoluzione dalla supernova al suo resto. I due pannelli mostrano la distribuzione di materiale ricco di ferro 350 anni e 2000 anni dopo l’esplosione. Crediti: Orlando et al. (2021, A&A 645, A66).
Figura 5. (a) Modello 3D che descrive la struttura della stella nelle regioni prossime al nucleo nei momenti precedenti il suo collasso. Crediti: Yoshida et al. (2021, ApJ 908, 44). (b) Modello 3D che descrive l’evoluzione di una supernova a collasso del nucleo pochi secondi dopo il collasso. Crediti: T.-H. Janka (MPA, Garching, Germania). (c) e (d) Modello 3D che descrive l’evoluzione dalla supernova al suo resto. I due pannelli mostrano la distribuzione di materiale ricco di ferro 350 anni e 2000 anni dopo l’esplosione. Crediti: Orlando et al. (2021, A&A 645, A66).

Una volta descritto il collasso del nucleo, i modelli 3D si concentrano sulle fasi successive dell’esplosione, simulando in dettaglio i moti turbolenti, la formazione di nuovi elementi attraverso la nucleosintesi esplosiva, la propagazione dell’onda d’urto attraverso l’interno della stella e, infine, le interazioni del materiale espulso a seguito dell’esplosione con l’ambiente circumstellare ed interstellare. Sono modelli complessi che tengono conto di fenomeni specifici come il decadimento radioattivo, la formazione di instabilità idrodinamiche e magnetoidrodinamiche causa delle asimmetrie osservate nei resti di supernova.
Un altro aspetto affascinante di questi modelli è la loro capacità di descrivere in dettaglio l’espansione dei resti di supernova in ambienti non uniformi ed influenzati dal campo magnetico, come il mezzo circumstellare o interstellare. I processi tengono conto di fenomeni che influenzano la radiazione emessa dal plasma, come il decadimento radioattivo degli isotopi, le interazioni con i campi magnetici e gli effetti causati dall’accelerazione di raggi cosmici ai fronti d’urto delle supernove.

Modello 3D magnetoidrodinamico del resto di supernova SN 1987A
Figura 6. Modello 3D magnetoidrodinamico del resto di supernova SN 1987A. (a) Distribuzione di densità del materiale caldo responsabile di emissione in banda X derivata dal modello. (b) Emissione in banda X prevista dal modello nel 2013. Il cerchio bianco è un riferimento che indica la posizione della parte più brillante dell’anello. (c) Osservazione in banda X ottenuta con il Chandra X-ray Telescope nel 2013. L’anello bianco è uguale a quello mostrato nel pannello b. (d) Confronto tra modello ed osservazione per rivelare la presenza di una stella di neutroni al centro di SN 1987A. L’immagine della stella di neutroni è una rappresentazione artistica. Crediti: Orlando et al. (2015, ApJ810, 168; 2020, A&A636, A22); Greco et al. (2022, ApJ931,132).

Una volta sviluppati, i modelli 3D vengono attentamente confrontati con osservazioni reali. Gli scienziati regolano i parametri fisici dei modelli per far sì che le simulazioni rispecchino il più fedelmente possibile le osservazioni, permettendo di interpretare con maggiore precisione le caratteristiche osservate nei resti. La forza di un simile approccio risiede quindi nella capacità di identificare i processi fisici responsabili della formazione delle strutture osservate nei resti di supernova e nella possibilità di fare previsioni da verificare con future osservazioni. Un processo di raffinamento essenziale per approfondire la nostra comprensione dei fenomeni coinvolti, dalla variazione di luminosità delle supernove fino alla distribuzione della materia nei loro resti. Grazie a queste simulazioni, possiamo ottenere preziose informazioni su come e perché una supernova esplode, sulla storia evolutiva della stella progenitrice, sui meccanismi che causano la perdita di massa nelle fasi che precedono l’esplosione, e su come gli elementi chimici prodotti si diffondono nell’Universo.
Un esempio significativo dell’efficacia di questo approccio è rappresentato dagli studi recenti sulla supernova SN 1987A (Figura 6). Utilizzando un avanzato modello 3D che traccia l’intero percorso evolutivo dalla stella progenitrice, passando per il collasso del nucleo, fino all’interazione dei detriti della supernova con l’ambiente circostante, gli scienziati sono riusciti a decodificare l’enorme quantità di dati raccolti fin dai primi momenti successivi all’esplosione.

In un certo senso, il loro lavoro è paragonabile a quello di un archeologo che, grazie a strumenti come la Stele di Rosetta, riesce a decifrare complessi geroglifici per rivelare storie antiche. Così, utilizzando il modello, gli astronomi sono riusciti a ricostruire gran parte della storia della stella progenitrice e delle fasi successive al collasso del suo nucleo. Il modello ha permesso di confermare che la stella progenitrice era il risultato della fusione di due stelle massicce, avvenuta circa 20,000 anni prima del collasso. Inoltre, il modello ha permesso di determinare con precisione le proprietà fisiche e geometriche della supernova, rivelando un’esplosione fortemente asimmetrica e fornendo preziosi indizi sui processi fisici che l’hanno guidata. È stato possibile anche ricostruire la geometria e la distribuzione della densità del mezzo circumstellare, chiarendo il processo di perdita di massa della stella nei millenni precedenti l’esplosione.

Infine, questi modelli hanno portato all’identificazione di un oggetto compatto al centro del resto di supernova: una stella di neutroni, il residuo compatto della stella che è esplosa.
La modellistica 3D sta dunque aprendo nuove frontiere nella comprensione delle supernove, delle loro stelle progenitrici e dell’impatto di questi eventi sull’Universo.

La Collaborazione Internazionale e gli Strumenti Usati

Lo sviluppo della nuova metodologia è frutto di un’importante collaborazione internazionale tra alcuni dei più prestigiosi istituti di ricerca situati in Europa, Stati Uniti e Asia. L’Italia, con l’INAF (Istituto Nazionale di Astrofisica) e l’Università degli Studi di Palermo, ha giocato un ruolo chiave, insieme alla Germania, rappresentata dal Max-Planck-Institut fürAstrophysik, e al Giappone, con l’istituto per la ricerca scientifica nazionale RIKEN. Al centro di questa rete globale c’è l’INAF-Osservatorio Astronomico di Palermo, promotore e coordinatore dell’intero progetto.
Ma cosa rende questo lavoro così straordinario? Le simulazioni numeriche necessarie per comprendere le esplosioni stellari sono tra le più complesse mai realizzate, richiedendo milioni di ore di calcolo su supercomputer dotati di decine di migliaia di processori. Questi calcoli titanici sono possibili solo grazie a infrastrutture internazionali di calcolo ad alte prestazioni (HPC), come quelle fornite sino a qualche anno fa dalla Partnership for Advanced Computing in Europe (PRACE). Si tratta di un programma europeo che unisce la potenza di calcolo di 25 paesi, e attraverso di esso, l’INAF di Palermo ha ottenuto circa 60 milioni di ore di calcolo su due dei più potenti supercomputer: il Mare Nostrum in Spagna presso il Barcelona Supercomputing Center, e il Marconi in Italia presso il CINECA (Figura 7). Grazie a queste risorse, è stato possibile per la prima volta descrivere in modo dettagliato e coerente l’evoluzione del materiale espulso da due delle supernove più famose: la 1987A e quella che ha originato il resto di supernova Cassiopea A. Simulazioni pionieristiche che non solo hanno permesso di comprendere meglio l’interazione tra il materiale stellare e il mezzo circumstellare, ma hanno anche aperto la strada a nuovi sviluppi nella ricerca astrofisica.

Alcuni tra i supercalcolatori usati per il progetto
Figura 7. Alcuni tra i supercalcolatori usati per il progetto. (a) MareNostrum ospitato presso il BarcelonaSupercomputing Center (BSC, Spagna). (b) Marconi ospitato presso il CINECA (Italia). (c) Cobra ospitato presso il Max Planck Computing and Data Facility (MPCDF, Germania).(d) Il Cray XC50 ospitatopresso il Center for Computational Astrophysics (CfCA), National Astronomical Observatory of Japan (NAOJ, Giappone).

Nel corso degli anni, altri centri di calcolo HPC sono stati coinvolti nel progetto (Figura 7). Tra questi i supercomputer giapponesi XC40 (YITP, Università di Kyoto), Cray XC50 (Center for Computational Astrophysics, National Astronomical Observatory of Japan) e HOKUSAI (RIKEN), oltre ai sistemi HPC Cobra e Draco del Max Planck Computing and Data Facility (MPCDF, Germania), i quali hanno consentito, negli ultimi anni, di completare il grosso del lavoro di accoppiamento tra i modelli delle stelle progenitrici, delle supernove e dei loro. Ora, si è passati ad applicare i modelli per interpretare le osservazioni astronomiche, offrendo nuove e preziose informazioni sulla fisica delle supernove e sulle fasi finali di evoluzione delle stelle di grande massa. E la ricerca continua: gli scienziati stanno lavorando su obiettivi ambiziosi, come la creazione di modelli 3D dettagliati delle stelle progenitrici e la simulazione accurata del mezzo circumstellare creato in modo coerente dalle progenitrici, senza dimenticare l’importanza di descrivere con precisione i processi radiativi ed emissivi che avvengono durante e dopo l’esplosione.
Alcuni dei codici numerici utilizzati in questo progetto sono open source e accessibili a tutta la comunità scientifica internazionale. Tra questi, spiccano il codice PLUTO made in Italy per la simulazione dei plasmi astrofisici, sviluppato dall’Università di Torino in collaborazione con l’INAF di Torino e il CINECA (ancora una volta l’Italia protagonista); il codice SNEC, che descrive le fasi successive al collasso del nucleo di una stella; e MESA, un codice che traccia l’intera evoluzione di una stella dalla nascita fino al collasso. Per chi fosse interessato, alla fine di questo articolo nei riferimenti è disponibile il link per il download di tali strumenti un modo per cimentarsi nella modellazione di una stella, una supernova o l’interazione dell’esplosione con il mezzo ambiente.

Conclusione

In conclusione si tratta di un lavoro che richiede uno sforzo immenso da parte dei ricercatori, sia nello sviluppo dei modelli che nell’implementazione di nuovi moduli fisici per migliorarli. È un processo lungo e meticoloso, che richiede anni e che comprende lo sviluppo, il test e la validazione dei codici e dei modelli. Inoltre, le risorse computazionali necessarie per le simulazioni vengono acquisite attraverso bandi competitivi, che si tengono solitamente un paio di volte l’anno. Se la proposta viene accettata da un comitato scientifico internazionale, i ricercatori hanno circa un anno di tempo per usare le risorse acquisite e completare il progetto. In media, dal momento della presentazione della proposta fino alla conclusione delle simulazioni e della loro analisi, possono passare da due a quattro anni.
Così, grazie a una collaborazione che abbraccia il globo e a strumenti all’avanguardia, stiamo imparando a conoscere meglio le supernove, svelando i segreti nascosti nelle stelle più massicce dell’Universo.

Uno Sguardo al Futuro

Alla luce dei risultati che si sono ottenuti, possiamo dire che i modelli scientifici 3D non solo ci stanno aiutando a comprendere meglio le supernove e le stelle che le hanno generate, ma rappresentano anche strumenti potentissimi per l’analisi e l’interpretazione dei dati. In un’epoca in cui l’acquisizione di dati di alta qualità è in continua espansione, grazie a strumenti all’avanguardia come il James Webb Space Telescope (JWST) e il satellite per l’osservazione in raggi X XRISM, e alle future infrastrutture come lo Square Kilometre Array (SKA), il Cherenkov Telescope Array (CTA), il Line Emission Mapper (LEM) e il telescopio in raggi X Athena, l’utilizzo di modelli avanzati diventa essenziale. Questi modelli sono indispensabili per l’analisi e l’interpretazione dei dati astronomici, colmando così il divario tra ciò che osserviamo e ciò che possiamo comprendere.
In più siamo ora in grado di formulare previsioni su eventi ancora da venire. Ad esempio, possiamo ipotizzare come le future supernove interagiranno con il mezzo circumstellare della stella progenitrice, come appariranno i resti di una supernova tra decine o centinaia di anni, o come l’esplosione potrebbe influenzare la formazione di nuove stelle nelle vicinanze. In pratica, i modelli 3D ci offrono una finestra unica per esplorare la complessa fisica delle supernove, trasformando dati intricati in conoscenza approfondita. Infine, questo approccio ci permette di ricostruire la storia delle stelle che terminano la loro vita con una supernova, aiutandoci a svelare alcuni dei misteri più affascinanti dell’Universo.

Approfondimenti

– Modelli scientifici interattivi di resti di supernova
https://saorlando4.artstation.com/albums/10358073

– Documentario sul legame tra stelle massicce, supernove e loro resti(30 minuti)
https://www.youtube.com/watch?v=YOvSKE5yiko

– Articoli scientifici per approfondimento
– Miceli, M., Orlando, S., Burrows, D. N., et al. 2019, NatAs, 3, 236
– Orlando, S., Miceli, M., Pumo, M. L., & Bocchino, F. 2015, ApJ, 810, 168
– Orlando, S., Ono, M., Nagataki, S., et al. 2020, A&A, 636, A22
– Orlando, S., Wongwathanarat, A., Janka, H. T., et al. 2021, A&A, 645, A66
– Greco, E., Miceli, M., Orlando, S., et al. 2021, ApJL, 908, L45
– Greco, E., Miceli, M., Orlando, S., et al. 2022, ApJ, 931, 132
– Ustamujic, S., Orlando, S., Greco, E., et al. 2021, A&A, 649, A14

– Codici numerici per simulazioni astrofisiche
– Codice PLUTO per plasmi astrofisici: https://plutocode.ph.unito.it
– Codice SNEC per simulare supernove: https://stellarcollapse.org/index.php/SNEC.html
– Codice MESA per evoluzione stellare: https://docs.mesastar.org/en/24.08.1/

[/swpm_protected]

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA

VST-SMASH in un Colpo Solo: Galassie Vicine e Profondità

Immagini a tre colori di NGC 5236 (sinistra), IC 5332 (destra) e NGC 5253 (riquadro con bordo bianco). Credit: C. Tortora/VST-SMASH.
Immagini a tre colori di NGC 5236 (sinistra), IC 5332 (destra) e NGC 5253 (riquadro con bordo bianco). Credit: C. Tortora/VST-SMASH.

ABSTRACT

Volete vedere un’immagine in cui galassie vicine ma con estrema profondità? Grazie al programma VST-SMASH, questo è finalmente possibile. Con un solo colpo d’occhio, possiamo osservare dettagli delle galassie più vicine e scoprire nuove strutture in quelle più lontane, grazie alla combinazione di ampie osservazioni del cielo e una risoluzione senza precedenti. Il VST (VLT Survey Telescope) ci regala immagini mozzafiato di galassie iconiche come NGC 5236, la “Galassia Girandola del Sud”, ma anche scorci di mondi lontanissimi, come la galassia spirale ESO 499-37, situata a 45 milioni di anni luce. Immergetevi in un viaggio attraverso l’Universo, dove l’antico e il remoto si intrecciano in una danza di luce che rivela i segreti dell’evoluzione galattica.

Immagini profonde di galassie vicine e grandi, lo facciamo col VST in un sol colpo

l’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Sono passati circa 100 anni dalla notte del 5 ottobre 1923, quando l’astronomo americano Edwin Hubble pose fine al dibattito sull’esistenza di galassie al di fuori della Via Lattea. Scoprì che Andromeda, la Grande Nebulosa di Andromeda, non era una nebulosa all’interno della nostra galassia, ma una galassia separata, una vera a propria galassia. Presto vennero scoperte molte altre galassie: compagne della Via Lattea, di tutte le forme e dimensioni, e poi galassie sempre più lontane. Gli astronomi iniziarono a catalogarle, creando elenchi che contenevano poche migliaia di galassie fino agli anni ’70, per poi passare a decine/centinaia di migliaia negli anni ’90, fino ai milioni e miliardi di oggi. Stiamo vivendo l’era dei Big Data, gli anni dell’astronomia dei grandi numeri, ottenuti grazie a telescopi con ampi campi di vista come Euclid e Rubin, e possiamo osservare galassie nelle primissime fasi della storia dell’universo con i telescopi Hubble e James Webb.

Per la maggior parte della mia carriera, mi sono occupato dell’analisi statistica di grandi campioni di galassie: determinandone le masse, le dimensioni, le distanze, le luminosità e i moti stellari. Lavoravo su numeri in tabelle, che potevo studiare e analizzare, per spiegare la fisica dietro le correlazioni tra i parametri. Con grandi campioni di galassie di diverse proprietà, masse e distanze, attraverso il confronto con modelli teorici e simulazioni cosmologiche, gli astrofisici possono vincolare processi fisici che hanno contribuito alla loro formazione: gli effetti della regina incontrastata, la gravità, e poi le interazioni e le fusioni (merging in inglese) con altre galassie, l’ambiente galattico, la formazione stellare e processi come i venti di Supernovae o gli energetici getti dei nuclei galattici attivi, che possono incentivare o bloccare la formazione stellare. E’ questo che fanno molti astrofisici che lavorano per capire la formazione e l’evoluzione delle galassie. Altri, storicamente, si sono concentrati su galassie specifiche, vicine ed estese nel cielo, raccogliendo una moltitudine di dati per studiarle in dettaglio, con la massima risoluzione spaziale e spettrale e utilizzando dati di elevata qualità. Queste galassie, vicine, grandi e iconiche, non sono solo identificativi anonimi in un catalogo o nomi assegnati attraverso le loro coordinate celesti, ma hanno nomi veri e propri, degni di chi è importante, speciale, unico: Galassia Triangolo, Galassia Vortice, Galassia Sigaro, Galassia di Andromeda o Galassia Sombrero.

In passato era possibile ottenere dati limitati per molte galassie e dati dettagliati solo per poche. Il futuro, però, ci permetterà di unire questi due approcci e ottenere dati di alta qualità per un numero enorme di galassie. Con i dati del telescopio Euclid e la survey LSST del telescopio Rubin, potremo analizzare campioni di miliardi di galassie lontane, piccole e poco risolte nelle immagini, e centinaia di migliaia di galassie vicine, risolte nei minimi dettagli come mai prima d’ora.

Euclid osserverà un terzo dell’intera volta celeste (circa 14.000 gradi quadrati). Grazie alla combinazione dell’enorme area del cielo osservata, alla strategia osservativa e alla risoluzione spaziale, fornirà una visione unica dell’universo e delle galassie, dalle più vicine alle più lontane, con una qualità delle immagini senza precedenti. Combinando l’approccio statistico e quello dettagliato su singole galassie, potremo studiare decine di migliaia di galassie vicine in modo molto dettagliato, rispondendo a domande ancora irrisolte sull’evoluzione galattica: in quali condizioni ambientali si formano le galassie, come evolvono, come si formano e vengono accresciute le stelle al loro interno, come le interazioni con altre galassie, i venti di Supernova o i getti dei nuclei galattici attivi impattano la formazione del gas in stelle, qual è la natura della materia oscura, una componente di materia elusiva e sconosciuta che sembra rappresentare circa l’80% della materia nell’universo, ma che non abbiamo ancora osservato direttamente.

Aspettando i dati che Euclid e Rubin raccoglieranno nel prossimo futuro, abbiamo avviato il programma osservativo VST-SMASH ( Survey of Mass Assembly and StructureHierarchy ) per osservare, con i filtri fotometrici g (green, verde, centrato sui 4800 Angstrom), r (red, rosso, centrato sui 6300 Angstrom) e i (near infrared, vicino infrarosso, centrato sui 7500 Angstrom) un campione di 27 galassie vicine, entro circa 30 milioni di anni luce, nell’emisfero sud, che saranno osservate da Euclid nei prossimi anni. Con circa 2 ore e mezzo di osservazioni nelle bande g  e r, grazie alle splendide condizioni atmosferiche al Cerro Paranal in Cile, e al grande campo di vista di 1 grado quadrato (300 volte maggiore del campo di vista della camera ACS del telescopio Hubble), il VLT Survey Telescope (VST) riesce ad osservare galassie vicine e l’ambiente attorno a loro in un sol colpo. Studieremo le popolazioni stellari, dalle regioni più luminose a quelle più deboli e diffuse, fino alle periferie galattiche, catalogando e studiando ammassi stellari e galassie nane molto deboli, compagne delle galassie più grandi. Le galassie nane sono i mattoni dell’evoluzione galattica e studiandone le proprietà stellari e il contenuto di materia oscura possiamo capire come avvengono i processi di merging e vincolare la natura della materia oscura.

All’interno del programma VST-SMASH, osserveremo galassie di diversa massa e tipologia, dalle nane irregolari fino alle spirali più luminose e massive, simili alla nostra Via Lattea. Il nostro campione include tre galassie nane irregolari: NGC 3109, Sestante A e la galassia nana Antlia (anche chiamata Galassia Nana della Macchina Pneumatica), situate ad una distanza di circa 4.3 milioni di anni luce (Figura 1). Fanno parte del Gruppo Locale, che contiene anche la nostra Via Lattea. Assieme a Sestante B e Leo P fanno parte della stessa associazione di galassie, e si dispongono lungo una struttura molto allungata e filamentosa. Sono talmente vicine che usando telescopi da Terra come il VST, riusciamo a risolvere le stelle e a studiarne le proprietà fotometriche. Nel genere di galassie, osserviamo una predominanza di stelle blu (e quindi più giovani) al centro, e invece nelle regioni più esterne, nell’alone galattico, dominano le giganti rosse. Sestante A e Antlia hanno delle peculiari forme squadrate. Antlia ha una massa stellare di circa 2-4 milioni di masse solari, Sestante A ha una massa di 200 milioni di masse solari, mentre NGC 3109 ha una massa 10 volte maggiore di Sestante A e 1000 volte superiore a quella di Antlia.

Figura 1. Immagini a tre colori di NGC 3109 (sinistra), Sestante A (destra) e Antlia (riquadro con bordo bianco) ottenute combinando le immagini nelle bande fotometriche g, r e i del VST. Credit: C. Tortora/VST-SMASH.
Figura 1. Immagini a tre colori di NGC 3109 (sinistra), Sestante A (destra) e Antlia (riquadro con bordo bianco) ottenute combinando le immagini nelle bande fotometriche g, r e i del VST. Credit: C. Tortora/VST-SMASH.

Passiamo da galassie nane ai mostri del nostro campione, due stupende galassie a spirale viste di faccia (Figura 2). NGC 5236 o M83, una di quelle che ha un bel nome proprio, è la Galassia Girandola del Sud.  È situata a 15 milioni di anni luce, è al centro di un gruppo di galassie vicino al nostro, e ha una massa stellare di circa 200 miliardi di masse solari, mille volte maggiore quella di Sestante A. E poi IC 5332, a circa 30 milioni di anni luce da noi, ha una massa di circa 20 miliardi di masse solari, si fa notare per la sua complessa struttura di bracci a spirale. Entrambe le galassie si contraddistinguono per una caratteristica comune a tutte le galassie a spirale, e cioè un nucleo centrale (bulge) rosso (costituito da stelle più vecchie e con più metalli) e dei bracci a spirale dove iniziano ad abbondare stelle più blu, più giovani, dove sta avvenendo la trasformazione del gas in stelle; il colore blu accentuato è evidente soprattutto nel caso di IC 5332.  Tra le galassie che sto presentando, c’è anche NGC 5253 (Figura 2), è una delle compagne di NGC 5236, è anch’essa una galassia irregolare con un’elevata formazione stellare. La sua massa è intermedia tra quella di Sestante A e NGC 3109, ma è molto più distante e quindi, in maniera simile a NGC 5236, NGC 5253 e il resto delle galassie nel nostro campione, non riusciamo a risolvere le stelle al suo interno, ma possiamo studiarne le proprietà solo attraverso la luce diffusa.

Figura 2. Immagini a tre colori di NGC 5236 (sinistra), IC 5332 (destra) e NGC 5253 (riquadro con bordo bianco). Credit: C. Tortora/VST-SMASH.
Figura 2. Immagini a tre colori di NGC 5236 (sinistra), IC 5332 (destra) e NGC 5253 (riquadro con bordo bianco). Credit: C. Tortora/VST-SMASH.

Il grande campo di vista ci consente di avere in regalo immagini di altre galassie che non fanno parte del nostro campione. In Figura 3 mostriamo le immagini di due galassie di esempio osservate nel campo di NGC 3109, due galassie a spirale molto più distanti: ESO 499-37 e IC 2537.

Figura 3. Grazie al grande campo di vista del VST, nei campi osservati da VST-SMASH si possono osservare anche altre galassie più distanti. Nel campo di 2 gradi quadrati (2 puntamenti del VST) osservato attorno a NGC 3109 si trovano a) ESO 499-37 (sinistra), una galassia a spirale inclinata situata a 45 milioni di anni luce, e b) IC 2537 (destra), a circa 115-150 milioni di anni luce, una galassia a spirale inclinata parte del gruppo di galassie di NGC 3054. Credit: C. Tortora/VST-SMASH.
Figura 3. Grazie al grande campo di vista del VST, nei campi osservati da VST-SMASH si possono osservare anche altre galassie più distanti. Nel campo di 2 gradi quadrati (2 puntamenti del VST) osservato attorno a NGC 3109 si trovano a) ESO 499-37 (sinistra), una galassia a spirale inclinata situata a 45 milioni di anni luce, e b) IC 2537 (destra), a circa 115-150 milioni di anni luce, una galassia a spirale inclinata parte del gruppo di galassie di NGC 3054. Credit: C. Tortora/VST-SMASH.

Nonostante nei prossimi 5 anni Euclid si destinato a superare enormemente in prestazioni il VST, rivoluzionando la nostra comprensione dell’universo e delle galassie vicine e lontane, questo gioiello napoletano resta uno strumento che può ancora dire la sua. Il programma VST-SMASH otterrà immagini molto profonde nelle tre bande ottiche g, r e i, complementari in termini di copertura in lunghezza d’onda rispetto ai filtri del telescopio spaziale Euclid. E i nostri dati raggiungeranno una profondità che la survey LSST del telescopio Rubin otterrà solo quando verrà completata, dopo 10 anni dall’inizio delle osservazioni.

[/swpm_protected]

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA


Cosmologia: Ammassi Globulari e Generazioni Multiple

ABSTRACT

Gli ammassi globulari, tra i più antichi oggetti dell’universo, hanno recentemente svelato una complessità inattesa con la scoperta delle popolazioni stellari multiple, sfidando le idee tradizionali sulla loro composizione. L’avvento dei telescopi spaziali Hubble e James Webb ha dato infatti avvio ad uno studio con dettagli senza precedenti di tali strutture, mettendo in luce variazioni significative nelle abbondanze chimiche delle loro stelle. Queste ricerche stanno contribuendo fortemente alla ricostruzione dell’attuale comprensione del cosmo tramite l’esplorazione di nuove prospettive sulla sua storia evolutiva. Ne discute per Coelum l’esperto astrofisico Antonino Milone, soffermandosi sui principali scenari di formazione delle differenti popolazioni e sulle loro implicazioni cosmologiche in virtù dei risultati emersi per le galassie sia dell’universo locale sia ad alto redshift.

Stelle di due mondi: la genesi delle popolazioni stellari multiple

Gli ammassi globulari, tipicamente situati negli aloni delle galassie e orbitanti a diverse distanze dai rispettivi nuclei, sono tra gli oggetti più antichi ed enigmatici dell’universo. Si tratta di aggregati di  stelle caratterizzati da una grande estensione spaziale, con un diametro fino a 300 anni luce, e da una notevole concentrazione centrale. L’enorme densità stellare associata (che può arrivare a migliaia di stelle per unità di volume) rende generalmente impossibile l’identificazione delle singole stelle mediante l’uso di telescopi terrestri: solo i moderni telescopi spaziali come Hubble (HST) e James Webb (JWST) hanno permesso di esplorare tali regioni in grande dettaglio, ottenendo risultati a dir poco sorprendenti addirittura per le stelle di piccola massa meno luminose. Dalle prime osservazioni astronomiche di John Herschel ed Edwin Hubble nell’800 e nella prima metà del ‘900, molta strada è stata fatta nello studio degli ammassi globulari dell’universo locale. In particolare, l’idea tradizionale che essi fossero composti da stelle coeve e chimicamente omogenee, originatesi in un unico episodio di formazione stellare, è stata messa in crisi dalla scoperta delle cosiddette popolazioni stellari multiple.

l’ARTICOLO COMPLETO è riservato agli abbonati alla versione digitale. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Le prime indicazioni di tale fenomeno risalgono agli anni ’70 e ’80 del secolo scorso, quando i dati spettroscopici e fotometrici relativi ad ammassi come ω Centauri (Fig. 1) segnalarono variazioni nelle abbondanze chimiche delle stelle membro, che presentavano differenti contenuti di elementi leggeri quali elio (He), azoto (N), ossigeno (O), carbonio (C), magnesio (Mg) e alluminio (Al). Tuttavia, ci si rese ben presto conto che, sebbene indispensabile per la determinazione dettagliata della composizione chimica stellare, la spettroscopia soffriva di alcune importanti limitazioni, tra cui l’applicazione a campioni, tra l’altro piuttosto esigui, di stelle ben risolte e brillanti. Per questa ragione, si vide necessario introdurre strumenti diagnostici ad hoc per l’analisi delle popolazioni stellari multiple, come la mappa cromosomica, che consente di misurare il contenuto di elementi leggeri di milioni di stelle, anche deboli, contemporaneamente.

Ammasso globulare ω Centauri. Crediti: ESA/Hubble, NASA, Maximilian Häberle (MPIA).
Ammasso globulare ω Centauri. Crediti: ESA/Hubble, NASA, Maximilian Häberle (MPIA).

Essa combina l’informazione sul colore di queste in diverse bande fotometriche per isolarne dei gruppi in base alla composizione chimica, sfruttando la sensibilità di ciascun filtro alle variazioni delle abbondanze di specifici elementi. Per esempio, i filtri nell’ultravioletto (UV) sono adatti alla rilevazione delle bande molecolari dell’azoto, caratteristiche delle stelle di sequenza principale, del ramo delle giganti rosse e del ramo orizzontale, mentre quelli nel vicino infrarosso (NIR) sono impiegati per la valutazione della quantità di ossigeno nel regime delle basse luminosità in cui si trovano le stelle nane di tipo M, giacenti nell’estremo inferiore della sequenza principale. La denominazione “mappa cromosomica” fu scelta in analogia con le mappe genetiche dei cromosomi, che visualizzano la posizione di geni e marcatori genetici lungo un cromosoma, evidenziando la complessità della loro distribuzione. Allo stesso modo, in astronomia una mappa cromosomica rappresenta la disposizione delle varie popolazioni stellari all’interno di un ammasso globulare, separandole con grande chiarezza e rivelandone la composizione chimica (Fig. 2). Grazie all’utilizzo della mappa cromosomica è stato possibile stabilire l’esistenza di almeno due diverse generazioni di stelle nella maggior parte degli ammassi globulari non solo nell’alone della Via Lattea, ma anche nelle galassie satelliti limitrofe, come le Nubi di Magellano.

Mappa cromosomica delle popolazioni stellari multiple dell’ammasso globulare NGC2808
Mappa cromosomica delle popolazioni stellari multiple dell’ammasso globulare NGC2808, comparata a quella di una popolazione stellare singola (pannello superiore) e con una chiara identificazione della prima e della seconda generazione (i.e., 1G e 2G), cerchiate rispettivamente in verde ottanio e in rosso. Crediti: Milone A.P., Piotto G., Renzini A., Marino A.F., Bedin L.R., Vesperini E., D’Antona F., et al., 2017, MNRAS, 464, 3636.


Ne parla Antonino Milone (Fig. 3), astrofisico siciliano operante all’Università degli Studi di Padova, il cui lavoro di ricerca ha rivoluzionato la comprensione scientifica degli ammassi globulari: attraverso pionieristiche tecniche di riduzione dati e innovativi modelli teorici, egli ha infatti dimostrato che questi sistemi stellari sono molto più intricati di quanto ritenuto in passato, aprendo così una nuova finestra sulla loro formazione ed evoluzione. “Scopo primario dell’archeologia galattica”, spiega Milone, “è proprio inquadrare gli ammassi globulari dell’universo locale al momento della loro nascita circa 12-14 miliardi di anni fa, in epoca primordiale, investigando con accuratezza e precisione le proprietà chimico-fisiche delle stelle che contengono. Questo approccio è incredibilmente cruciale, data la loro peculiarità di essere le uniche strutture cosmiche ad ospitare stelle appartenenti a due distinte generazioni: le stelle della prima generazione (1G), più vecchie e con la medesima composizione chimica delle stelle di campo, e le stelle di seconda generazione (2G), più giovani e aventi composizione chimica anomala. Esse presentano, in effetti, abbondanze maggiori di elio, azoto e alluminio, e minori di carbonio, ossigeno e magnesio, e appaiono inoltre “aride”, ovvero estremamente povere di vapor d’acqua”. La motivazione che si cela dietro al netto divario tra le due generazioni è piuttosto semplice: le stelle 2G si sono formate in un mezzo interstellare inquinato dal materiale processato e rilasciato dalle 1G durante il loro ciclo vitale. Più approfonditamente, l’aumento di elio e azoto a scapito di carbonio e ossigeno è giustificato dall’azione del ciclo CNO, attraverso il quale le stelle di massa media convertono l’idrogeno in elio, mentre la diminuzione del magnesio a favore dell’alluminio è causata da una serie di reazioni chimiche ad alte temperature chiamata catena Mg-Al, anch’essa rintracciabile nelle stelle massicce, ma in fase evolutiva avanzata.

Ricorrendo alla mappa cromosomica”, continua Milone, “possiamo notare che le stelle assumono una specifica posizione, dettata dalla loro composizione chimica. Se, da una parte, le 1G si distribuiscono in una regione circoscritta e di dimensioni ridotte, dall’altra le 2G ne ricoprono una più ampia, fatto che ci indica come il numero di stelle 1G sia solitamente molto minore rispetto a quello delle stelle 2G. Questa evidenza sperimentale ha notevoli implicazioni a livello cosmologico, perché legata al possibile meccanismo di insorgenza delle popolazioni stellari multiple”.

Nel contesto dello scenario di formazione noto come delle generazioni multiple, la scarsità di stelle 1G genera un eclatante paradosso, che va sotto il nome di “problema del budget di massa”: le stelle 1G risultano troppo poche per fornire il materiale necessario alla costruzione delle stelle 2G. L’ipotesi più accreditata per risolvere il problema consiste nel supporre che, al momento della loro nascita, le stelle 1G fossero più numerose di qualche decina di milione rispetto ad oggi, e che parte di esse sia andata persa nell’alone della galassia madre per evoluzione dinamica. La massa mancante sarebbe provenuta da tali stelle, ora non più membro dell’ammasso, e sarebbe stata di conseguenza impiegata per dare vita alla successiva generazione. Esse avrebbero poi contribuito, oltre all’arricchimento dell’alone galattico, alla produzione dei fotoni necessari alla reionizzazione dell’universo: una congettura che suggerisce, dal punto di vista cosmologico, che gli ammassi globulari rappresentino i blocchi costitutivi delle galassie. “Ciononostante”, sottolinea Milone, “lo scenario delle generazioni multiple desta ancora parecchi dubbi nella comunità astrofisica, la quale fatica a credere alla veridicità del problema del budget di massa, interpretandolo più come una falla concettuale che come un aspetto intrinseco”. A ciò si aggiunge il fatto, non trascurabile, che la teoria sembra non essere pienamente in grado di riprodurre alcune delle abbondanze chimiche misurate nelle attuali stelle 2G, poiché la natura delle progenitrici 1G che hanno abbandonato l’ammasso ospite non è nota. Svariati sono, invero, i tipi di stelle massicce che avrebbero potuto inquinare il mezzo interstellare (e.g., stelle di ramo asintotico, stelle rapidamente rotanti, sistemi binari stretti e interagenti), ciascuno responsabile del rilascio di una diversa quantità di elementi leggeri, la cui combinazione dovrebbe pertanto sfociare in un ben definito profilo chimico relativo alla nuova generazione.

Allo scenario delle generazioni multiple si contrappone quello di accrescimento di Gieles, secondo cui le stelle 1G e 2G apparterebbero in realtà ad un’unica generazione. L’assunto di base del nuovo paradigma è che al centro degli ammassi globulari primordiali esistessero stelle di massa estrema (masse solari) che avrebbero disperso nel mezzo interstellare materiale inquinato con composizione chimica sui generis tramite venti. Tale materiale sarebbe stato attratto gravitazionalmente dalle stelle di piccola massa nelle vicinanze mentre si trovavano ancora nella fase di pre-sequenza principale, motivo per cui esso non si sarebbe semplicemente depositato sulla loro superficie, ma ne sarebbe anzi diventato componente costitutiva fondamentale, contaminandone irreversibilmente la composizione chimica. In altre parole, il materiale accresciuto avrebbe avuto ruolo strutturale per le stelle con osservata composizione chimica anomala, quelle che nello scenario delle generazioni multiple erano classificate come 2G, e avrebbe comportato la loro marcata distinzione dal resto della popolazione d’ammasso. Nondimeno, l’accrescimento avrebbe dovuto obbedire alla legge di Bondi, avvenendo in modo direttamente proporzionale al quadrato della massa della stella ricevente: ciò significa che quanto più una stella ha massa iniziale elevata, tanto più efficacemente dovrebbe inglobare il materiale contaminato. Ergo, ci si aspetterebbe di constatare una considerevole variazione delle abbondanze chimiche soltanto nelle stelle più massicce e brillanti degli ammassi globulari. Contrariamente a questa predizione, però, i dati osservativi di JWST hanno mostrato che anche le stelle di piccola massa sono parimenti inquinate. Affinché lo scenario di Gieles funzioni perfettamente, bisognerebbe allora escludere che il meccanismo di accrescimento dipenda dalla massa della stella ed introdurre una teoria alternativa.
Lo scenario proposto da Mark Gieles”, conclude Milone, “manca di una modellistica del tutto soddisfacente per descrivere le condizioni dinamiche che regolano il processo accrescitivo, ma ha il vantaggio di eliminare alla radice il problema del budget di massa.  Per di più, esso rende conto dell’esistenza di buchi neri di decine di masse solari, sorgenti di onde gravitazionali rilevabili, nei nuclei altamente densi degli ammassi globulari come esito dell’evoluzione delle super-stelle inquinanti. È, questa, l’unica connessione rilevante con la cosmologia per ora nota”.

L’assenza di modelli dinamici d’avanguardia inerenti allo scenario di Gieles si ripercuote, peraltro, anche sulla valutazione della distribuzione spaziale delle stelle. Difatti, benché entrambi gli scenari conducano a distribuzioni spaziali simili, che sarebbero accomunate dall’origine delle stelle chimicamente alterate nelle regioni centrali dell’ammasso ospite, solo nel caso di quello delle generazioni multiple si riesce a stimarne la modificazione nel tempo. Le stelle 2G si formerebbero dunque nel nucleo e si mescolerebbero progressivamente per interazione dinamica con quelle 1G, distribuite più esternamente, pur conservando una certa concentrazione centrale.

 

Ricapitolando, lo scenario delle generazioni multiple postula la compresenza di due diverse generazioni di stelle all’interno degli ammassi globulari e l’omogeneità nella composizione chimica di quelle appartenenti alla stessa generazione, mentre lo scenario dell’accrescimento di Gieles sostiene che vi sia un’unica popolazione stellare con composizione chimica eterogenea. L’uno è affetto dal problema del budget di massa, e l’altro invece da un marginale sviluppo simulativo di tipo dinamico. In merito alle implicazioni cosmologiche, infine, nel primo scenario si definiscono gli ammassi globulari come blocchi costitutivi delle galassie, i cui aloni sarebbero stati arricchiti dalle stelle da essi 1G perse, laddove nel secondo si riesce a giustificare la formazione dei buchi neri di alcune decine di masse solari, ai quali si tende ad imputare l’emissione di onde gravitazionali.
Per discernere quale tra i due scenari sia più probabile, gli astronomi hanno analizzato il fenomeno delle popolazioni stellari multiple in galassie dell’universo locale diverse dalla Via Lattea, come le Nubi di Magellano, senza però riscontrare sostanziali dipendenze dall’ambiente negli ammassi globulari esaminati. Per contro, se ci si spinge nell’universo lontano, si possono ricavare informazioni molto più esaustive sull’esordio dei meccanismi di generazione delle varie popolazioni. Uno dei risultati più interessanti in tal senso proviene dallo studio della galassia ad alto redshift GN-z11 (Fig. 4), le cui nubi di gas possiedono composizione chimica analoga a quella delle stelle 2G. Essendo l’attuale immagine di GN-z11 corrispondente in realtà ad una fotografia datata circa 400 milioni di anni dopo il Big Bang, tale galassia offrirebbe pertanto un’opportunità unica per osservare la nascita delle stelle 2G nel momento stesso in cui stava avvenendo, anziché a processo ormai ultimato come accade nell’universo locale.

Galassia GN-z11
Fig. 4 : Galassia GN-z11. Crediti: NASA, ESA, P. Oesch (Yale University), G. Brammer (STSCI), P. van Dokkum (Yale University), and G. Illingworth (University of California, Santa Cruz).

Da questo esempio”, argomenta Milone, “è immediato dedurre che l’indagine sulle popolazioni stellari multiple negli ammassi globulari sta acquisendo un’importanza sempre maggiore nell’ambito della cosmologia, configurandosi come uno strumento potente per la ricerca non solo sull’origine, l’evoluzione e l’arricchimento chimico delle galassie, ma anche sulla nucleosintesi stellare e gli eventi dinamici che hanno plasmato la struttura dell’universo primordiale. Grazie alla congiunzione tra JWST e il futuro Extremely Large Telescope (ELT), che permetterà di osservare le galassie ad alto redshift con risoluzione elevata, potremo sicuramente ampliare la nostra conoscenza sugli scenari di formazione delle diverse popolazioni. L’implementazione di modelli simulativi più completi e avanzati costituirà, infine, un prezioso alleato per convalidare o confutare le teorie finora formulate a riguardo”.

Le popolazioni stellari multiple rappresentano, insomma, una materia di studio affascinante e in continuo divenire per la moderna scienza dello spazio, nonché un ponte fra l’astrofisica stellare e la cosmologia. La loro esplorazione potrebbe in futuro fornire una delle chiavi per ricostruire la storia del cosmo, aiutando a svelare parte dei misteri ancora celati dalle stelle.

Antonio Milone

Nato a Milazzo nel 1981, Antonino Milone si forma in ambito scientifico studiando prima a Barcellona e poi a Padova, dove consegue laurea e dottorato di ricerca in astronomia. Porta avanti il suo lavoro di ricercatore sulle popolazioni stellari multiple in diverse parti del mondo: alle Canarie (2010-2012), a Canberra (2013-2017) e infine a Padova (dal 2018). Crediti: Progetto GALFOR, Dipartimento di Fisica e Astronomia Galileo Galilei, Università degli Studi di Padova.

[/swpm_protected]

L’articolo è pubblicato in COELUM 270 VERSIONE CARTACEA


Modelli 3D Lunari

Creazione di modelli 3D lunari con immagini della superficie e i dati DEM del Lunar Reconaissance Orbiter

ABSTRACT

Nell’articolo a seguire trattiamo la creazione di modelli 3D della superficie lunare utilizzando immagini e dati altimetrici (DEM) forniti dal Lunar Reconnaissance Orbiter (LRO) della NASA e dalla missione SELENE Kaguya della JAXA. L’autore, Marco Campaniello, racconta come si sia avvicinato all’astrofotografia e come abbia iniziato a lavorare su questi modelli, utilizzando tecniche di rilievo già sperimentate per monitorare frane e alluvioni tramite droni.

Campaniello descrive il processo di modellazione, che consiste nel georeferenziare punti sulle immagini della Luna utilizzando il software QGIS, e nell’adattare tali immagini ai dati DEM. Le immagini ottenute grazie al telescopio e alla LRO vengono utilizzate per creare modelli precisi in 3D. L’autore sottolinea l’importanza di immagini ad alta definizione e di una corretta perpendicolarità rispetto alla superficie lunare per ottenere risultati accurati. Inoltre, viene spiegato come sia possibile effettuare misurazioni tecniche sui modelli 3D, come diametri e profondità dei crateri.

Campaniello illustra anche possibili applicazioni, tra cui la stampa 3D dei modelli per scopi didattici o per favorire l’accessibilità alle persone con disabilità. Infine, fornisce riferimenti a un canale YouTube e a un sito web dove sono raccolti e pubblicati i modelli 3D della superficie lunare.

Introduzione

Mi chiamo Marco Campaniello, ho 47 anni e vivo a Piazzola sul Brenta, in provincia di Padova. Diplomato come perito grafico, mi sono avvicinato all’astrofotografia da circa tre anni, concentrandomi sulle riprese planetarie con la mia strumentazione, un Maksutov MC 127/1500 e telecamere dedicate per la ripresa astronomica. Fin da bambino sono sempre stato attratto dallo studio del sistema solare, dalle dinamiche avvenute miliardi di anni fa che hanno dato origine al nostro sistema solare, al nostro pianeta e al suo satellite, la luna. Su quest’ultima ho sempre fantasticato su come sarebbe lassù, sorvolare i sui immensi crateri, Valli, Rime. Immaginare cosa si presentava agli occhi dei primi astronauti che hanno calpestato quel suolo alla fine degli anni 60 con le missioni Apollo…

Come e quando è iniziato questo progetto?

Da quasi un anno sto portando avanti questo progetto di modellazione 3d della superficie lunare, utilizzando sia foto riprese da terra, sia foto scattate dalla LRO, un orbiter destinato allo studio della luna il cui lancio è avvenuto dalla Air Force Station a Cape Canaveral, in Florida il 18 giugno 2009.
Tutto però è nato nel 2013, con alcune attività svolte con la protezione civile di cui facevo parte. Vi fu l’esigenza di effettuare dei rilievi fotografici su delle zone colpite da una alluvione, con diverse frane in atto. Installata una telecamera su un drone (non esisteva molto in commercio e ci si arrangiava con accrocchi vari), vennero effettuate una serie di foto e video per costruire un modello 3d, studiando poi gli interventi per la messa in sicurezza del territorio.
Da tutto questo lavoro è partita l’idea di adattare le stesse tecniche di modellazione terrestre per la superficie lunare. Un problema…, nel 2013 le strumentazioni di ripresa e di registrazione digitale non erano alla portata di tutti, dovuto sia ai costi elevati sia alla mancanza in commercio di telecamere dedicate. Con l’arrivo delle camere astronomiche è iniziato un processo digitale che oggi permette di ottenere immagini in alta risoluzione editabili a pc e adatte per questi scopi. Inoltre la possibilità di scaricare online immagini della LRO (Lunar Reconnaissance Orbiter), danno modo di ottenere immagini con una risoluzione prossima a 1 metro/pixel, e di conseguenza modelli 3d molto precisi. Con queste possibilità la strada si è aperta e i social hanno permesso più velocemente uno scambio di collaborazione tra astrofili di tutto il mondo, che con i loro mezzi mi mettono a disposizione immagini in alta risoluzione.

l’ARTICOLO COMPLETO è riservato agli abbonati. Per sottoscrivere l’abbonamento Clicca qui. Se sei già abbonato accedi al tuo account dall’Area Riservata

[swpm_protected for=”3″]

Come vengono realizzati questi modelli?

I team Lunar Orbiter Laser Altimeter (LOLA) e SELenological and Engineering Explorer (SELENE) Kaguya hanno creato un modello di elevazione digitale lunare (DEM) migliorato che copre latitudini entro ±60°, con una risoluzione orizzontale di 512 pixel per grado (~59 metri per pixel [m] all’equatore) e una precisione verticale di ~3-4 m.
La National Aeronautics and Space Administration (NASA) degli Stati Uniti ha lanciato il veicolo spaziale Lunar Reconnaissance Orbiter (LRO) sulla Luna nel giugno 2009 trasportando una varietà di strumenti che continuano a restituire immagini ad alta risoluzione della superficie lunare. Il LOLA ha raccolto oltre 6,5 miliardi di misurazioni dell’altezza della superficie globale con una precisione verticale di ~10 cm. Con una copertura globale così accurata, la mappa topografica risultante è diventata il quadro geodetico di riferimento per la comunità lunare e ha portato alla più alta risoluzione e ai DEM più accurati fino ad oggi. La Japan Aerospace Exploration Agency (JAXA) ha lanciato la sonda SELENE Kaguya sulla Luna nel settembre 2007. La missione si è conclusa il 10 giugno 2009 quando la sonda si è schiantata intenzionalmente sulla superficie lunare. I successivi sforzi di raccolta e mappatura dei dati hanno portato al “più grande progetto di esplorazione lunare dai tempi del programma Apollo”.
Grazie a questi dati è ora possibile creare modelli 3d, sovrapponendo le immagini della superficie lunare, ottenendo un modello in rilievo della zona interessata. Qui sotto l’immagine DEM di partenza, un raster che rappresenta in scala di grigio le altimetrie della superficie. Le zone scure sono quelle più profonde, le zone più chiare quelle con più altitudine.

Luna LRO LOLA - SELENE Kaguya TC DEM Merge 60N60S 59m v1
Luna LRO LOLA – SELENE Kaguya TC DEM Merge 60N60S 59m v1

Senza inoltrarsi troppo nelle spiegazioni tecniche, per creare il modello 3D è necessario georeferenziare più punti all’interno dell’immagine di partenza. Questo processo viene creato con un software chiamato Qgis. L’obbiettivo è quello di identificare un maggior numero di punti tra foto e DEM lunare. Maggiori saranno i punti e migliore sarà il modello finale. Qui sotto è possibile vedere alcuni punti di elaborazione identificati e georeferenziati tra l’immagine originale e il DEM, che al suo interno raccoglie i dati altimetrici in ogni suo pixel.

Il software calcola per ogni punto selezionato le coordinate spaziali e le adatta al punto corrispondente nel file DEM. L’immagine catturata con telescopio soffre di una non perpendicolarità di visione rispetto alla superficie lunare. Questo viene compensato, entro certi limiti dal software, che adatta l’immagine con un processo di stiramento e interpolazione dei pixel. Il risultato è un’immagine sovrapposta e adattata al DEM sottostante.
 
3D realizzato dalla foto dall’amico astrofilo Philippe Cambre con Dobson 18 pollici.
3D realizzato dalla foto dall’amico astrofilo Philippe Cambre con Dobson 18 pollici.

Quali caratteristiche devono avere le immagini di partenza?

Per poter creare questi modelli 3d è necessario avere delle immagini in alta definizione. Di fondamentale importanza l’utilizzo di un telescopio con un diametro di almeno 14 pollici per riuscire a catturare più dettagli possibili. A seguire una telecamera dedicata per l’astrofotografia planetaria, l’utilizzo di filtri dedicati per contrastare al meglio l’immagine e combattere il più possibile il Seeing. Eh sì, il Seeing è un eterno nemico dell’osservazione astronomica, e ogni astrofilo spera in una serata calma e con le condizioni ideali per trarre il massimo dalla sua strumentazione. Oltre a questo, non tutte le immagini possono essere utilizzate per lo scopo. Prima parlavo di perpendicolarità tra punto di osservazione e superficie lunare. Entro certi limiti il software stira e adatta l’immagine, ma se questa è troppo inclinata il risultato non sarà più corretto e, per esempio, i crateri inizieranno ad avere una forma ovale, distanti quindi dalla realtà. Bisogna quindi utilizzare le immagini ottenute dalla LRO che risultano perpendicolari alla zona di interesse e inoltre offrono dettagli, in termini di risoluzione, sbalorditivi rispetto al più grande telescopio installato a terra costretto a subire il famigerato Seeing atmosferico. È così possibile trattare anche zone lunari del lato non visibile della luna, come questo esempio qui sotto. Si tratta di un cratere concentrico situato all’interno del mare Moscoviense.
Immagine LRO cratere concentrico nel mare Moscoviense.
Immagine LRO cratere concentrico nel mare Moscoviense.
 

Che utilizzi può avere il modello 3d creato?

Come primo obiettivo è quello di creare una raccolta di modelli 3d che coprano la maggior parte della superficie lunare, cercando il più possibile di coinvolgere la comunità astrofila. Una collaborazione con chi possiede telescopi di grande diametro e che presta gratuitamente le proprie foto per ottenere un modello tridimensionale. Credo sia visivamente affascinate poter guardare nelle tre dimensioni la superficie lunare, poter sorvolare a piacimento e osservare con diverse angolazioni un cratere o una struttura. Nel link qui sotto un esempio di modello visionabile da Android o Pc. Una volta aperto e caricato, attraverso il mouse o lo smartphone ci si può muovere a piacimento all’interno dell’area.
modello 3d cratere Cyrillus e Theophilus
modello 3d cratere Cyrillus e Theophilus
 
Video:

Oltre all’aspetto puramente estetico/visivo, è possibile effettuare delle misurazioni tecniche della zona trattata, rilevando distanze, diametri, profondità, grazie al fatto che alla base di tutto è presente un DEM con al suo interno tutti i dati. Qui sotto è visualizzato un grafico che rappresenta il profilo del terreno esaminato.
Per ogni punto è possibile ricavare le esatte quote altimetriche, semplicemente spostandosi lungo la linea rossa tracciata. Come si può notare al centro del cratere vi sono diversi picchi centrali che possono essere quotati nelle loro rispettive altezze grazie al modello 3d realizzato.

 
Per ultimo, ma non di minore importanza, è possibile realizzare dei modelli in scala da riprodurre con la stampante 3d. Sarebbe interessante poter rendere disponibili questi lavori a scuole o per favorire delle disabilità, in quanto si può toccare con mano la superficie lunare sentendo tutte le asperità e i rilievi. Qui sotto alcuni esempi che ho ultimato:
 

Dove vengono raccolti e pubblicati tutti i progetti

È attivo un canale YouTube in continuo aggiornamento. Per ogni rilievo 3d ho realizzato un video di presentazione dove si sorvola la superficie lunare.
In ogni descrizione è presente il link del modello 3d visionabile da mobile Android o Pc Windows. Il link del canale: http://www.youtube.com/@3d-moon
 
 
Ho inoltre uno spazio web dove in lingua inglese vengono raccolti tutti i progetti. Dopo una breve descrizione di come vengono realizzati, a fondo pagina sono linkati tutte le zone trattate con all’interno descrizione, video e modello 3d visionabile. Il link per la pagina web: https://3dlunarsurface.wordpress.com
 
Vi invito ad iscrivervi al canale YouTube per rimanere sempre aggiornati con nuovi modelli 3d. Buon “viaggio” allora… e ci vediamo sulla luna….
 
“Ci sono solo due problemi da risolvere quando si va sulla luna: primo, come arrivarci; e secondo, come tornare indietro. La chiave sta nel non partire prima di aver risolto entrambi i problemi.” Neil Armstrong
[/swpm_protected]

Il desiderio di conoscenza e l’eredità scientifica di Bepi Colombo Franco Malerba e Umberto Guidoni a Science 4 All

L'installazione "Officina spaziale" a Palazzo del Bo
L'installazione "Officina spaziale" a Palazzo del Bo

Una lunga fila di accademici, studenti e appassionati si snoda nel Cortile Antico del Palazzo del Bo. Uno strano rumore di fondo riecheggia sotto il porticato: il suono sordo e vibrato dell’universo, trasmesso dagli altoparlanti. Il centro del cortile è occupato da un’ampia sfera di metallo, che nell’imbrunire si copre di freddi riflessi violacei. È un tethered satellite, ovvero così viene definito nei pannelli esplicativi un satellite al guinzaglio.

Per capire a chi sia venuta la curiosa idea di portare a spasso un satellite e quali implicazioni questo progetto abbia avuto, seguiamo la coda e raggiungiamo l’Aula Magna, dove due astronauti, Franco Malerba e Umberto Guidoni, illustreranno le loro esperienze con quella rotonda struttura d’acciaio.

Il modello ingegneristico del tethered satellite di Bepi Colombo
Il modello ingegneristico del tethered satellite di Bepi Colombo

L’evento “L’eredità scientifica di Bepi Colombo” si tiene in occasione di “Science 4 All – la festa delle scienze a Padova”, ed è organizzato dall’Università. A introdurre il dibattito nella sala degli stemmi è il professor Lorenzini, che traccia a grandi linee il ritratto di Giuseppe Colombo, detto Bepi: matematico, fisico, astronomo e ingegnere padovano. Visionario e anticipatore, Bepi ha compiuto studi pionieristici, contribuendo attivamente alla storia delle esplorazioni spaziali.

Nato a Padova nel 1920 e laureatosi nella città del Santo nel 1944, lo studioso ha collaborato con l’Harvard College Observatory, lo Smithsonian Astrophysical Observatory, il Massachusetts Institute of Technology, l’Agenzia Spaziale Italiana e il Jet Propulsion Laboratory della NASA, per la quale ha realizzato alcuni importanti progetti negli anni sessanta e settanta.

Bepi Colombo – nel ritratto che ne viene fatto – era uomo dedito alla ricerca scientifica per vocazione e non soltanto per ragioni professionali, ricco di inventiva e curioso per natura, in grado di cogliere nuovi spunti e nuove sfide e capace di inventare un altrettanto nuovo modo di intendere l’universo.

“Mi devo occupare di un gasdotto..” si racconta che abbia detto in un’occasione.

“Ma stiamo parlando di sonde che vanno nello spazio..” ha obiettato il suo interlocutore.

“Ma lo spazio è molto semplice, è la terra che è complicata!” ha risposto lui.

Bepi Colombo era dunque dell’avviso che lo spazio dovesse essere interpretato senza alcuna sovrastruttura mentale: che fosse necessario, innanzi tutto, concepire l’universo con una mente libera e aperta. Questo ha consentito allo studioso di sviluppare una serie di originali innovazioni.

Tra le più note, l’dea di sfruttare la propulsione gravitazionale (assist gravitazionale o effetto fionda) del pianeta Venere per effettuare molteplici sorvoli di Mercurio. Grazie ai calcoli di meccanica orbitale di Bepi Colombo, la sonda Mariner 10 ha compiuto infatti ben tre fly-by del piccolo corpo celeste nel 1974-75. Tale intuizione è stata oggetto di un encomio da parte del New York Times e risulta tutt’oggi una manovra sfruttata ampiamente nelle missioni spaziali.

Bepi Colombo aveva inoltre teorizzato l’utilizzo una grande vela capace di catturare il vento solare e di utilizzarlo come sistema propulsivo. Lo straordinario aquilone a energia rinnovabile, che oggi porta il nome di Advanced Composite Solar Sail System, è stato costruito di recente e si è librato nello spazio la scorsa estate.

Alla conferenza di Parigi – racconta ancora il professor Lorenzini – Bepi Colombo ha proposto la realizzazione di una stazione spaziale i cui moduli fossero costituiti dai serbatoi esausti dello Space Shuttle. Il progetto non si è concretizzato – o per lo meno non ancora – forse proprio per la sua estrema semplicità e lo scarso interesse economico che avrebbe generato nei potenziali investitori.

Il matematico ha partecipato inoltre alle indagini per il lancio della sonda Giotto, che nel 1986 – due anni dopo la sua morte – ha raggiunto la cometa di Halley. Il nome dello strumento, suggerito dallo stesso Colombo, è un omaggio alla Cappella degli Scrovegni, in cui appare la prima raffigurazione di una cometa nell’affresco dell’Adorazione dei Magi.

Ulteriori studi hanno riguardato un’altra sonda che avrebbe dovuto raggiungere il sole per poi disintegrarsi – “Una sonda kamikaze!” dice il professor Lorenzini – e i calcoli per la missione Galileo su Giove (anche in questo caso il nome del dispositivo è un tributo alla città di Padova).

Bepi Colombo, per la sua capacità di anticipare i tempi, ha stupito addirittura gli americani. “Generava un fiume di idee che partiva dal sistema solare e finiva con un’apparecchiatura in grado di arginare l’acqua alta di Venezia” ha detto una volta di lui Irwin I. Shapiro, astrofisico dell’Università di Harward.

L’invenzione più nota di Bepi Colombo tuttavia l’abbiamo ammirata proprio nel Cortile Antico, prima di entrare in Aula Magna: il tethered satellite. Un’idea concepita inizialmente dall’agenzia spaziale russa, e mai portata a compimento, prevedeva, nel modello del ricercatore padovano, un sistema elettrodinamico (il Tethered Satellite System, o TSS) che collegava un satellite allo Shuttle con un cavo di circa 20 km. Il dispositivo era da utilizzarsi per le rilevazioni atmosferiche ed è valso a Colombo la medaglia d’oro della NASA nel 1983.

L'installazione "Officina spaziale" a Palazzo del Bo
L’installazione “Officina spaziale” a Palazzo del Bo

A parlarci delle missioni in cui questo satellite a filo è stato utilizzato sono gli astronauti Franco Malerba e Umberto Guidoni, con i quali si apre una vivace tavola rotonda. A prendere la parola è il primo tra i due, allegro e concitato nel suo desiderio di raccontare: la voce dell’uomo ha toni di fiaba e lascia l’uditorio in un meraviglioso silenzio siderale.

Malerba, primo membro dell’ASI a compiere una missione spaziale, descrive la sua esperienza con il Tethered Satellite System nel corso della missione STS-46 del 1992. L’uomo descrive il gigantesco rocchetto alla base del sistema di collegamento: una bobina su cui erano avvolti i 20 km di cavo, la cui struttura era composta da filo con conduttore CU, calza Kevlar e isolante in Nomex.

Una sorta di cannone a bordo dello Shuttle – un diodo che emetteva elettroni – e il cavo del satellite costituivano un circuito in grado di chiudersi “non si sa come, spiraleggiando” – così racconta Malerba – nello spazio. Questo avrebbe permesso di produrre onde elettromagnetiche che gli scienziati sarebbero stati in grado di captare in una stazione alle isole Canarie. Il modello aveva visto la collaborazione dello scienziato padovano con l’ingegnere aerospaziale Mario Grossi, che sperava di trovare nel circuito un modo di sopperire alle difficoltà di comunicazione dei sottomarini. Tramite l’utilizzo di un’antenna in orbita geostazionaria, l’ingegnere aveva infatti ipotizzato di poter rendere più efficaci le trasmissioni radio sott’acqua.

La missione STS-46, tuttavia, non procede come sperato. Racconta Franco Malerba che la prima fase della procedura avviene senza intoppi: il satellite è sollevato su una torre che si innalza dalla stiva dello Shuttle e nella prima fase si ha quasi un lancio nominale della grossa sfera, ma a 256 metri il filo oscilla e si blocca. La situazione è delicata. A Cape Canaveral, il Mission Control Center sta valutando, all’insaputa degli astronauti, di chiedere loro di tagliare il filo. Sullo Space Shuttle Atlantis, nel frattempo, riescono a manovrarlo, ma nonostante i tentativi non è possibile portare a termine l’esperimento. A bordo la telescrivente stampa un messaggio che giungerà amaro agli occhi degli astronauti: il piano di volo è stato rivisto e la timeline di rientro sulla terra anticipata.

“Perché si è inceppato il filo?” chiede Malerba all’uditorio, sgranando gli occhi come deve aver fatto allora. “È stato l’albero a camme che ha creato problemi al tamburo. Naturalmente il Mission Control aveva più dati di noi,” continua Malerba “ma una volta rientrati abbiamo scoperto che la responsabilità era di chi aveva costruito il deployer”. Il fatto ha rischiato di causare un incidente diplomatico, a suo dire, quando gli americani hanno dovuto ammettere che la responsabilità del guasto era loro.

Franco Malerba, primo astronauta italiano nella missione STS-46 dello Space Shuttle Atlantis e Umberto Guidoni, Payload Specialist nella missione STS-75 alla fine della conferenza.
Franco Malerba, primo astronauta italiano nella missione STS-46 dello Space Shuttle Atlantis e Umberto Guidoni, Payload Specialist nella missione STS-75 alla fine della conferenza.

La missione di Umberto Guidoni, la STS-75, sullo Shuttle Columbia, ha avuto anch’essa un esito potenzialmente pericoloso. Per la seconda volta il sistema sembra funzionare alla perfezione: il portello della stiva si apre, la torre di dodici metri – “Dodici metri” precisa Guidoni “perché deve essere più alta della coda dello Shuttle” – si alza e sgancia la sfera.

“Il satellite – dice l’astronauta – viene azionato dapprima attivando dei piccoli razzi e soltanto in seguito il cavo viene rilasciato, in un primo momento molto lentamente e poi con maggiore velocità. A un chilometro dalla fine dell’operazione il filo si incurva, ed è a questo punto che succede il disastro”.

Sullo schermo del salone del Bo appare la fotografia del satellite che galleggia nel vuoto, con il cavo flesso. Umberto Guidoni non assiste alla rottura del filo, perché in quel momento sta dormendo: sono infatti due le squadre che si alternano nell’operazione, e la sua sta rispettando il turno di riposo.

“Il tether è rotto in zona boom,” ricorda Guidoni “dice di Jeffrey A. Hoffman. La situazione è rischiosa perché il cavo può cadere addosso allo Shuttle, così rischiosa che durante le esercitazioni ci eravamo preparati a togliere l’orbiter da sotto il filo rotto”.

La causa del problema, secondo Guidoni, è stata la scarsa considerazione di alcuni aspetti fondamentali: la presenza di una carica elettrica troppo elevata – 3500 volt – vicina allo Shuttle e di gas emessi dai propulsori della navetta. I due elementi, combinati con una frattura di piccole dimensioni nella guaina isolante del cavo hanno generato una scarica elettrica che lo ha tranciato.

Dapprima l’equipaggio sembrerebbe voler recuperare il satellite e il cavo perso, ma la manovra, difficilmente realizzabile, viene accantonata. Questa avventura, che è parte di una delle missioni più lunghe dello Space Shuttle, si conclude, nelle parole di Guidoni con un messaggio della telescrivente di bordo. Cape Canaveral, molti chilometri più in basso, invita l’equipaggio deluso a sorridere prima della diretta TV. “Please, smile!” è stampato sul rotolo della telescrivente, ma gli astronauti, inutile dirlo, hanno la luna. La scienza è fatta di prove ed errori e sulla strada che porta alle stelle spesso si arriva inciampando.

Malerba e Guidoni rispondono alle domande del pubblico, che li interroga sull’adattamento del corpo umano in assenza di gravità, sullo stress durante la missione, sulle emozioni che hanno provato guardando la terra dallo spazio. Malerba descrive le violente vibrazioni dello Shuttle in fase di decollo e l’amicizia e la coesione interculturale che sono nate a bordo; Guidoni parla dell’atterraggio e racconta di aver portato con sé il libro “Ascensore per il paradiso” di Arthur Clark, che rappresenta “un ponte tra la realtà e la fantasia”.

“Mi dispiace se mie domande divagano dal tema principale,” interviene uno dei presenti “ma non ho mai parlato con qualcuno che ha visto lo spazio più vicino di quanto lo abbia visto io.” Ci si dilunga ormai, in molti chiedono il microfono e i relatori stanno perdendo l’ennesimo filo: quello del discorso. Tutti parlano di tutto e hanno mille quesiti da porre. Poco male se non si parla più di lui, a Bepi Colombo sarebbe piaciuto.

 

Mondi Alieni: Barnard b e la sua stella madre

La ricerca di sistemi planetari che orbitano attorno ad altre stelle ha una lunga storia.

Un tempo la scoperta di ogni singolo “mondo alieno” faceva notizia, oggi il pianeta deve avere qualcosa di speciale: il più abitabile, il più vicino. Le attività di ricerca si focalizzano sempre di più sulla caratterizzazione degli esopianeti, spesso con lo scopo identificare quelli con proprietà fisiche adatte alla vita.

I “mondi alieni” che orbitano attorno a stelle nane M potrebbero rappresentare obiettivi promettenti per scoprire pianeti abitabili.

Credit: Marc Dantonio

La stella Barnard una brava madre ma non troppo

La stella di Barnard (o semplicemente Barnard), studiata già dalla fine del 1800, è una stella debole e vecchia, invisibile all’occhio umano, ma con un telescopio e un’attenta osservazione è possibile vederla muoversi nel cosmo perché ha uno dei moti propri più alti di qualsiasi stella conosciuta battendo la Stella di Kapteyn, catalogata nel 1898. La bassa temperatura interna di Barnard e il conseguente debole tasso di generazione di energia le permetteranno una vita incredibilmente lunga.

Sebbene sia una stella vecchia, Barnard sperimenta ancora eventi dinamici di attività stellare che potrebbero avere implicazioni per qualsiasi pianeta orbitante nella zona abitabile della stella. Nel 1998, un team di astronomi del Goddard Space Flight Center della NASA ha osservato la stella con uno spettrografo ad alta risoluzione rilevando un intenso brillamento stellare. Di solito le vecchie nane rosse tendono a essere quiete e le esplosioni così intense sono piuttosto rare. Un altro aspetto interessante di questa stella è l’interesse che ha suscitato per i primi pionieri dei viaggi interstellari: ad esempio, la Barnard era l’obiettivo del Progetto Dedalus, uno studio del 1978 della British Interplanetari Society per raggiungere con una sonda interstellare la stella in circa 50 anni. Un concetto di astronave altamente sviluppato che potrebbe ancora rivelarsi il modello per i futuri viaggi interstellari!

Bernard b, un mondo rovente

Ora gli astronomi hanno scoperto un esopianeta che orbita attorno a Barnard. Sono state eseguite misure di velocità radiale della stella di Barnard con lo strumento ESPRESSO (Echelle SPectrograph for Rocky Exoplanet and Stable Spectroscopic Observations), il successore dello spettrografo HARPS, in grado di estrarre l’oscillazione indotta nella stella da un pianeta, e sono stati rilevati vari segnali, di cui uno con periodicità di circa 3 giorni è stato reputato essere dovuto a un pianeta con una massa minima di circa 0.4 masse terrestri.

Come ci spiega Luigi Mancini, professore di Astronomia e Astrofisica presso l’Università di Roma “Tor Vergata”:

“La tecnica usata è quella delle velocità radiali e consiste nel misurare la velocità della stella proiettata lungo la linea di vista, osservando lo spostamento delle righe spettrali per effetto Doppler. È la seconda tecnica che ha rilevato più pianeti. Questa tecnica la usava Hubble per misurare la distanza delle galassie negli anni ’20 del secolo scorso. La si usa dagli anni ’90 per la ricerca dei pianeti extrasolari grazie a spettrografi più performanti che permettevano di avere una precisione delle decine di m/s. Ora, con Espresso, siamo scesi sotto a 1 m/s.”

“Una scoperta importante che mette in rilievo come i pianeti di piccola taglia, anche sub-terrestre, possano essere scoperti avendo a disposizione telescopi di classe large e strumenti di altissima precisione come ESPRESSO.”

Rappresentazione artistica di Barnard b – Credit: ESO/M. Kornmesser

Barnard b e la vita

Purtroppo questo mondo alieno è troppo caldo per essere abitabile secondo gli standard terrestri (la temperatura media sulla superficie è di 125 gradi Celsius). Infatti, non si trova nella zona abitabile ma in un’orbita ravvicinata con la sua stella a soli 3 milioni di chilometri di distanza. Questo rende impossibile la formazione di acqua liquida in superficie e della vita così come la conosciamo. Tuttavia, il pianeta potrebbe offrire condizioni non impossibili per la vita nel sottosuolo oppure sul suo emisfero non illuminato: infatti il pianeta rivolge sempre la stessa faccia alla sua stella, come fa la Luna con la Terra. Chissà che questo mondo alieno e vicino non riservi sorprese nelle future indagini astronomiche.

Gli astronomi continueranno a cercare.

Euclid svela il primo tassello della grande mappa dell’Universo

La prima parte della mappa, un enorme mosaico da 208 gigapixel, è stata svelata oggi al Congresso Astronautico Internazionale di Milano dal Direttore Generale dell’ESA Josef Aschbacher e dalla Direttrice Scientifica Carole Mundell

 

Il mosaico contiene 260 osservazioni effettuate tra il 25 marzo e l’8 aprile 2024. In sole due settimane, Euclide ha coperto 132 gradi quadrati del cielo australe con dettagli incontaminati, più di 500 volte l’area della Luna piena.

La spiegazione del mosaico di Euclid
La spiegazione del mosaico di Euclid. Crediti ESA

Si tratta dell’1% dell’ampia indagine che Euclid svolgerà in sei anni, osservando le forme, le distanze e i movimenti di miliardi di galassie fino a 10 miliardi di anni luce di distanza. L’obiettivo e creare la più grande mappa cosmica 3D mai realizzata.

Il tassello reso pubblico oggi montato sulle rilevazioni GAIA e su mappa del Planck project
Il tassello reso pubblico oggi montato sulle rilevazioni GAIA e su mappa del Planck project. Crediti ESA

Il lembo contiene circa 100 milioni di fonti: stelle nella nostra Via Lattea ma anche molte galassie lontane. Circa 14 milioni delle quali potrebbero essere utilizzate per studiare l’influenza nascosta della materia oscura e dell’energia oscura sull’Universo.

“Questa straordinaria immagine è il primo pezzo di una mappa che in sei anni rivelerà più di un terzo del cielo. Si tratta solo dell’1% della mappa, eppure è piena di una varietà di fonti che aiuteranno gli scienziati a scoprire nuovi modi per descrivere l’Universo”, afferma Valeria Pettorino, Euclid Project Scientist presso l’ESA.

Le telecamere sensibili  del telescopio hanno catturato un numero incredibile di oggetti in grande dettaglio. Zoomando molto in profondità nel mosaico (questa immagine è ingrandita 600 volte rispetto alla vista completa), si riesce a vedere chiaramente la struttura intricata di una galassia a spirale.

Una caratteristica speciale visibile nel mosaico sono le nubi fioche tra le stelle nella nostra galassia, che appaiono in azzurro chiaro sullo sfondo nero dello spazio. Sono un mix di gas e polvere, chiamate anche “cirri galattici” perché sembrano nubi cirri . Euclid è in grado di vedere queste nubi con la sua telecamera super sensibile alla luce visibile perché esse riflettono la luce ottica della Via Lattea. Le nubi brillano anche nella luce infrarossa lontana, come a sua volta visto dalla missione Planck dell’ESA.

Il mosaico rilasciato oggi è un’anticipazione di ciò che verrà dalla missione Euclid. Da quando la missione ha iniziato le sue osservazioni scientifiche di routine a febbraio è stato completato il 12% dello scandaglio. Il rilascio del blocco corposo dei primi 53 gradi quadrati della scansione, inclusa un’anteprima delle aree di Euclid Deep Field, è previsto per marzo 2025. Il primo anno di dati cosmologici della missione sarà rilasciato alla comunità nel 2026. Restiamo quindi in strepitante attesa!

Un dettaglio dello stand ESA allo IAC. Crediti Coelum
Un dettaglio dello stand ESA allo IAC. Crediti Coelum

Fonte ESA

 

ASTROSHOW 2024 – Fiera dell’Astronomia

Il mondo dell’astronomia si prepara a un nuovo ed entusiasmante appuntamento: il 2 e 3 novembre 2024, Cesena ospiterà la seconda edizione di Astroshow, un evento pensato per tutti coloro che condividono la passione per l’universo e desiderano esplorare le meraviglie del cosmo. L’iniziativa, nata nel 2023 con l’obiettivo di creare un momento di incontro annuale per appassionati di astronomia, scuole e curiosi, si ripropone quest’anno con un programma ancora più ricco, rafforzato dal successo della prima edizione. Il fascino dell’astronomia non è mai stato così accessibile, grazie anche al contributo fondamentale degli astronomi amatoriali.

Questi appassionati svolgono un ruolo essenziale nel campo dell’astronomia moderna, apportando contributi significativi agli studi scientifici e alla comprensione di fenomeni celesti complessi. Ma la loro funzione va oltre la scoperta scientifica: sono anche attivi divulgatori, portatori di una conoscenza che affascina e coinvolge le nuove generazioni, stimolando l’interesse per il cielo e per le sue infinite possibilità.

Astroshow nasce proprio con l’intento di rispondere a queste esigenze di condivisione e aggiornamento. Oltre a essere un’opportunità per gli astronomi amatoriali di incontrarsi e scambiarsi idee ed esperienze, l’evento è anche una vetrina per le ultime novità tecnologiche in campo astronomico. Ogni anno, infatti, vengono presentate nuove soluzioni e strumenti sempre più avanzati, pensati per migliorare l’osservazione del cielo e rendere l’astronomia alla portata di tutti.

L’edizione 2024 sarà l’occasione perfetta per scoprire i prodotti più innovativi e confrontarsi con esperti e aziende del settore. Quest’anno, tra i numerosi espositori, troveremo alcune delle più importanti aziende italiane che operano nel settore astronomico. Tra queste spiccano nomi di primo piano come Auriga, Skypoint, Unitron, Tecnosky, Artesky, Astroottica e Geoptik, leader nella produzione e commercializzazione di articoli astronomici. Ogni azienda porterà una selezione delle sue migliori novità, dagli strumenti più sofisticati per l’osservazione e la fotografia del cielo fino agli accessori essenziali per chi vuole iniziare a esplorare l’universo. Saranno disponibili telescopi, montature, camere astronomiche e numerosi altri articoli che renderanno l’esperienza dell’osservazione ancora più affascinante e accurata. Ma Astroshow non è solo una fiera di prodotti astronomici.

Sarà anche un’occasione per entrare in contatto con alcune delle associazioni italiane più attive nel mondo dell’astronomia amatoriale. Tra le associazioni partecipanti, figurano Astro Amici Forlivesi, Astrofili Rheyta A.P.S. di Ravenna, Associazione Deeplab ETS di Bologna, N.A.S.A. Associazione Astrofili di Senigallia, Associazione Astrofili Bolognesi, Astrofili Saludecio di Rimini e Associazione Astrofili Forca Canapine, che animeranno l’evento con attività di divulgazione e workshop dedicati a chi desidera avvicinarsi all’osservazione del cielo. Queste associazioni rappresentano il cuore pulsante della passione astronomica in Italia, offrendo un supporto fondamentale a chiunque voglia approfondire la conoscenza dell’universo.

Un’attenzione particolare sarà riservata ai più giovani, grazie alla presenza di un planetario che sarà operativo per tutta la durata della fiera. Il planetario offrirà spettacoli immersivi dedicati all’esplorazione del sistema solare e delle galassie lontane, rendendo la scienza astronomica più accessibile e divertente. Sarà un momento magico per i bambini, che potranno vivere un’esperienza unica e interattiva, immergendosi nelle meraviglie dell’universo in un contesto educativo e allo stesso tempo coinvolgente. Parallelamente, ci saranno numerosi momenti di divulgazione e approfondimento, con conferenze e incontri che tratteranno temi di grande interesse per il pubblico, dai misteri del cosmo alle tecnologie di osservazione più avanzate. Saranno presenti esperti del settore che condivideranno le loro conoscenze e ricerche, fornendo spunti per un dibattito stimolante e approfondito.

Con onore siamo lieti di anticipare anche l’intervento del Presidente dell’Istituto Nazionale di Astrofisica Roberto Ragazzoni. Per chi è alle prime armi, questo sarà un modo per entrare in contatto con il mondo dell’astronomia, mentre per i più esperti sarà l’occasione di scoprire nuove metodologie e tecniche. L’evento avrà una risonanza significativa anche grazie alla partecipazione di importanti riviste specializzate fra cui Coelum, che offriranno copertura mediatica all’evento, raccontando i momenti più salienti e offrendo interviste esclusive con gli espositori e i protagonisti della fiera. La loro presenza contribuirà a rafforzare la visibilità dell’evento, consolidandolo come uno degli appuntamenti di riferimento nel panorama astronomico italiano.

Con un’offerta così variegata, Astroshow 2024 rappresenta una straordinaria opportunità per tutti gli appassionati di astronomia, per le famiglie e per chiunque voglia avvicinarsi al mondo dell’osservazione del cielo. Un fine settimana all’insegna della scoperta, del divertimento e della condivisione, dove sarà possibile conoscere nuove persone, scambiare opinioni e immergersi nel meraviglioso mondo dell’astronomia.

Perchè partecipare alla fiera?

Una fiera è l’occasione giusta per conoscersi di persona e scambiare due chiacchiere su temi che accomunano visitatori ed espositori. E’ un modo per riconoscersi, per creare dei legami, per abbattere i muri della comunicazione digitale aggiungendo un volto ed un sorriso alle presentazioni.

Perché passare allo stand di COELUM?

TRE buoni motivi per passare da COELUM:

  1. Presso lo stand di Coelum si potranno sottoscrivere gli abbonamenti annuali alla versione cartacea  fruttando le offerte in corso. Sarà possibile acquistare il numero in corso, il 270 di Coelum Astronomia
  2. La direttrice ed alcuni membri dello staff saranno a disposizione per i lettori.
  3. Aggiungendo un like ai canali social di COELUM o lasciando l’indirizzo email per la Newsletter in omaggio verrà consegnato un poster a tema astronomico su carta lucida 50×70 (la disponibilità è limitata ad esaurimento scorte).

INOLTRE

In collaborazione con Latitude 44.5 presso lo stand di Coelum saranno programmate delle interviste ai protagonisti del mondo amatoriale e professionale. Le interviste, trasmesse in diretta sui canali social di Coelum e Latitude 44.5, potranno essere seguite in presenza grazie all’allestimento di un piccolo spazio conferenze con sedute. A breve pubblicheremo il programma.

Omaggi e gadget gratuiti a quanti interverranno.

Orario e costo:

L’Astroshow sarà aperto in entrambi i giorni della manifestazione dalle 9.30 alle 19.30; il biglietto di ingresso costa 10,00 € (i parcheggi sono gratuiti).

Come arrivare:

La fiera di Cesena a Piazzale Vanoni E. 100 – 47522 Pievesestina di Cesena (FC) è facilmente accessibile da diverse direzioni.

Galleria Anteprima IAC Milano 2024

Benvenuti nella nostra galleria fotografica dedicata all’edizione milanese dello IAC 2024. In questa selezione di scatti di anteprima, potrete esplorare gli stand dei principali enti spaziali del mondo, che hanno portato le loro più recenti innovazioni e tecnologie all’attenzione del pubblico internazionale. Troverete anche alcune delle aziende italiane più dinamiche e interessanti, che stanno contribuendo con soluzioni all’avanguardia al settore aerospaziale. Un viaggio visivo tra tecnologia, innovazione e il futuro dello spazio.


In Coelum 271 (prossimo numero) il report completo con gli scatti e le interviste ai protagonisti.

AGGIORNAMENTO: Europa Clipper in viaggio verso Giove

Europa Clipper verso Giove
Lanciata la sonda Europa Clipper in direzione di Giove

La missione Europa Clipper della NASA è stata lanciata con successo il 14 ottobre 2024 alle 12:10 PDT (Pacific Daylight Time) dal Kennedy Space Center in Florida. Il razzo utilizzato per il lancio è stato un Falcon Heavy di SpaceX.

Il lancio, previsto per il 10 ottobre, era stato rinviato il 7 ottobre a causa dell’uragano Milton (leggi gli aggiornamenti in coda a questo stesso articolo). Il team è riuscito a tempo di record a individuare una nuova finestra di lancio e predisporre tutto il necessario per l’operazione.

Circa cinque minuti dopo il decollo, il secondo stadio del razzo si è acceso e la carenatura del carico utile, o il cono anteriore del razzo, si è aperta per rivelare Europa Clipper. Circa un’ora dopo il lancio, la navicella spaziale si è separata dal razzo. I controllori di terra hanno ricevuto un segnale poco dopo e alle 13:13 è stata stabilita una comunicazione bidirezionale con la struttura Deep Space Network della NASA a Canberra, in Australia. I primi rapporti di telemetria hanno mostrato che Europa Clipper è in buona salute e funziona come previsto.

La missione esplorerà la luna Europa di Giove, con l’obiettivo di raccogliere dati sull’oceano nascosto sotto la superficie ghiacciata e studiare le potenziali condizioni per la vita. Maggiori dettagli sono disponibili sul sito della [NASA JPL]

Il video del lancio

Articolo completo NASA

Aggiornamento del 7 ottobre: Europa Clipper lancio RINVIATO

Con un comunicato congiunto a NASA e SpaceX hanno annunciato di aver sospeso il tentativo di lancio di giovedì 10 ottobre della missione Europa Clipper dell’agenzia a causa delle condizioni di uragano previste nella zona. Si prevede che l’uragano Milton si sposterà dal Golfo del Messico questa settimana, dirigendosi verso est verso la Space Coast. Sono previsti forti venti e forti piogge nelle regioni di Cape Canaveral e Merritt Island sulla costa orientale della Florida. I team di lancio hanno messo al sicuro la navicella nell’hangar di SpaceX presso il Launch Complex 39A del Kennedy Space Center dell’agenzia in Florida prima delle condizioni meteorologiche avverse, e il centro ha iniziato i preparativi per l’uragano domenica.

“La sicurezza del personale del team di lancio è la nostra massima priorità e saranno prese tutte le precauzioni per proteggere la navicella spaziale Europa Clipper”, ha affermato Tim Dunn, direttore senior del lancio presso il Launch Services Program della NASA.

Una volta conclusa l’emergenza il team di lancio valuterà la nuova finestra utile per il lancio.

EUROPA CLIPPER lancio il 10 Ottobre: il programma della giornata

Confermato il tentativo di lancio della sonda Europa Clipper per giovedì 10 Ottobre alle 12:31 pm EDT (alle 18:31 ora locale italiana UTC+02), su un razzo SpaceX Falcon Heavy dal Launch Complex 39A presso il Kennedy Space Center della NASA in Florida.

La NASA fornirà la copertura in diretta delle attività di pre-lancio e lancio per Europa Clipper, la missione dell’agenzia per esplorare la luna ghiacciata di Giove Europa.

Oltre alla Terra, la luna di Giove Europa è considerata uno degli ambienti potenzialmente abitabili più promettenti del Sistema Solare. Dopo un viaggio di circa 2,8 miliardi di km, Europa Clipper entrerà in orbita attorno a Giove nell’aprile 2030, dove la sonda condurrà un’indagine dettagliata di Europa per determinare l’esistenza delle condizioni adatte alla vita. Europa Clipper è la più grande sonda spaziale planetario che la NASA abbia mai sviluppato. Trasporterà ben nove strumenti insieme a un esperimento sulla gravità che esaminerà l’oceano sotto la superficie, nel quale dovrebbe trovarsi il doppio dell’acqua liquida degli oceani della Terra.

La copertura della missione della NASA inizia ben due giorni prima, l’8 ottobre e prosegue fino al lancio. Come sempre in questi casi il programma può subire variazioni in base all’andamento delle operazioni.

Martedì 8 ottobre

15:30 EDT (21:30 UTC+02) – Briefing scientifico della sonda Europa Clipper della NASA con i seguenti partecipanti:

  • Gina DiBraccio, direttore ad interim, Planetary Science Division, NASA Headquarters
  • Robert Pappalardo, scienziato del progetto Europa Clipper, Jet Propulsion Laboratory della NASA
  • Haje Korth, vice scienziato del progetto, Europa Clipper, Applied Physics Laboratory (APL)
  • Cynthia Phillips, scienziata dello staff del progetto, Europa Clipper, NASA JPL

La copertura della conferenza stampa scientifica sarà trasmessa in diretta su NASA+ e sul sito web dell’agenzia . Scopri come trasmettere in streaming i contenuti della NASA attraverso diverse piattaforme, compresi i social media.

Mercoledì 9 ottobre

14:00 EDT (20:30 UTC+02) – NASA Social panel presso la NASA Kennedy con i seguenti partecipanti:

  • Kate Calvin, scienziata capo e consulente senior per il clima, sede centrale della NASA
  • Caley Burke, analista di progettazione di volo, programma di servizi di lancio della NASA
  • Erin Leonard, scienziata dello staff del progetto, Europa Clipper, NASA JPL
  • Juan Pablo León, ingegnere di test dei sistemi, Europa Clipper, NASA JPL
  • Elizabeth Turtle, ricercatrice principale, strumento Europa Imaging System, Europa Clipper, APL

Il panel sarà trasmesso in streaming live sugli account YouTube , X e Facebook della NASA Kennedy . I membri del pubblico possono porre domande online pubblicando sui live streaming di YouTube, X e Facebook o utilizzando #AskNASA.

15:30 EDT (21:30 UTC+02) – Conferenza stampa pre-lancio dell’Europa Clipper della NASA (al termine della Launch Readiness Review), con i seguenti partecipanti:

  • Amministratore associato della NASA Jim Free
  • Sandra Connelly, vice amministratore associato, Science Mission Directorate, sede centrale della NASA
  • Tim Dunn, direttore del lancio, Launch Services Program della NASA
  • Julianna Scheiman, direttore, missioni scientifiche della NASA, SpaceX
  • Jordan Evans, responsabile del progetto Europa Clipper, NASA JPL
  • Mike McAleenan, ufficiale meteorologo di lancio, 45th Weather Squadron, US Space Force

La conferenza stampa pre-lancio verrà trasmessa in diretta streaming su NASA+ , sul sito web dell’agenzia , sull’app NASA e su YouTube .

17:30 EDT (23:30 UTC+02) – Spettacolo di lancio dell’Europa Clipper della NASA. La copertura sarà trasmessa in diretta su NASA+ , sul sito web dell’agenzia , sull’app NASA e su YouTube .

Giovedì 10 ottobre

11:30 EDT (17:30 UTC+02) – Inizia la copertura in inglese del lancio della NASA su NASA+ e sul sito web dell’agenzia .

11:30 EDT (17:30 UTC+02) – Inizia la copertura del lancio della NASA in spagnolo su NASA+, sul sito web dell’agenzia e sul canale YouTube spagnolo della NASA .

12:31 pm EDT (18:30 UTC+02) – Lancio

Copertura video in diretta prima del lancio

La NASA fornirà un feed video in diretta del Launch Complex 39A circa 18 ore prima del decollo pianificato della missione sul canale YouTube della NASA Kennedy Newsroom . Il feed non verrà interrotto fino all’inizio della trasmissione del lancio su NASA+ .

Copertura del lancio del sito Web della NASA

La copertura della missione il giorno del lancio sarà disponibile sul sito web dell’agenzia . La copertura includerà link allo streaming live e aggiornamenti del blog a partire non prima delle 10:00 del 10 ottobre, quando si verificheranno le pietre miliari del conto alla rovescia. Video e foto in streaming on-demand del lancio saranno disponibili poco dopo il decollo.

Segui la copertura del conto alla rovescia sul blog Europa Clipper .

Partecipa virtualmente al lancio

I membri del pubblico possono registrarsi per partecipare virtualmente a questo lancio. Il programma virtuale per gli ospiti della NASA per questa missione include anche risorse di lancio curate, notifiche su opportunità o cambiamenti correlati e un timbro per il passaporto virtuale per gli ospiti della NASA dopo il lancio.

Per il programma degli eventi live e le piattaforme su cui verranno trasmessi in streaming, visita:

https://go.nasa.gov/europaclipperlive

Per maggiori informazioni sulla missione, visita:

https://science.nasa.gov/mission/europa-clipper/

La Filosofia è Scienza: incontro al Cicap Fest

Nello scatto una splendida veduta della Sala

Al Cicap Fest di quest’anno, a Padova, tra gli eventi più seguiti spicca l’intervento di Filippo Onoranti e Molisella Lattanzi, rispettivamente autore e direttrice editoriale di Coelum Astronomia, che ha offerto una riflessione profonda sul legame indissolubile tra filosofia e scienza. Durante il dialogo, tenuto nella splendida cornice della sala consiliare del Palazzo Santo Stefano, sede della provincia di Padova, Onoranti ha provocatoriamente suggerito che non si dovrebbe parlare di “filosofia e scienza”, ma piuttosto di “filosofia è scienza”, sottolineando l’idea che queste due discipline non siano separabili, ma siano anzi due facce della stessa medaglia.

Una veduta della sala del consiglio di Palazzo Santo Stefano prima dell’inizio dell’evento.

I due relatori hanno affrontato temi centrali per esplorare questo connubio, tra cui il concetto di verità, descritto come un “bias collettivo molto funzionale”. Questa visione, lontana dall’idea di verità assoluta, è stata presentata come un filtro attraverso cui l’umanità costruisce la propria comprensione del mondo, utilizzando concetti e teorie per creare una realtà condivisa e praticabile, pur rimanendo consapevoli dei limiti della conoscenza umana. In questo contesto, sia la scienza che la filosofia vengono viste come strumenti fondamentali per esplorare e ridefinire costantemente questa “verità operativa”.

Un altro tema centrale del dibattito è stato il concetto di “nulla”, affrontato sia da una prospettiva scientifica che filosofica. Mentre la scienza tenta di definire il nulla attraverso l’assenza di materia o energia, la filosofia cerca di esplorarne i significati esistenziali e concettuali, sollevando interrogativi profondi sulla natura dell’esistenza e del vuoto. Questo tema, sebbene astratto, ha stimolato un confronto interessante su come entrambe le discipline, pur partendo da approcci diversi, cerchino risposte a domande fondamentali sulla realtà.

L’evento ha attratto una folta rappresentanza di insegnanti, molti dei quali erano alla ricerca di spunti per avvicinare i giovani alla filosofia attraverso il dialogo con la scienza. In particolare, gli insegnanti hanno mostrato interesse verso l’idea di utilizzare il pensiero scientifico come strumento per rendere la filosofia più accessibile e stimolante per gli studenti. Anche diversi appassionati di scienza erano presenti, affascinati dall’opportunità di esplorare nuove connessioni tra queste discipline apparentemente distinte ma profondamente interconnesse.

L’intervento di Onoranti e Lattanzi ha offerto un’importante riflessione sulla necessità di abbattere le barriere tra le materie umanistiche e scientifiche, promuovendo una visione integrata della conoscenza che può arricchire sia l’insegnamento che il dibattito culturale.

Il Cicap Fest è uno degli eventi più importanti in Italia dedicati alla divulgazione scientifica e al pensiero critico. Organizzato dal Comitato Italiano per il Controllo delle Affermazioni sulle Pseudoscienze (CICAP), il festival si tiene annualmente a Padova e riunisce scienziati, filosofi, divulgatori e giornalisti per affrontare temi di grande attualità legati alla scienza, alla razionalità e al contrasto delle pseudoscienze. Attraverso conferenze, dibattiti e laboratori interattivi, il Cicap Fest si pone l’obiettivo di promuovere il pensiero critico, l’educazione scientifica e la diffusione della cultura del dubbio.

Vedi il programma dell’edizione 2024 QUI