Il Futuro degli strumenti da Terra: l'Ottica Adattiva Elettronica


    Come ampiamente descritto in un passato articolo su questa rivista denominato, "Lo strumento per eccellenza: il Telescopio", nel corso degli ultimi decenni l'ingegneria ottica finalizzata all'imaging dei telescopi di grandi dimensioni è divenuta sempre più sofisticata.

    07/01/2008

    Con il trascorrere del tempo una gran parte di telescopi a terra di grandi dimensioni sono stati progettati e realizzati con caratteristiche talmente spinte da riuscire ad essere paragonabili in buone condizioni osservative ai telescopi spaziali.

    Nell'articolo sovra citato (link in sitografia) abbiamo passato in rassegna alcune tecniche più o meno innovative, che hanno azzerato (o quasi) i difetti riscontrati sulle immagini scientifiche imputabili rispettivamente alla deformazione degli specchi indotta dal loro peso non indifferente e quelli, ancora più fastidiosi e difficili da rimuovere, causati dai moti turbolenti atmosferici.(1)

    Tutti questi problemi in orbita, per definizione, non esistono, in quanto il peso risulta annullato dalla forza apparente centrifuga, la quale bilanciando la forza di gravità permette al telescopio (satellite) di rimanere in orbita senza decadere; inoltre un telescopio situato nello spazio, essendo fuori dall'atmosfera, non risente di tutte quelle turbolenze introdotte dalle correnti d'aria e dal movimento delle formazioni nuvolose, che affliggono inesorabilmente tutti telescopi terrestri.

    Come appena detto, per realizzare un telescopio a terra è necessario un certo quantitativo di finanziamenti, i quali nel caso di un telescopio spaziale crescono esponenzialmente; per non parlare delle missioni di riparazione e/o mantenimento indispensabili, ognuna con costi spropositati.

    Nonostante quindi fosse possibile escludere a priori tutti questi problemi osservativi, era preferibile cercare delle soluzioni tecnologiche per compensare ed azzerare tutti i difetti osservativi nocivi derivanti dal posizionamento di un telescopio a terra.

    Con il passare del tempo le più grandi menti si sono adoperate al fine di risolvere questi problemi e piano piano hanno ottenuto delle soluzioni sempre più perfezionate e funzionali.

    In questa carrellata di innovazioni tecnologiche basti pensare al primo telescopio con Ottica Attiva, il New Technology Telecope (NTT), che sfruttava la tecnologia degli specchi sottili, i quali, tramite degli attuatori piezo-elettronici, potevano compensare la deformazione dello specchio indotta dal suo peso, riproducendo una superficie ottimale teorica (paraboloide) a qualsiasi inclinazione dello specchio.

    Questo telescopio fu a tutti gli effetti una pietra miliare dell'astronomia da terra a cui tutti i successivi strumenti si conformarono (anche il TNG si basa su questa tecnologia); in particolare i suoi fratelli maggiori Very Large Telescopes.

    Nonostante l'ottica attiva permettesse di eseguire delle osservazioni con la migliore conformazione ottica possibile, le osservazioni da terra erano comunque affette dalle variazioni del tempo meteorologico che, anche quando è sereno e limpido può non essere adatto a delle osservazioni scientifiche.

    La prima cosa che si notò fu che il luogo fisico in cui i telescopi andavano costruiti doveva essere al riparo dagli agenti atmosferici poiché quando una corrente d'aria investe la cupola di un telescopio tende a creare dei mini-vortici sulla sua sommità e questo fenomeno degrada in maniera consistente l'immagine.

    Tra i siti privilegiati per costruire dei telescopi c'è sempre stata l'alta montagna poiché se è vero che l'atmosfera produce gran parte dei problemi osservativi, posizionare un telescopio a 2-3000 metri di fatto esclude una parte di atmosfera all'osservazione e la stessa percentuale di aria risulta molto meno densa e rarefatta, quindi gran parte dei fenomeni connessi all'assorbimento atmosferico di certe lunghezze d'onda vengono meno.

    Purtroppo sulla scia di questo ragionamento, molto spesso furono realizzati dei telescopi sulla sommità di montagne, pensando di poter accedere ad un maggiore angolo solido osservativo, ma questo, oltre ad avere un disastroso impatto visivo ed ecologico, comportava una continua turbolenza sistematica causata dal profilo frastagliato delle montagne ed anche dalle cupole dei telescopi in questione, che solitamente erano a forma sferica.

    Dopo questi continui fallimenti si comprese che i migliori siti osservativi non erano le montagne, ma gli altipiani (possibilmente molto ampi, regolari e desertici) dove le correnti d'aria si potevano disporre in maniera laminare senza creare turbolenze e vortici.

    Inoltre già dal NTT in poi le cupole cominciarono a non essere più di forma sferica, ma a forma di grandi scatole squadrate con le cupole completamente aperte e le pareti dotate di lamelle di ventilazione in modo da ridurre al minimo l'ostacolo del telescopio e della cupola al vento e riprodurre nel modo più efficace possibile l'andamento laminare delle correnti d'aria.

    Il sito ottimale per le osservazioni scientifiche quindi doveva essere un altipiano riparato da una cordigliera montuosa da una parte(in modo da bloccare sia le perturbazioni sia le correnti d'aria umide) e dalla parte opposta doveva essere aperto verso grandi praterie sconfinate(avevano il ruolo di prosciugare le correnti d'aria (alisei), privandole del vapor d'acqua).

    Fu da uno studio apposito che l'ESO (European Southern Observatory), scoprì La Silla prima e Cerro Paranal poi, come i migliori siti osservativi sul pianeta situati su un altopiano a 4000/5000 metri di altitudine sul livello del mare. Entrambi i siti protetti dalle grande cordigliera delle Ande cilene ad Ovest e disposti ad EST verso le grandi pianure (Pampas) argentine.

    In questi siti le precipitazioni sono scarsissime ed il cielo è quasi sempre adatto alle osservazioni astronomiche.

    Nonostante si utilizzasse il miglior telescopio (VLT) nel miglior sito osservativo (Cerro Paranal appunto), i telescopi spaziali erano ancora un gradino avanti come prestazioni e potere risolutivo ai migliori telescopi da terra.

    Gli scienziati non si persero d'animo e svilupparono delle tecnologie via via più sofisticate fino a che nacque il primo prototipo di Ottica Adattiva.

    L'ottica adattiva funziona grosso modo come l'ottica attiva in cui lo specchio viene deformato dalla forma teorica (garantita dai cicli di ottica attiva) sempre tramite degli attuatori piezo-elettronici, disposti su una rete più fitta.

    A differenza dell'ottica attiva, il cui tasso temporale di correzione è minimo, l'ottica adattiva agisce introducendo le deformazioni sugli specchi secondari ad intervalli temporali tipici della variazione della forma degli oggetti (variabilità del seeing).

    Tramite la combinazione di ottica attiva ed ottica adattiva è possibile modificare in tempo reale il fronte d'onda incidente in modo da compensare le deformazioni introdotte dalla turbolenza atmosferica.

    La realizzazione fisica di questo apparato scientifico è semplice ma al contempo complessa: si proietta una stella artificiale sulla volta celeste e si analizza il profilo di luce con lo scorrere del tempo. Successivamente paragonando la forma d'onda (sfericità, elongazione, concentrazione ecc...) osservata in cielo con quella proveniente dalle osservazioni a cupola chiusa, è possibile introdurre delle micro variazioni sulla forma dello specchio secondario per modificare interattivamente il profilo di luce risultante ed ottenere sempre le stelle di guida più puntiformi possibile.

    Dopo che i primi prototipi furono sviluppati con successo al fuoco dei telescopi Keck sul vulcano Mauna Kea alle Awaii, questa tecnica di proiezione di stelle artificiali venne via via perfezionata aggiungendo altre stelle artificiali lungo tutto il perimetro del campo osservativo per tenere in considerazione le variazione della Point Spread Function (PSF) lungo il piano focale(2), variazioni, la cui entità può risultare anche ingente per molti rivelatori CCD.

    In questo caso si parla di Ottica Adattiva Bi-Coniugata o Multi-Coniugata.

    Quindi se le deformazioni ottiche sono tenute sotto controllo dall'ottica attiva, tramite l'Ottica Adattiva Bi-Coniugata o Multi-Coniugata, è possibile prevedere la forma del profilo di luce provenienti da sorgenti puntiformi lungo tutto il piano focale e questo permette di ottenere delle immagini di qualità ottica paragonabile a quelle ottenute dai telescopi spaziali.

    Anche se il risultato finale di tanto lavoro è quello di ottenere strumenti ottici funzionanti da terra con risoluzione e prestazioni paragonabili a quelli da spazio, il costo di tali apparati è lievitato con il passare del tempo; per eseguire tali correzioni/compensazioni è necessario adottare un apparato hardware-software molto imponente, sofisticato e di norma costosissimo.

    L'ultimo sviluppo innovativo e rivoluzionario è andato nella direzione software anziché quella hardware ed è cosi che è nato l'OTCCD, cioè l' Ortogonal Transfer Charge Coupled Device.

    Si tratta di un dispositivo di accoppiamento di carica CCD a trasposizione, cioè lettura delle cariche, sia orizzontale sia verticale.

    Tale innovativo CCD è una versione elettronica dell'ottica adattiva, che permette di compensare il tremolio dell'immagine dovuto alla presenza delle turbolenze atmosferiche alla frequenza di circa 100Hz.

    Questi dispositivi funzionano in questo modo: durante la posa scientifica alcune stelle luminose presenti nel campo vengono rapidamente monitorate da un sensore, come avviene per l'ottica adattiva tradizionale (spesso su sorgenti laser artificiali), però le compensazioni della forma del fronte d'onda indotte dalle turbolenze atmosferiche non vengono effettuate indirettamente sulle ottiche del sistema, ma direttamente sulle cariche del CCD presenti nel chip.

    Tali cariche verranno spostate elettronicamente dal pixel in cui esse vengono generate a quello teorico (corretto) dove sarebbero dovute essere in assenza di turbolenza atmosferica; queste operazioni avverranno durante la lettura del chip in real time.

    Viene quindi disegnata una griglia di trasposizioni di carica all'interno dei chip letti che lega tra loro le zone in cui le stelle monitorate sono state corrette e le zone intermedie del chip dove tale correzione non è stata effettuata producendo in ultima analisi la stessa immagine risultante generata da una classica ottica adattiva multi-coniugata; il tutto in assenza degli ingenti e costosi apparati sperimentali di cui tali strumenti classici necessitano.

    [inline: 1= Immagine - 1 - schema dell'array di OTCCDs in PanSTARRS] Immagine - 1 - Aspetto schematico della camera PanSTARRS e schema della possibile lettura dei pixels di ogni chip della camera.

    Il primo prototipo di un siffatto dispositivo strumento si chiama Pan-STARRS e verrà messo al fuoco del telescopio Mauna Kea alle Hawaii; tale trumento avrà un campo di vista di 3gradi quadrati ed andrà a scandagliare l'intera volta celeste alla ricerca di corpi minori del sistema solare e variabili stellari nella nostra galassia e nelle galassie vicine; la risoluzione a cui opererà questo innovativo strumento è di circa 1400 MegaPixels, una risoluzione talmente spinta, che gli ha fatto dare l'appellativo di GigaCamera, ed è la più grande camera CCD mai costruita.

    E' molto probabile che in questa camera, composta da un mosaico di 64x64 CCDs quadrati della dimensione di 600x600 pixels cadauno, a causa del grande campo di vista, durante una osservazione una o più stelle brillanti vadano a cadere entro l'area di uno dei chip.

    Quando una stella è molto luminosa tende a saturare velocemente il chip in questione, rendendone impossibile l'utilizzo scientifico; per ovviare a questo inconveniente è necessario quindi diminuire il tempo di lettura in maniera ingente e questa operazione in PanSTARRS può essere effettuata anche solamente in uno dei chip lasciando invariati i chips adiacenti del mosaico di 64x64 tasselli; quindi in ultima analisi i chips adiacenti non risentiranno della presenza della stella satura.

    [inline: 2= Immagine - 2 - Immagine - 2 - confronto tra CCD e OTCCD] Immagine - 2 - Confronto tra l'immagine di un semplice CCD e quella di un OTCCD, come si nota le sorgenti nella seconda immagine risultano molto più nitide con dettagli più evidenti.

    Per renderci conto della potenza di questo strumento, ogni immagine prodotta da un siffatto mosaico CCD avrà la dimensione di 2GigaByte (2 byte per pixel) ed ogni notte osservativa produrrà circa 10 terabyte di dati grezzi da analizzare. Appare chiaro come l'analisi, l'immagazzinamento e l'utilizzo di tale mole di dati dovrà essere resa totalmente automatico.

    Per questo motivo almeno per la prima parte del progetto a causa della carenza di risorse, in particolare connesse con l'archiviazione dei dati, le immagini prodotte verranno analizzate automaticamente e verranno salvate solamente le posizioni delle sorgenti mobili rispetto alle stelle fisse. Le immagini verranno successivamente cancellate.

    In questo modo sarà possibile effettuare in poco tempo un censimento quasi completo di tutti gli oggetti monori del sistema solare, dai NEOs ai Trojani (addio astro amatori e scopritori di NEOs!!!).

    Si pensa comunque che una volta eseguita la prima survey completa del cielo ed identificati tutti (o quasi) i corpi minori del sistema solare, questo trend di eliminazione automatica delle immagini possa essere messo da parte per analizzare in modo più rigoroso le successive osservazioni.

    Note

    (1) Quando una osservazione atmosferica viene effettuata attraverso un mezzo trasparente di diversa composizione, densità e temperatura, l'indice di rifrazione varia con la posizione e con il tempo; questo effetto, simile a quando si osserva un oggetto situato sul fondo di un ruscello, provoca deformazioni dell'immagine dell'oggetto che possono anche variare velocemente, non restituendo mai la reale forma dell'oggeto osservato. In questo senso delle turbolenze atmosferiche situate sopra la cupola di un telescopio possono indurre delle deformazioni sugli oggetti osservati con variabilità ed entità non trascurabile.

    (2) La PSF, altrimenti detta Point Spread Function è la misura della distribuzione della luce all'interno di un rivelatore che esegue imaging. Una sorgente puntiforme dovrebbe essere puntiforme in linea teoria, ma, a seconda della geometria delle ottiche e della risposta più o meno lineare dei rivelatori (nel nostro caso CCDs), si dispone lungo una distribuzione gaussiana tridimensionale con il picco della distribuzione (centro) usualmente coincidente, a meno di deformazioni del piano focale, con il baricentro della distribuzione.

    Bibliografia

    John L.Thonry, "The Orthogonal Transfer CCD", 1997 PASP..109.1154T

    Sitografia

    Lo strumento per eccellenza: il Telescopio | Articolo di Stefano Gallozzi, Le Scienze Web News www.lswn.it/astronomia/articoli/lo_strumento_per_eccellenza_il_telescopio

    HST home page http://hubblesite.org/

    NTT home page http://meli.ls.eso.org/lasilla/Telescopes/NEWNTT/telescope/esontt.html

    Keck home page http://www.astro.caltech.edu/observatories/keck.bluebook.html

    TNG home page http://www.tng.iac.es/

    PanSTARRS home page http://pan-starrs.ifa.hawaii.edu/public



    Newsletter

    Resta informato con le nostre notizie periodicamente

    Cliccando sul pulsante iscriviti acconsenti al trattamento dei tuoi dati. La tua email non verrà MAI ceduta a nessuno!