Image de la comète C/2022 E3 ZTF – avant qu’elle ne quitte définitivement le système solaire – capturée le 9 février dans des conditions favorables : très beau ciel (SQM 21,65), pas de Lune et après acquisition de 160 images avec ma caméra QHY600 couleur soit 57 Go de données. Ensuite traitements divers : alignements sur le cœur, empilement, gradient, histogrammes et saturation des couleurs pour identifier les structures.
Jean-Pierre BONNEFOY

Quelques réflexions sur l’observation de la Comète C/2022 E3 (ZTF)

9 février 2023 – Tahiti – Te Tavake
Jean-Pierre Bonnefoy

 

Sources :  https://fr.wikipedia.org/wiki/C/2022_E3_(ZTF) , JPL, Stellarium

 Origine : Comète ordinaire provenant du nuage de Oort.

Période : initialement considérée de l’ordre de 50 000 ans. Mais le JPL estime, d’après les mesures effectuées sur les paramètres orbitaux, que les Terriens du futur ne la reverront pas.

<<< cette comète est en train de s’éloigner à toute vitesse, observée désormais à 57,4 km/seconde, en janvier 20231. La trajectoire actuelle suggère qu’après avoir dépassé l’orbite de Neptune en 2030 selon le calcul du JPL Jet Propulsion Laboratory1, C/2022 E3 quittera définitivement le système solaire3. >>>

 

Au 9 février…

Diamètre du cœur : 10 km
Diamètre estimé de la chevelure : 294 000 km
Distance de la Terre : 60 millions de km
Distance du Soleil : 180 millions de km
Vitesse orbitale de la comète : 38,4 km/s
Vitesse orbitale de la Terre : 30 km/s
Vitesse par rapport à la Terre au plus près : 57,4 km/s

Acquisition :

 Télescope PlaneWave CDK17 diamètre 432mm / focale 2939mm
Caméra d’acquisition : QHY600 couleur 61 Mp pilotée par SharpCap Pro
Autoguidage par diviseur optique SBig SC3 avec PHD2 – étoile guide 10 s de pose
Monture 10Micron GM3000HPS

Aucun nuage, ciel étoilé, météo très favorable

Nuit noire à Te Tavake vers 19h30, SQM = 21,65 donc très bon ciel

Avant le lever de la Lune vers 21h25, c’est une soirée idéale pour obtenir une belle image de la comète

Elle est bien visible, mais se déplace très rapidement parmi les étoiles et il est impossible de faire des poses > 15 secondes, sinon la comète se déplacera pendant chaque pose et les images seront floues.

Donc, je ne peux pas travailler de manière optimale avec un gain de caméra de 50% permettant une réduction idéale du bruit sur le capteur. Car cette limite, imposant une durée maximale de pose de 15 secondes, nécessite un gain élevé de 86% pour la caméra afin d’avoir une image suffisamment lumineuse, et cette valeur de gain génère du bruit sur le capteur même en descendant ce dernier à une température voisine de 0°C.

La seule solution est alors de capturer une très grande quantité d’images en espérant une bonne diminution du bruit lors de l’empilement.

Entre 19h41 et 20h50, j’obtiens ainsi 160 images de 358 Mo en .fits RVB (soit 57 Go en tout), sans Lune et sans que la comète soit trop basse dans le nord (39°53’). Ainsi elle reste au-dessus de la légère pollution lumineuse de Papeete qui n’apparaîtra pas dans les images.

De fait, un alignement des 160 images brutes avec PixInsight (sur le noyau de la comète et non sur les étoiles), suivi d’un empilement, produit un joli filé d’étoiles sur la comète et une disparition quasi-totale du bruit de la caméra.

Du coup, une suite de traitements un peu poussés devient possible pour faire apparaître les structures de ZTF : extraction du gradient, transformations non linéaires d’histogramme, plus une forte saturation des couleurs en général, avec ensuite une priorité au bleu et au vert, le tout permettant de faire ressortir les structures. Il faut choisir : couleurs douces sans structures bien définies, ou saturation des couleurs et mise en évidence des structures.

 

Le champ de l’image final est de 0,4° x 0,3°

 

 

Réflexions sur les couleurs en général :

 La couleur verte – observée pour beaucoup de comètes – située devant et autour du noyau solide résulte d’une décomposition d’une molécule de carbone diatomique. Cette couleur traduit aussi la présence de cyanogène.

Mais d’un point de vue général, la question classique surtout pour un objet du ciel profond, nébuleuse, galaxie ou comète : « Est-ce que toutes ces couleurs sont de vraies couleurs ? » ne me semble pas très réaliste. Les « vraies » couleurs n’existent pas. Les couleurs sont des interprétations de notre cerveau en fonction du câblage et du nombre des différents types de cônes situés derrière la rétine. Et ces types de câblage sont très variés chez les êtres vivants. Les dauphins voient le monde en nuances de gris, les chiens sont daltoniens, les abeilles voient les UV… et la crevette mante dispose de 12 types de cônes lui permettant donc de « voir » quantité de couleurs que l’on ne connaît pas, comme le daltonien ne connaît pas en général la couleur rouge !

Pour résumer, seules existent les longueurs d’ondes émises par les objets et la sensation de ce que nous nommons « couleurs » n’est donc générée, derrière la rétine de notre œil, qu’après une combinaison neurophysiologique d’un trio de cellules spécialement « construit » pour les humains. Trois types de cônes sensibles autour de trois longueurs d’ondes associées au rouge, au vert et au bleu, en synthèse additive.

Bien entendu, aucun capteur CCD ou CMOS ne « voit » les couleurs. Ils ne sont sensibles qu’à l’intensité lumineuse. Tous les dispositifs tels qu’appareils photos et caméras numériques, ou smartphones, sont équipés entre l’objectif et le capteur d’une matrice de Bayer comportant au niveau des pixels un filtre rouge, deux filtres verts et un filtre bleu, lesquels avec l’électronique embarquée, reconstituent les couleurs suivant la même synthèse additive que celle effectuée par les propres cônes de notre œil. Alors on peut dire que les smartphones « voient » les couleurs comme nous. Un système analogue produit sur les écrans numériques les « bonnes » couleurs pour les humains.

Mais tout cela n’empêche pas de mesurer précisément la longueur d’onde – ou la fréquence de l’onde électromagnétique – du rayonnement émis dans le vert autour du noyau d’une comète, de la même manière que le maximum d’intensité lumineuse mesurée pour le Soleil correspond à une longueur d’onde bien spécifique associée au vert. A chaque longueur d’onde monochromatique du spectre de la lumière visible nous associons une sensation nommée « couleur ». Mais nos couleurs résultent en réalité d’une combinaison polychromatique obtenue par la synthèse additive des trois types de cônes, pour la simple raison que l’on ne peut pas voir autrement qu’au travers de cette combinaison ! On ne peut pas débrancher un cône.

 

Les couleurs que l’on voit sur mon image de la comète après traitements

 

En ce qui concerne l’image de cette comète, ses différentes couleurs obtenues par diverses transformations sur l’image – qui ne modifient pas les longueurs d’ondes émises, mais leurs histogrammes et leurs intensités relatives – traduisent donc des zones d’émissions de longueurs d’ondes différentes. Indépendamment des sensations de couleurs que nous percevons, ces zones mettent en évidence plusieurs structures autour du noyau, c’est là leur intérêt indépendamment de l’aspect purement esthétique.

Par ailleurs, la tache blanche très lumineuse au centre de la tête de la comète n’est pas le noyau, lequel beaucoup plus petit ne peut être distingué par mon télescope. Cette tache très brillante résulte d’un éblouissement très violent des pixels du capteur en raison de l’extrême intensité de la lumière émise, de ce fait la lumière « bave » en envahissant toute une zone du capteur. Comme les halos que nous voyons la nuit se former autour des phares des voitures « bavent » en envahissant toute une zone de notre rétine.

Pour revenir aux couleurs des objets du ciel profond, que dire des « couleurs » des nébuleuses capturées avec trois filtres à bandes étroites H-alpha, OIII et SII (Hydrogène, Oxygène, Souffre) dont les signaux (les longueurs d’ondes sélectionnées par ces filtres) combinés comme du rouge/vert/bleu produisent évidemment de « fausses » couleurs que l’on admire, souvent sans se poser de question, par exemple dans les clichés de Hubble ? On parle d’ailleurs de la « palette » Hubble qui fait implicitement référence à l’utilisation de ces filtres par ce télescope.

… que dire aussi de mon image de M1, la fameuse nébuleuse du Crabe, justement obtenue le 24 janvier dernier à Te Tavake avec ma caméra QHY600 monochrome et trois filtres H-alpha, OIII et SII ? Quel est le but d’une telle image ? Pas spécialement les couleurs, lesquelles participent bien entendu à une certaine esthétique de l’image… mais ici il s’agit surtout de détecter les belles structures filamenteuses du rémanent de la supernova dont l’explosion a été observée en 1054 par un astronome chinois.

… ne parlons pas des très belles images produites par le fameux télescope James Webb, lequel « regarde » l’infrarouge lointain parce que les objets les plus éloignés du ciel profond émettent essentiellement dans l’infrarouge. Ces magnifiques images inondant les médias sont obtenues après de multiples et complexes décalages spectraux, afin que les humains que nous sommes (qui ne perçoivent pas les longueurs d’onde de l’infrarouge) puissent voir quand même quelque chose plutôt que rien… mais en fausses couleurs, bien entendu ! On peut alors se reposer la question :

« Ces couleurs, sont-elles de « vraies » couleurs ? »

 

 

 

 

 

 

 

 

Laisser un commentaire