Images numériques :

Restauration et traitements des images





 

 


Précédents :


Suivant :

 

Les images prétraitées sont représentatives de l'information détectée par le CCD. Celle-ci est cependant déjà dégradée par l'agitation atmosphérique, et consiste de toutes façons en petites variations spatiales et temporelles difficiles à mettre en évidence. Le traitement d'images proprement dit consiste à amplifier ces variations par rapport au signal moyen et à compenser les dégradations dues à l'atmosphère terrestre et aux optiques. En tant que telles, les méthodes de traitement sont donc pour l'essentiel des convolutions (qui travaillent sur un voisinage de chaque point, par opposition aux opérations ponctuelles).

 

Optimisation des détails, filtrage

L'égalisation d'histogramme est plus une technique de visualisation qu'une méthode de traitement (c'est une opération ponctuelle). Pour une variable continue, elle consiste à transformer les intensités à l'aide d'une fonction telle que leur distribution résultante moyenne soit uniforme (il s'agit en fait de l'histogramme cumulé de l'image). Dans le cas d'intensités discrètes l'histogramme résultant n'est pas plat, mais le plus homogène possible : la transformation a pour effet de dilater ou compresser localement l'histogramme (ie : de séparer les valeurs d'intensité) pour obtenir une distribution des valeurs qui soit aussi régulière que possible. Dans l'histogramme équalisé, les bins sont d'autant plus espacés qu'ils ont des valeurs plus importantes/contiennent plus d'éléments : l'histogramme est uniforme seulement en moyennant sur un intervalle assez large.

Le filtrage spatial consiste à mélanger localement les informations mesurées (la valeur résultante d'un pixel est une fonction de tout le voisinage de ce pixel). En pratique on superpose à l'image un masque (noyau de convolution) nul en dehors d'une petite zone centrée sur un point ; on calcule le produit point par point de l'image et du noyau et on somme ces valeurs. Le résultat remplacera la valeur du pixel central. En faisant glisser le noyau sur l'image, on calcule l'image transformée. Avec un noyau uniforme, on fait ainsi un simple lissage (moyenne mobile), mais on utilise couramment des noyaux plus complexes pour le filtrage.

Les filtres passe-haut sont typiquement des convolutions par des fonctions très piquées. Leur intérêt est de filtrer la composante continue ou lentement variable de l'image, en particulier la variation lente d'éclairement avec la distance au point sub-solaire. Le noyau de convolution utilisé doit avoir une somme égale à 1 pour conserver la photométrie (positif au centre, négatif aux bords).

Les filtres passe-bas sont linéaires si tous leurs coefficients sont positifs. Pour l'atténuation des détails et du bruit, les filtres médians (non-linéaires) sont mieux adaptés car ils préservent les contours et les trames. Les filtres passe-bas sont utilisés essentiellement pour les filtres high-boost (renforcement des hautes fréquences), en particulier pour les masques flous. Cette technique très simple à mettre en œuvre est bien adaptée aux images planétaires. Elle consiste à rajouter une image des hautes fréquences à l'image originale pour renforcer les contrastes locaux ; c'est donc plus une technique de renforcement de contours qu'une réelle méthode de restauration, puisqu'elle ne reconstitue pas les détails dégradés par convolution avec la fonction optique. L'image des hautes fréquences s'obtient en soustrayant une image basse fréquence à l'originale :

HF = Ima - Smooth(Ima, 5)

L'image finale s'écrit donc :

Finale = Ima - Smooth(Ima, 5) / 1.2

où Smooth(ima, 5) est une moyenne mobile sur 5 points de l'image de départ.

Ce traitement comporte donc deux paramètres, l'échelle de lissage (qui correspond à la taille des détails qu'on veut mettre en évidence) et le coefficient appliqué à l'image basse fréquence (le taux de réjection de la partie BF). Ces paramètres dépendent de l'objet observé et de la résolution angulaire, mais varient en fait assez peu (on n'a pas intérêt à forcer sur le coefficient en particulier). On trouve en ligne plusieurs bonnes discussions de cette technique du masque flou.

 

Les filtrages spatiaux décrits ci-dessus ont deux inconvénients : d'une part ils ne sont pas applicables aux bords des images (dans un domaine d'une largeur égale à la moitié de la dimension du noyau de convolution), ce qui pose un problème seulement si le disque déborde l'image (c'est rarement le cas pour les images télescopiques, mais ça arrive constamment pour les instruments spatiaux) ; d'autre part ils imposent une fréquence de coupure très nette et artificielle, à moins d'utiliser des noyaux de convolution lentement variables, et donc très larges. Pour optimiser ces filtres, on a intérêt à travailler dans l'espace de Fourier (la convolution est aussi le produit ponctuel des transformées de Fourier de l'image et du noyau). Du point de vue de la rapidité d'exécution, le filtrage dans l'espace de Fourier est plus efficace dès que les dimensions du noyaux atteignent 20x20, à condition d'utiliser un algorithme FFT - ce qui implique de travailler sur des images dont les dimensions sont des puissances de 2.

Le filtrage de Fourier s'effectue donc par multiplication ponctuelle de l'amplitude par le filtre, sans modification de la phase. Le filtrage à coupure nette est un simple masquage de la transformée de Fourier de l'image hors d'un domaine de fréquences donné. L'utilisation d'un filtre circulaire binaire (l'équivalent à 2D d'un créneau) produit des interférences à texture circulaire dans l'image filtrée (on retrouve des vaguelettes autour des transitions brusques qui proviennent de la TF inverse du filtre, qui est un sinus cardinal). On utilise donc des filtres à atténuation progressive, typiquement des filtres de Butterworth qui permettent de régler de façon fine le degré de lissage à appliquer sur une image, et ne produisent pas de structures circulaires. Ils dépendent de deux paramètres, la fréquence de coupure et la vitesse d'atténuation en fréquences.

Le filtrage homomorphique consiste à appliquer le filtrage au logarithme de l'image. Si celle-ci peut se décomposer en produit de deux composantes dont les spectres de fréquence sont très différents, le filtrage n'affecte qu'une des deux composantes de façon significative. C'est une bonne approximation pour les images de disques planétaires :

Ima(x,y) = I(x,y) . R(x,y)

où I est l'illumination (qui varie lentement avec la distance aux points sub-solaire et sub-terrestre) et R la réflectance (qui varie vite, avec les propriétés de la surface ou l'atmosphère).

En pratique, on prend la transformée de Fourier de Log(Ima), on multiplie par le filtre, puis on calcule la transformée inverse dont on prend l'exponentielle. Le résultat est le produit des deux fonctions filtrées séparément.

 

Corrections photométriques

Les variations d'illumination peuvent se corriger plus directement à l'aide d'un modèle photométrique. Le plus utile pour les objets du Système solaire est le modèle de Minnaert, développé à l'origine pour permettre la comparaison d'intensités mesurées en différents points de la Lune (qui sont toujours observés sous des angles d'incidence et d'émergence différents depuis la Terre) ; c'est une généralisation de la loi de Lambert, qui n'est elle-même adaptée qu'aux objets intrinsèquement très lumineux (Vénus ou satellites de glace). La quantité de lumière réfléchie par une surface uniforme dépend des angles d'observation de la façon suivante :

r = B0 . Mu0 k / Mu (1-k)

où Mu0 et Mu sont les cosinus des angles d'incidence et d'émergence respectivement, r est le signal mesuré, B0 est l'éclairement ramené à une géométrie normale (en principe r est le facteur de radiance obtenu par réduction, étalonnage sur une étoile de référence et division par le spectre solaire comme décrit plus haut, ou toute quantité proportionnelle).

Les deux paramètres B0 et k sont des fonctions de l'angle de phase, ils varient avec la longueur d'onde et les propriétés de l'objet. On retrouve la loi de Lambert pour k = 1 (cas des objets brillants et des atmosphères épaisses). La valeur k = 0,5 correspond à un disque uniformément brillant, c'est le cas de la Pleine Lune ; les objets sombres tels que la Lune ou les astéroïdes ont des exposants k de l'ordre de 0,5 à 0,6 qui varient en général beaucoup avec la phase. On trouve des valeurs de 0,7 pour les régions claires de Mars, de 1,2 pour les glaces (calottes polaires, satellites des planètes géantes). Le modèle est généralement très bien suivi pour des angles inférieurs à 70°. Il est également respecté par des corps entourés d'une atmosphère, et l'exposant varie donc également avec l'opacité atmosphérique.

En pratique, on calcule les angles d'incidence et d'émergence moyens en chaque point (selon la distance aux points sub-solaire et sub-terrestre), on ajuste k sur les images r(x,y), et on inverse le modèle pour calculer B0 à partir des images. Le résultat B0 concentre les seules variations de réflectance (variations des propriétés locales), et dans le cas de reliefs marqués les pentes topographiques (c'est à dire les variations d'angles photométriques dus aux écarts à la sphéricité). La valeur de k doit être ajustée pour chaque séance d'observation et chaque filtre utilisé ; pour les surfaces très contrastées comme celle de Mars, on peut raffiner en ajustant k par domaines de réflectance. L'idéal est évidemment de calculer l'exposant point par point à partir d'images illuminées sous différents angles, mais en respectant la contrainte de phase constante (il faut donc utiliser des images de rotation sur acquises sur une période courte, si possible au cours d'une même nuit). Toutes les images de cette période peuvent alors être corrigées à l'aide des mêmes paramètres, pour chacun des filtres utilisés.

L'effet majeur de cette correction est de compenser le profil photométrique du disque planétaire, qui se traduit généralement par un assombrissement vers le limbe et le terminateur. Elle est donc fondamentale pour fabriquer des mosaïques d'images, en particulier pour reprojeter sur une grille géographique (voir les exemples sur Mars).

 

Restauration d'images

Les images sont dégradées au cours de la traversée de l'atmosphère et parfois par l'optique du télescope (il y a au moins un exemple célèbre...). Cette dégradation consiste en une convolution par une fonction d'étalement de point (PSF en anglais, pour Point Spread Function, c'est l'équivalent optique d'une réponse impulsionnelle). La restauration consiste donc à déconvoluer par cette même fonction. On suppose la PSF uniforme sur l'image, mais il est clair qu'elle varie très vite dans le temps et qu'elle doit être mesurée sur les images individuelles (elle dépend de la turbulence atmosphérique pour l'essentiel) ; on peut la mesurer directement sur une image de champ stellaire, mais beaucoup plus difficilement sur une image planétaire. Dans certains cas, on peut utiliser un détail supposé ponctuel sur fond uniforme (on soustrait ce fond et on ajuste le résidu par une gaussienne symétrique) ; à défaut, on prend une gaussienne isotrope de largeur crédible...

En principe, cette restauration ne devrait pas poser de problème particulier dès qu'on connaît la PSF. En fait, les images sont toujours plus ou moins bruitées, et le processus de restauration est éminemment instable en présence de bruit - ce qui se comprend facilement : le but de la restauration est de rétablir les détails de petites dimensions, aux échelles spatiales où le bruit est important. Amortir le bruit et restaurer les détails sont deux opérations contradictoires.

Filtrage inverse. La méthode naturelle consiste à diviser la transformée de Fourier de l'image par celle de la PSF (qu'on appelle MTF en anglais, pour Modulation Transfer Function). En l'absence de bruit elle donne de très bons résultats si on connaît une bonne approximation de la PSF, mais dans les situations réelles elle se révèle impraticable : elle fait remonter le bruit à haute fréquence de façon généralement inacceptable en même temps que le signal, et le résultat est souvent de moins bonne qualité que l'image non traitée.

Filtrage de Wiener. On peut optimiser le filtrage en faisant une hypothèse sur la statistique du bruit (les détails sont pesants...). Cette méthode est en fait un compromis entre le filtrage inverse (optimal si le bruit est nul) et le lissage qui corrige au mieux le bruit de l'image (optimal si le "flou" est nul). En aucun cas la méthode ne permet de résoudre des détails au-delà de la limite de diffraction du télescope. Son efficacité diminue rapidement quand le niveau de bruit devient très important.

 

Les méthodes les plus efficaces sont des méthodes itératives qui corrigent de la PSF progressivement. Elles convergent vers le même résultat que le filtrage inverse, mais passent par un stade où la PSF est déjà notablement corrigée avant que le bruit ne remonte de façon inacceptable. Tout l'art de la chose consiste à arrêter le traitement avant de faire apparaître des artefact à haute fréquence (l'expérience montre que si l'on se fie à son jugement visuel, on pousse systématiquement trop loin ces corrections).

Maximum d'entropie. Cette méthode est mieux adaptées aux images très bruitées, donc d'objets faibles.

Richardson-Lucy (maximum de vraisemblance). C'est la méthode qui était utilisée pour corriger les images de HST avant compensation optique du défaut du miroir primaire. Elle est adaptée aux images d'objets plutôt faibles, avec un signal-sur-bruit moyen. L'exemple sur les premières images HST de Mars montre qu'elle ne convient pas à ce type d'images.

Van Cittert. C'est la méthode de restauration la plus basique, et souvent décriée. L'expérience montre que c'est celle qui convient le mieux aux images planétaires, et en général aux images d'objets très lumineux, acquises avec un bon rapport signal-sur-bruit.

La page suivante compare les résultats de différentes méthodes de traitement.



Pour en savoir plus :

Liens pour l'observation

Traitement de données, liens vers réduction d'images


Précédents :


Suivant :

   

Retour

http://www.lesia.obspm.fr/perso/stephane-erard/

Dernière mise à jour : 23 juillet 2009
Remarques : stephane.erard at obspm.fr
S. Erard © 1999-2009