FR2982393A1 - Recherche d'une cible dans une image multispectrale - Google Patents

Recherche d'une cible dans une image multispectrale Download PDF

Info

Publication number
FR2982393A1
FR2982393A1 FR1103408A FR1103408A FR2982393A1 FR 2982393 A1 FR2982393 A1 FR 2982393A1 FR 1103408 A FR1103408 A FR 1103408A FR 1103408 A FR1103408 A FR 1103408A FR 2982393 A1 FR2982393 A1 FR 2982393A1
Authority
FR
France
Prior art keywords
image
window
spectral
point
multispectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1103408A
Other languages
English (en)
Other versions
FR2982393B1 (fr
Inventor
Nicolas Roux
Guillaume Letellier
Hugues Berthaud
Jacky Lavoise
Michel Pealat
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran Electronics and Defense SAS
Original Assignee
Sagem Defense Securite SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sagem Defense Securite SA filed Critical Sagem Defense Securite SA
Priority to FR1103408A priority Critical patent/FR2982393B1/fr
Priority to FR1255237A priority patent/FR2982394B1/fr
Priority to EP12784247.4A priority patent/EP2776976B1/fr
Priority to US14/357,205 priority patent/US9384414B2/en
Priority to PCT/EP2012/072194 priority patent/WO2013068503A1/fr
Publication of FR2982393A1 publication Critical patent/FR2982393A1/fr
Application granted granted Critical
Publication of FR2982393B1 publication Critical patent/FR2982393B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • G06F18/21322Rendering the within-class scatter matrix non-singular
    • G06F18/21324Rendering the within-class scatter matrix non-singular involving projections, e.g. Fisherface techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Abstract

Une recherche de cible dans une image multispectrale est rendue plus efficace et plus confortable en combinant une optimisation de contraste qui est effectuée localement, avec une présentation d'image de détection qui couvre tout un champ d'observation (10). Le contraste est optimisé à l'intérieur d'une fenêtre (2) qui est réduite par rapport à une matrice d'image (1) correspondant au champ d'observation entier. Cette fenêtre peut être déplacée en liaison avec une direction d'observation (D), ou bien sélectionnée à volonté dans la matrice d'image. L'image de détection peut être renouvelée pour chaque fenêtre utilisée, ou commune à plusieurs fenêtres.

Description

RECHERCHE D'UNE CIBLE DANS UNE IMAGE MULTISPECTRALE La présente invention concerne un procédé d'aide pour rechercher une cible dans une image multispectrale, ainsi qu'un système et un programme d'ordinateur pour mettre en oeuvre un tel procédé. La surveillance d'un environnement est une tâche courante, notamment pour détecter des intrusions adverses. Une telle surveillance présente des difficultés particulières lorsqu'elle doit être effectuée dans environnement terrestre. En effet, un environnement terrestre tel qu'un paysage de campagne peut contenir un grand nombre d'éléments distincts aux contours irréguliers tels que des arbres, des buissons, des rochers, des constructions, etc, qui rendent complexes l'interprétation de l'image et la recherche d'éléments intrus. De telles conditions concernent notamment des paysages centre-européens ou des paysages semi-désertiques. En outre, dans certaines circonstances, notamment pour des applications militaires, un élément intrus peut être camouflé pour rendre sa détection dans le paysage plus difficile. De façon courante, un tel camouflage est efficace contre l'observation en lumière visible, notamment pour des longueurs d'onde qui sont entre 0,45 pm (micromètre) et 0,65 pm, et tout particulièrement autour de 0,57 pm qui correspond au maximum de sensibilité de l'oeil humain. Pour réussir à détecter l'élément intrus, qui est appelé cible dans la suite de cette description, malgré un paysage complexe et un éventuel camouflage de la cible, il est connu d'effectuer une observation multispectrale de l'environnement. Une telle observation multispectrale consiste à saisir plusieurs images du même paysage selon des bandes spectrales différentes, afin qu'une cible qui n'apparaîtrait pas distinctement dans les images saisies selon certaines bandes spectrales soient révélées par les images correspondant à d'autres bandes spectrales. Chaque bande spectrale peut être étroite, avec un intervalle de valeurs de longueur d'onde de quelques dizaines de nanomètres, ou plus large, voire très large avec une largeur de plusieurs micromètres, notamment lorsque la bande spectrale est située dans l'un des domaines infrarouges : entre 3 pm et 5 pm ou entre 8 pm et 12 pm. Il est ainsi - 2 - connu qu'une observation dans l'intervalle de longueur d'onde compris entre 0,8 pm et 1,2 pm peut être efficace pour révéler une cible dans un environnement de végétation, alors que la cible est camouflée efficacement contre une détection par observation dans l'intervalle de lumière visible pour l'oeil humain. Toutefois, une telle détection multispectrale peut encore être insuffisante pour permettre à un opérateur en charge de la surveillance de détecter la présence d'une cible dans un environnement terrestre. En effet, dans certaines circonstances, aucune des images qui sont associées séparément aux bandes spectrales ne fait apparaître la cible suffisamment distinctement pour que l'opérateur de surveillance puisse détecter la cible dans ces images, compte tenu du temps d'observation alloué. Dans la suite, chaque image qui correspond séparément à l'une des bandes spectrales est appelée image spectrale. Pour de telles situations, il est encore connu d'améliorer l'efficacité de la détection de cible en présentant à l'opérateur une image qui est construite par projection de Fisher. Un tel procédé est connu notamment de l'article «Some practical issues in anomaly detection an exploitation of regions of interest in hyperspectral images», de F. Goudail et al., Applied Optics, Vol. 45, No. 21, pp 5223-5236. D'après ce procédé, l'image qui est présentée à l'opérateur est construite en combinant en chaque point les valeurs d'intensités qui sont enregistrées séparément pour plusieurs bandes spectrales, de façon à optimiser un contraste de l'image résultante. Théoriquement, cette construction d'image consiste à projeter pour chaque point le vecteur des intensités qui ont été enregistrées pour toutes les bandes spectrales, sur une direction optimale dans l'espace multidimensionnel des valeurs d'intensités spectrales. Cette direction optimale de projection peut être déterminée à partir de la matrice de covariance des intensités spectrales, estimée sur l'ensemble du champ d'image. Cela revient en fait à rechercher une corrélation maximale entre les variations d'intensités qui sont présentes dans toutes les images saisies selon les bandes spectrales différentes. Le contraste de l'image qui est présentée à l'opérateur est ainsi au moins égal à celui de chaque image spectrale séparée, si bien que la détection de cible par l'opérateur est à la fois plus efficace et plus fiable. Alternativement, la direction optimale de projection peut être recherchée - 3 - directement en utilisant un algorithme d'optimisation usuel, pour maximiser le contraste d'image en variant la direction de projection dans l'espace multidimensionnel des intensités spectrales. Néanmoins, il existe encore des circonstances de paysage, de camouflage et de signature spectrale de cible pour lesquelles le contraste de la cible dans l'image qui résulte de la projection de Fisher ne permet pas à l'opérateur de détecter cette cible. Autrement dit, la surveillance n'est pas encore suffisamment fiable ni efficace : la probabilité de détection est encore trop faible.
Un but de la présente invention consiste alors à augmenter la probabilité de détection d'une cible lors de la surveillance d'un environnement. Plus particulièrement, l'invention vise à présenter une image ou des portions d'images de surveillance, pour lesquelles le contraste d'une cible qui est présente dans le champ d'observation est augmenté.
L'invention vise en outre à améliorer un confort de l'observateur qui effectue la surveillance, afin d'améliorer sa perspicacité à discerner une cible dans l'environnement imagé, ainsi qu'augmenter l'efficacité de l'opérateur pour vérifier si une suspicion de cible doit être validée ou rejetée. Pour cela, l'invention propose un procédé d'aide pour rechercher une cible dans une image multispectrale. L'image multispectrale comprend plusieurs valeurs d'intensités spectrales qui sont associées respectivement à plusieurs bandes spectrales distinctes, pour chaque point d'une matrice d'image et pour une même scène qui est imagée sur cette matrice d'image pour toutes les bandes spectrales. Le procédé comprend la séquence des étapes suivantes, exécutée pour une fenêtre d'observation qui est plus petite que la matrice d'image : /1/ sélectionner la fenêtre dans la matrice d'image ; /2/ sélectionner une direction de projection dans un espace multidimensionnel des intensités spectrales, de façon à optimiser à l'intérieur de la fenêtre un contraste d'une image intermédiaire de la scène qui est formée en utilisant pour chaque point de cette fenêtre - 4 - une projection des valeurs d'intensités spectrales associées à ce point sur la direction de projection sélectionnée ; et /3/ afficher une image de détection correspondant à la matrice d'image entière, cette image de détection étant produite, pour les points qui sont situés à l'intérieur de la fenêtre, à partir de l'image intermédiaire pour la direction de projection sélectionnée, et complétée pour les points qui sont situés à l'extérieur de la fenêtre de sorte l'image de détection représente la scène totale qui est imagée. L'optimisation de l'étape /2/ est effectuée sur un ensemble de points de la matrice d'image qui est limité à la fenêtre. Ainsi, une caractéristique essentielle de l'invention est de réaliser une optimisation du contraste par projection de Fisher à l'intérieur d'une partie restreinte de l'image, par opposition à une optimisation qui serait effectuée sur l'image complète. De cette façon, un effet de dilution est évité, qui sinon réduit le contraste de la cible dans l'image qui est présentée à l'opérateur de surveillance, à cause de contributions de parties d'image qui sont éloignées par rapport à la cible et n'ont pas de corrélation spectrale avec elle. Dans la suite, la matrice d'image désigne l'ensemble des points d'image auxquels les intensités spectrales sont saisies et enregistrées, ou pixels. Elle correspond donc au champ d'observation complet, aussi bien pour une image panoramique qui est saisie cycliquement que pour une image statique à l'intérieur d'un champ d'observation qui est fixe. Chaque fenêtre restreinte est donc à considérer à l'intérieur de la matrice d'image, ou de façon équivalente à l'intérieur du champ d'observation.
En outre, à l'étape /3/, le contenu de la fenêtre qui résulte de l'optimisation de l'étape /2/, est présenté à l'opérateur de surveillance dans l'image de détection au sein d'une représentation de l'ensemble du contenu du champ d'observation. Une telle présentation procure à l'opérateur un confort supérieur pour l'opération de surveillance.
L'invention combine donc l'optimisation locale du contraste avec un meilleur confort de l'opérateur de surveillance. Une efficacité globale de la recherche de cible potentielle est ainsi améliorée. - 5 - Pour chaque exécution de la séquence d'étapes, l'image de détection qui est affichée à l'étape /3/ peut être identique à l'image intermédiaire pour la direction de projection qui a été sélectionnée à l'étape /2/ pour la fenêtre, au moins pour les points qui sont situés à l'intérieur de cette fenêtre.
Eventuellement, la projection des intensités spectrales dans l'espace multidimensionnel, qui est déterminée localement à partir de la fenêtre réduite par rapport au champ d'observation entier, peut n'être appliquée qu'à cette fenêtre dans l'image de détection. Pour les points qui sont situés à l'extérieur de la fenêtre, l'image de détection qui est affichée à l'étape /3/ pour chaque exécution de la séquence d'étapes, peut être complétée avec des valeurs d'intensité qui correspondent soit à l'une des bandes spectrales, soit à une fusion d'images associées respectivement à plusieurs de ces bandes spectrales, soit à une perception continue sur un intervalle spectral de lumière visible pour un oeil humain.
De façon générale, le procédé peut être complété par une étape supplémentaire /4/ dans la séquence d'étapes, lors de laquelle une image de vérification est affichée, pour permettre à l'opérateur de lever rapidement un doute sur une cible potentielle qu'il aurait discernée dans l'image de détection affichée à l'étape /3/, à l'intérieur de la fenêtre. Cette image de vérification est obtenue selon une sélection ou une combinaison des intensités spectrales qui est différente de celle de l'image de détection, au moins à l'intérieur de la fenêtre. Dans des premières variantes de l'invention, un centre de la fenêtre peut être fixe par rapport à la matrice d'image, et plusieurs images multispectrales sont saisies respectivement selon des directions d'observation qui sont variables. Dans ce cas, le contenu d'image à l'intérieur de la fenêtre varie avec la direction d'observation. La séquence des étapes /1/ à /3/ ou /4/ est alors répétée pour chaque direction d'observation, et la direction de projection qui est sélectionnée à l'étape /2/ peut alors être différente pour au moins deux des directions d'observation utilisées. Dans des deuxièmes variantes de l'invention, une position de fenêtre peut être variable à l'intérieur de la matrice d'image, pour la même image - 6 - multispectrale. La séquence d'étapes /1/ à /3/ ou /4/ peut alors être répétée pour plusieurs positions de fenêtres qui sont différentes, et la direction de projection qui est sélectionnée à l'étape /2/ peut être différente pour au moins deux des positions de fenêtres.
Dans des troisièmes variantes de l'invention pour lesquelles la position de la fenêtre peut encore être variable à l'intérieur de la matrice d'image pour la même image multispectrale, l'étape /3/ peut être réalisée d'une façon commune après plusieurs exécutions de la séquence des étapes /1/ et /2/. Comme pour les deuxièmes variantes de l'invention, la direction de projection qui est sélectionnée à l'étape /2/ peut être différente pour au moins deux des positions de fenêtres. L'étape /3/ comprend alors les sous- étapes suivantes : /3a/ combiner les projections correspondant aux directions de projections qui ont sélectionnées respectivement lors des itérations de la séquence des étapes /1/ et /2/, pour obtenir une combinaison de projections à appliquer aux valeurs d'intensités spectrales qui sont associées à chaque point ; et /3b/ afficher l'image de détection en appliquant la combinaison de projections aux valeurs d'intensités spectrales associées à chaque point, au moins lorsque ce point est situé à l'intérieur de la fenêtre utilisée pour l'une des itérations de la séquence des étapes /1/ et /2/. Dans de telles troisièmes variantes, les projections d'intensités spectrales qui sont déterminées localement pour les fenêtres réduites différentes à l'intérieur du champ d'observation, peuvent être appliquées à l'image entière à travers la combinaison des projections. L'image de détection qui est affichée représente ainsi en une seule fois le contenu de l'ensemble du champ d'observation, mais elle est obtenue à partir de plusieurs optimisations séparées du contraste qui ont été réalisées localement. Une telle présentation globale du contenu de l'ensemble du champ d'observation est encore plus favorable pour augmenter l'efficacité de la surveillance qui est effectuée par l'opérateur. - 7 - L'invention concerne aussi un système d'aide pour rechercher une cible dans une image multispectrale, qui est agencé pour mettre en oeuvre l'un des procédés décrits précédemment. Un tel système comprend : - des moyens de stockage de l'image multispectrale ; - des moyens d'affichage d'une image ; - des moyens pour sélectionner une fenêtre dans la matrice d'image ; - des moyens adaptés pour sélectionner une direction de projection dans l'espace multidimensionnel des intensités spectrales, de façon à optimiser à l'intérieur de la fenêtre un contraste d'une image qui est formée pour chaque point dans cette fenêtre en utilisant une projection des valeurs d'intensités spectrales qui sont associées à ce point sur la direction de projection sélectionnée, et - optionnellement, des moyens pour saisir l'image multispectrale, et agencés pour transmettre les valeurs d'intensités spectrales aux moyens de stockage. Enfin, l'invention concerne en outre un produit programme d'ordinateur, qui comprend des instructions de programme stockées sur un support lisible par un ou plusieurs processeurs, et adaptées pour faire exécuter à ce (ces) processeur(s) l'un des procédés selon l'invention qui ont été décrits plus haut.
D'autres particularités et avantages de la présente invention apparaîtront dans la description ci-après d'exemples de mise en oeuvre non limitatifs, en référence aux dessins annexés, dans lesquels : - la figure 1 illustre une saisie d'image à l'intérieur d'un champ d'observation, avec une fenêtre utilisée dans un procédé conforme à l'invention ; - la figure 2 illustre une répartition de bandes spectrales pouvant être utilisée dans un procédé conforme à l'invention ; - les figures 3a à 3c montrent trois répartitions de fenêtres, possibles pour des procédés conformes à l'invention ; - 8 - - la figure 4 illustre une méthode de calcul de contraste pouvant être utilisée dans un procédé conforme à l'invention ; et - les figures 5 à 7 sont des diagrammes synoptiques de procédés conformes respectivement à trois variantes de l'invention.
Pour raison de clarté, les dimensions des éléments qui sont représentés dans ces figures ne correspondent ni à des dimensions réelles ni à des rapports de dimensions réels. En outre, des références identiques qui sont indiquées dans des figures différentes désignent des éléments identiques ou qui ont des fonctions identiques.
Par ailleurs, bien que l'invention soit maintenant décrite en détail dans le cadre d'une image multispectrale statique qui est saisie à l'intérieur d'un champ d'observation fixe, il est entendu qu'elle peut être transposée par l'Homme du métier à une image panoramique qui est saisie cycliquement, sans difficulté ni contribution inventive.
La Figure 1 montre la correspondance entre une matrice d'image 1 et un champ d'observation 10. La scène S qui est contenue dans l'ensemble du champ d'observation 10 est imagée sur toute la matrice 1. 0 désigne symboliquement un centre optique d'une optique de formation d'image, non représentée, qui conjugue la scène S avec une surface photosensible de capteur d'image. C indique l'ouverture angulaire du champ d'observation 10, et D est la direction d'observation, qui correspond en général à l'axe optique de l'optique de formation d'image. Par ailleurs la référence 11 désigne des éléments photodétecteurs de la surface photosensible, qui sont répartis en lignes et en colonnes. Le plus souvent, on pourra considérer que la surface photosensible du capteur d'image correspond à la matrice d'image 1, avec les éléments photodétecteurs 11 qui définissent un à un les points d'image de la matrice 1. La Figure 1 montre le principe de saisie d'une image de la scène S, pour une bande spectrale. Pour mettre en oeuvre l'invention, ce principe est répété pour plusieurs bandes spectrales différentes, de façon à obtenir une image multispectrale de la scène S. L'Homme du métier sait comment saisir une telle image multispectrale, de sorte qu'il n'est pas nécessaire d'en décrire - 9 - le principe en détail ici. Pour cela, plusieurs filtres spectraux qui sont disposés alternativement devant une même surface photosensible peuvent être utilisés, et/ou plusieurs optiques de formation d'image qui sont juxtaposées avec la même direction d'observation et sont associées à des détecteurs différents, pour des domaines distincts de longueur d'onde du rayonnement qui est issus de la scène S. De même, il n'est pas utile de décrire ici comment des images qui peuvent avoir été saisies avec des matrices d'image différentes pour des bandes spectrales distinctes, peuvent être converties pour obtenir une unique matrice d'image commune. Cette matrice d'image peut contenir par exemple 3000 x 5000 points d'image. Ainsi, l'image multispectrale de la scène S associe des valeurs d'intensités spectrales respectivement à tous les points de la matrice d'image 1, pour chaque bande spectrale utilisée. Conformément à la Figure 2, les bandes spectrales utilisées et notées B1 à B16 peuvent être réparties dans les trois intervalles spectraux suivants : - lumière visible pour l'oeil humain : entre 0,45 pm et 0,65 pm, noté VIS, - proche infrarouge : entre 0,65 pm et 1 pm, noté NIR, - infrarouge moyen : entre 3 pm et 5 pm, noté MIR, et - infrarouge lointain : entre 8 pm et 12 pm, noté FIR. Par exemple, au moins seize bandes spectrales séparées peuvent être utilisées, qui sont contenues dans l'intervalle de longueur d'onde qui s'étend entre 0,4 pm et 12 pm. Au moins trois de ces bandes spectrales (B1 à B3) peuvent être contenues dans l'intervalle de lumière visible VIS, au moins douze autres bandes spectrales (B4 à B15) dans l'intervalle du proche infrarouge NIR, et au moins encore une autre bande spectrale (B16) dans l'intervalle d'infrarouge moyen MIR ou d'infrarouge lointain FIR. Une telle répartition des bandes spectrales présente une concentration qui est renforcée dans l'intervalle du proche infrarouge NIR, où les signatures spectrales d'éléments intrus camouflés sont souvent différentes de celles de composantes de végétation qui sont présentes dans la scène. Le procédé de l'invention est alors particulièrement adapté pour la surveillance d'un environnement terrestre. Dans ce cas mais aussi en général, l'image multispectrale peut être celle d'un paysage terrestre, notamment un paysage à végétation centre-européenne ou - 10 - un paysage semi-désertique, dans lequel une intrusion est suspectée. La Figure 1 montre aussi une fenêtre 2 qui est contenue dans la matrice d'image 1, avec la partie correspondante 20 du champ d'observation 10. Pour des mises en oeuvre plus simples de l'invention, la fenêtre 2 peut être rectangulaire, avec des bords qui sont parallèles aux lignes et aux colonnes de la matrice d'image 1. Selon une première méthode de variation du contenu de la fenêtre 2, qui est illustrée par la Figure 3a, un point central de la fenêtre 2 peut être fixe par rapport à la matrice d'image 1, et la direction d'observation D est déplacée par rapport à la scène S entre deux saisies successives d'images multispectrales. D' indique une autre direction d'observation possible, différente de D. Le contenu de l'image qui est saisie par l'ensemble de la matrice d'image 1 est décalé en conséquence, correspondant au cadre 1' qui est translaté par rapport à la position initiale de la matrice d'image 1. Le contenu d'image à l'intérieur de la fenêtre 2 varie aussi en conséquence, solidairement avec celui de la matrice d'image 1. La référence 2' désigne la position de fenêtre qui est associée avec la direction D'. Dans ce cas, le centre de la fenêtre 2 peut être constamment confondu avec un centre de la matrice d'image 1. Alternativement, la fenêtre 2 peut être à des positions successives qui sont variables dans la matrice d'image 1, pour une même image multispectrale. Selon une deuxième méthode de variation du contenu de la fenêtre, chaque fenêtre d'observation 2 peut être sélectionnée individuellement par un opérateur de surveillance lors d'un affichage de l'image multispectrale pour l'une des bandes spectrales, ou pour une fusion d'images qui sont associées respectivement à plusieurs des bandes spectrales. Ainsi, la Figure 3b montre plusieurs positions de fenêtres référencées 2, 2' et 2" à l'intérieur de la matrice d'image 1. En particulier, chaque fenêtre d'observation peut être sélectionnée individuellement par l'opérateur de la surveillance lors d'un affichage de l'image multispectrale en utilisant une bande spectrale qui est contenue dans l'intervalle de longueur d'onde compris entre 3 pm et 5 pm. Une telle bande spectrale est en effet adaptée pour faire apparaître des éléments intrus qui sont chauds, tels qu'un compartiment de moteur de véhicule ou un échappement de gaz de combustion. Selon une troisième méthode de variation du contenu de la fenêtre, celle-ci peut être sélectionnée par un balayage de la matrice d'image 1 qui est réalisé automatiquement, comme représenté sur la Figure 3c. La flèche indique un ordre possible des fenêtres dans le balayage. Cette troisième méthode peut être utilisée comme la deuxième pour le traitement d'une seule image multispectrale. De façon générale pour obtenir une amélioration du contraste d'une cible qui est potentiellement présente dans l'image, toutes les fenêtres 2 qui utilisées selon l'invention sont plus petites que la matrice d'image 1. La taille de chaque fenêtre 2 peut être variable ou fixe, indépendamment de sa position dans la matrice d'image. Selon un perfectionnement de l'invention, une taille de chaque fenêtre 2 peut être déterminée, lors de la sélection de cette fenêtre, en fonction de dimensions de zones dans l'image multispectrale qui sont associées à des types différents de contenu d'image. De cette façon, la fenêtre 2 peut être contenue dans l'une de ces zones qui est associée à un type unique de contenu d'image. En effet, l'aide à la recherche de cible qui est proposée par l'invention est plus efficace lorsqu'une cible potentielle est recherchée à l'intérieur d'une zone de l'image pour laquelle le contenu d'image est par ailleurs assez homogène. Ainsi, la taille de chaque fenêtre d'observation 2 pourra être ajustée pour que la partie correspondante dans la scène S ne soit qu'une portion de prairie, ou qu'une portion de lisière de forêt, ou qu'une portion de buissons intermédiaires, ou qu'une partie d'un éboulis. L'opérateur évite ainsi que la fenêtre 2 soit à cheval sur des zones dont les contenus d'image seraient de natures différentes, si bien que le fond d'image à l'intérieur de la fenêtre présente une signature spectrale assez homogène. Une éventuelle cible qui est présente dans cette partie de la scène S apparaîtra alors plus clairement.
En référence à la Figure 4, on décrit maintenant une méthode de calcul de contraste qui peut être utilisée pour chaque point d'une image. Dans le cadre de la présente invention, une telle méthode peut être appliquée pour tous -12- les points situés à l'intérieur d'une fenêtre 2 qui a été sélectionnée. Une zone de cible est définie autour du point de calcul, noté M, et le contraste est calculé pour ce point M entre des points qui appartiennent à cette zone de cible et des points d'une zone de fond qui est séparée de la zone de cible, à l'intérieur de la fenêtre. Selon un perfectionnement du calcul, une taille de la zone de cible peut être déterminée en fonction de dimensions supposées pour la cible qui est recherchée, et éventuellement aussi en fonction d'un éloignement d'une portion de scène qui est imagée dans la fenêtre, par rapport à l'instrument qui est utilisé pour former l'image multispectrale. Une telle estimation d'éloignement peut être obtenue par tout moyen de télémétrie connu par ailleurs. De plus, la zone de fond peut être séparée de la zone de cible à l'intérieur de la fenêtre par une zone intermédiaire de séparation qui entoure la zone de cible. Sur la Figure 4, B désigne la zone de fond pour «background» en anglais, T désigne la zone de cible («target» en anglais) pour le point M auquel est calculé le contraste, et G désigne la zone intermédiaire de séparation, pour «gap» en anglais. La zone intermédiaire de séparation permet d'éviter qu'un élément intrus qui est présent dans la zone de cible ne contribue à réduire la valeur de contraste en débordant dans la zone de fond. Par exemple, la zone de cible T peut avoir une taille de 3 x 3 points d'image, et la zone intermédiaire de séparation G peut avoir une taille externe de 9 x 9 points d'image, lorsque la fenêtre 2 a elle-même une taille de 100 x 100 points d'image. La zone de cible T et la zone intermédiaire de séparation G sont de préférence centrées sur le point M. Un tel contraste peut être calculé en chaque point en utilisant les valeurs d'intensité spectrale qui sont enregistrées pour l'une des bandes spectrales, afin de construire une image. Ainsi, une valeur différente de contraste est obtenue pour chaque bande spectrale, correspondant à une sensibilité qui varie en fonction du domaine de longueur d'onde. En outre, une image résultante peut aussi être construite à partir de plusieurs images qui correspondent chacune à une bande spectrale différente, et le contraste peut être calculé en chaque point pour l'image résultante. De tels procédés de fusion, d'addition ou de combinaison d'images sont connus de l'Homme du métier, si bien qu'il n'est pas nécessaire de les décrire à nouveau ici. -13- Enfin, il est encore connu de construire une image en réalisant une combinaison linéaire des valeurs d'intensités spectrales correspondant à des bandes différentes, pour optimiser le contraste de l'image qui est obtenue à partir de la combinaison linéaire d'intensités spectrales. La combinaison linéaire qui correspond à une telle optimisation est celle qui fait apparaître une corrélation maximale entre les valeurs d'intensités pour les bandes spectrales qui sont utilisées dans la combinaison. Elle constitue une projection d'un vecteur des intensités spectrales pour chaque point d'image, sur une direction de projection optimale dans un espace multidimensionnel de ces intensités spectrales. Il s'agit de la projection de Fisher qui a été rappelée au début de cette description. Selon l'invention, une telle optimisation du contraste est effectuée uniquement à partir des valeurs d'intensités spectrales pour les points qui sont situés à l'intérieur de chaque fenêtre, pour plusieurs des bandes spectrales de l'image multispectrale. Plusieurs variantes de mise en oeuvre de l'invention sont maintenant décrites, respectivement en référence aux Figures 5 à 7. La première variante est d'abord décrite en référence à la Figure 5. La direction d'observation D est sélectionnée lors de la première étape 100. La taille de la matrice d'image 1, le grossissement de l'optique de formation d'image et la direction d'observation D qui est sélectionnée déterminent ensemble le contenu de l'image multispectrale dans la matrice d'image 1 entière. La fenêtre 2 étant positionnée fixement par rapport à cette dernière, par exemple en position centrale comme représenté sur la Figure 3a, le contenu de l'image multispectrale dans la fenêtre 2 est alors aussi fixé par la direction d'observation sélectionnée. Eventuellement, la direction d'observation D peut être sélectionnée lors d'un balayage de l'environnement surveillé en déplaçant le champ d'observation 10 par rapport à la scène S. Une image variable peut ainsi être présentée à l'opérateur de surveillance, en temps réel pendant ce balayage. L'opérateur fixe alors la direction d'observation D lorsqu'il souhaite procéder à une détection approfondie. La partie 20 ainsi restreinte du champ d'observation 10, qui correspond à la fenêtre 2, contient la portion de la -14- scène S qui fera l'objet de la détection approfondie. Avantageusement, la taille de la fenêtre 2 peut aussi être ajustée par l'opérateur de surveillance en fonction des zones d'image qui possèdent des types différents de contenu d'image à l'intérieur de la partie 20 du champ d'observation 10, et comme indiqué plus haut. L'étape 101 consiste à optimiser le contraste d'une image restreinte à l'intérieur de la fenêtre 2, lorsque cette image restreinte est formée à partir de valeurs d'intensité effectives qui sont obtenues en projetant les valeurs d'intensités spectrales pour chaque point de la fenêtre 2, sur une direction de projection dans l'espace multidimensionnel des intensités spectrales. Les bandes spectrales qui sont utilisées pour cette optimisation, c'est-à-dire celles dont les intensités constituent des axes indépendants de l'espace multidimensionnel de projection, peuvent être un sous-ensemble des bandes spectrales de l'image multispectrale. Par exemple, cette étape d'optimisation 101 peut être effectuée avec les bandes des intervalles spectraux VIS et NIR (voir Figure 2), à l'exclusion de la (des) bande(s) contenue(s) dans les intervalles MIR et/ou FIR. La variable d'optimisation est la direction de projection dans l'espace multidimensionnel. La nouvelle image de la partie 20 du champ d'observation qui en résulte est alors obtenue en projetant, pour chaque point de la fenêtre 2, le vecteur des intensités spectrales des bandes utilisées pour l'optimisation, sur la direction de projection qui procure le contraste le plus élevé dans la fenêtre. Cette direction de projection qui procure le meilleur contraste correspond à la projection de Fisher, et est sélectionnée. Un élément intrus qui est présent dans la partie 20 du champ d'observation 10, et qui possède une signature spectrale différente de celle du fond qui est présent dans la portion concernée de la scène S, est alors révélé distinctement dans la fenêtre 2. L'étape suivante 102 est la construction de l'image de détection qui sera présentée à l'observateur de surveillance. Cette image de détection correspond à l'ensemble de la scène S qui a été imagée sur la matrice d'image 1 entière, mais elle est obtenue selon deux voies distinctes selon qu'un point de la matrice d'image 1 est situé ou non à l'intérieur de la fenêtre 2. Pour les - 15 points qui sont situés dans la fenêtre 2, la valeur d'intensité peut être celle qui résulte de la projection sur la direction qui a été sélectionnée à l'étape 101 à l'intérieur de l'espace multispectral. Pour les points de la matrice d'image 1 qui sont situés à l'extérieur de la fenêtre 2, l'intensité qui est utilisée peut être celle de l'une quelconque des bandes spectrales de l'image multispectrale, que cette bande ait été utilisée ou non à l'étape 101. Par exemple, la bande spectrale qui est située dans l'intervalle MIR ou FIR peut être utilisée pour l'image de détection à l'extérieur de la fenêtre 2. Alternativement, une fusion d'images qui correspondent à plusieurs des bandes spectrales de l'image multispectrale, notamment celles qui sont situées dans l'intervalle VIS, peut aussi être utilisée à l'extérieur de la fenêtre 2. Une telle image est couramment appelée VJC pour «voie jour couleur». Alternativement encore, l'image de détection peut être constituée en dehors de la fenêtre 2 par un affichage qui correspond à une perception continue sur tout l'intervalle spectral VIS, proche de la vision humaine directe et couramment appelée VDO pour «voie directe optique». L'image de détection qui est ainsi construite est une incrustation de l'image qui est obtenue par la projection de Fisher à l'intérieur de la fenêtre 2, dans une partie complémentaire de l'image de la scène S. Une telle incrustation permet à l'opérateur de comprendre facilement le contenu de l'ensemble de la scène S, et de visualiser dans celle-ci la partie 20 du champ d'observation pour laquelle le contraste est optimisé. L'image de détection est affichée à l'étape 103. Eventuellement, une valeur d'intensité qui est en outre filtrée peut être utilisée pour chaque point, afin d'atténuer ou d'annuler celles de ces valeurs d'intensité qui sont plus petites qu'un seuil fixé, au moins pour les points qui sont situés à l'intérieur de la fenêtre 2. L'étape 104 est optionnelle et peut être exécutée à la demande de l'opérateur de surveillance. Elle lui permet de vérifier un élément intrus, ou cible, qu'il aurait perçu dans l'image de détection de l'étape 103. Pour cela, une nouvelle image de la scène S, dite image de vérification, est affichée au moins pour les points dans la fenêtre 2. Cette image de vérification est distincte de celle qui résulte de la projection de Fisher, et peut être formée de l'une des façons suivantes : -16- /i/ sélectionner une des bandes spectrales de l'image multispectrale, et utiliser pour chaque point de la fenêtre 2 la valeur d'intensité spectrale qui est associée à ce point pour la bande spectrale sélectionnée ; ou /ii/ sélectionner une bande spectrale supplémentaire, et utiliser pour chaque point de la fenêtre 2 la valeur d'intensité qui est associée à ce point pour la bande spectrale supplémentaire ; ou /iii/ sélectionner une bande spectrale supplémentaire, et l'image de vérification est obtenue pour chaque point de la fenêtre 2 en fusionnant l'image de détection affichée à l'étape /3/ avec une image supplémentaire formée en utilisant une valeur d'intensité supplémentaire qui est associée au point pour la bande spectrale supplémentaire. La bande spectrale supplémentaire qui est utilisée dans les alternatives /ii/ et /iii/ peut être contenue dans les intervalles de longueur d'onde MIR et FIR. Elle est alors couramment désignée par VTH pour «voie thermique». Une cible potentielle qui a été détectée à l'étape 103 à l'intérieur de la fenêtre 2 peut ainsi être validée ou bien abandonnée. Eventuellement, la méthode qui est utilisée pour former l'image de vérification à l'intérieur de la fenêtre 2 peut être appliquée à l'ensemble de la matrice d'image 1. Alternativement, l'image de vérification peut être identique à l'image de détection pour les points qui sont situés à l'extérieur de la fenêtre 2. De façon générale, il est avantageux que l'image de vérification représente l'ensemble de la scène S qui est contenue dans le champ d'observation 10, pour faciliter la reconnaissance du contenu d'image par l'opérateur de surveillance, de la même façon que pour l'image de détection. Le procédé de la Figure 5 peut alors être recommencé en changeant la direction d'observation D, pour surveiller une autre portion de l'environnement. La deuxième variante de l'invention qui est illustrée par la Figure 6 se distingue de la précédente (Figure 5) en ce que la direction d'observation D est fixe, mais la fenêtre 2 est variable à l'intérieur de la matrice d'image 1. -17- La première étape 100 de sélection de la direction d'observation D est reprise identiquement. La deuxième étape, qui est référencée 200, consiste à sélectionner la fenêtre 2 dans la matrice d'image 1. Une telle sélection peut être effectuée comme déjà décrit en relation avec la Figure 3b (sélection par l'opérateur de surveillance), ou en relation avec la Figure 3c (sélection lors d'un balayage automatique de la matrice d'image 1). Les étapes suivantes 201 à 204 correspondent respectivement aux étapes 101 à 104 qui ont été décrites pour la première variante de mise en oeuvre de l'invention, et peuvent être exécutées identiquement. La taille de la fenêtre 2 peut encore être ajustée avantageusement par l'opérateur de surveillance en fonction du type de contenu de l'image dans la partie 20 du champ d'observation 10. Après l'étape 203 ou l'étape 204, le procédé de la Figure 6 peut être recommencé à l'étape 200 pour modifier la fenêtre 2 à l'intérieur de la matrice d'image 1, sans changer la direction d'observation D, afin de réaliser une détection approfondie d'élément intrus dans une autre partie du même champ d'observation 10. Enfin, la troisième variante de l'invention qui est représentée à la Figure 7 se distingue des précédentes (Figures 5 et 6) en ce que plusieurs optimisations de la projection dans l'espace multidimensionnel des intensités spectrales sont d'abord effectuées pour plusieurs fenêtres 2, puis sont utilisées pour construire une image de détection commune. Cette troisième variante utilise une seule image multispectrale, comme la seconde variante. La direction d'observation D est encore fixe, et la fenêtre 2 est variable à l'intérieur de la matrice d'image 1, si bien que l'étape 100 est encore reprise identiquement pour fixer la direction d'observation D. Les étapes 300 et 301 correspondent respectivement aux étapes 200 et 201, mais leur séquence est répétée pour plusieurs fenêtres 2 qui sont sélectionnées successivement à l'intérieur de la matrice d'image 1, par exemple conformément à la Figure 3b ou 3c. Une direction de projection dans l'espace multidimensionnel des intensités spectrales est ainsi obtenue pour -18- chaque fenêtre 2, qui maximise le contraste dans cette fenêtre. Toutes les projections de Fisher correspondantes sont alors combinées à l'étape 302, pour obtenir une combinaison de projections à appliquer aux valeurs spectrales en chaque point de la matrice d'image 1. Une telle combinaison peut comprendre d'abord une pondération de chaque projection en fonction du contraste qui a été obtenu dans la fenêtre correspondante. Ce peut être alors une combinaison linéaire des projections de Fisher retenues respectivement pour toutes les fenêtres explorées, avec des coefficients de la combinaison linéaire qui dépendent de l'emplacement du point d'image dans la matrice d'image 1. Ces coefficients variables entre des points d'image différents sont choisis de préférence pour qu'une des projections de Fisher soit prépondérante dans le résultat de la combinaison, pour les points d'image qui sont situés dans celle des fenêtres qui a abouti à la direction de cette projection. Entre deux fenêtres qui sont voisines dans l'image de détection, les coefficients de la combinaison linéaire peuvent varier progressivement et continûment de sorte que la combinaison soit proche de la moyenne des projections de Fisher qui ont été déterminées pour ces fenêtres, en un point qui est sensiblement équidistant de chacune des deux fenêtres. Plus généralement, les coefficients de la combinaison linéaire des projections de Fisher pour chaque point de l'image de détection peuvent être des fonctions des distances de séparation entre ce point d'image entre et un point central de chaque fenêtre. Par exemple, des fonctions gaussiennes peuvent être utilisées pour les coefficients de pondération des projections de Fisher dans la combinaison linéaire, qui dépendent des distances entre le point d'image considéré et les points centraux des fenêtres. Enfin, la combinaison des projections de Fisher peut encore être multipliée par un coefficient d'adaptation du contraste total de l'image qui résulte de la combinaison des projections. La combinaison des projections qui est ainsi construite est de préférence appliquée à tous les points de la matrice d'image 1. Toutefois, il est possible alternativement de compléter l'image de détection en dehors de toutes les fenêtres comme indiqué pour l'étape 102 de la Figure 5. L'image de détection est alors affichée à l'étape 303. Ainsi l'opérateur -19- dispose d'une image unique dans laquelle les contenus des fenêtres sélectionnées sont rendus avec des contrastes qui ont été maximisés séparément pour chacune de ces fenêtres. La surveillance de la scène S peut ainsi être effectuée de façon particulièrement rapide, avec une seule image à scruter. L'étape de vérification 304 est aussi identique à l'étape 104, mais elle peut concerner simultanément toutes les fenêtres qui ont été utilisées. Il est entendu que les modes de mise en oeuvre de l'invention qui ont été décrits en détail ci-dessus peuvent être adaptés ou modifiés tout en conservant certains au moins des avantages qui ont été cités. Parmi ces avantages, l'utilisateur de l'invention comprendra d'emblée qu'elle procure une efficacité et un confort de détection pour l'opérateur de surveillance, qui n'ont pas été égalés auparavant. Cette efficacité et ce confort résultent notamment de l'optimisation du contraste qui est effectuée localement à l'intérieur de l'image, en combinaison avec la présentation dans une seule image de toute la scène qui est contenue dans le champ d'observation.

Claims (21)

  1. REVENDICATIONS1. Procédé d'aide pour rechercher une cible dans une image multispectrale, ladite image multispectrale comprenant plusieurs valeurs d'intensités spectrales associées respectivement à plusieurs bandes spectrales distinctes (B1-B16), pour chaque point d'une matrice d'image (1) et pour une même scène (S) imagée sur ladite matrice d'image pour toutes les bandes spectrales, le procédé comprenant la séquence des étapes suivantes, exécutée pour une fenêtre d'observation (2) plus petite que la matrice d'image (1) : /1/ sélectionner la fenêtre dans la matrice d'image ; /2/ sélectionner une direction de projection dans un espace multidimensionnel des intensités spectrales, de façon à optimiser à l'intérieur de la fenêtre (2) un contraste d'une image intermédiaire de la scène qui est formée en utilisant pour chaque point dans ladite fenêtre une projection des valeurs d'intensités spectrales associées audit point sur la direction de projection sélectionnée ; et /3/ afficher une image de détection correspondant à la matrice d'image entière (1), ladite image de détection étant produite, pour les points situés à l'intérieur de la fenêtre (2), à partir de l'image intermédiaire pour la direction de projection sélectionnée, et complétée pour les points situés à l'extérieur de la fenêtre de sorte ladite image de détection représente la scène totale qui est imagée, dans lequel l'optimisation de l'étape /2/ est effectuée sur un ensemble de points de la matrice d'image (1) limité à la fenêtre (2).
  2. 2. Procédé selon la revendication 1, suivant lequel la séquence d'étapes comprend en outre l'étape suivante : /4/ afficher une image de vérification dans la fenêtre (2), ladite image de vérification étant formée de l'une des façons suivantes :-21- Iii sélectionner une des bandes spectrales, et utiliser pour chaque point de la fenêtre la valeur d'intensité spectrale associée audit point pour la bande spectrale sélectionnée ; ou /ii/ sélectionner une bande spectrale supplémentaire, et utiliser pour chaque point de la fenêtre la valeur d'intensité associée audit point pour la bande spectrale supplémentaire ; ou Mi/ sélectionner une bande spectrale supplémentaire, et l'image de vérification est obtenue pour chaque point de la fenêtre en fusionnant l'image de détection affichée à l'étape /3/ avec une image supplémentaire formée en utilisant une valeur d'intensité supplémentaire associée audit point pour la bande spectrale supplémentaire.
  3. 3. Procédé selon la revendication 2, suivant lequel la bande spectrale supplémentaire est contenue dans l'intervalle de longueur d'onde qui s'étend entre 3 pm et 5 dam, ou entre 8 pm et 12 pm.
  4. 4. Procédé selon l'une quelconque des revendications 1 à 3, suivant lequel un centre de fenêtre (2) est fixe par rapport à la matrice d'image (1), et plusieurs images multispectrales sont saisies respectivement selon des directions d'observation (D) variables, et suivant lequel la séquence d'étapes est répétée pour des directions d'observation différentes, et la direction de projection sélectionnée à l'étape /2/ est différente pour au moins deux des directions d'observation.
  5. 5. Procédé selon l'une quelconque des revendications 1 à 3, suivant lequel une position de fenêtre (2) est variable à l'intérieur de la matrice d'image (1) pour la même image multispectrale, et suivant lequel la séquence d'étapes est répétée pour plusieurs positions différentes de fenêtres (2), et la direction de projection sélectionnée à l'étape /2/ est différente pour au moins deux des positions de fenêtres.
  6. 6. Procédé selon la revendication 5 suivant lequel, à l'étape /1/, chaque fenêtre d'observation (2) est sélectionnée individuellement par un opérateur de- 22 - surveillance lors d'un affichage de l'image multispectrale pour l'une des bandes spectrales (B1-B16), ou pour une fusion d'images associées respectivement à plusieurs des dites bandes spectrales, ou bien chaque fenêtre d'observation (2) est sélectionnée par un balayage de la matrice d'image (1) réalisé automatiquement.
  7. 7. Procédé selon la revendication 6, suivant lequel chaque fenêtre d'observation (2) est sélectionnée individuellement par l'opérateur de surveillance lors d'un affichage de l'image multispectrale en utilisant une bande spectrale contenue dans l'intervalle de longueur d'onde qui s'étend entre 3 pm et 5 pm.
  8. 8. Procédé selon l'une quelconque des revendications 1 à 7 suivant lequel, pour chaque exécution de la séquence d'étapes, l'image de détection affichée à l'étape /3/ est identique à l'image intermédiaire pour la direction de projection sélectionnée à l'étape /2/ pour la fenêtre (2), au moins pour les points situés à l'intérieur de ladite fenêtre.
  9. 9. Procédé selon l'une quelconque des revendications 1 à 8 suivant lequel, pour chaque exécution de la séquence d'étapes, l'image de détection affichée à l'étape /3/ est complétée pour les points situés à l'extérieur de la fenêtre (2) avec des valeurs d'intensité correspondant soit à l'une des bandes spectrales (B1-B16), soit à une fusion d'images associées respectivement à plusieurs des dites bandes spectrales, soit à une perception continue sur un intervalle spectral de lumière visible pour un oeil humain.
  10. 10. Procédé selon l'une quelconque des revendications 5 à 7, suivant lequel l'étape /3/ est réalisée d'une façon commune après plusieurs exécutions de la séquence des étapes /1/ et /2/, la direction de projection sélectionnée à l'étape /2/ étant différente pour au moins deux des positions de fenêtres (2), et l'étape /3/ comprend les sous- étapes suivantes : /3a/ combiner les projections correspondant aux directions de projections sélectionnées respectivement lors des itérations de la séquence des étapes /1/ et /2/, pour obtenir une combinaison de projections à 2 9 8 2 3 9 3 -23- appliquer aux valeurs d'intensités spectrales associées à chaque point ; et /3b/ afficher l'image de détection en appliquant la combinaison de projections aux valeurs d'intensités spectrales associées à chaque 5 point, au moins lorsque que ledit point est situé à l'intérieur de la fenêtre (2) utilisée pour l'une des itérations de la séquence des étapes /1/ et /2/.
  11. 11. Procédé selon l'une quelconque des revendications précédentes, suivant lequel l'image de détection qui est affichée à l'étape /3/ est formée en 10 utilisant en outre pour chaque point une valeur d'intensité filtrée, pour atténuer ou annuler celles des dites valeurs d'intensité qui sont plus petites qu'un seuil fixé, au moins pour les points situés à l'intérieur de chaque fenêtre (2).
  12. 12. Procédé selon l'une quelconque des revendications précédentes, suivant lequel une taille de chaque fenêtre d'observation (2) sélectionnée à 15 l'étape /1/ est déterminée en fonction de dimensions de zones dans l'image multispectrale qui sont associées à des types différents de contenu d'image, de sorte que ladite fenêtre soit contenue dans une des dites zones qui est associée à un type unique de contenu d'image.
  13. 13. Procédé selon l'une quelconque des revendications précédentes, 20 suivant lequel le contraste optimisé à l'étape /2/ est calculé entre des points d'une zone de cible (T) et des points d'une zone de fond (B) séparée de ladite zone de cible, à l'intérieur de chaque fenêtre (2).
  14. 14. Procédé selon la revendication 13, suivant lequel une taille de la zone de cible (T) est déterminée en fonction de dimensions supposées pour la 25 cible recherchée.
  15. 15. Procédé selon la revendication 14, suivant lequel la taille de la zone de cible (T) est déterminée en outre en fonction d'un éloignement d'une portion de la scène (S) imagée dans la fenêtre (2), par rapport à un instrument utilisé pour saisir l'image multispectrale. 2 9823 93 - 24 -
  16. 16. Procédé selon l'une quelconque des revendications 13 à 15, suivant lequel la zone de fond (B) est séparée de la zone de cible (T) à l'intérieur de la fenêtre (2) par une zone intermédiaire de séparation (G) qui entoure ladite zone de cible. 5
  17. 17. Procédé selon l'une quelconque des revendications précédentes, suivant lequel les valeurs d'intensités spectrales de l'image multispectrale sont associées à au moins seize bandes spectrales séparées et contenues dans l'intervalle de longueur d'onde qui s'étend entre 0,4 pm et 12 pm, avec au moins trois (B1-B3) des dites bandes spectrales contenues dans l'intervalle de 10 longueur d'onde qui s'étend entre 0,45 pm et 0,65 pm, et au moins douze autres (B4-B15) des dites bandes spectrales contenues dans l'intervalle de longueur d'onde qui s'étend entre 0,65 pm et 1 pm, et au moins encore une autre (B16) des dites bandes spectrales qui s'étend au moins partiellement entre 3 pm et 5 pm ou entre 8 pm et 12 pm. 15
  18. 18. Procédé selon l'une quelconque des revendications précédentes, suivant lequel l'image multispectrale est une image d'un paysage terrestre.
  19. 19. Système d'aide pour rechercher une cible dans une image multispectrale, ladite image multispectrale comprenant plusieurs valeurs d'intensités spectrales associées respectivement à plusieurs bandes spectrales 20 distinctes (B1-B16), pour chaque point d'une matrice d'image (1), - des moyens de stockage de l'image multispectrale ; - des moyens d'affichage d'une image ; - des moyens pour sélectionner une fenêtre (2) dans la matrice d'image (1) ; et 25 - des moyens adaptés pour sélectionner une direction de projection dans un espace multidimensionnel des intensités spectrales, de façon à optimiser à l'intérieur de la fenêtre (2) un contraste d'une image qui est formée pour chaque point dans ladite fenêtre en utilisant une projection des valeurs d'intensités spectrales associées audit point sur la direction 30 de projection sélectionnée,-25- le système étant agencé pour mettre en oeuvre un procédé selon l'une quelconque des revendications 1 à 17.
  20. 20. Système selon la revendication 19, comprenant en outre : - des moyens pour saisir l'image multispectrale, et agencés pour transmettre les valeurs d'intensités spectrales aux moyens de stockage.
  21. 21. Produit programme d'ordinateur, comprenant des instructions de programme stockées sur un support lisible par un ou plusieurs processeurs, et adaptées pour faire exécuter audit un ou plusieurs processeurs un procédé selon l'une quelconque des revendications 1 à 17.
FR1103408A 2011-11-09 2011-11-09 Recherche d'une cible dans une image multispectrale Active FR2982393B1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR1103408A FR2982393B1 (fr) 2011-11-09 2011-11-09 Recherche d'une cible dans une image multispectrale
FR1255237A FR2982394B1 (fr) 2011-11-09 2012-06-05 Recherche d'une cible dans une image multispectrale
EP12784247.4A EP2776976B1 (fr) 2011-11-09 2012-11-08 Recherche d'une cible dans une image multispectrale
US14/357,205 US9384414B2 (en) 2011-11-09 2012-11-08 Search for a target in a multispectral image
PCT/EP2012/072194 WO2013068503A1 (fr) 2011-11-09 2012-11-08 Recherche d'une cible dans une image multispectrale

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1103408A FR2982393B1 (fr) 2011-11-09 2011-11-09 Recherche d'une cible dans une image multispectrale

Publications (2)

Publication Number Publication Date
FR2982393A1 true FR2982393A1 (fr) 2013-05-10
FR2982393B1 FR2982393B1 (fr) 2014-06-13

Family

ID=47191840

Family Applications (2)

Application Number Title Priority Date Filing Date
FR1103408A Active FR2982393B1 (fr) 2011-11-09 2011-11-09 Recherche d'une cible dans une image multispectrale
FR1255237A Active FR2982394B1 (fr) 2011-11-09 2012-06-05 Recherche d'une cible dans une image multispectrale

Family Applications After (1)

Application Number Title Priority Date Filing Date
FR1255237A Active FR2982394B1 (fr) 2011-11-09 2012-06-05 Recherche d'une cible dans une image multispectrale

Country Status (4)

Country Link
US (1) US9384414B2 (fr)
EP (1) EP2776976B1 (fr)
FR (2) FR2982393B1 (fr)
WO (1) WO2013068503A1 (fr)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3011663A1 (fr) * 2013-10-07 2015-04-10 Sagem Defense Securite Procede de visualisation d'une image multispectrale
FR3013878A1 (fr) * 2013-11-28 2015-05-29 Sagem Defense Securite Analyse d'une image multispectrale
FR3013876A1 (fr) * 2013-11-28 2015-05-29 Sagem Defense Securite Analyse d'une image multispectrale
WO2017012899A1 (fr) * 2015-07-21 2017-01-26 Safran Electronics & Defense Procédé de visualisation d'un spot laser
WO2017081121A1 (fr) * 2015-11-12 2017-05-18 Safran Electronics & Defense Procede de decamouflage d'un objet

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3088790B1 (fr) * 2018-11-20 2020-11-27 Safran Electronics & Defense Appareil et procédé pour observer une scène comportant une cible
CN113874911A (zh) * 2019-06-05 2021-12-31 索尼半导体解决方案公司 图像识别装置和图像识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101390383B (zh) * 2006-02-23 2011-09-21 松下电器产业株式会社 图像修正装置、方法、集成电路、系统
US20100092241A1 (en) * 2008-10-13 2010-04-15 Muhammad Arshad Canal Seepage Detection
KR101366776B1 (ko) * 2009-12-07 2014-02-21 세종대학교산학협력단 영상 객체 검출 장치 및 그 방법

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
"Hyperspectral Data Exploitation: Theory and Applications", 6 April 2007, WILEY-INTERSCIENCE; 1 EDITION (APRIL 6, 2007), article SYLVIA S. SHEN: "OPTIMAL BAND SELECTION AND UTILITY EVALUATION FOR SPECTRAL SYSTEMS (in Hyperspectral Data Exploitation)", pages: 227 - 243, XP055039958 *
"Hyperspectral Data Exploitation: Theory and Applications", 6 April 2007, WILEY-INTERSCIENCE; 1 EDITION (APRIL 6, 2007), ISBN: 978-0-47-174697-3, article CHANG CHEIN-I: "INFORMATION-PROCESSED MATCHED FILTERS FOR HYPERSPECTRAL TARGET DETECTION AND CLASSI FICATION (in Hyperspectral Data Exploitation)", pages: 47 - 74, XP055039593 *
DIMITRIS MANOLAKIS ET AL: "Detection Algorithms for Hyperspectral Imaging Data Exploitation (Presentation)", ADAPTIVE SENSOR ARRAY PROCESSING WORKSHOP 2002, 12 March 2002 (2002-03-12), XP055039498, Retrieved from the Internet <URL:http://www.ll.mit.edu/asap/asap_02/Proceedings/Presentations/manolakis.pdf> [retrieved on 20120928] *
DIMITRIS MANOLAKIS ET AL: "Hyperspectral Image Processing for Automatic Target Detection Applications", THE LINCOLN LABORATORY JOURNAL, NEW YORK,NY, US, vol. 14, no. 1, 1 January 2003 (2003-01-01), pages 79 - 116, XP002582122 *
DIMITRIS MANOLAKIS ET AL: "Hyperspectral Subpixel Target Detection Using the Linear Mixing Model", IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 39, no. 7, 1 July 2001 (2001-07-01), XP011021775, ISSN: 0196-2892 *
GOUDAIL F ET AL: "SOME PRACTICAL ISSUES IN ANOMALY DETECTION AND EXPLOITATION OF REGIONS OF INTEREST IN HYPERSPECTRAL IMAGES", APPLIED OPTICS, OPTICAL SOCIETY OF AMERICA, WASHINGTON, DC; US, vol. 45, no. 21, 20 July 2006 (2006-07-20), pages 5223 - 5236, XP001245429, ISSN: 0003-6935, DOI: 10.1364/AO.45.005223 *
JEAN MINET ET AL: "Influence of band selection and target estimation error on the performance of the matched filter in hyperspectral imaging", APPLIED OPTICS, OPTICAL SOCIETY OF AMERICA, WASHINGTON, DC; US, vol. 50, no. 22, 1 August 2011 (2011-08-01), pages 4276 - 4285, XP001564563, ISSN: 0003-6935, [retrieved on 20110721], DOI: 10.1364/AO.50.004276 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3011663A1 (fr) * 2013-10-07 2015-04-10 Sagem Defense Securite Procede de visualisation d'une image multispectrale
WO2015052402A1 (fr) * 2013-10-07 2015-04-16 Sagem Defense Securite Procédé de visualisation d'une image multispectrale
US9524564B2 (en) 2013-10-07 2016-12-20 Sagem Defense Securite Method for viewing a multi-spectral image
FR3013876A1 (fr) * 2013-11-28 2015-05-29 Sagem Defense Securite Analyse d'une image multispectrale
WO2015078927A1 (fr) * 2013-11-28 2015-06-04 Sagem Defense Securite Analyse d'une image multispectrale
WO2015078934A1 (fr) * 2013-11-28 2015-06-04 Sagem Defense Securite Analyse d'une image multispectrale
FR3013878A1 (fr) * 2013-11-28 2015-05-29 Sagem Defense Securite Analyse d'une image multispectrale
US9922407B2 (en) 2013-11-28 2018-03-20 Sagem Defense Securite Analysis of a multispectral image
US10089536B2 (en) 2013-11-28 2018-10-02 SAGEM Défense Sécurité Analysis of a multispectral image
WO2017012899A1 (fr) * 2015-07-21 2017-01-26 Safran Electronics & Defense Procédé de visualisation d'un spot laser
FR3039290A1 (fr) * 2015-07-21 2017-01-27 Sagem Defense Securite Procede de visualisation d'un spot laser
US10600200B2 (en) 2015-07-21 2020-03-24 Safran Electronics & Defense Method for viewing a laser spot
WO2017081121A1 (fr) * 2015-11-12 2017-05-18 Safran Electronics & Defense Procede de decamouflage d'un objet
FR3043823A1 (fr) * 2015-11-12 2017-05-19 Sagem Defense Securite Procede de decamouflage d'un objet
US10614559B2 (en) 2015-11-12 2020-04-07 Safran Electronics & Defense Method for decamouflaging an object

Also Published As

Publication number Publication date
FR2982394A1 (fr) 2013-05-10
WO2013068503A1 (fr) 2013-05-16
EP2776976A1 (fr) 2014-09-17
FR2982394B1 (fr) 2016-09-09
US20140321753A1 (en) 2014-10-30
US9384414B2 (en) 2016-07-05
EP2776976B1 (fr) 2023-05-31
FR2982393B1 (fr) 2014-06-13

Similar Documents

Publication Publication Date Title
FR2982393A1 (fr) Recherche d&#39;une cible dans une image multispectrale
EP3074920B1 (fr) Analyse d&#39;une image multispectrale
EP3074921B1 (fr) Analyse d&#39;une image multispectrale
EP2427752B1 (fr) Procede d&#39;identification d&#39;une scene a partir d&#39;images polarisees multi longueurs d&#39;onde
EP3055832B1 (fr) Procédé de visualisation d&#39;une image multispectrale
EP3326150B1 (fr) Procédé de visualisation d&#39;un spot laser
WO2012007692A1 (fr) Procédé et dispositif d&#39;imagerie bi-spectral multifonctions
EP3374963B1 (fr) Procede de decamouflage d&#39;un objet
CA2965323C (fr) Procede de detection de pixels defectueux.
WO2020182840A1 (fr) Dispositif de contrôle de traitement agricole
EP3308352B1 (fr) Procede de visualisation d&#39;une image multispectrale
FR2966257A1 (fr) Procede et dispositif de construction d&#39;une image en relief a partir d&#39;images en deux dimensions
WO2020104509A1 (fr) Appareil et procédé pour observer une scène comportant une cible
FR3060820A1 (fr) Dispositif de detection d&#39;un objet d&#39;interet et procede mettant en œuvre ce dispositif
WO2023110922A1 (fr) Camera multispectrale a acquisition &#34; snapshot &#34; (instantanee)
FR3112401A1 (fr) Procédé et système pour la vision stéréoscopique d’une scène d’observation céleste
FR3098962A1 (fr) Système de détection d’une particularité hyperspectrale
FR2956944A1 (fr) Procede et un dispositif de fusion de deux images representant une meme scene dans des bandes spectrales differentes en une image couleur.
FR2772932A1 (fr) Dispositif de selection de protections contre les rayonnements laser

Legal Events

Date Code Title Description
CA Change of address

Effective date: 20140805

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

CD Change of name or company name

Owner name: SAGEM DEFENSE SECURITE, FR

Effective date: 20170126

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13