FR3005187A1 - Recalage d'images sar par information mutuelle. - Google Patents

Recalage d'images sar par information mutuelle. Download PDF

Info

Publication number
FR3005187A1
FR3005187A1 FR1353745A FR1353745A FR3005187A1 FR 3005187 A1 FR3005187 A1 FR 3005187A1 FR 1353745 A FR1353745 A FR 1353745A FR 1353745 A FR1353745 A FR 1353745A FR 3005187 A1 FR3005187 A1 FR 3005187A1
Authority
FR
France
Prior art keywords
image
homogeneous
zone
zones
reference representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1353745A
Other languages
English (en)
Other versions
FR3005187B1 (fr
Inventor
Pierre Minvielle-Larrousse
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Priority to FR1353745A priority Critical patent/FR3005187B1/fr
Priority to PCT/EP2014/058223 priority patent/WO2014173939A1/fr
Priority to GB201518724A priority patent/GB2527997B/en
Priority to US14/785,215 priority patent/US9495747B2/en
Publication of FR3005187A1 publication Critical patent/FR3005187A1/fr
Application granted granted Critical
Publication of FR3005187B1 publication Critical patent/FR3005187B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)

Abstract

L'invention concerne une méthode de recalage d'image utilisant un critère de similarité basé sur l'information mutuelle. L'image à recaler est comparée à une pluralité de représentations de référence d'un objet, chaque représentation de référence étant constituée d'une pluralité de zones homogènes. On calcule l'information mutuelle entre l'image à recaler et chaque représentation de référence, sur l'ensemble des zones homogènes (120). Le recalage est donné par la représentation de référence correspondant à l'information mutuelle la plus élevée (130,140). L'invention est avantageusement appliquée à l'aide à la navigation d'un aéronef par recalage d'images obtenues au moyen d'un radar à synthèse d'ouverture.

Description

RECALAGE D'IMAGES SAR PAR INFORMATION MUTUELLE DESCRIPTION DOMAINE TECHNIQUE La présente invention concerne de manière générale le domaine du recalage d'images. Elle trouve notamment à s'appliquer au recalage d'images obtenues par radar à synthèse d'ouverture ou SAR (Synthetic Aperture Radar) pour l'aide à la navigation d'un aéronef. ÉTAT DE LA TECHNIQUE ANTÉRIEURE Le recalage d'images est une problématique courante rencontrée dans nombre de domaines tels que l'imagerie médicale, la robotique, la cartographie, l'aide à la navigation etc. De manière générale, le recalage d'images consiste à aligner des images d'une même scène, prises à différentes époques, différents angles de vue, différents capteurs. Une revue détaillée des différentes méthodes de recalage d'images pourra être trouvée dans l'article de B. Zitova et al. intitulé « Image registration methods : a survey » publié dans Image and Vision Computing, Vol. 21, 2003, pp. 997-1000. Une méthode connue de recalage d'images est fondée sur la maximisation de l'information mutuelle entre l'image à recaler et une image de référence. Cette méthode a été décrite dans le contexte de l'imagerie médicale par résonance magnétique, dans l'article de P. Viola et al. intitulé « Alignment by maximization of mutual information », publié dans Int'l Journal of Computer Vision, Vol. 4, N° 2, pp. 137-154. Par ailleurs, la navigation des aéronefs repose classiquement sur une centrale inertielle embarquée, composée d'accéléromètres et de gyromètres. Toutefois, la précision obtenue par un système de navigation se dégrade progressivement au cours du vol en raison d'un phénomène de dérive. Il est alors nécessaire de recaler périodiquement le système de navigation inertiel à l'aide de système de navigation absolu tel qu'un système GPS ou d'un système d'imagerie, par exemple un système radar à synthèse d'ouverture (SAR). Dans ce dernier cas, on parle de navigation aidée par radar à synthèse d'ouverture (ou SAR-aided navigation). Une méthode de navigation aidée par radar à synthèse d'ouverture est connue de l'article de J.E. Bevington et al. intitulé « Precision aided intertial navigation using SAR and digital map data », publié dans Record of the Position Location and Navigation Symposium, 1990, IEEE PLANS '90, IEEE, 1990, pp. 490-496.
Le radar à synthèse d'ouverture présente l'avantage de pouvoir être utilisé par tout temps et à toute heure. A l'aide du SAR, on peut former des images de zones du sol préalablement sélectionnées et les comparer à des données de référence, telles que des images satellitaires ou des modèles numériques de terrain, au moyen d'un recalage d'images. Cette comparaison permet de remonter aux conditions géométriques de la prise de vue, en particulier à la position et l'orientation de l'aéronef. Une méthode de recalage d'images SAR basée sur la maximisation de l'information mutuelle a été décrite dans l'article de H. Xie et al. intitulé « Mutual information based registration of SAR images » publié dans Proc. of In Geoscience And Remote Sensing Symposium, IGARSS'03, IEEE International, 2003.
Cette méthode de recalage suppose toutefois de stocker un volume considérable de données et nécessite d'effectuer un grand nombre de calculs. Elle est par conséquent peu adaptée à une aide à la navigation qui doit opérer en temps réel et ne pas mobiliser d'importantes ressources embarquées en mémoire et en puissance de calcul. Un premier objet de la présente invention est par conséquent de proposer une méthode de recalage d'images qui soit particulièrement robuste et rapide, et qui ne requière pas d'importantes ressources en mémoire et en puissance de calcul. Un objet subsidiaire de la présente invention est de proposer une méthode de navigation aidée par radar à synthèse d'ouverture qui utilise une telle méthode de recalage d'images.
EXPOSÉ DE L'INVENTION La présente invention est définie par une méthode de recalage d'une image ( / ) d'un objet par rapport à une pluralité de représentations de référence (M.,1 ) de cet objet, chaque représentation de référence étant constituée par un ensemble (Z) de zones ), dites zones homogènes, chaque zone homogène présentant un niveau d'intensité homogène, ladite méthode étant particulière en ce que: pour chaque représentation de référence de ladite pluralité, on calcule l'information mutuelle (C(/,Mn)) entre ladite image et la représentation de référence, sur l'ensemble (Zn ) des zones homogènes de cette représentation de référence ; on compare les informations mutuelles ainsi calculées et on sélectionne la représentation de référence de ladite pluralité pour laquelle l'information mutuelle est la plus élevée. Avantageusement, pour chaque représentation de référence (M ), l'information mutuelle est déterminée par: un calcul de l'entropie (H(I)) de l'image sur l'ensemble (Z) des zones homogènes de la représentation de référence; un calcul, pour chaque zone homogène ( ), d'un facteur de pondération (pk ), associé à ladite zone, correspondant au rapport entre la surface ( crk ) de cette zone à la surface totale (o-) de l'ensemble desdites zones homogènes ; un calcul, pour chaque zone homogène (Zk), de l'entropie ( H (./(")) de l'image sur cette zone ; un calcul de la différence entre l'entropie de l'image sur l'ensemble desdites zones homogènes, d'une part, et la somme pondérée des entropies de l'image sur les différentes zones homogènes, chaque zone étant pondérée par son facteur de pondération, d'autre part.
Selon une première variante, le calcul de l'entropie (H(/)) de l'image sur l'ensemble (Z) desdites zones homogènes comprend une étape d'estimation de la densité de probabilité de l'intensité des pixels dans l'ensemble desdites zones homogènes, au moyen d'une estimation par histogramme ou d'une estimation par noyau.
Selon une seconde variante, le calcul de l'entropie (// (Ph))) de l'image sur chaque zone homogène (ZA ) comprend une étape d'estimation de la densité de probabilité de l'intensité des pixels dans cette zone homogène, au moyen d'une estimation par histogramme ou d'une estimation par noyau. Lesdites représentations de référence peuvent avoir été obtenues par une segmentation en zones homogènes d'images réelles de l'objet, chaque image réelle ayant été prise par un capteur ayant une position et une attitude prédéterminée par rapport à cet objet. Alternativement, lesdites représentations de référence peuvent avoir été obtenues à partir d'un modèle numérique tridimensionnel de l'objet, chaque représentation de référence étant associée à une position et une attitude d'un capteur par rapport à cet objet. Dans ce dernier cas, le modèle numérique tridimensionnel de l'objet peut comprendre des zones homogènes, chaque zone homogène du modèle numérique étant définie par un contour, chaque contour étant défini par un ensemble de points et, le cas échéant, par une fonction d'interpolation. Le contour d'une zone homogène peut être défini par un polygone passant par les points dudit ensemble de points. L'invention concerne également une méthode d'aide à la navigation d'un aéronef par radar à synthèse d'ouverture, selon laquelle ledit radar obtient au moins une image ( / ) de la zone survolée par ledit aéronef. On recale alors ladite image par rapport à une pluralité de représentations de référence de la zone survolée, à l'aide de la méthode de recalage d'image définie précédemment, chaque représentation de référence étant associée à une position et une attitude dudit aéronef dans un repère géo-référencé, et on déduit une information de navigation de l'aéronef à partir de la position et de l'attitude associées à la représentation de référence pour laquelle l'information mutuelle est la plus élevée. Les représentations de référence peuvent être obtenues à partir d'un modèle numérique de terrain (M NT) stocké dans une base de données embarquée à bord dudit aéronef, ledit modèle numérique de terrain comprenant une pluralité de zones homogènes (Z'), chaque zone homogène du modèle numérique de terrain (2k) étant définie par un contour, chaque contour étant lui-même défini par un ensemble de points (Ï ) de coordonnées stockées dans la base de données et, le cas échéant par une z, fonction d'interpolation.
Les zones homogènes du modèle numérique de terrain peuvent être classées par types, un type étant associé à chacune de ces zones et stocké en relation avec elle dans la base de données. Selon un exemple de réalisation, pour au moins une représentation de référence ( ), les zones homogènes (Znk ) de cette représentation de référence sont obtenues à l'aide d'une transformation géométrique (T) des zones homogènes du modèle numérique de terrain, ladite transformation géométrique dépendant d'une position et d'une attitude de l'aéronef. BRÈVE DESCRIPTION DES DESSINS D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de modes de réalisation préférentiels de l'invention faite en référence aux figures jointes parmi lesquelles : La Fig. 1 représente schématiquement l'ordinogramme d'une méthode de recalage d'image selon un mode de réalisation de l'invention ; La Fig. 2 illustre schématiquement une étape de traitement de la méthode de recalage de la Fig. 1; Les Figs. 3A et 3B illustrent à l'aide d'un exemple le calcul de l'information mutuelle entre une image captée et une représentation de référence ; La Fig. 4 représente schématiquement un premier système d'aide à la navigation par SAR utilisant la méthode de recalage d'image selon l'invention ; La Fig. 5 représente schématiquement une zone homogène du modèle numérique de terrain utilisé dans le système de la Fig. 4; La Fig. 6 représente schématiquement un second système d'aide à la navigation par SAR utilisant la méthode de recalage d'images selon l'invention. EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS L'idée à la base de l'invention est d'effectuer un recalage d'image sur la base d'un critère de maximisation de l'information mutuelle, l'information mutuelle étant calculée sur des zones homogènes d'images de référence (dénommées ci-après représentations de référence). La Fig. 1 représente schématiquement une méthode de recalage d'image selon un mode de réalisation de l'invention.
On suppose ici que l'on a obtenu une image d'un objet (en général tridimensionnel), notée I, (le terme objet étant ici pris au sens large et pouvant correspondre à une scène) à l'aide d'un capteur, par exemple un radar à synthèse d'ouverture. La position et l'attitude du capteur par rapport à l'objet ne sont pas connues. On suppose que l'on dispose par ailleurs d'une pluralité de représentations de référence de cet objet, notées Mn, n=-1,...,N . Par représentation de référence de cet objet, on entend une représentation de cet objet, vu d'un point d'observation et sous une attitude de référence. La représentation de l'objet est constituée d'une pluralité de zones homogènes, chaque zone étant associée à un niveau d'intensité (niveau de gris, niveau de luminance). Le point d'observation de référence peut être défini par ses coordonnées relatives par rapport à l'objet en question. L'attitude de référence pourra en général être définie par un triplet d'angles donnant l'orientation du capteur sous lequel l'objet est observé. Les représentations de référence peuvent être considérées comme des images simplifiées de l'objet avec une description par zones homogènes. Selon une première variante, les représentations de référence sont obtenues à partir d'images réelles de l'objet prises à l'aide d'un capteur dans des conditions bien définies de prises de vue, autrement dit pour une position et une attitude du capteur prédéterminées. Le capteur ayant servi à prendre l'image I peut être différent de celui ayant servi à obtenir la représentation de référence. Par exemple, le capteur ayant servi à obtenir la représentation de référence peut être un capteur optique et le capteur ayant servi à obtenir l'image à recaler peut être un radar à synthèse d'ouverture. De préférence, toutefois, les deux capteurs sont choisis identiques. Les images réelles précitées sont traitées au moyen d'une opération de segmentation, connue en soi, afin d'obtenir des représentations en zones homogènes au sens défini plus haut. On pourra notamment trouver une description d'une méthode de segmentation en zones homogènes dans l'article de Rigau J. et al. intitulé « Medical image segmentation based on mutual information maximization" publié dans Medical Image Computing and Computer-Assisted Intervention-MICCAI 2004 (pp. 135-142). La segmentation de l'image réelle peut ne pas être exhaustive mais dans ce cas seule la partie de l'image segmentée en zones homogènes sera retenue dans la représentation de référence.
Selon une seconde variante, les représentations de référence de l'objet sont obtenues par ordinateur à partir d'un modèle numérique de l'objet. Ce modèle numérique peut être défini par un maillage de la surface de l'objet, chaque maille étant caractérisée par un coefficient de réflectivité. D'autres variantes d'obtention de représentations de référence de l'objet pourront être envisagées sans sortir du cadre de la présente invention. La méthode de recalage d'image vise à déterminer parmi la pluralité de représentations de référence Mn, n=1,...,N celle qui correspond au mieux à l'image I. Elle peut donc être exécutée séquentiellement, par itération sur l'indice n, ou bien en parallèle. On a représenté ici le mode de recherche séquentiel. Dans une première étape, 100, on initialise l'indice n de la représentation de référence. A l'étape 110, on récupère, par exemple en lisant une mémoire de masse, la représentation de référence, Celle-ci est constituée par une pluralité Kr, de zones homogènes, Z, k=1,...,Kn. Par zone homogène, on entend une zone dans laquelle l'intensité est constante. Chaque zone homogène Zni` est en général constituée d'une pluralité de composantes connexes. Ces composantes connexes sont avantageusement choisies de formes simples, par exemple de formes polygonales. Dans ce cas, chaque zone homogène peut être stockée en mémoire sous forme vectorielle. A l'étape, 120, on calcule l'information mutuelle moyenne entre l'image I et la représentation de référence M', sur l'ensemble des zones homogènes Plus précisément, si l'on note Z, =U-Zin' l'ensemble des zones homogènes de la k-1 représentation de référence M', on calcule l'information mutuelle C(I,M,) entre l'image I et la représentation de référence M,, sur l'ensemble des zones homogènes Z' . De manière équivalente, l'information mutuelle C(J,M') est celle entre l'image I restreinte à Z, notée /[Zni, et la représentation de référence Mn . On entend par restriction de l'image I à la zone Z', l'image définie par : / [Zn I ---- {i(x, (x, y) li(x, y) e (1) où ço'(x, y) est la fonction indicatrice de Les étapes 110 et 120 sont exécutées par itération sur les N représentations de référence, comme indiqué par les étapes 125 et 127. A l'étape 130, on compare les informations mutuelles calculées à l'étape 120 pour les différentes représentations de référence. A l'étape 140, on sélectionne la représentation de référence maximisant l'information mutuelle C(/,M,), autrement dit la représentation de référence d'indice no telle que : no = arg max (C (/, M' )) (2) n=1,..,A On rappelle que l'information mutuelle C(X,Y) entre deux variables aléatoires X ,Y est définie par : C(X,Y)=H(X)-H(X 1 Y)=-- 11(Y)-II(Y 1 X) (3) où 11(X) (resp. H(Y)) désigne l'entropie de X (resp. de Y) et H(X/11 (resp. H(.17/ ) désigne l'entropie conditionnelle de la variable aléatoire X par rapport à Y (resp. l'entropie conditionelle de la variable aléatoire Y par rapport à X).
L'information mutuelle s'exprime de manière équivalente, sous une forme symétrique par : C(X,Y)-= H(X)+H(Y)-H(X,Y) (4) où H(X,Y) est l'entropie conjointe des variables X et Y. Le calcul de l'information mutuelle C(/,11//n) entre l'image I et la représentation de référence M,1 sur l'ensemble Zn des zones homogènes de Mn est détaillé ci-après. Pour des raisons de simplification des notations, on omettra dans la suite l'indice n de la représentation de référence. On notera donc M la représentation de référence et Z l'ensemble des zones homogènes de M. Ce calcul consiste à « probabiliser » l'image I ainsi que la représentation M, c'est-à-dire à considérer que l'intensité i d'un point (ou pixel) de / et l'intensité m d'un point (ou pixel) de Z comme des variables aléatoires.
L'entropie de la représentation M est obtenue par : II(M)=-Sp(m=-u)log(p(m-=u))du (5) [tant donné que Z est constituée de zones homogènes Zk, k =1, K , si l'on note pk= p(m=mk) où rnk est l'intensité des points dans la zone homogène Zk , l'entropie de la représentation M peut s'exprimer sous la forme pk log Gik (6) k=1 De manière similaire, l'entropie de l'image / sur la zone Z n'est autre que : I I (I) = - p (i v)log(p(i = v))dv (7) où l'intégration est effectuée à partir de l'histogramme de l'intensité des pixels sur la zone Z. Alternativement, la densité de probabilité p (v) = p (i = v) peut être obtenue grâce à une estimation par noyau, à partir d'un échantillonnage de l'intensité des pixels de / dans la zone Z, de manière connue en soi.
Enfin, l'entropie conjointe des images / et M dans la zone Z est définie par : H (I ,M) = - (m = u, i = v) log (p (m = u,i = v)) dudv (8) Si l'on note i(k) la variable aléatoire i conditionnée par m = mk , où ink est l'intensité des pixels de l'image M dans la zone Zk, l'entropie conjointe est la somme de contributions sur les différentes zones homogènes : I I M) = pik fp(i(k) = y) log (pkp (i (k) = V)dV k=1 (9) et, par conséquent: Il M p kll (Il p k log p k (10) en posant H (I(k))= .fp(i( = v)log(p(i(k) = v))di, qui n'est autre que l'entropie de l'image I dans la zone Zk, ou de manière équivalente l'entropie de l'image I restreinte à la zone Zk, notée / [Zk . Il résulte des expressions (4), (6) et (10) que l'information mutuelle C(/,M) entre l'image I et la représentation de référence M, sur la zone Z, est donnée par : M) = H (1-)-pkH (I(k)) k=1 On notera que, d'après (3), le second terme de l'expression (11) peut être considéré comme l'entropie conditionnelle de la variable aléatoire i par rapport à m, notée H(//M). La Fig. 2 représente de manière schématique la méthode de calcul de l'information mutuelle entre une image captée I et une représentation de référence, telle qu'utilisée à l'étape 120 de la Fig. 1. Dans une première étape, 210, on calcule l'entropie H (I) de l'image I sur la zone Z, c'est-à-dire sur l'ensemble des zones homogènes Zk de M, à partir de l'expression (7). Dans une seconde étape, 220, on détermine pour chaque zone homogène É` de la représentation de référence, la probabilité p k qu'un point de Z appartienne à Zk Comme indiqué précédemment, cette probabilité sert de facteur de pondération des entropies conditionnelles H(/(k)) dans le calcul de l'information mutuelle C(/,M). , k 1 0- où Crk est la surface de La probabilité pk est obtenue par pk = ou o- = o- la zone homogène Zk et a- est la surface de Z, c'est-à-dire la surface totale de l'ensemble des zones homogènes considérées. En effet, étant donné que l'on se limite à la zone Z, la probabilité qu'un point (ou pixel) soit d'intensité m k est simplement la probabilité que ce point ou pixel appartienne à la zone homogène Zk. Dans une troisième étape, 230, on calcule pour chaque zone homogène Zk, k = 1, . . , K de Z, l'entropie de l'image I dans cette zone, c'est-à-dire l'entropie de /(k) au sens défini précédemment: H (I(k)) = - (i(k) = v) log (p (i(k) = v))dv (12) Cette intégration est réalisée en estimant la densité de probabilité p (v) à partir de l'histogramme de l'intensité des pixels de I dans la zone Zk ou bien, au moyen d'une estimation par noyau, à partir d'un échantillonnage de l'intensité dans cette zone.
L'intégration peut être effectuée numériquement à partir de la méthode des trapèzes ou la méthode de Simpson, de manière connue en soi. A l'étape 240, on obtient l'information mutuelle entre l'image captée I et la représentation de référence M sur la zone Z, à partir de l'expression (11). Plus précisément, on calcule la différence entre l'entropie de l'image I sur la zone Z (obtenue en 210), et la somme pondérée des entropies de I calculées sur les différentes zones homogènes de M (obtenues en 230), chaque zone Zk étant pondérée par son facteur de pondération associé, p k (obtenu en 220). Les Figs. 3A et 3B illustrent à l'aide d'un exemple le calcul de l'information mutuelle entre une image captée I et une représentation de référence M sur la zone Z. On a désigné par 310 une représentation de référence M d'un objet. Cette représentation comporte des zones homogènes Z1,Z2,Z1 . On remarque que Z' et Z2 sont chacune constituée de deux composantes connexes. La réunion des zones homogènes sélectionnées constitue la zone Z désignée par 320. Dans le cas présent, l'image / représentée en 330 est une simple translatée de la représentation de référence M, mais dans le cas général, peut bien entendu être sensiblement plus complexe. On a fait figurer en superposition la zone Z et l'image I. En 340 on a représenté l'image / restreinte à la zone Z, précédemment notée /[Z]. Au moyen de cette image restreinte, on peut estimer la densité de probabilité PM dans Z, à partir de l'histogramme de l'intensité des pixels de / dans la zone Z- Alternativement, on peut estimer cette densité à partir d'un échantillonnage de l'intensité de / dans cette zone. En 361, 363 et 365, on a représenté l'image / restreinte respectivement aux zones Z1,Z2,Z3, c'est-à-dire les images i[Z11, /P21, /[Z1]. partir des histogrammes 362, 364, 366 de l'intensité dans ces zones, ou bien à partir d'un échantillonnage de l'intensité de ces pixels dans ces zones (méthode de Parzen), on estime la densité de probabilité P(v) dans chacune de ces zones. On en déduit les entropies H(I) à partir de l'expression (12). Ces entropies sont ensuite pondérées par les surfaces relatives de ces zones pk et la somme pondérée ainsi obtenue est soustraite à l'entropie H (I) de l'image / dans la zone Z, pour donner l'information mutuelle C(I, /14-) La méthode de recalage d'images décrite précédemment peut avantageusement s'appliquer à une méthode d'aide à la navigation par SAR. La Fig. 4 représente de manière schématique un premier système d'aide à la navigation utilisant une méthode de recalage selon l'invention. Le système d'aide à la navigation 400 est embarqué à bord d'un aéronef. Il comprend un radar à synthèse d'ouverture 420 et un module de traitement de signal, relié au radar 420, effectuant une synthèse d'images SAR, 440. Le radar à synthèse d'ouverture permet d'obtenir des images de la zone survolée par l'aéronef.
Le système 400 comprend en outre une base de données 410 embarquée dans laquelle est stocké un modèle numérique tridimensionnel de terrain ou MNT. Ce modèle décrit le terrain sous formes de zones homogènes. Ces zones homogènes peuvent être par exemple des parcelles, des lacs, routes, toitures, etc.
Chaque zone homogène 21 du modèle est définie par une succession de points et le cas échéant une courbe d'interpolation, telle qu'une fonction spline. Chaque point est défini par ses coordonnées dans un repère géo-référencé, par exemple par sa latitude, sa longitude et son altitude. La Fig. 5 représente schématiquement une zone homogène 2k définie par une pluralité de points /5-:' z,de coordonnées ( iongPz2k ,lad"' altiz!, ou z,lat:52 et alti'," sont respectivement la longitude, la latitude et l'altitude du point Pi Dans le cas présent, aucune courbe d'interpolation n'est définie et la zone homogène 2k n'est autre que celle délimitée par le polygone (non nécessairement inclus dans un plan) passant par les points 4, .
A chaque zone homogène 2k est associé un type j'II, k . Le type 131-k est lié à la réflectivité radar de la zone, elle-même dépendant de la nature de la zone en question (type de végétation, eau profonde, route bitumée etc.). Le modèle MNT peut être obtenu par segmentation et classification préalable de cartes et d'images aériennes et/ou satellitaires. On notera que ce modèle vise simplement à identifier des zones homogènes à la surface terrestre (cette identification n'étant d'ailleurs pas nécessairement exhaustive). Il n'est en particulier pas nécessaire d'identifier la nature de chaque zone, seule important en définitive sa nature homogène dans le temps. Par exemple, une zone de végétation d'un certain type gardera une réflectivité radar homogène en dépit des variations saisonnières.
On comprendra ainsi que le modèle MNT est considérablement moins gourmand en mémoire que des images aériennes classiques. Il se prête par conséquent bien à une utilisation embarquée.
Revenant à la Fig. 4, le module de recherche 450 fournit séquentiellement ou parallèlement au module d'extraction 430 une pluralité de positions et d'attitudes possibles de l'aéronef, définissant elles-mêmes des positions et attitudes du radar à synthèse d'ouverture.
Pour chaque couple de position, attitude du SAR, le module d'extraction, 430, obtient une représentation de référence M,, du terrain par une transformation géométrique T' du modèle MNT. Cette transformation Ta donne une vue du modèle MNT à partir du point d'observation et sous l'angle donnés par le couple de position et d'attitude en question.
La transformation T' est composée de manière générale de translations, rotations, projection etc. Une zone homogène 2' du modèle MNT, définie par les coordonnées de ses points /5.i est ainsi transformée en une zone bidimensionnelle homogène, notée Z' ), délimitée par les points PL (132 . Bien entendu, la transformation 7 laisse invariant le type riik de la zone. Autrement dit, la zone Z'' est de type n'/A = Thk, quelle que soit la transformation T' . Le module de recalage d'images, 460, calcule l'information mutuelle C(1-,M,) entre l'image captée /, telle que synthétisée par le module 440, et chaque représentation de référence, M', extraite de la base MNT. Elle sélectionne ensuite la représentation de référence M la plus proche de / par maximisation de C(/,M,'). Le module de recherche modifie par itérations successives les position et attitude de l'aéronef de manière à trouver le maximum de l'information mutuelle C(/,M,'). Selon une première variante, on pourra se contenter d'un maximum local, c'est- à-dire d'un maximum obtenu sur une plage discrète de positions et d'attitudes possibles de l'aéronef.
Selon une seconde variante, le maximum sera considéré comme atteint dès lors que l'information mutuelle est supérieure à un seuil prédéterminé.
On remarquera que le maximum de l'information mutuelle C(LM) est atteint pour une coïncidence parfaite entre et auquel cas c(I,m)=H(m) Pk log PA . On notera que cette valeur est positive puisque k=1 Pk <1. La recherche de la représentation de référence la plus proche pourra cesser dès lors que Von aura trouvé une représentation de référence M telle que : K> KEnin et C (I,M)+Ipi, log p, (13) k=1 < E E pk log pk k=1 où KI= et e sont des valeurs de seuil prédéterminées. La première condition de (13) vise à écarter les représentations de référence pauvres en zones homogènes et présentant pour cette raison une entropie insuffisante. Quelle que soit la variante, lorsque le module de recherche 450 a trouvé une représentation de référence M,', maximisant l'information mutuelle, la position et l'attitude de l'aéronef (ou du capteur) sont celles de la transformation T' associée à opt - On a supposé dans ce mode de réalisation que chaque nouvelle représentation de référence M' nécessitait d'effectuer une transformation géométrique Ti sur le modèle MNT. Selon une variante, pour accélérer la recherche, on pourra se contenter d'effectuer une opération géométrique simple sur représentation déjà extraite (translation, rotation et de manière plus générale une transformation isométrique) sans passer à chaque fois par le modèle MNT. Avantageusement, cette variante pourra combiner une boucle de recherche rapide faisant simplement intervenir des opérations isométriques sur une représentation de référence, et une boucle de recherche lente nécessitant des transformations géométriques plus complexes (nouvelle projection par exemple).
La Fig. 6 représente schématiquement un second système d'aide à la navigation par SAR utilisant la méthode de recalage d'images selon l'invention. Ce système, 600, comprend, comme celui de la Fig. 4, un radar à synthèse d'ouverture 620, un module de synthèse d'image 640, une base de données embarquée 610 dans laquelle sont stockés un modèle numérique de terrain MNT, ainsi qu'un module d'extraction de représentations de référence, 630. Les éléments 610, 620, 630, 640 sont identiques aux éléments 410, 420, 430, 440 de la Fig. 4 et leur description ne sera donc pas reprise ici.
A la différence du système de la Fig. 4, le radar à synthèse d'ouverture 620 et le module de synthèse d'image 630 génèrent des images SAR, /'' à intervalles réguliers. En outre, le système 600 comprend un module de prédiction de trajectoire, 650. Ce module reçoit pour chaque image -r,', l'indice de la représentation de référence, M',,' qui lui est la plus proche et en déduit une information de navigation (position, vitesse, direction et attitude de l'aéronef). En fonction de la vitesse et de la direction de l'aéronef, le module de prédiction de trajectoire peut déterminer une zone de position et une plage angulaire d'attitude où l'aéronef sera susceptible de se trouver à l'instant suivant, et en déduire les représentations de référence Mn,±1,,, qui pourront être prises en considération dans le calcul de similarité. Le cas échéant, le module 660 fournit également les valeurs C(Ini,Mn' au module de prédiction 650, de manière à ce qu'il puisse affiner sa prédiction, par exemple selon un algorithme d'optimisation du plus fort gradient (steepest gradient). D'autres algorithmes d'optimisation ou d'estimation séquentielle (tel que le filtrage de Kalnnan) pourront être mis en oeuvre sans sortir du cadre de la présente invention.25

Claims (12)

  1. REVENDICATIONS1. Méthode de recalage d'une image (I) d'un objet par rapport à une pluralité de représentations de référence (M,, ) de cet objet, chaque représentation de référence étant constituée par un ensemble (Zn) de zones (Znk ) dites zones homogènes, chaque zone homogène présentant un niveau d'intensité homogène, ladite méthode étant caractérisée en ce que : pour chaque représentation de référence de ladite pluralité, on calcule (120) l'information mutuelle (C(/,M,)) entre ladite image et la représentation de référence, sur l'ensemble (Z) des zones homogènes de cette représentation de référence ; - on compare (130) les informations mutuelles ainsi calculées et l'on sélectionne (140) la représentation de référence de ladite pluralité pour laquelle l'information mutuelle est la plus élevée.
  2. 2. Méthode de recalage d'image selon la revendication 1, caractérisée en ce que, pour chaque représentation de référence (M ), l'information mutuelle est déterminée par: - un calcul de l'entropie (H(/)) de l'image sur l'ensemble (Z) des zones homogènes de la représentation de référence; - un calcul (220), pour chaque zone homogène (Z' ), d'un facteur de pondération ( pk ), associé à ladite zone, correspondant au rapport entre la surface (uk ) de cette zone à la surface totale ( ) de l'ensemble desdites zones homogènes ; - un calcul (230), pour chaque zone homogène (Zk), de l'entropie ( H (I(k))) de l'image sur cette zone ; - un calcul (230) de la différence entre l'entropie de l'image sur l'ensemble desdites zones homogènes, d'une part, et la somme pondérée des entropies de l'imagesur les différentes zones homogènes, chaque zone étant pondérée par son facteur de pondération, d'autre part.
  3. 3. Méthode de recalage d'image selon la revendication 2, caractérisée en ce que le calcul de l'entropie ( H (I)) de l'image sur l'ensemble (Z) desdites zones homogènes comprend une étape d'estimation de la densité de probabilité de l'intensité des pixels dans l'ensemble desdites zones homogènes, au moyen d'une estimation par histogramme ou d'une estimation par noyau.
  4. 4. Méthode de recalage d'image selon la revendication 2, caractérisée en ce que le calcul de l'entropie ( H (P)) de l'image sur chaque zone homogène (Zk ) comprend une étape d'estimation de la densité de probabilité de l'intensité des pixels dans cette zone homogène, au moyen d'une estimation par histogramme ou d'une estimation par noyau.
  5. 5. Méthode de recalage d'image selon l'une des revendications précédentes, caractérisée en ce que lesdites représentations de référence sont obtenues par une segmentation en zones homogènes d'images réelles de l'objet, chaque image réelle ayant été prise par un capteur ayant une position et une attitude prédéterminées par rapport à cet objet.
  6. 6. Méthode de recalage d'image selon l'une des revendications 1 à 4, caractérisée en ce que lesdites représentations de référence sont obtenues à partir d'un modèle numérique tridimensionnel de l'objet, chaque représentation de référence étant associée à une position et une attitude d'un capteur par rapport à cet objet.
  7. 7. Méthode de recalage d'image selon la revendication 6, caractérisée en ce que le modèle numérique tridimensionnel de l'objet comprend des zones homogènes, chaque zone homogène du modèle numérique étant définie par un contour, chaque contourétant défini par un ensemble de points et, le cas échéant, par une fonction d'interpolation.
  8. 8. Méthode de recalage d'image selon la revendication 7, caractérisée en ce que le contour d'une zone homogène est défini par un polygone passant par les points dudit ensemble de points.
  9. 9. Méthode d'aide à la navigation d'un aéronef par radar à synthèse d'ouverture, caractérisée en ce que ledit radar obtient au moins une image (/) de la zone survolée par ledit aéronef et que l'on recale ladite image par rapport à une pluralité de représentations de référence de la zone survolée, à l'aide de la méthode de recalage d'image selon l'une des revendications 1 à 4, chaque représentation de référence étant associée à une position et une attitude dudit aéronef dans un repère géo-référencé, et que l'on déduit une information de navigation de l'aéronef à partir de la position et de l'attitude associées à la représentation de référence pour laquelle l'information mutuelle est la plus élevée.
  10. 10. Méthode d'aide à la navigation selon la revendication 9, caractérisée en ce que les représentations de référence sont obtenues à partir d'un modèle numérique de terrain (MNT) stocké dans une base de données embarquée à bord dudit aéronef, ledit modèle numérique de terrain comprenant une pluralité de zones homogènes (2k ), chaque zone homogène du modèle numérique de terrain (21e ) étant définie par un contour, chaque contour étant lui-même défini par un ensemble de points (( ) de z, coordonnées stockées dans la base de données et, le cas échéant, par une fonction d'interpolation.
  11. 11. Méthode d'aide à la navigation selon la revendication 10, caractérisée en ce que les zones homogènes du modèle numérique de terrain sont classées par types, untype étant associé à chacune de ces zones et stocké en relation avec elle dans la base de données.
  12. 12. Méthode d'aide à la navigation selon la revendication 11, caractérisée en ce que, pour au moins une représentation de référence (Mn.), les zones homogènes (Z,/` ) de cette représentation de référence sont obtenues à l'aide d'une transformation géométrique (Tn) des zones homogènes du modèle numérique de terrain, ladite transformation géométrique dépendant d'une position et d'une attitude de l'aéronef.10
FR1353745A 2013-04-24 2013-04-24 Recalage d'images sar par information mutuelle. Active FR3005187B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR1353745A FR3005187B1 (fr) 2013-04-24 2013-04-24 Recalage d'images sar par information mutuelle.
PCT/EP2014/058223 WO2014173939A1 (fr) 2013-04-24 2014-04-23 Recalage d'images sar par information mutuelle
GB201518724A GB2527997B (en) 2013-04-24 2014-04-23 Registration of SAR images by mutual information
US14/785,215 US9495747B2 (en) 2013-04-24 2014-04-23 Registration of SAR images by mutual information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1353745A FR3005187B1 (fr) 2013-04-24 2013-04-24 Recalage d'images sar par information mutuelle.

Publications (2)

Publication Number Publication Date
FR3005187A1 true FR3005187A1 (fr) 2014-10-31
FR3005187B1 FR3005187B1 (fr) 2015-05-29

Family

ID=48979941

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1353745A Active FR3005187B1 (fr) 2013-04-24 2013-04-24 Recalage d'images sar par information mutuelle.

Country Status (4)

Country Link
US (1) US9495747B2 (fr)
FR (1) FR3005187B1 (fr)
GB (1) GB2527997B (fr)
WO (1) WO2014173939A1 (fr)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2526806A (en) * 2014-06-03 2015-12-09 Here Global Bv Trail interpolation
US11175398B2 (en) * 2016-12-21 2021-11-16 The Boeing Company Method and apparatus for multiple raw sensor image enhancement through georegistration
US10802135B2 (en) * 2016-12-21 2020-10-13 The Boeing Company Method and apparatus for raw sensor image enhancement through georegistration
US11131767B2 (en) * 2017-06-22 2021-09-28 The Boeing Company Synthetic aperture radar mapping and registration systems and methods
US10679362B1 (en) * 2018-05-14 2020-06-09 Vulcan Inc. Multi-camera homogeneous object trajectory alignment
CN108919265B (zh) * 2018-07-16 2022-05-06 北京航空航天大学 一种基于互信息量最大的星载TomoSAR空间基线序列设计方法
CN114092791A (zh) * 2021-11-19 2022-02-25 济南大学 一种基于场景感知的人机协同方法、系统及机器人
CN116559867A (zh) * 2023-07-12 2023-08-08 深圳安德空间技术有限公司 无人机载二维探地雷达三维sar成像的扫查探测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7783118B2 (en) * 2006-07-13 2010-08-24 Seiko Epson Corporation Method and apparatus for determining motion in images
AU2007350982A1 (en) * 2006-11-10 2008-10-23 Dorian Averbuch Adaptive navigation technique for navigating a catheter through a body channel or cavity
US7995864B2 (en) * 2007-07-03 2011-08-09 General Electric Company Method and system for performing image registration
US8244008B2 (en) * 2008-07-21 2012-08-14 International Business Machines Corporation Methods involving optimizing and mapping images
US8503747B2 (en) * 2010-05-03 2013-08-06 Sti Medical Systems, Llc Image analysis for cervical neoplasia detection and diagnosis
AU2013237949A1 (en) * 2012-03-28 2014-11-13 University Of Houston System Methods and software for screening and diagnosing skin lesions and plant diseases

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Field Programmable Logic and Application", vol. 3216, 1 January 2004, SPRINGER BERLIN HEIDELBERG, Berlin, Heidelberg, ISBN: 978-3-54-045234-8, ISSN: 0302-9743, article JAUME RIGAU ET AL: "Medical Image Segmentation Based on Mutual Information Maximization", pages: 135 - 142, XP055093653, DOI: 10.1007/978-3-540-30135-6_17 *
HUA XIE ET AL: "Mutual information based registration of SAR images", LEARNING FROM EARTH'S SHAPES AND SIZES : IGARSS 2003 ; 2003 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SYMPOSIUM ; CENTRE DE CONGRÈS PIERRE BAUDIS, TOULOUSE, FRANCE, 21 - 25 JULY 2003 ; PROCEEDINGS; [IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYM, vol. 6, 21 July 2003 (2003-07-21), pages 4028 - 4031, XP010704398, ISBN: 978-0-7803-7929-9, DOI: 10.1109/IGARSS.2003.1295351 *
HUI ZHANG ET AL: "An entropy-based objective evaluation method for image segmentation", PROCEEDINGS OF SPIE, vol. 5307, 22 December 2003 (2003-12-22), pages 38 - 49, XP055094582, ISSN: 0277-786X, DOI: 10.1117/12.527167 *

Also Published As

Publication number Publication date
WO2014173939A1 (fr) 2014-10-30
GB2527997A (en) 2016-01-06
FR3005187B1 (fr) 2015-05-29
GB2527997B (en) 2019-12-25
GB201518724D0 (en) 2015-12-09
US9495747B2 (en) 2016-11-15
US20160098838A1 (en) 2016-04-07

Similar Documents

Publication Publication Date Title
FR3005187A1 (fr) Recalage d&#39;images sar par information mutuelle.
US8766975B2 (en) Method of correlating images with terrain elevation maps for navigation
US20200124421A1 (en) Method and apparatus for estimating position
CN110070615A (zh) 一种基于多相机协同的全景视觉slam方法
EP2428934B1 (fr) Procédé d&#39;estimation du mouvement d&#39;un porteur par rapport à un environnement et dispositif de calcul pour système de navigation
CN112419374B (zh) 一种基于图像配准的无人机定位方法
EP2724203A1 (fr) Génération de données de carte
US20220398825A1 (en) Method for generating 3d reference points in a map of a scene
Dawood et al. Harris, SIFT and SURF features comparison for vehicle localization based on virtual 3D model and camera
EP3227860B1 (fr) Procédé d&#39;estimation du mouvement d&#39;un porteur par rapport à un environnement et dispositif de calcul pour système de navigation
CN116097128A (zh) 用于对车辆位置进行确定的方法和设备
Khoshelham et al. Vehicle positioning in the absence of GNSS signals: Potential of visual-inertial odometry
CN113838129B (zh) 一种获得位姿信息的方法、装置以及系统
Van Pham et al. Absolute map-based localization for a planetary rover
CN115127554A (zh) 一种基于多源视觉辅助的无人机自主导航方法与系统
Yang et al. Road detection by RANSAC on randomly sampled patches with slanted plane prior
Sheikh et al. Feature-based georegistration of aerial images
Chen et al. The performance analysis of stereo visual odometry assisted low-cost INS/GPS integration system
Gakne et al. Skyline-based positioning in urban canyons using a narrow fov upward-facing camera
Salleh Study of vehicle localization optimization with visual odometry trajectory tracking
Tazir Precise localization in 3D prior map for autonomous driving
Lin et al. Autonomous Vehicle Localization with Prior Visual Point Cloud Map Constraints in GNSS-Challenged Environments. Remote Sens. 2021, 13, 506
Sayem Vision-Aided Navigation for Autonomous Vehicles Using Tracked Feature Points
Panwar Interest point sampling for range data registration in visual odometry
EP4006491A1 (fr) Système d&#39;aide à la navigation d&#39;un porteur à l&#39;aide d&#39;amers

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12