FR2719920A1 - Procédé et dispositif destinés à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée. - Google Patents

Procédé et dispositif destinés à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée. Download PDF

Info

Publication number
FR2719920A1
FR2719920A1 FR9505188A FR9505188A FR2719920A1 FR 2719920 A1 FR2719920 A1 FR 2719920A1 FR 9505188 A FR9505188 A FR 9505188A FR 9505188 A FR9505188 A FR 9505188A FR 2719920 A1 FR2719920 A1 FR 2719920A1
Authority
FR
France
Prior art keywords
terrain
images
missile
micromodel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9505188A
Other languages
English (en)
Other versions
FR2719920B1 (fr
Inventor
Klaus Hesse
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bodenseewerk Geratetechnik GmbH
Original Assignee
Bodenseewerk Geratetechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bodenseewerk Geratetechnik GmbH filed Critical Bodenseewerk Geratetechnik GmbH
Publication of FR2719920A1 publication Critical patent/FR2719920A1/fr
Application granted granted Critical
Publication of FR2719920B1 publication Critical patent/FR2719920B1/fr
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/12Target-seeking control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/343Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)

Abstract

Procédé destiné à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée utilisant un capteur produisant des images, saisissant le terrain survolé, regardant sous un angle fini latéralement par rapport à la direction de visée, livrant des données de terrain desquelles on tire, par comparaison à des données connues de terrain, une position du missile, cette position étant à son tour comparée à la position déterminée par la navigation inertielle, et le système de navigation inertielle étant corrigé en proportion de cette comparaison. Procédé caractérisé en ce que des images du terrain survolé destinées à produire une séquence d'images sont continuellement prises à partir de différentes positions du missile par le capteur, produisant des images, pendant le déplacement du missile au-dessus du terrain, ces images étant mémorisées électroniquement.

Description

B13838
1 2719920
DESCRIPTION
Procédé et dispositif destinés à soutenir la naviqation inertielle d'un missile se dirigeant de façon autonome sur une
cible éloiqnée.
Champ technique L'invention concerne un procédé destiné à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée au moyen d'un capteur produisant des images, saisissant le terrain survolé et regardant sous un angle fini latéralement par rapport à la direction de vol, capteur fournissant des données de terrain desquelles on tire, par comparaison à des données connues de terrain, une position du missile, cette position étant à son tour comparée à la position déterminée par la navigation inertielle, et le système de navigation inertielle étant
corrigé en proportion de cette comparaison.
L'invention concerne en outre un dispositif destiné à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée et destiné à exécuter ce
procédé.
Technique connue Des missiles autonomes volant à basse altitude sont par exemple des "missiles de croisière" ainsi nommés. La navigation de tels missiles se base fondamentalement sur la navigation inertielle. Une unité de capteur d'inertie constituée de gyroscopes et d'accéléromètres fournit des données sur la position, la vitesse et le cap du missile. De telles unités de capteur d'inertie présentent une dérive. La position indiquée et le cap du missile se modifient lentement. Plus le temps de vol dure longtemps, plus les erreurs s'agrandissent. Il est par conséquent nécessaire de contrôler de temps en temps la position et le cap du missile et d'apporter des corrections à
l'unité de capteur d'inertie.
Il est possible de recevoir et de traiter, en vue de la détermination de position, des signaux de satellites de
navigation (GPS). La détermination de position qui se base là-
dessus garantit une haute précision. Pourtant on exige souvent pour un appareil militaire que la navigation ait lieu de façon
absolument autonome.
Il est de plus connu d'explorer le terrain survolé au moyen d'un appareil de radar disposé à bord du missile. Mais cette espèce de contrôle de position ne remplit pas l'exigence d'une passivité absolue, c'est à dire de l'interdiction
d'émettre une radiation active détectable.
Il est de plus connu de prendre, sous forme d'instantané, des photographies isolées du terrain survolé au moyen d'un capteur passif produisant des images. Si au moins trois objets connus et identifiables sont en même temps dans l'image, on peut calculer en coupant en arrière tridimensionnellement, à partir des angles apparaissant dans l'image que ces objets forment entre eux ainsi que des angles de la direction de visée, aussi bien l'endroit que l'orientation du capteur au moment de la prise de l'image. Si le capteur produisant des images saisit moins de trois objets la trajectoire de vol, déterminée au moyen de l'unité de capteur d'inertie, entre deux
photographies isolées peut être intégrée dans le calcul (R.
Koch, R. Bader, W. Hinding: "Une étude d'une image intégrée et d'un système de capteur inertiel" dans "Agard Conference
Proceedings" Nr. 474 (1990)).
L'applicabilité de ce procédé dépend de l'existence
d'objets identifiables sur le terrain en proportion suffisante.
Les erreurs du mesurage dépendent fortement de la position de ces objets par rapport au missile. La condition préalable d'une possibilité évidente d'identification conditionne un processus dispendieux de reconnaissance. Dépendemment de la direction de visée il peut être impossible de comparer, à des fins d'identification de l'objet, le contenu d'image immédiatement à une maquette mémorisée de l'objet. Une comparaison quantitative du contenu attendu d'image au contenu vu d'image doit être au contraire exécutée quand on dirige la visée obliquement par une transformation en perpective de la maquette de terrain mémorisée à l'intérieur du missile dans le plan d'image. La position et le cap peuvent être certainement et le cas échéant
corrigés seulement à l'aide de cette comparaison.
Le missile doit naviguer "aveuglément" entre les objets-
supports seulement avec la navigation inertielle. Si les objets-supports sont ordonnés à proximité les uns des autres une confusion d'objets ressemblants peut avoir lieu à la suite de la déviation de position conditionnée par la dérive. Si un objet-support fait défaut la déviation de position peut être si
grande que l'objet-support d'après n'est plus trouvé.
DE-A-3 412 533 décrit un capteur de reproduction pour une saisie tridimensionnelle de la scène, en particulier pour l'application dans l'automatisation industrielle. Une séquence d'images est prise à partir de différentes directions avec un capteur en mouvement produisant des images. A cette occasion des paires d'images, desquelles on peut tirer une image stéréoscopique de la scène prise, sont produites. Le traitement d'image a lieu au moyen d'un réseau numérique traitant en simultané et destiné à exécuter de rapides comparaisons de
corrélation de coupes d'image.
EP-A-O 122 048 décrit un processeur de données qui
travaille en simultané.
Révélation de l'invention L'invention a pour but de développer un procédé de l'espèce mentionnée ci-dessus destiné à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée, de sorte que - l'information fournie par le capteur produisant des images à propos du terrain est exploitée le mieux possible, - le soutien de la navigation inertielle a lieu quasi continuellement par cette information, et
- le soutien est indépendant de l'existence d'objets-
supports marquants sur le terrain survolé.
Conformément à l'invention, ce problème pour un procédé de l'espèce mentionnée ci-dessus est résolu par le fait que (a) des images du terrain survolé destinées à produire une séquence d'images sont continuellement prises à partir de différentes positions du missile par le capteur, produisant des images, pendant le déplacement du missile au-dessus du terrain, (b) ces images sont mémorisées électroniquement, (c) une représentation tridimensionnelle du terrain est calculée, à partir d'images mémorisées et des différences associées de position du missile obtenues à partir de la navigation inertielle, par une appréciation d'image stéréoscopique, (d) la représentation calculée du terrain est comparée à une maquette mémorisée du terrain et, à partir de là, la
position et le cap du missile sont déterminés.
Des suites d'images peuvent être produites et mémorisées par le capteur produisant des images à de courts intervalles de temps, et les représentations tridimensionnelles du terrain peuvent être produites avec un écart de l'intervalle de temps mentionné chaque fois à partir de paires d'images de cette série, images dont les moments de prise se différencient de
plusieurs intervalles de temps de cette sorte.
Des micromodules à grand contraste sont continuellement suivis dans les images du capteur produisant des images et sont soumis à l'appréciation d'image stéréoscopique afin de calculer
la représentation tridimensionnelle.
A partir de chaque image de la séquence seulement les micromodules à grand contraste peuvent être chaque fois
mémorisés et traités.
Un micromodule peut être mémorisé dans une image de la séquence. Dans l'image d'après, le micromodule translaté entre temps d'un vecteur de translation par le déplacement du missile dans le champ de vision du capteur peut être recherché par un procédé de corrélation, et Le micromodule translaté et ainsi recherché peut être à nouveau mémorisé avec des données caractéristiques du micromodule. Les données caractéristiques de chaque micromodèie peuvent être sélectionnées dans une représentation tridimensionnelle de terrain après avoir parcouru tout le champ de vision du capteur
afin de calculer la position du micromodule.
Les données caractéristiques de chaque micromodèle peuvent comprendrent au moins les informations suivantes: - les numéros d'ordre des images dans lesquelles le micromodèle est apparu dans l'image pour la première et la dernière fois, - le vecteur de translation entre les positions du micromodèle lors d'une première et dernière apparition et
- la valeur de gris d'un pixel central du micromodèle.
Les micromodèles peuvent être traités ligne par ligne et à
chaque ligne simultanément.
Tous les micromodèles apparaissant à une ligne peuvent
être traités simultanément.
La représentation tridimensionnelle du terrain peut être convertie, par une projection numérique de la représentation sur un plan horizontal, en une représentation bidimensionnelle et peut être comparée à une maquette de terrain
bidimensionnelle mémorisée.
Afin de commencer le soutien de position, des points marquants du terrain peuvent d'abord être cherchés, points développés selon des règles déterminées à partir d'éléments d'image élémentaires et après avoir découvert ces points et ce soutien de position par comparaison des points trouvés à la maquette de terrain mémorisée, l'autre soutien de position peut avoir lieu par un
procédé de corrélation de modèle.
Un dispositif destiné à exécuter le procédé est caractérisé par (a) un capteur produisant des images, saisissant le terrain survolé et regardant sous un angle fini latéralement par rapport à la direction de vol, capteur par lequel des images du terrain survolé destinées à produire une séquence d'images sont susceptibles d'être continuellement prises, à partir de différentes positions du missile, pendant le déplacement du missile au-dessus du terrain, (b) une mémoire destinée à mémoriser les images prises par le capteur produisant des images, (c) des moyens calculateurs munis de moyens destinés à calculer, par appréciation d'image stéréoscopique, une représentation tridimensionnelle du terrain à partir d'images mémorisées et des différences associées de position du missile obtenues à partir de la navigation inertielle, (d) des moyens destinés à mémoriser une maquette tridimensionnelle du terrain survolé, (e) des moyens destinés à comparer la représentation tridimensionnelle calculée du paysage à la maquette tridimensionnelle mémorisée du paysage et (f) des moyens destinés à déterminer la position et le cap du missile à partir de la comparaison de la representation
calculée du terrain et de la maquette mémorisée de ce terrain.
Les moyens calculateurs contiennent une structure de
calculateur simultané.
Un exemple d'exécution de l'invention est expliqué ci-
après, plus en détail, en référence aux dessins annexés.
Courte description des dessins
La fig. 1 est une représentation schématique en perspective montrant comment un terrain est observé à partir de deux positions successives d'un missile au moyen d'un capteur
produisant des images et ajouté à un missile.
La fig. 2 montre les contenus d'image saisis dans les deux
positions par le capteur produisant des images.
La fig. 3 illustre la détermination de position par une
comparaison du modèle du terrain observé à un terrain mémorisé.
La fig. 4 est un schéma fonctionnel montrant un dispositif destiné à appuyer la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée au moyen d'un capteur produisant des images, saisissant le paysage survolé, regardant sous un angle angle fini latéralement par rapport à la direction de vol. La fig. 5 est une représentation schématique illustrant le traitement d'image de micromodèles dans l'image du terrain au
moyen d'un calculateur simultané.
Exécution préférée de l'invention Dans la fig. 1 est désigné par 10 un terrain indiqué schématiquement par un arbre 12, deux maisons 14 et 16 et un chemin 18 passant à travers. Un missile vole sur un cap 20 le long d'une trajectoire 22. Le missile présente un capteur produisant des images en forme de caméra de télévision. Le capteur produisant des images "regarde" sous un angle fini latéralement par rapport à la direction de vol du missile. Le capteur saisit dans chaque position un champ de vision ayant une coupe transversale rectangulaire. Dans la fig. 1 on représente le champ de vision 24 du capteur pour une première position 26 du missile et le champ de vision 28 du capteur pour
une seconde position 30.
Le capteur fournit dans les positions 26 et 30 des images 32 et 34 respectivement du terrain 10. Dans l'image 32 de la fig. 2 l'arbre 12 est disposé devant la maison 16. Dans l'image 34 de la fig. 2 l'arbre 12 est susceptible d'être vu entre les maisons 16 et 14. A partir des deux images 32 et 34 on peut calculer une représentation stéréoscopique du terrain 10. La base stéréoscopique est à cette occasion l'écart 36 des deux positions 26 et 30. Cet écart peut être fourni par l'unité de capteur d'inertie du missile. L'erreur de la base stéréoscopique conditionnée par la dérive de l'unité de capteur d'inertie est en règle générale petite si les images sont saisies à des intervalles de temps pas trop grands. Il s'ensuit une représentation tridimensionnelle du terrain survolé. Cette représentation tridimensionnelle du terrain survolé est comparée à une maquette mémorisée du terrain. La déviation de la position, fournie par la navigation inertielle, et du cap, fourni par la navigation inertielle, de la position effective et du cap effectif respectivement est déterminée par un calcul de corrélation. L'indication de l'unité de capteur d'inertie
peut être en conséquence corrigée et soutenue.
Cela est représenté schématiquement dans la fig. 3. Dans la fig. 3 une trajectoire du missile est désignée par 38 ainsi qu'elle résulte de la navigation inertielle. D'après cela le missile serait à un moment to dans une position 40 et à un moment t1 dans une position 42, correspondant aux positions 26 et 30 dans la fig. 1. Le capteur observe dans le champ de vision correspondant au champ de vision 28 de la fig. 1 un terrain représenté dans la fig. 3 en une route 46 munie de débouchés. La trajectoire 38 (sur une carte géographique) indiquée par la navigation inertielle et la route 46 observée, dont la position sur la carte géographique se rapporte à cette
trajectoire 38, sont représentées dans la fig. 3 en pointillé.
Sur la "carte géographique" mémorisée la route se trouve effectivement à l'endroit 48. La trajectoire 38 ne correspond par conséquent pas à la vraie trajectoire du missile. La trajectoire 38 fournie par la navigation inertielle doit être corrigée en une "vraie" trajectoire 50 avec les positions 52 au moment to et 54 au moment tl, trajectoire qui se trouve par rapport à la route 48 mémorisée sur la carte géographique comme la trajectoire 38 par rapport à la route 46 représentée en pointillé. Cela peut se produire de la façon suivante: Dans la représentation tridimensionnelle du terrain des petites fenêtres, se distinguant par des contrastes distincts, sont étudiées. Ce sont par exemple les zones autour des points A et B dans la fig. 3. Pour ces fenêtres on calcule alors une fonction de corrélation avec la maquette mémorisée du paysage (carte géographique). La fenêtre est pratiquement déplacée chaque fois sur la carte géographique jusqu'à ce qu'il y ait une conformité optimale et que la fonction de corrélation ait un maximum. De cette manière les points A' et B' sont déterminés sur la carte géographique, points correspondant aux fenêtres à grand contraste, observées par le capteur et situées autour des points A et B. Pour cela aucune reconnaissance d'objets n'est nécessaire. Dans la zone des fenêtres relativement petites on ne remarque pas tellement une déformation de la représentation du terrain conditionnée par une inexactitude de la base stéréoscopique 36 ainsi que ce
serait le cas si la fonction de corrélation était formée au-
delà du contenu entier d'image. Les frais de calcul et la capacité nécessaire de mémorisation sont essentiellemnt réduits
par rapport à la dernière possibilité.
On connaît la position des points A et B par rapport à la position 42 entachée d'erreurs. Les écarts de la position 42 des points A et B respectivement du terrain observé résultent du calcul de la structure tridimensionnelle de terrain. Le point 54 sur la carte géographique, c'est à dire la vraie position, peut être alors déterminé à partir des points A' et B' sur la carte géographique déterminés par la fonction de corrélation et désormais connus. La vraie position 54 se trouve par rapport aux points A' et B' "fixes sur la carte géographique" exactement comme la position 42 fournie par la navigation inertielle par rapport aux points A et B sur le
terrain observé.
Si la position du missile est déterminée de la façon décrite et l'unité de capteur d'inertie soutenue de façon correspondante l'autre déplacement des points d'image est suivi quasi continuellement. Des points d'image sont définis par de petits "micromodUles" à grand contraste si possible de p. ex. 3x3 pixels. Des images sont produites par le capteur en rapide série. Dans chaque image on constate par formation d'une fonction de corrélation ou d'une comparaison immédiate o un
"micromodèle" étudié dans l'image précédente s'est déplacé.
Pour cela, seulement les environs les plus proches de l'endroit n'ont chaque fois besoin d'être examinées dans l'image o s'est trouvé le micromodèle respectif sur l'image précédente. On peut veiller à ce que le déplacement des points d'image ait essentiellement lieu dans la direction des lignes de la trame d'image du capteur produisant des images. Pour chaque modèle étudié il s'ensuit alors des vecteurs de translation qui reproduisent le déplacement du micromodèle au-dessus du champ de vision saisi par le capteur. À cette occasion de nouveaux micromodèles entrent constamment au bord avant du champ de vision dans le champ de vision, micromodèles qui sont choisis et dont les déplacements sont suivis et mémorisés. Des
micromodèles sortent du champ de vision au bord arrière.
A partir des positions des micromodèles dans différentes images qui sont chaque fois distantes les unes des autres d'un laps de temps pendant lequel le missile a traversé en volant une base stéréoscopique, on calcule une représentation tridimensionnelle du terrain autant que c'est représenté par les micromodèles. Étant donné que les micromodèles sont constamment suivis lors de leur passage à travers le champ de vision du capteur, on connaît leur position dans chacune des images de la séquence. IL n'est par conséquent pas nécessaire de retrouver des micromodèles dans des images distantes les unes des autres dans le temps. Afin de calculer une représentation tridimensionnelle du terrain on procède de la façon suivante: si un micromodèle entre au bord avant dans le champ de vision du capteur le numéro d'ordre de l'image associée de la séquence est mémorisé et avec cela le moment de
l'entrée de ce micromodèle dans le champ de vision du capteur.
Le micromodèle chemine alors dans les images consécutives de la séquence à travers le champ de vision et quitte finalement le champ de vision au bord arrière opposé. Le numéro d'ordre de l'image associée à cela est également mémorisé et avec cela le moment de la sortie du micromodèle hors du champ de vision. La base stéréoscopique résulte de la différence de temps et de la vitesse du missile. L'endroit du micromodèle peut être calculé à l'aide de cela tridimensionnellement. De la même façon on procède pour tous les micromodèles étudiés et traversant le champ de vision. Par ce moyen on obtient constamment une représentation tridimensionnelle du terrain balayé par le champ
de vision du capteur.
A l'aide des micromodèles des fenêtres à grand contraste dans le terrain observé peuvent être constamment suivies d'image en image, images utilisées pour le soutien de la navigation inertielle. La représentation tridimensionnelle du terrain dans la fenêtre calculée quasi continuellement est continuellement comparée à une maquette de terrain mémorisée. A partir de cela, la vraie position du missile peut être détectée à nouveau par la formation d'une fonction de corrélation entre cette représentation du terrain et la maquette de terrain par l'intermédiaire de la fenêtre de la façon décrite ci-dessus. A cette occasion le calcul de la représentation tridimensionnelle du terrain et la correction de la position fournie par la navigation inertielle se relayent constamment. La trajectoire indiquée par la navigation inertielle ne dévie par ce moyen que peu considérablement de la vraie trajectoire. Par conséquent, le calcul de la fonction de corrélation pour la détermination de la déviation ne peut se limiter également qu'au voisinage immédiat de la fenêtre établie dans le champ de vision du capteur. La constante mise à jour de la comparaison entre le terrain observé sur le moment et la maquette de terrain (carte géographique) apportée permet également l'intégration de contenus d'image, sinon difficilement identifiables en tant qu'objets isolés. On peut déjà tirer de la maquette de terrain ce qui peut être observé dans l'image par le capteur étant donné que l'on connaît amplement la position de la fenêtre dans la maquette de terrain. On peut alors "chercher" et traiter de tels contenus d'image. L'utilisation de détails d'image peu caractéristiques devient avec cela possible, détails qui ne permettraient, pris à part, encore aucune dérivation d'une information de position. Il s'ensuit par ce moyen une redondance particulièrement nécessaire dans un terrain faible
en structure.
La fig. 4 montre en schéma fonctionnel un dispositif
destiné à exécuter le procédé décrit.
Dans la fig. 4 un capteur produisant des images est désigné par 56. Le capteur produisant des images est une caméra vidéo. Le capteur 56 fournit des images à un calculateur simultané 58. Le calculateur simultané 58 compare les
micromodèles avec la vitesse élevée nécessaire de traitement.
Le calculateur simultané 58 fournit pour chaque micromodèle, observé sur son cheminement dans plusieurs images, la longueur du vecteur de translation du micromodèle ainsi que les numéros d'image de la première et de la dernière image dans laquelle ce
micromodèle a été observé.
Une étape finale de calcul 60 est constituée d'éléments calculateurs de standard, par exemple des processeurs analogiques usuels. L'étape de calcul 60 reçoit le vecteur de vitesse de vol de l'unité de capteur d'inertie et le temps de vol entre l'image de la séquence des images du capteur 56, dans laquelle un micromodèle observé apparaît pour la première fois, et entre l'image, dans laquelle le micromodèle atteint le bord arrière du champ d'image. Une base stéréoscopique est calculée à partir de la différence de temps entre les images et le vecteur de vitesse de vol. Avec cela, l'endroit du détail de terrain représenté par le micromodèle est déterminé par triangulation dans la représentation tridimensionnelle de terrain. L'étape de calcul effectue en outre une projection de la représentation tridimensionnelle de terrain, obtenue à partir des différents micromodèles, sur le plan horizontal. Par ce moyen on obtient une représentation bidimensionnelle de terrain similaire à une carte géographique en comparaison à une maquette de terrain également bidimensionnelle en forme de
carte géographique et mémorisée dans un missile.
Une troisième étape de calcul 62 effectue une comparaison de la représentation de terrain obtenue des images du capteur 56 de la façon décrite à une maquette de terrain mémorisée dans une mémoire 64. L'étape de calcul fournit la translation de la représentation de terrain tirée des images du capteur 56 (dans le système de coordonnées de la maquette de terrain) par rapport à la maquette de terrain. Dans un calculateur de navigation 66 de la façon décrite en référence à la fig. 3, la vraie position et le vrai cap du missile sont à partir de cela déterminés dans la maquette de terrain (de la carte géographique). Des valeurs de correction pour l'unité de capteur d'inertie sont dérivées des déviations de position et
de cap du missile.
La fig. 5 illustre le traitement d'image de micromodèles
dans l'image du terrain au moyen du calculateur simultané 58.
Dans la représentation schématique de la fig. 5 des éléments de mémoire sont désignés par 68 dans lesquels des éléments d'image de l'image saisie par le capteur 56 sont mémorisés. La fig. 5 montre trois lignes de tels éléments de mémoire 68 dans lesquels les éléments d'image des trois lignes de l'image sont mémorisés. Le calculateur simultané 58 formant la première étape de calcul contient un arrangement unidimensionnel d'éléments de processeur 70. Une mémoire locale 72 munie de plusieurs cellules de mémoire est associée à chaque
élément de processeur 70.
Un "micromodèle" 74 de 3x3 pixels des éléments d'image (pixels) d'une (nl)ème image est mémorisé à son endroit dans la (n-l)ème image. A ces fins la (n-l)ème image est explorée ligne par ligne par les éléments de processeur 70. Les pixels des différentes lignes sont déposés dans les éléments de mémoire aux différents plans de la mémoire locale 72, c'est à
dire "les uns sous les autres" dans la fig. 5.
Dans la nième image il apparaît le même micromodèle par le déplacement du capteur 56 en tant que micromodèle 74A à un autre endroit de l'image, c'est à dire plus loin à gauche dans la fig. 5. Il s'agit de déterminer la translation. Cela se produit au moyen d'un procédé de corrélation. Afin de déterminer la longueur du vecteur de translation du micromodèle 74 d'image en image on forme et totalise les différences de valeur pour tous les neuf pixels du micromodèle et d'un micromodèle 3x3 à comparer à cela:
K = L:pixel (Bn) - (pixel (Bn1l).
Par ce moyen on obtient une mesure du degré de conformité des micromodèles 3x3 à comparer. Si on admet que la direction de vol du missile s'étend exactement parallèlement aux lignes des images on n'a besoin de translater le micromodèle 74 qu'à l'intérieur des lignes vers la gauche dans la fig. 5 jusqu'à ce que les valeurs de K aient un minimum. On détermine le minimum d'une fonction de corrélation K(O) = L:pixeln (x-0,y) - pixeln_1 (x,y): par 0 en tant que coordonnée de translation. La position du minimum est désignée par Omin- On forme la somme à cette occasion à nouveau par l'intermédiaire de tous les neuf pixels entourant la position initiale et la position de recherche. Si
on calcule O à partir de la position du micromodèle dans la (n-
l)ème image Omin est ainsi la longueur du vecteur de translation 76 pour le micromodèle en question entre deux
images. K(Omin) est une mesure de la qualité de la conformité.
Plus K(Omin) est petit, meilleure est la conformité.
Cette procédure se déroule en détail de la façon suivante: la nième image est traitée ligne par ligne. On compare d'abord les trois pixels 86, 88 et 90 de la première rangée du micromodèle par les trois éléments de processeur 80, 82 et 84 aux pixels qui sont mémorisés dans les éléments de mémoire 92, 94 et 96 en partant de la (n-l)ème image. Les différences des contenus de pixel sont formées par les éléments de processeur , 82 et 84.Les valeurs de ces différences sont additionnées et mémorisées dans un élément de mémoire de la mémoire locale de l'élément intermédiaire de processeur 82. Ensuite on compare de la même façon les pixels 98, 100, 102 de la deuxième rangée du micromodèle 74A aux pixels qui sont mémorisés dans les éléments de mémoire 104, 106 et 108 des mémoires locales des éléments de processeur 80, 82 et 84 respectivement en partant de la (n-l)ème image. Les différences des contenus de pixel sont à nouveau formées. Les valeurs de ces différences sont additionnées et additionnées à la somme des différences mémorisée dans la mémoire locale de l'élément intermédiaire de mémoire. La même chose se produit avec les trois pixels de la troisième rangée du micromodèle 74A et avec les pixels mémorisés dans les éléments de mémoire 110, 112 et 114. On forme également là les différences des contenus de pixel et la somme des valeurs de ces différences et on les additionne à la somme des différences mémorisées dans la mémoire locale de
l'élément de processeur 82 en partant des deux autres lignes.
On forme à partir de là dans la mémoire locale de l'élément intermédiaire de processeur 82 en référence au micromodèle 74A la fonction de corrélation du micromodèle 74A de l'image (n-1) avec le micromodèle mémorisé "en-dessous" en partant de l'image n. Finalement le micromodèle 74A est "translaté d'un pas", c'est à dire qu'il est comparé de la même façon au micromodèle 3x3 mémorisé dans les mémoires locales des éléments de processeur 82, 84 et 116 et que la fonction de corrélation est formée. Cela continue progressivement jusqu'à ce que la comparaison au micromodèle 74 ait lieu. Les micromodèles 74 et 74A sont conformes l'un à l'autre. La fonction de corrélation devient un minimum, dans le cas idéal zéro. Avec cela le micromodèle 74 de la (n-l)ème image a été "retrouvé" dans le micromodèle 74A de la nième image. Le vecteur de translation 76 résulte du nombre des pas nécessaires à cela, des variables 0, vecteur autour duquel le micromodèle 74 a été translaté dans l'intervalle de temps de la (n-1)ème image par rapport à la nième image dans le champ de vision du capteur 56. Dans ce cas
ce vecteur de translation s'étire dans la direction des lignes.
La valeur de ce vecteur linéaire 76 est additionné à la somme des vecteurs de translation détectés auparavant du micromodèle en question. La dernière somme était mémorisée dans la mémoire locale de l'élément intermédiaire de processeur à l'endroit du micromodèle 74. La nouvelle somme est mémorisée dans la mémoire locale de l'élément de processeur 82. Le micromodèle 74A est mémorisé dans les mémoires locales des éléments de processeur
, 82 et 84. Le micromodèle 74 est effacé.
On répète maintenant la même opération avec la (n+l)ème image et la nième image. Ce processus se répète avec la
séquence des images.
La procédure décrite peut être exécutée simultanément par tous les éléments de processeur 70 de la rangée pour tous les micromodéles valables d'une ligne. Dans la fig. 5 seulement trois lignes de l'image continue sont représentées. L'image contient effectivement essentiellement plus de lignes. Ces lignes sont successivement traitées au moyen des éléments de processeur 70 de la façon décrite avec les micromodèles
contenus dedans.
Afin d'accepter continuellement de nouveaux micromodèles venant d'images plus nouvelles cela nécessite un test d'autorisation pour des micromodèles. On ne peut et ne devrait pas traiter chaque matrice 3x3 de l'image en micromodèle de la façon décrite. Il y a des zones homogènes ou homogènes en comparaison à pour lesquelles la procédure décrite défaillirait. Par conséquent on n'autorise que les zones 3x3 comme micromodèles valables qui présentent un caractère frappant minimal prédéterminé et avec cela qui laissent supposer des minimums de la fonction de corrélation suffisamment prononcés et non faussés par un brouillage de
l'image. Une mesure de la variance sert pour cela de critère.
Les micromodèles cheminent de cette façon à travers le champ de vision du capteur 56. On sélectionne les données caractéristiques mémorisées pour les micromodéles qui ont atteint le bord arrière du champ de vision. Ces données caractéristiques comprennent la longueur temporelle du parcours total du micromodèle, la longueur du segment total de translation et au moins la valeur de gris du pixel intermédiaire. La longueur temporelle du parcours total est la différence entre la première apparition du micromodèle et son dernier processus de translation. Cette longueur temporelle se révèle être la différence des numéros associés d'image divisée par la fréquence d'image. La longueur du segment de translation se révèle être la différence des adresses d'ouverture d'une première et dernière position du micromodèle. À cette occasion, une interpolation p. ex. parabolique peut encore être exécutée entre les trois valeurs de support de la fonction de corrélation entourant la minimum théorique de la fonction de corrélation afin de déterminer cette longueur à des fractions de pixels prés. Les données caractéristiques sont transmises à
l'étape de calcul 60.
La base stéréoscopique de chaque fois peut être alors déterminée à partir des données caractéristiques. Par une simple triangulation il s'ensuit l'endroit du détail d'objet
représenté par le micromodèle.
La projection exécutée à la fin de la représentation tridimensionnelle de terrain tirée de cette façon dans le plan horizontal se produit dans le cas le plus simple par une mise à
zéro de la coordonnée de hauteur.
En vue de la comparaison de modèle dans l'étape de calcul 62 entre la représentation bidimensionnelle de terrain projetée et le profil de terrain mémorisé dans la mémoire 64, un modèle cherché, p. ex. un croisement de routes comme le point "A" dans la fig. 3, est d'abord codé au commencement du soutien de navigation en un jeu de règles detiné à assembler le modèle à partir d'éléments élémentaires d'image comme des traits et des angles. Ce jeu de règles forme une espèce de "régle de construction" pour le modèle cherché. Si le micromodèle cherché peut être retrouvé, ainsi que la règle de construction le décrit, à partir des éléments d'image contenus dans la représentation projetée de terrain le modèle passe pour le modèle trouvé. Ce procédé correspond environ au procédé dans le passage littéraire évoqué ci-dessus "Agard Conference Proceedings" nr. 474 (1990). L'avantage de ce procédé pour la première recherche pour une connaissance seulement inexacte de la position, de l'orientation et de la grandeur du modèle cherché est la considérable tolérance par rapport à des
variations de translation, de rotation et d'échelle.
Si de cette façon on trouve un début dans la comparaison de modèle entre la représentation de terrain tirée des images de capteur et de la maquette de terrain mémorisée (carte géographique) la position d'autres objets qui deviennent visibles au cours du vol peut être prédite de façon de plus en plus exacte. Les zones de recherche se réduisent. Les déviations de rotation et d'échelle deviennent pratiquement négligeables. On applique alors des procédés de corrélation de modèle ainsi qu'ils ont été décrits ci-dessus en relation avec
les micromodèles.

Claims (13)

Revendications
1. Procédé destiné à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée au moyen d'un capteur produisant des images, saisissant le terrain survolé, regardant sous un angle fini latéralement par rapport à la direction de visée et livrant des données de terrain desquelles on tire, par comparaison à des données de terrain connues, une position du missile, cette position étant à son tour comparée à la position déterminée par la navigation inertielle, et le système de navigation inertielle étant corrigé en proportion de cette comparaison, caractérisé par le fait que (a) des images du terrain survolé destinées à produire une séquence d'images sont continuellement prises à partir de différentes positions du missile par le capteur, produisant des images, pendant le déplacement du missile au-dessus du terrain, (b) ces images sont mémorisées électroniquement, (c) une représentation tridimensionnelle du terrain est calculée, à partir d'images mémorisées et des différences associées de position du missile obtenues à partir de la navigation inertielle, par une appréciation stéréoscopique, (d) la représentation calculée du terrain est comparée à une maquette mémorisée du terrain et, à partir de là, la
position et le cap du missile sont déterminés.
2. Procédé selon la revendication 1, caractérisé par le fait que des suites d'images sont produites et mémorisées par le capteur produisant des images à de courts intervalles de temps,et que les représentations tridimensionnelles du terrain sont produites avec un écart de l'intervalle de temps mentionné chaque fois à partir de paires d'images de cette série, images dont les moments de prise se différencient de plusieurs de tels
intervalles de temps.
3. Procédé selon la revendication 2, caractérisé par le fait que des micromodèles à grand contraste sont continuellement suivis dans les images du capteur produisant des images et sont soumis à l'appréciation d'image stéréoscopique afin de calculer la représentation tridimensionnelle.
4. Procédé selon la revendication 3, caractérisé par le fait qu' à partir de chaque image de la séquence seulement les micromodèles à grand contraste sont chaque fois mémorisés et traités.
5. Procédé selon la revendication 4, caractérisé par le fait que - un micromodèle est mémorisé dans une image de la séquence, - dans l'image d'après le micromodèle translaté entre temps d'un vecteur de translation par le déplacement du missile dans le champ de vision du capteur est recherché par un procédé de corrélation, et - le micromodèle translaté et ainsi recherché est à nouveau mémorisé avec des données caractéristiques du micromodèle.
6. Procédé selon la revendication 5, caractérisé par le fait que les données caractéristiques de chaque micromodèle sont sélectionnées dans une représentation tridimensionnelle de terrain après avoir parcouru tout le champ de vision du capteur
afin de calculer la position du micromodèle.
7. Procédé selon la revendication 6, caractérisé par le fait que les données caractéristiques mémorisées de chaque micromodèle comprennent au moins les informations suivantes: - les numéros d'ordre des images dans lesquelles le micromodèle est apparu pour la première et pour la dernière fois, - le vecteur de translation entre les positions du micromodèle lors d'une première et dernière apparition et
- la valeur de gris d'un pixel central du micromodèle.
8. Procédé selon l'une des revendications 5 à 7,
caractérisé par le fait que les micromodUles sont traités ligne
par ligne et à chaque ligne simultanément.
9. Procédé selon la revendication 8, caractérisé par le fait que tous les micromodèles apparaissant à une ligne sont
traités simultanément.
10. Procédé selon l'une des revendications 1 à 9,
caractérisé par le fait que la représentation tridimensionnelle du terrain est convertie, par une projection numérique de la représentation sur un plan horizontal, en une représentation bidimensionnelle et est comparée à une maquette
bidimensionnelle de terrain mémorisée.
11. Procédé selon la revendication 10, caractérisé par le fait que - afin de commencer le soutien de position, des points marquants du terrain sont d'abord cherchés, points développés selon des règles déterminées à partir d'éléments élémentaires d'image et - après avoir découvert ces points et ce soutien de position par comparaison des points trouvés à la maquette mémorisée de terrain, l'autre soutien de position avoir lieu
par un procédé de corrélation de modèle.
12. Dispositif destiné à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée destiné à exécuter le procédé selon la revendication 1, caractérisé par (a) un capteur (56) produisant des images, saisissant le terrain (10) survolé, regardant sous un angle fini latéralement par rapport à la direction de vol, capteur par lequel des images du terrain (10) survolé destinées à produire une séquence d'images sont susceptibles d'être prises, à partir de différentes positions (26,30) du missile, pendant le déplacement du missile au-dessus du terrain (10), (b) une mémoire (68) destinée à mémoriser électroniquement les images prises par le capteur (56) produisant des images, (c) des moyens calculateurs munis de moyens (58,60) destinés à calculer, par une appréciation d'image stéréoscopique, une représentation tridimensionnelle du terrain (10) à partir d'images (32,34) mémorisés et des différences associées de position du missile obtenues à partir de la navigation inertielle, (d) des moyens destinés à mémoriser une maquette tridimensionnelle du terrain (10) survolé, (e) des moyens (62) destinés à comparer la représentation tridimensionnelle du paysage calculée à une maquette mémorisée du paysage (10) et (f) des moyens (66) destinés à déterminer la position et le cap du missile à partir de la comparaison de la représentation calculée du terrain et de la maquette mémorisée
de ce terrain.
13. Dispositif selon la revendication 5, caractérisé par le fait que les moyens calculateurs contiennent une structure
de calculateur simultané (70,72).
FR9505188A 1994-05-11 1995-04-26 Procédé et dispositif destinés à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée. Granted FR2719920A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4416557A DE4416557A1 (de) 1994-05-11 1994-05-11 Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers

Publications (2)

Publication Number Publication Date
FR2719920A1 true FR2719920A1 (fr) 1995-11-17
FR2719920B1 FR2719920B1 (fr) 1997-03-07

Family

ID=6517824

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9505188A Granted FR2719920A1 (fr) 1994-05-11 1995-04-26 Procédé et dispositif destinés à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée.

Country Status (3)

Country Link
DE (1) DE4416557A1 (fr)
FR (1) FR2719920A1 (fr)
GB (1) GB2289389B (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2897163A1 (fr) * 2006-02-08 2007-08-10 Thales Sa Procede de geo-localisation d'une ou plusieurs cibles
FR3071624A1 (fr) * 2017-09-22 2019-03-29 Thales Systeme d'affichage, procede d'affichage et programme d'ordinateur associes

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9714720D0 (en) 1997-07-14 2001-03-14 British Aerospace Inertial navigation accuracy enhancement
AU756108B2 (en) * 1998-04-15 2003-01-02 Commonwealth Scientific And Industrial Research Organisation Method of tracking and sensing position of objects
AUPP299498A0 (en) 1998-04-15 1998-05-07 Commonwealth Scientific And Industrial Research Organisation Method of tracking and sensing position of objects
US6577953B1 (en) * 2002-02-19 2003-06-10 Motorola, Inc. Device for use with a portable inertial navigation system (PINS) and method for processing PINS signals
US20040041999A1 (en) * 2002-08-28 2004-03-04 Hogan John M. Method and apparatus for determining the geographic location of a target
IL153531A (en) 2002-12-19 2005-11-20 Rafael Armament Dev Authority Personal rifle-launched reconnaissance system
WO2005119178A1 (fr) * 2004-06-02 2005-12-15 Athena Technologies, Inc. Système et méthode de navigation inertielle augmentée d’images (image-augmented inertial navigation system, iains)
DE102007018187B4 (de) * 2007-04-18 2013-03-28 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
DE102007054950B4 (de) * 2007-11-17 2013-05-02 Mbda Deutschland Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
US8213706B2 (en) 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
EP2133662B1 (fr) * 2008-06-09 2012-02-01 Honeywell International Inc. Procédés et système de navigation utilisant des propriétés du terrain
DE102012224107A1 (de) 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Verfahren zum Bestimmen einer Referenzposition als Startposition für ein Trägheitsnavigationssystem

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0005918A1 (fr) * 1979-05-09 1979-12-12 Hughes Aircraft Company Système de poursuite d'image
GB2060306A (en) * 1979-09-26 1981-04-29 Ver Flugtechnische Werke A surface navigation system for aircraft
EP0157414A2 (fr) * 1984-04-06 1985-10-09 Honeywell Inc. Procédé et dispositif de mesure de distance
US5146228A (en) * 1990-01-24 1992-09-08 The Johns Hopkins University Coherent correlation addition for increasing match information in scene matching navigation systems
FR2699666A1 (fr) * 1992-12-22 1994-06-24 Telecommunications Sa Procédé de navigation pour aéronef à l'aide d'un modèle numérique de terrain.

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2641447C2 (de) * 1976-09-15 1983-11-24 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Anordnung zur navigatorischen Steuerung von Flugkörpern
US4144571A (en) * 1977-03-15 1979-03-13 E-Systems, Inc. Vehicle guidance system
US4520445A (en) * 1981-03-30 1985-05-28 E-Systems, Inc. Method of determining the position and velocity of a vehicle
DE3133570C2 (de) * 1981-08-25 1983-06-30 Diehl GmbH & Co, 8500 Nürnberg Verfahren zum Aufnehmen und Verarbeiten von Detektor-Ausgangssignalen bei der optoelektronischen Geländeaufnahme und Anordnung zum Ausüben eines solchen Verfahrens
DE3219032C3 (de) * 1982-05-19 1988-07-07 Messerschmitt Boelkow Blohm Stereophotogrammetrisches aufnahme- und auswerteverfahren
FR2539867A1 (fr) * 1983-01-25 1984-07-27 Thomson Csf Appareil indicateur de donnees topographiques enregistrees sur film et son utilisation pour la navigation aerienne
EP0381178A1 (fr) * 1989-02-02 1990-08-08 Honeywell Inc. Procédé et appareil pour la navigation d'un avion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0005918A1 (fr) * 1979-05-09 1979-12-12 Hughes Aircraft Company Système de poursuite d'image
GB2060306A (en) * 1979-09-26 1981-04-29 Ver Flugtechnische Werke A surface navigation system for aircraft
EP0157414A2 (fr) * 1984-04-06 1985-10-09 Honeywell Inc. Procédé et dispositif de mesure de distance
US5146228A (en) * 1990-01-24 1992-09-08 The Johns Hopkins University Coherent correlation addition for increasing match information in scene matching navigation systems
FR2699666A1 (fr) * 1992-12-22 1994-06-24 Telecommunications Sa Procédé de navigation pour aéronef à l'aide d'un modèle numérique de terrain.

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JEFFREY J. RODRIGUEZ ET AL.: "Matching Aerial Images to 3-D Terrain Maps", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 12, no. 12, NEW YORK, US, pages 1138 - 1149, XP000168819 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2897163A1 (fr) * 2006-02-08 2007-08-10 Thales Sa Procede de geo-localisation d'une ou plusieurs cibles
WO2007090848A1 (fr) * 2006-02-08 2007-08-16 Thales Procede de geo-localisation d'une ou plusieurs cibles
US8107684B2 (en) 2006-02-08 2012-01-31 Thales Method for geolocalization of one or more targets
FR3071624A1 (fr) * 2017-09-22 2019-03-29 Thales Systeme d'affichage, procede d'affichage et programme d'ordinateur associes
US10802276B2 (en) 2017-09-22 2020-10-13 Thales Display system, related display method and computer program

Also Published As

Publication number Publication date
GB2289389A (en) 1995-11-15
GB9508451D0 (en) 1995-06-14
FR2719920B1 (fr) 1997-03-07
GB2289389B (en) 1998-06-24
DE4416557A1 (de) 1995-11-23

Similar Documents

Publication Publication Date Title
EP0687401B1 (fr) Appareil d'imagerie et procede de determination d'informations de focalisation
EP2959315B1 (fr) Génération de modèles tridimensionnels d'un environnement
Dong et al. 4D crop monitoring: Spatio-temporal reconstruction for agriculture
CA2981382C (fr) Procede de determination d'une direction d'un objet a partir d'une image de l'objet
JP4201059B2 (ja) 1つまたは複数の移動カメラの初期位置および向きを校正するための方法ならびに固定対象の3次元的位置測定に対してのこの方法の応用
EP2791868B1 (fr) Système et procédé de traitement d'images d'ensemble de dispositifs de prise de vues multiples
FR2719920A1 (fr) Procédé et dispositif destinés à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée.
EP0357515B1 (fr) Système de navigation terrestre visualisant en temps réel la position d'un véhicule
EP2154542B1 (fr) Caméra tout azimut avec GPS et dispositif de collecte de données spatiales
FR2628859A1 (fr) Capteur stellaire
US20060266878A1 (en) Inertial position target measuring systems and methods
Barfoot et al. Into darkness: Visual navigation based on a lidar-intensity-image pipeline
NL194282C (nl) Correlatieprocessorschakeling.
FR2666649A1 (fr) Dispositif de suivi d'un vehicule avec une fonction de mesure de distance.
EP3200153B1 (fr) Procédé de détection de cibles au sol et en mouvement dans un flux vidéo acquis par une caméra aéroportée
WO2014173939A1 (fr) Recalage d'images sar par information mutuelle
WO2005010820A2 (fr) Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d'objets d'un espace, construction de contours et applications
US20230334696A1 (en) Camera orientation estimation
EP2432660B1 (fr) Procede et dispositif pour etendre une zone de visibilite
US8559757B1 (en) Photogrammetric method and system for stitching and stabilizing camera images
Griffith et al. Survey registration for long‐term natural environment monitoring
Roberts et al. Inertial navigation sensor integrated motion analysis for autonomous vehicle navigation
FR2729236A1 (fr) Guidage de robot par eclairage actif
CN108322698A (zh) 基于多摄像机和惯性测量单元融合的系统和方法
US6445399B1 (en) System and method of visual orientation

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20081231