FR2595817A1 - Procede de determination de l'orientation d'une plate-forme de capteur imageur ou instrument analogue - Google Patents

Procede de determination de l'orientation d'une plate-forme de capteur imageur ou instrument analogue Download PDF

Info

Publication number
FR2595817A1
FR2595817A1 FR8703470A FR8703470A FR2595817A1 FR 2595817 A1 FR2595817 A1 FR 2595817A1 FR 8703470 A FR8703470 A FR 8703470A FR 8703470 A FR8703470 A FR 8703470A FR 2595817 A1 FR2595817 A1 FR 2595817A1
Authority
FR
France
Prior art keywords
pixels
images
image
orientation
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR8703470A
Other languages
English (en)
Other versions
FR2595817B1 (fr
Inventor
Peter K Pleitner
Robert K Vincent
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Geospectra Corp
Original Assignee
Geospectra Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Geospectra Corp filed Critical Geospectra Corp
Publication of FR2595817A1 publication Critical patent/FR2595817A1/fr
Application granted granted Critical
Publication of FR2595817B1 publication Critical patent/FR2595817B1/fr
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

POUR DETERMINER LES MODIFICATIONS D'ORIENTATION D'UN CAPTEUR AEROPORTE 10; 12 SE DEPLACANT LE LONG D'UNE TRAJECTOIRE DE VOL 13 AU-DESSUS DE LA TERRE ET ENREGISTRANT DES IMAGES BIDIMENSIONNELLES SUCCESSIVES DE LA SURFACE DE LA TERRE LE LONG DE CETTE TRAJECTOIRE DE VOL, LE PROCEDE DE L'INVENTION CONSISTE A: A) PRODUIRE UN PREMIER ENSEMBLE DE DONNEES REPRESENTANT DES PIXELS D'UNE PREMIERE IMAGE BIDIMENSIONNELLE DE CETTE SURFACE EN UN PREMIER POINT DE LA TRAJECTOIRE DE VOL; B) PRODUIRE UN SECOND ENSEMBLE DE DONNEES REPRESENTANT DES PIXELS D'UNE SECONDE IMAGE BIDIMENSIONNELLE DE CETTE SURFACE EN UN SECOND POINT DE LA TRAJECTOIRE DE VOL SUFFISAMMENT PROCHE DU PREMIER POINT POUR QU'AU MOINS UNE PARTIE DES IMAGES SE CHEVAUCHE, L'INTENSITE DES PIXELS VARIANT EN FONCTION DE LEURS POSITIONS RESPECTIVES SUR LES IMAGES HOMOLOGUES, LES PIXELS HOMOLOGUES DE LA PREMIERE ET DE LA SECONDE IMAGE SUR LES PARTIES CHEVAUCHANTES DE CES IMAGES ETANT DECALES L'UN PAR RAPPORT A L'AUTRE D'UNE QUANTITE FONCTION DES MODIFICATIONS D'ORIENTATION DU CAPTEUR; ET C) CORRELER UNE PLURALITE DE PIXELS HOMOLOGUES DE LA PREMIERE ET DE LA SECONDE IMAGE DANS LA PARTIE CHEVAUCHANTE DE CELLES-CI, LES POSITIONS RELATIVES DES PIXELS CORRELES REPRESENTANT LES VARIATIONS D'ORIENTATION DU CAPTEUR.

Description

259581-7
La présente invention concerne_ de façon générale les systèmes permettant de détecter les modifications d'orientation d'une plate-forme aérienne ou spatiale telle qu'un capteur imageur monté sur un aéronef ou sur un engin 5 spatial, et traite plus particulièrement d'un système pour détecter les modifications d'orientation qui utilise une
technique d'imagerie topographique.
Les scanneurs imageurs multibandes sont généralement montés sur des aéronefs en déplacement ou des satellites pour 10 permettre l'enregistrement d'images du sol terrestre au fur et à mesure que ceux-ci survolentla surface de la terre. Les images sont enregistrées sous forme de données consistant en une série de lignes de balayage dont l'orientation relative par rapport aux autres lignes de balayage peut changer au fur et à mesure que l'aéronef ou l'engin spatial se déplace le 15 long de sa ligne de vol. L'orientation de l'aéronef ou.de l'engin spatial dépend des pertubations provoquées par des variations de roulis, de tangage, de lacet, d'altitude et de vitesse, qui induisent des distorsions géométriques non 20 systématiques dans l'image du terrain. Dans le cas des aéronefs, ces perturbations résultent des rafales de vent, des modifications de -la densité de l'air et de modifications imprévues de la trajectoire. Dans l'environnement d'un satellite, les perturbations sont plus ténues, mais peuvent 25 également résulter de rafales atmosphériques (pour les orbites
à faible altitude), de manoeuvres de changement d'orbite, et de modifications du centre de masse du satellite (résultant par exemple de la consommation de carburant, ou de modifications d'orientation de l'antenne et des panneaux 30 solaires).
Pour corriger la géométrie des données d'images brutes, il est eh général possible d'identifier sur des cartes les pixels correspondants a des points de référence au sol chaque fois que quelques lignes des données d'images sont balayées, en 35 recherchant sur les cartes la position exacte des caractéristiques correspondantes à des pixels particuliers des données d'images, puis en déformant mathématiquement et en rééchantillonnant l'image entière pour arriver à la meilleure
2 2595817
coïncidence avec l'ensemble des points de référence au sol.
Cette manière de procéder est cependant particulièrement coûteuse du fait du temps et du travail nécessaire à corréler manuellement les données d'images enregistrées avec la position des points de référence au sol, et en outre la correction ne dépend que de la précision et de la densité des points de référence au sol. Une autre solution à ce problème utilise des systèmes de recherche d'horizon, de pointage stellaire et des ensembles de navigation inertielle embarqués à bord de l'engin spatial ou de l'aéronef. Ces capteurs d'orientation détectent et enregistrent les données de modification d'orientation nécessaires à la correction géométrique partielle des données d'images. Ces données ne sont cependant pas optimales, pour au moins trois raisons: tout d'abord, elles utilisent des caractéristiques ou des 15
références inertielles qui ne font pas intrinsèquement partie des données topographiques enregistrées; ensuite, les systèmes nécessaires peuvent coûter autant que le capteur primaire; enfin, leur poids et leur consommation d'énergie 20 peuvent être prohibitifs dans certaines applications.
Par conséquent, il existe un besoin technique pour un système léger, plus performant et moins coûteux permettant de détecter et d'enregistrer les modifications d'orientaticn d'une plate-forme, telle qu'une plate-forme de capteur imageur, qui puisse être utilisé aussi bien à bord d'un 25 aéronef que d'un satellite pour des applications de détection
d'images topographiques.
A cet effet, selon la présente invention, le système pour la détermination des modifications d'orientation d'une 30. plate-forme de capteur imageur topographique aérospatial comprend un second capteur, avec de préférence un capteur imageur panchromatique bidimensionnel, ainsi qu'un corrélateur numérique d'images utilisé pour comparer des images topographiques bidimensionnelles se chevauchant, au fur et à mesure de leur acquisition. Le second capteur produit une 35 série d'images maltres et esclaves, chaque image esclave devenant une image maitre lorsqu'une nouvelle image esclave est produite. La corrélation numérique des images est I À
3 2595817
réalisée de manière à identifier une pluralité de pixels (de préférence cinq) sur l'image maître avec les mêmes points géographiques sur l'image esclave. La corrélation est réalisée en choisissant une pluralité de secteurs (de préférence cinq), spatialement répartis, de réseaux de pixels de l'image esclave, puis en déplaçant ces réseaux par rapport à l'image maître jusqu'à trouver le coefficient de corrélation de l'échelle de gris pour chaque secteur. Les emplacements ayant les coefficients de corrélation les plus élevés sont choisis comme étant les emplacements véritables des secteurs de l'image esclave par rapport à l'image maître. On enregistre alors les positions de ligne et de colonne des pixels corrélés de l'esclave image et l'on détermine l'orientation relative de l'image esclave par rapport à l'image maître en utilisant la condition photogrammétrique de coplanéité. L'orientation 15 relative des images maître et esclave caractérise de façon univoque la nouvelle orientation de la plate-forme du capteur, c'est-à-dire la modification de l'orientation de la plate-forme entre les instants auxquels les images maître et esclave ont été enregistrées. Les données acquises avec le 20 capteur imageur bidimensionnel peuvent être mémorisées pour un usage ultérieur, ou bien peuvent être traitées en temps réel pour obtenir une information caractérisant les modifications d'orientation de la plate- forme afin de corriger la géométrie des données d'images topographiques enregistrées par le 25
capteur primaire.
L'un des buts de l'invention est donc de proposer un système pour détecter les modifications d'orientation d'une plate-forme mobile aérienne ou spatiale, telle qu'un scanneur imageur multibande (capteur), qui soit particulièrement 30
simple, précis, peu coûteux et fiable.
Un autre but de l'invention est de proposer un système dans lequel, comme on vient de l'indiquer, les modifications d'orientation de la plate-forme du capteur puissent être déterminées en utilisant des techniques mathématiques 35
exécutables par un calculateur.
Un autre but de l'invention est de proposer un système qui puisse, comme on vient de l'indiquer, être employé pour corriger les perturbations de données topographiques contenant des images obtenues par télédétection, aussi bien en temps
quasi-réel que dans une étape ultérieure.
Un autre but de l'invention est de proposer un système qui soit également capable, comme on vient de l'indiquer, de fournir des informations relatives aux modifications d'altitude et de vitesse de toute plate-forme aérienne ou orbitale. Un autre but de l'invention est de proposer un système qui soit, comme indiqué plus haut, compatible avec des capteurs 10 conventionnels embarqués sur un aéronef ou un engin spatial,
qui soit particulièrement léger et compact.
D'autres caractéristiques et avantages de l'invention
apparaîtront à la lecture de la description détaillée
ci-dessous, faite en référence aux figures annexés, sur lesquelles: - la figure 1 est une vue schématique, en perspective, du couloir exploré par un capteur imageur topographique porté par une plate-forme mobile, typiquement par un satellite ou un aéronef, présentant des perturbations mineures de stabilité 20 introduisant des distorsions géométriques significatives des données topographiques, - la figure 2 est une vue schématique, en perspective, montrant la relation géométrique entre le capteur imageur 25 topographique et le capteur d'orientation par rapport au terrain exploré, - la figure 3 est une vue schématique, en perspective, des images maitre et esclave successives, chevauchantes, enregistrées par le capteur d'orientation, - la figure 4 est une vue schématique des images maître et 3O esclave consécutives, sur lesquelles des points géométriquement identiques des images sont identifiés respectivement car des cercles et des points, - la figure 5 est une vue schématique des images maître et esclave après que la corrélation ait été effectuée, avec les -35 points géographiquement identiques des deux images identifiés par des cercles et des points coïncidents, - la figure 6 est une vue schématique illustrant le contour
2595817
de l'image maitre ainsi que les secteurs ou réseaux de pixels extraits de l'image esclave qui sont mathématiquement superposés et décalés l'un par rapport à l'autre, - la figure 7 est une vue en élévation des images maître et esclave, sur lesquelles la seule modification de l'orientation de la plate-forme du capteur résulte d'une variation d'altitude, - la figure 8 est une vue en élévation des images maître et esclave, sur lesquelles la seule modification de l'orientation de la plate-forme du capteur résulte d'une variation de 10 vitesse, - la figure 9 est une vue en élévation des images maître et esclave, sur lesquelles la seule modification de l'orientation de la plate-forme du capteur résulte dtune variation de 15 tangage, et - les figures 10 à 13 sont des organigrammes d'un programme
de calculateur permettant la mise en oeuvre du système.
En se référant tout d'abord à la figure 1, la présente invention concerne de façon générale un système pour détecter et mesurer les modifications d'orientation d'une plate-forme 20
de capteur à bord d'un engin mobile tel qu'un satellite 10 ou un aéronef 12 suivant une trajectoire de vol déterminée 13.
Les modifications de position et d'orientation de la plate-forme résultent de modifications d'orientation du 25 capteur par rapport au terrain en train d'être exploré, et induisent des distorsions géométriques non systématiques des données topographiques d'images. Par exemple, la plate-forme peut consister en un scanneur (capteur) panchromatique ou multibande utilisé pour observer le terrain survolé et 30 produire des signaux électroniques. Ces signaux peuvent être traités par un calculateur pour créer des images du terrain situé au-dessous de la trajectoire suivie 13 au fur à mesure que la plate-forme survole la surface de la terre. Le capteur imageur possède un angle de champ 14 qui balaye la surface du sol le long d'un couloir exploré 16. Pour les besoins de la
présente description, on appelera "capteur primaire" le capteur imageur, qui peut être aussi bien du type opto-mécanique que du type plus moderne utilisant des réseaux
y V linéaires uni-dimensionnels, généralement appelé "scanneurs à capteur en peigne" ou "scanneurs à réseau multilinéaire". A titre d'illustration, on considèrera une représentation panchromatique (noir et blanc) obtenue par un capteur de ce dernier type. Dans l'un ou l'autre cas, le capteur imaceur comprend des éléments détecteurs photosensibles disposés dans un plan focal commun, ainsi que des éléments optiques at divers composants électroniques. L'orientation du plan focal, la direction de visée du système optique, ainsi que l'altitude 10 du capteur au-dessus du terrain déterminent le champ de vision
de la surface terrestre.
Comme illustré figure 2, un capteur topographique simplifié peut comprendre un réseau linéaire (unidimensionnel) 20 sur lequel est formé l'image d'une bande linéaire 18 de terrain au
moyen d'une optique 24.
Le balayage répété de bandes successives du sol terrestre par le capteur à réseau linéaire 20, et la progression de la plate-forme du capteur permettent l'acquisition d'un ense!ble de données d'images sous forme de lignes de balayage oui 20 peuvent être traitées par un calculateur de manière à former une image recomposée de la surface traversée par le champ de
vision du capteur.
Idéalement, la plate-forme du capteur montée sur le satellite 10 ou l'aéronef 12 devrait suivre une trajectoire de vol 13 avec une altitude, une orientation et une vitesse 25 constantes tout en balayant la surface du sol au moyen du capteur imageur topographique 20, de sorte que des lignes de balayage d'images successives pourraient toutes être enregistrées avec une position géométrique parfaite par rapport aux lignes de balayage précédemment enregistrées. 30 Cependant, dans la réalité, des modifications non systématiques de l'orientation, de l'altitude et de la vitesse de l'aéronef 12 interviennent en raison des rafales de vent, des modifications de densité de l'air et d'écarts imprévus par rapport à la trajectoire ou bien, dans le cas d'un satellite 10, en raison des perturbations de l'atmosphère, des manoeuvres de changement d'orbite, et des modifications du centre de masse du satellite en raison de la consommation du
7 2595817
carburant, des modifications d'orientation de l'antenne et du panneau solaire,... Ces différentes modifications de trajectoire subies par la plate-forme créent des modifications correspondantes dans l'orientation du capteur imageur 5 topographique 20, qui à son tour induisent des défauts de fidélité géométrique des données d'images. Les défauts de fidélité géométrique des données d'images sont extrêmement difficiles à éliminer par un traitement d'image ultérieur sans une connaissance très précise de la fréquence et l'importance 10 des perturbations subies par le capteur 20. La présente invention a précisément pour objet de décrire un système permettant de détecter les modifications d'orientation, d'altitude et de vitesse de la plate-forme de détection de l'image topographique. L'invention est fondée sur le fait que les modifications d'orientation de la plate-forme peuvent être
détectées et mesurées en comparant deux images chevauchantes bidimensionnelles du terrain, dont l'acquisition aura été réalisée instanément par un second capteur imageur à partir de deux points successifs de la trajectoire suivie par la 20 plate-forme.
Comme illustré figure 2, selon la présente invention il est prévu un second détecteur ou capteur d'images topographiques 22, monté sur la même plate-forme que le capteur imageur primaire 20, ce capteur supplémentaire pouvant consister en un 25 réseau bidimensionnel d'éléments photosensibles montés dans un plan focal commun, comme on en trouve couramment dans le commerce. Le second capteur 22 est monté de sorte que son plan image soit parallèle à celui du premier capteur à réseau linéaire 20, et de préférence coplanaire avec le plan image de 30 celui- ci. Des circuits électroniques appropriés (non illustrés) de type conventionnel sont utilisés pour balayer électroniquement le réseau 22 du second détecteur de manière à obtenir une trame d'image numérique synoptique (au sens que l'ensemble des données d'image d'un cliché est obtenu depuis 3 le même point de vision, correspondant à un instant unique, de 35 la trajectoire suivie) de toute ou partie du terrain balayé par le capteur primaire 20. Ces dernières données d'image sont utilisées comme référence à partir de laquelle les
modifications d'orientation, d'altitude et de vitesse seront détectées et mesurées. Comme on a cherché à le montrer figure 2, la zone 26 balayée par le second capteur 22 et l'optique 24 chevauche la zone balayée par le réseau linéaire 20.
Néanmoins, bien qu'elle soit commode du point de vue de la technologie de réalisation du système, cette configuration n'est pas indispensable, dès lors que le capteur 22 enregistre des images bidimensionnelles chevauchantes d'un terrain de référence. 0 Si l'on se réfère maintenant à la figure 3, le capteur 22 10 est utilisé pour enregistrer une série d'images chevauchantes correspondant aux régions 26 balayées sur le sol. Chacune des images ou zone balayée 26 constitue une image "maître" et l'image suivante constitue l'image "esclave" de l'image maître. L'intervalle de temps séparant l'enregistrement 15 d'images successives des zones balayées 26 sera déterminée par la vitesse de la plate-forme du capteur, le champ de vision total du capteur, la fréquence nominale des variations d'orientation, de vitesse et d'altitude de la plate-forme, la résolution spatiale d'un élément du réseau bidimensionnel 22, 20 ainsi que par la résolution spatiale d'un élément du réseau linéaire 20. La région balayée 26 variera de position et de taille selon les variations d'orientation, de vitesse et d'altitude de la plate-forme de capteur 12, illustrée sous forme d'un aéronef. Par exemple, la région balayée 26a correspond à un ensemble de conditions pour lesquelles on suppose que la plate-forme de capteur 12 se trouve bien sur la trajectoire de vol choisie, à une altitude et une vitesse constantes. La région balayée 26b représente la région de la terre dont l'image est obtenue lorsque la plate-forme de 30 capteur 12 subit un effet de tangage. La région balayée 26c représente la région du sol dont l'image est obtenue lorsque la plateforme de capteur 12 subit un effet de roulis. La région balayée 26d représente l'image obtenue lorsque la 35 plate-forme de capteur 12 s'élève au-dessus de l'altitude à laquelle l'acquisition de l'image précédente avait été réalisée. Les variations correspondantes de l'image enregistrée par le capteur imageur topographique 20 sont illustrées figure 1. En tout état de cause, on notera que les modifications de l'image enregistrée par le réseau linéaire 20 sont en relation directe avec les modifications des images enregistrées par le capteur 22, puisque l'un et l'autre de ces capteurs 20,22 ont des plans focaux fixes l'un par rapport à l'autre, et sont donc perturbés de manière identique par les
effets externes.
On va maintenant décrire de façon générale le système, avec
ensuite une description plus détaillée faite en référence aux dessins. Un facteur de déplacement spatial entre l'image 10
maitre et l'image esclave consécutive est extrapolée à partir de l'altitude et de la vitesse de la plate-forme de capteur 12, et est ensuite appliquée pour décaler les trames d'images, c'est-à-dire les ensembles de données numériques qui 15 représentent respectivement les images maître et esclave. Les images maître et esclave sont alors enregistrées, et l.'on teste la corrélation d'au moins trois pixels (de préférence cinq pixels) de l'image maître avec les pixels correspondants de trois ou cinq secteurs de l'image esclave. Il y a corrélation parfaite en l'absence de modification de la 20 vitesse, de l'orientation (par rapport aux valeurs nominales extrapolées) de la plate-forme du capteur et en l'absence de modification d'orientation (tangage, roulis ou lacet) dans ce segment de la trajectoire de la plate-forme du capteur. Si la corrélation n'est pas absolument parfaite, on effectue une 25
série de décalages géométriques sur les secteurs de l'image esclave et l'on répète la corrélation avec l'image maître.
L'ensemble des décalages qui, appliqués aux secteurs de l'image esclave, corrèlent le mieux l'image maître, caractérise la géométrie d'une modification par rapport à la 30 position extrapolée (vitesse et altitude) ainsi que l'orientation des capteurs 20, 22. En d'autres termes, les trois (ou plus) pixels de l'image maître qui permettent d'obtenir le coefficient de corrélation le plus élevé entre les images maître et esclave définissent l'orientation du 35 réseau bidimensionnel du capteur 22, et définissent donc les modifications de position et d'orientation du capteur 20 entre les instants séparant l'enregistrement de l'image maître et de
259581?
l'image esclave. Il est ainsi possible de définir les variations temporelles relatives de position et d'orientation de la plate-forme du capteur par rapport aux données d'image maître précédemment obtenues par le capteur imageur d'acquisition des données d'orientation sur une zone de 5
référence du terrain.
L'orientation absolue des capteurs 20,22 peut être déterminée de façon optimale si la région de référence est déjà bien connue sur le terrain. Cependant, cette détermination absolue d'orientation est plutôt plus pratique 10 pour une plate-forme de capteur de satellite qui repasse audessus de la même région de la terre régulièrement au bout de quelques heures ou quelques jours, plus que pour une plate-forme de capteur d'aéronef. Au cas o la région de référence sur le terrain n'est pas bien connue, les variations 15 d'orientation de la plate-forme du capteur et les variations par rapport à la position extrapolee sont détectées par le système associé aux capteurs 22 par rapport à l'orientation et la position de la plate-forme du capteur pour la région de référence précédemment enregistrée. Ceci est suffisant pcur 20 corriger les images résultantes enregistrées par le capteur imageur topographique 20 en fonction des variations d'altitude, de vitesse et d'orientation qui ont pu apparaître pendant l'intervalle de temps nécessaire au capteur imageur 25 primaire 20 pour réaliser l'acquisition d'au moins deux lignes
successive de balayage d'image.
On se référera maintenant à la figure 4, qui illustre des images maître et esclave chevauchantes, désignées respectivement par les lettres A et B. Une pluralité de points de référence sur le terrain sont désignés sur l'image maitre 30 par les cercles 28. Ces mêmes points de référence sont représentés sur l'image maître par les points 30, les différentes flèches indiquant la relation entre les cercles 28 et les points. 30. Comme on peut le voir figure 4, l'image maître A et l'image esclave B sont représentées avec leur 35 géométrie "brute d'acquisition" sur la partie de chevauchement de l'image esclave. L'importance du chevauchement est déterminée préalablement par un calcul mathématique fonction de l'intervalle de temps écoulé entre l'enregistrement de ces images maître et esclave et de la vitesse et de l'altitude
extrapolées de la plate-forme du capteur 12.
Il est ensuite nécessaire de déterminer l'orientation 5 géométrique de l'image esclave par rapport à l'image maître permettant d'obtenir la superposition des images pour les points homologues du terrain 28, 30 c'est-à-dire lorsque les points du terrain 28,30 sont "corrélés" et coïncident géométriquement. L'orientation géométrique de l'image esclave 10 qui résulte de la coïncidence des points du terrain 28,30 peut être obtenue à partir d'une pluralité de points de terrain de l'image esclave. Ces points représentent une corrélation élevée par rapport aux points identiques enregistrés sur l'image maître. Ceci est obtenu en choisissant au moins trois, 15 (de préférence cinq) points de référence spatialement dispersés sur l'image esclave. Bien que les règles élémentaires de la géométrie indiquent qu'il suffit seulement de trois points pour définir un plan, il n'est pas possible de supposer que le terrain contenant ces points à corréler forme 20 un plan parfait, ou que l'altitude de chacun des points de ce terrain soit connue. En conséquence, il est généralement nécessaire de se baser sur les principes d'orientation relative de la photogrammétrie qui nécessitent un minimum de cinq points qui soient identifiables à la fois sur l'image esclave et sur l'image maître corrélée pour déterminer toutes 25 les variables qui permettront de résoudre le problème mathématique d'orientation relative, c'est-à-dire de l'image esclave par rapport à l'image maître. La condition de coplanéité de la photogrammétrie requiert que, pour chacun des 30 cinq points choisis, le rayon reliant le point du sol à l'optique de la caméra à un premier instant donné, et le point correspondant de l'image du film et le rayon reliant le même point du sol à l'optique de la caméra à un second instant au point correspondant sur la seconde image du film, soient tous
deux situés dans un plan unique.
L'opération d'orientation relative nécessite qu'au moins cinq paires de rayons (comme il résulte de la condition de coplanéité) forment une intersection, pour que toutes les paires de rayons dans les deux réseaux forment également une intersection. La condition de coplanéité et les équations définissant celle-ci sont exposées plus en détails dans Manual of Photogrammetry, American Society of Photogrammetry, 4th Edition, page 55 et seq., 1944, 1952, 1966, 1980, dont on considérera les enseignements comme faisant partie de la
présente description.
En référence également à la figure 6, cinq secteurs 34-42 de l'image esclave sont alors choisis pour être corrélés avec les points 37 de l'image maitre. Une corrélation est alors 10 exécutée pour déterminer le facteur de corrélation de l'échelle de gris (luminosité) entre chaque pixel des secteurs 34-42 de l'image esclave et le point ou pixel de référence homologue 37 de l'image maître. L'intensité ou la luminosité de l'échelle de gris est une valeur fonction de la radiance 15 moyenne intégrée du point du sol représenté par un pixel. A cet effet, les secteurs d'image esclave 34-42 sont incrémentés dans les directions X et Y (comme illustré figure 6) de manière à exécuter une corrélation entre chaque position X, Y 20 des secteurs 34-42 de l'image esclave et le point ou pixel 37 - de référence correspondant. Cette technique de traitement des données d'images est quelquefois désignée "traitement de voisinage" (neighborhood processing). Le pixel des secteurs 34-42 de l'image esclave ayant le coefficient de corrélation 25 le plus élevé est alors choisi et on enregistre sa position X, Y dans le réseau ou secteur de pixels. Les emplacements enregistrés des pixels présentant la plus forte corrélation dans les secteurs 34-42 de l'image esclave définissent les emplacements exacts de ces secteurs 34-42, et donc de l'image esclave dans son entier par rapport à l'image maître. La figure 5 illustre la situation dans l'espace de l'image esclave B telle qu'enregistrée par rapport à l'image maître A, après que l'image esclave ait été géométriquement déformée dans les deux dimensions par rapport à l'image maître de manière à faire coïncider les points de référence 28,30. 35 Le système décrit ci-dessus peut être mis en oeuvre en utilisant un réseau semiconducteur relativement grand (ou cinq (ou plus) réseaux semiconducteurs relativement petits), bidimensionnel, d'éléments photosensibles montés dans le même plan focal que le capteur primaire d'acquisition des données d'images, ou dans un plan focal qui soit coplanaire. Les réseaux peuvent être reliés à un processeur d'images à grande vitesse spécifique qui exécute la corrélation des images en temps réel, ou bien l'on peut mémoriser les données d'images acquises par le capteur imageur d'acquisition des données d'orientation ensemble avec un signal de synchronisation produit par le capteur primaire, pour permettre, au moment o l'on en aura besoin, un traitement en différé et une 10 correction géométrique des données d'images acquises par le capteur imageur primaire. Ces processeurs sont d'un type classique, et on ne les décrira donc pas en détails ici. On peut par exemple utiliser un processeur consistant en un 15 logiciel couramment disponible dans le commerce tel que ATOM (Automatic Topography Mapper) développé par GeoSpecta Corporation de Ann Arbor, Michigan, USA, société auprès de laquelle ce logiciel est disponible. Les données de sortie du processeur peuvent consister soit en la position des cinq (ou 20 plus) pixels de l'image maître corrélée à l'image esclave, ou
en l'équation du plan de l'image maître et de l'image esclave. Au fur et à mesure que la plate-forme du détecteur 12 avance sur sa
trajectoire de vol, l'ancienne image esclave devient la nouvelle image maître, mais les plans de toutes les images esclave peuvent être retrouvés jusqu'à l'image maître 25 originelle. Comme illustré figure 7, les modifications d'altitude de l'aéronef 12, et donc de la plate-forme du capteur, sont détectées simplement sous forme de modification de l'image de l'échelle, ou bien de la distance entre les ensembles de 30 pixels corrélés sur l'image maître et l'image esclave, les plans de l'image maître et de l'image esclave restant parallèles mais n'étant plus coplanaires. Comme illustré figure 8, une modification de la seule vitesse de la 35 plate-forme 12 (et donc du capteur imageur) a pour effet une translation linéaire différente des plans images, l'image maître et l'image esclave restant toutes deux coplanaires. En cas de tangage, roulis ou lacet de la plate-forme du
259581?
détecteur, les images maître et esclave ne restent plus ni coplanaires ni parallèles. La configuration de non-cop!anéité de l'image maître et de l'image esclave produit par un simple effet de tangage de la plate-forme et du capteur est illustrée
figure 9.
Les figures 10 à 13 montrent un organigramme logique pour un programme typique de calculateur permettant la mise en oeuvre du système décrit cidessus. Sur la figure 10, la première étape 44 du programme est exécutée à des positions successives de la trajectoire de vol pour effectuer l'acquisition des données d'images maître et esclave. La corrélation des images est ensuite effectuée sur des secteurs de la région o l'image maître et l'image esclave se chevauchent, de manière à identifier des points correspondants corrélés dans cette 5 région du terrain dont on a obtenu deux images. La seconde 15 étape 46 consiste à déterminer l'orientation relative du plan de l'image esclave par rapport au plan de l'image maître en utilisant les principes photogrammétriques d'orientatcrrelative cités plus haut, qui nécessitent un minimun 2ei points homologues corrélés situés à la fois sur l'image maitre 20 et sur l'image esclave. Le sous-programme d'excutlon de l'étape 44 est détaillé sur les figures 11 et 12. La premiere étape du sous-programme, référencée 48, consiste à aup.icer le même décalage déterminé à partir de la precédente 25 corrélation image maitre/image esclave, ou une valeur extrapolée à partir de la vitesse nominale de la plate-forme multipliée par l'intervalle d'échantillonnage du capteur imageur. La région chevauchante est alors segmentée en au moins cinq régions (étape 50) si l'on utilise comme capteur d'orientation un réseau imageur bidimensionnel relativement 30 grand, ou bien l'on procède à l'acquisition des cinq (ou plus) secteurs d'images du terrain au moyen de cinq (ou plus) réseaux imageurs bidimensionnels relativement petits. Une recherche de corrélation bidimensionnelle est alors exécutée au cours de l'étape 52 sur chaque secteur de l'image maître et 35 de l'image esclave. L'étape de corrélation 52 est exécutée en faisant choisir au calculateur celle des zones de correspondance qui présentent le point ou le bord ayant le à
contraste le plus élevé dans une image bidimensionnelle (étape 54, figure 12). Une procédure équivalente pour l'inspection visuelle serait la sélection d'un ensemble distinct de pixels.
A l'étape 56, si la zone examinée de l'image maître ne présente pas de pic de corrélation suffisamment élevé par rapport à l'image maître, d'autres échantillons sont analysés; dans le cas contraire, le contrôle est rendu à
l'étape 52.
Le sous-prcgramnrm.e permettant d'exécuter l'étape 46 (figure 10) est illustré figure 13. Une extrapolation des paramètres d'orientation est réalisée initialement à l'étape 58, suivie par une étape mathématique exécutée en 60 consistant à minimiser les déviations quadratiques par rapport à la condition idéale de coplanéité de l'image maître et de l'image 15 esclave pour cinq (ou plus) paires de points corrélés. En 62, on détermine si les déviations sont inférieures à une valeur de seuil déterminée par la précision géométrique des données d'images acquises par le capteur imageur primaire. Si les déviations sont inférieures au seuil, on répète l'étape 60. 20 Sinon, le sous-programme est achevé. En sortie, on obtient le sysytème d'équations qui décrit les plans focaux successifs, et donc les positions et orientations successives du capteur imageur primaire et de sa plate-forme. Ces équations permettront des corrections géométriques précises des données 25 d'images acquises par le capteur primaire: soit des corrections relatives par rapport aux données d'images précédemment enregistrées sur le même segment de vol, soit des corrections absolues par rapport à une carte du terrain. Dans ce dernier cas, il est nécessaire de posséder une base de données d'images de régions identifiables de façon univoque 30
sur le terrain, y compris leurs coordonnées cartographiques et leurs altitudes, qui puisse être utilisée pour orienter une image maître ou une image esclave par rapport au terrain, er.
employant les méthodes décrites ci-dessus de corrélation et de
test de coplanéité.

Claims (25)

REVENDICATIONS
1. Un procédé pour déterminer les modifications d'orientation d'un capteur (20) aéroporté se déplaçant le long d'une trajectoire de vol (13) au-dessus de la terre et enregistrant des images bidimensionnelles successives de la surface de la terre le long de cette trajectoire de vol, caractérisé par les étapes consistant à: (A) produire un premier ensemble de données représentant des pixels (28) d'une première image bidimensionnelle de cette surface en un premier point de la trajectoire de vol, (B) produire un second ensemble de données représentant des pixels (30) d'une seconde image bidimensionnelle de cette surface en un second point de la trajectoire de vol suffisamment proche du premier point pour qu'au moins une partie des images se chevauche, l'intensité des pixels variant en fonction de leurs positions respectives sur les images homologues, les pixels homologues de la première et de la seconde image sur les parties chevauchantes de ces images étant décalés l'un par 20 rapport à l'autre d'une quantité fonction des modifications d'orientation du capteur, et (C) corréler une pluralité de pixels homologues de la première et de la seconde image dans la partie chevauchante de 25 celles-ci, les positions relatives des pixels corrélés
représentant les variations d'orientation du capteur.
2. Le procédé de la revendication 1, dans lequel l'étape (C) comprend les étapes consistant à: - choisir au moins trois réseaux espacés N x M de pixels de l'une des images, - choisir au moins trois pixels de référence distants dans l'autre image, qui soient associés respectivement à chacun des trois réseaux N x M, et - comparer les trois pixels de référence avec chacun des pixels des réseaux N x M associés. 35
3. Le procédé de la revendication 2, dans lequel l'étape (C) comprend les étapes consistant à: - enregistrer la position de ligne et de colonne du pixel de chacun des réseaux N x M qui présente la corrélation la plus élevé avec le pixel de référence associé, et - déterminer le plan passant par ceux des pixels des réseaux N x M qui présentent la corrélation la plus élevée avec les pixels de référence associés.
4. Le procédé de la revendication 3, comprenant en outre l'étape consistant à déterminer l'orientation du plan ainsi
déterminé par rapport au plan de la première image.
5. Le procédé de la revendication 1, dans lequel l'étape (C) 10 comprend les étapes consistant a: - choisir une pluralité de pixels espacés sur la première image, et - extrapoler les positions de ces pixels sur la seconde image.
6. Le procédé de la revendication 5, dans lequel l'étape 15 consistant à extrapoler les positions des pixels choisis est exécutée en déterminant les positions des pixels choisis dans
les images de la surface du sol précédemment produite.
7. Le procédé de la revendication 1, dans lequel on a monté un second capteur (22) fixe par rapport au capteur embarqué dans son mouvement le long de la trajectoire de vol, de manière que les plans images de l'un et l'autre capteur soient parallèles.
8. Le procédé de la revendication 1, dans lequel les étapes (A) et (B) sont exécutées en focalisant les images de la surface du sol sur un réseau bidimensionnel d'éléments photosensibles.
9. Le procédé de la revendication 1, dans lequel il est prévu en outre une étape de mémorisation des première et
seconde images.
10. Le procédé-de la revendication 1, dans lequel il est prévu une étape consistant à appliquer un décalage géométrique
au second ensemble de données.
11. Un procédé de détermination des variations d'orientation d'une plateforme aéroportée ou orbitale se déplaçant le long 35 d'une trajectoire de vol (13) au-dessus de la terre, comprenant les étapes consistant à: (A) produire un premier ensemble de données représentant des p E pixels (28) d'une première image bidimensionnelle de cette surface en un premier point de la trajectoire de vol, (B) produire un second ensemble de données représentant des pixels (30) d'une seconde image bidimensionnelle de cette surface en un second point de la trajectoire de vol suffisamment proche du premier point pour qu'au moins une partie des images se chevauche, l'intensité des pixels variant en fonction de leurs positions respectives sur les images homologues, les pixels homologues de la première et de la seconde image sur les parties chevauchantes de ces images étant décalés l'un par rapport à l'autre d'une quantité fonction des modifications d'orientation de la plate-forme, et (C) corréler au moins cinq pixels homologues de la première et de la seconde image dans la partie chevauchante de celles-ci, les positions relatives des pixels corrélés
représentant les variations d'orientation de la plate-forme.
12. Le procédé de la revendication 11, dans lequel l'étape (C) comprend les étapes consistant à - choisir au moins cinq réseaux espacés N x M de pixels de 20 l'une des images, - choisir au moins cinq pixels ce référence distants dans l'autre image, qui soient associés respectivement à chacun des cinq réseaux N x M, et - comparer les cinq pixels de référence avec chacun des 25
pixels des réseaux N x M associés.
13. Le procédé de la revendication 12, dans lequel l'étape (C) comprend les étapes consistant à: - enregistrer la position de ligne et de colonne du pixel de chacun des r-seaux N x M qui présente la corrélation la pIUs élevé avec le pixel de référence associé, et - ajuster -n plan passant par ceux des pixels des réseaux N x M qui presentent la corrélation la plus élevée avec les
pixels de réference associés.
14. Le procédé de la revendication 13, comprenant en outre 35 l'étape consistant à déterminer l'orientation du plan ainsi
obtenu par rapport au plan de la première image.
15. Le procédé de la revendication 11, dans lequel l'étape (C) comprend les étapes consistant à: - choisir cinq pixels espacés sur la première image, et - extrapoler les positions de ces pixels sur la seconde image.
16. Le procédé de la revendication 11, dans lequel les étapes (A) et (B) sont exécutées en focalisant les images de la surface du sol sur un réseau bidimensionnel d'éléments photosensibles.
17. Le procédé de la revendication 11, dans lequel il est 10 prévu en outre une étape de mémorisation des première et
seconde images.
18. Le procédé de la revendication 11, dans lequel il est prévu une étape consistant à appliquer un décalage géométrique
au second ensemble de donhnées.
19. Un procédé de traitement numérique d'images pour 15 déterminer les variations de position ou d'orientation d'une plate-forme aéroportée ou orbitale se déplaçant le long d'une trajectoire de vol (13) au-dessus d'une surface avec un capteur imageur embarqué, caractérisé en ce qu'il comprend les 20 étapes consistant à: (A) produire un premier ensemble synoptique de données d'images de cette surface vue en perspective depuis un premier point situé sur la trajectoire de vol par utilisation d'un capteur imageur (20) comprenant un réseau imageur bidimensionnel utilisé pour l'acquisition d'un réseau de 25 pixels (28) d'une première image bidimensionnelle de la surface consistant en un nombre M de lignes de M pixels chacune, (B) produire un second ensemble de données à partir du 30 capteur imageur en perspective à partir d'un second point le long de la trajectoire de vol, ce second ensemble de données représentant En nouveau réseau de pixels (30) d'une seconde image bidimensionnelle de la surface acquise en un second point à une distance suffisamment faible, sur la trajectoire de vol, du premier point, pour que les deux réseaux d'images 35 puissent se chevaucher, l'intensité des pixels variant en fonction de l'émissivite d'un ensemble hétérogène d'éléments sur la surface, les ensembles correspondants de pixels des réseaux pour les portions chevauchantes de la première et de la seconde images étant décalés l'un par rapport à l'autre d'une quantité fonction des variations de position et d'orientation de la plate-forme, et (C) comparer au moins cinq secteurs dispersés de pixels dans la partie chevauchante de la première et de la seconde image, et identifier au moins cinq points homologues ayant des pixels à corrélation élevée dans la région chevauchante de la première et de la seconde images, les positions relatives des 10 points de correspondance des pixels à corrélation élevée par rapport à leur position individuelle sur leurs images respectives étant une fonction univoque des variations de
position et d'orientation de la plate-forme.
20. Le procédé de la revendication 19, dans lequel les étapes (B) et (C) sont exécutées par deux réseaux imageurs (20,22) bidimensionnels coplanaires situés dans un plan focal commun et spatialement distants l'un de l'autre dans le champ
de vision totale du capteur imageur.
21. Le procédé de la revendication 19, dans lequel l'étape (C) comprend les étapes consistant à: - choisir au moins cinq secteurs espacés de pixels dans l'une des images, - choisir au moins cinq fenêtres de pixels voisins à contraste élevé et contenant des pixels de référence espacés dans l'autre image, ces fenêtres étant situées chacune dans une région extrapolée des cinq secteurs, et - corréler chacun des cinq pixels de référence et leur fenêtre de pixels voisins correspondante avec chacun des 30 pixels et leur fenêtre de pixels voisins dans le secteur homologue.
22. Le procédé de la revendication 20, dans lequel l'étape (C) comprend les étapes consistant à: - enregistrer la position de ligne et de colonne du pixel de chacun des secteurs ayant le facteur de corrélation le plus 35 élevé avec le pixel de référence associé, et - calculer cinq paramètres d'orientation et de position décrivant la relation géométrique entre les deux images, en appliquant itérativement les relations de moindres carrés aux déviations par rapport aux conditions photogrammétriques de
coplanéité pour les dix (ou plus) pixels.
23. Le procédé de la revendication 19, dans lequel l'étape (C) comprend les étapes consistant à: - choisir au moins cinq secteurs espacés sur la seconde image, et - extrapoler les positions des secteurs choisis sur la
première image.
24. Le procédé de la revendication 19, comprenant l'étape consistant à mémoriser la première et la seconde images.
25. Le procédé de la revendication 19, comprenant l'étape consistant à appliquer un décalage géométrique au second
ensemble de données.
FR878703470A 1986-03-17 1987-03-13 Procede de determination de l'orientation d'une plate-forme de capteur imageur ou instrument analogue Expired - Lifetime FR2595817B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US06/840,332 US4802757A (en) 1986-03-17 1986-03-17 System for determining the attitude of a moving imaging sensor platform or the like

Publications (2)

Publication Number Publication Date
FR2595817A1 true FR2595817A1 (fr) 1987-09-18
FR2595817B1 FR2595817B1 (fr) 1991-04-12

Family

ID=25282065

Family Applications (1)

Application Number Title Priority Date Filing Date
FR878703470A Expired - Lifetime FR2595817B1 (fr) 1986-03-17 1987-03-13 Procede de determination de l'orientation d'une plate-forme de capteur imageur ou instrument analogue

Country Status (4)

Country Link
US (1) US4802757A (fr)
JP (1) JPS62284214A (fr)
DE (1) DE3708683C2 (fr)
FR (1) FR2595817B1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2763199A1 (fr) * 1997-05-12 1998-11-13 Centre Nat Etd Spatiales Procede pour l'acquisition d'une image par balayage pousse-balai surechantillonne
FR2882137A1 (fr) * 2005-02-15 2006-08-18 Thales Sa Dispositif d'acquisition d'une image numerique par balayage avec stabilisation passive
CN110869981B (zh) * 2016-12-30 2023-12-01 辉达公司 用于自主车辆的高清晰度地图数据的向量数据编码

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5104217A (en) * 1986-03-17 1992-04-14 Geospectra Corporation System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like
DE3802219A1 (de) * 1988-01-26 1989-08-03 Deutsche Forsch Luft Raumfahrt Verfahren und einrichtung zur fernerkundung der erde
NL8900867A (nl) * 1989-04-07 1990-11-01 Theo Jogchum Poelstra Een systeem van "beeldmeetkunde" ten behoeve van de verkrijging van digitale, 3d topografische informatie.
US5146228A (en) * 1990-01-24 1992-09-08 The Johns Hopkins University Coherent correlation addition for increasing match information in scene matching navigation systems
US5257209A (en) * 1990-06-26 1993-10-26 Texas Instruments Incorporated Optical flow computation for moving sensors
US5116118A (en) * 1990-06-28 1992-05-26 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Geometric fiedlity of imaging systems employing sensor arrays
US5259037A (en) * 1991-02-07 1993-11-02 Hughes Training, Inc. Automated video imagery database generation using photogrammetry
JPH0594514A (ja) * 1991-10-01 1993-04-16 Mitsubishi Electric Corp 光学撮像装置、および光学撮像装置の画像処理方法
US6005581A (en) * 1994-01-18 1999-12-21 Honeywell, Inc. Terrain elevation path manager
JPH07294279A (ja) * 1994-04-21 1995-11-10 Nec Corp 撮影姿勢検出装置
US5878356A (en) * 1995-06-14 1999-03-02 Agrometrics, Inc. Aircraft based infrared mapping system for earth based resources
JPH1054719A (ja) * 1996-08-09 1998-02-24 A Tec:Kk 空中測量写真の撮影方法およびそれに使用する撮影ポ イントマーク
FR2752619B1 (fr) 1996-08-23 1998-11-13 Thomson Csf Procede et dispositif de reconnaissance air-sol pour equipement optronique
DE19735175A1 (de) * 1997-08-13 1999-03-04 Gta Sensorik Gmbh Verfahren zur digitalen Erfassung räumlicher Szenen sowie zur Bestimmung von Objektkoordinaten
DE19902681A1 (de) * 1999-01-23 2000-07-27 Lfk Gmbh Verfahren und System zum Wiederfinden von Objekten in Bildern
US8636648B2 (en) 1999-03-01 2014-01-28 West View Research, Llc Endoscopic smart probe
US10973397B2 (en) 1999-03-01 2021-04-13 West View Research, Llc Computerized information collection and processing apparatus
US7914442B1 (en) 1999-03-01 2011-03-29 Gazdzinski Robert F Endoscopic smart probe and method
US8068897B1 (en) 1999-03-01 2011-11-29 Gazdzinski Robert F Endoscopic smart probe and method
DE19962491A1 (de) * 1999-12-23 2001-07-05 Daimler Chrysler Ag Verfahren zur optischen Überwachung der Umgebung eines sich bewegenden Fahrzeugs
DE10017415A1 (de) * 2000-04-07 2001-10-11 Z I Imaging Gmbh Kamera, insbesondere Luftbildkamera
GB0019399D0 (en) * 2000-08-07 2001-08-08 Bae Systems Plc Height measurement enhancemsnt
US7046839B1 (en) 2000-09-19 2006-05-16 Spg Hydro International Inc. Techniques for photogrammetric systems
KR100488685B1 (ko) * 2002-08-22 2005-05-11 한국과학기술원 자동 영상등록 및 보정을 위한 영상 처리방법
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
US7688381B2 (en) * 2003-04-08 2010-03-30 Vanbree Ken System for accurately repositioning imaging devices
US7933001B2 (en) * 2005-07-11 2011-04-26 Kabushiki Kaisha Topcon Geographic data collecting system
JP5150307B2 (ja) * 2008-03-03 2013-02-20 株式会社トプコン 地理データ収集装置
JP5150310B2 (ja) * 2008-03-04 2013-02-20 株式会社トプコン 地理データ収集装置
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8675068B2 (en) 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8265817B2 (en) * 2008-07-10 2012-09-11 Lockheed Martin Corporation Inertial measurement with an imaging sensor and a digitized map
US8384524B2 (en) * 2008-11-26 2013-02-26 Honeywell International Inc. Passive surface acoustic wave sensing system
US8212714B1 (en) * 2009-08-31 2012-07-03 Sandia Corporation Using doppler radar images to estimate aircraft navigational heading error
US8542286B2 (en) * 2009-11-24 2013-09-24 Microsoft Corporation Large format digital camera with multiple optical systems and detector arrays
US8665316B2 (en) * 2009-11-24 2014-03-04 Microsoft Corporation Multi-resolution digital large format camera with multiple detector arrays
JP5698480B2 (ja) 2010-09-02 2015-04-08 株式会社トプコン 測定方法及び測定装置
US8965598B2 (en) 2010-09-30 2015-02-24 Empire Technology Development Llc Automatic flight control for UAV based solid modeling
US9476970B1 (en) * 2012-03-19 2016-10-25 Google Inc. Camera based localization
US9716847B1 (en) 2012-09-25 2017-07-25 Google Inc. Image capture device with angled image sensor
US8896747B2 (en) 2012-11-13 2014-11-25 Qualcomm Technologies, Inc. Depth estimation based on interpolation of inverse focus statistics
GB201506329D0 (en) * 2015-04-14 2015-05-27 Vito Nv System and method for processing images of a ground surface
WO2018090205A1 (fr) * 2016-11-15 2018-05-24 SZ DJI Technology Co., Ltd. Procédé et système de détection d'objet basée sur des images et manœuvres de réglage de déplacement correspondantes
CN108885101B (zh) * 2017-04-07 2021-03-19 深圳市大疆创新科技有限公司 控制方法、处理装置、处理器、飞行器和体感系统
CN109405803A (zh) * 2018-10-23 2019-03-01 贵州省第三测绘院 航空遥感数据获取的方法和装置
CN111536982B (zh) * 2020-05-06 2023-09-19 北京工业大学 一种光照不良条件下小行星探测器光学导航图像生成方法
CN114184172A (zh) * 2021-10-22 2022-03-15 中石化石油工程技术服务有限公司 一种低空航测像控点布设方法
CN115951718B (zh) * 2023-03-14 2023-05-09 风脉能源(武汉)股份有限公司 基于无人机的风机叶片巡检局部动态路径规划方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3997795A (en) * 1974-05-13 1976-12-14 Jenoptik Jena G.M.B.H. Arrangement for control of aerial cameras
EP0095660A2 (fr) * 1982-05-19 1983-12-07 Messerschmitt-Bölkow-Blohm Gesellschaft mit beschränkter Haftung Procédé pour prise de vue et interprétation stéréophotogrammétrique
US4504914A (en) * 1980-11-19 1985-03-12 Messerschmitt-Bolkow-Blohm Gesellschaft Mit Beschrankter Haftung Photogrammetric device for aircraft and spacecraft for producing a digital terrain representation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4313678A (en) * 1979-09-24 1982-02-02 The United States Of America As Represented By The Secretary Of The Interior Automated satellite mapping system (MAPSAT)
JPS5924365A (ja) * 1982-07-30 1984-02-08 Hitachi Ltd 画像処理方法
JPS6084610A (ja) * 1983-10-17 1985-05-14 Hitachi Ltd 誘導装置
US4635203A (en) * 1984-04-06 1987-01-06 Honeywell Inc. Passive range measurement apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3997795A (en) * 1974-05-13 1976-12-14 Jenoptik Jena G.M.B.H. Arrangement for control of aerial cameras
US4504914A (en) * 1980-11-19 1985-03-12 Messerschmitt-Bolkow-Blohm Gesellschaft Mit Beschrankter Haftung Photogrammetric device for aircraft and spacecraft for producing a digital terrain representation
EP0095660A2 (fr) * 1982-05-19 1983-12-07 Messerschmitt-Bölkow-Blohm Gesellschaft mit beschränkter Haftung Procédé pour prise de vue et interprétation stéréophotogrammétrique

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2763199A1 (fr) * 1997-05-12 1998-11-13 Centre Nat Etd Spatiales Procede pour l'acquisition d'une image par balayage pousse-balai surechantillonne
WO1998052348A1 (fr) * 1997-05-12 1998-11-19 Centre National D'etudes Spatiales Procede pour l'acquisition d'une image par balayage pousse-balai surechantillonne
US6529267B1 (en) 1997-05-12 2003-03-04 Centre National D'etudes Spatiales Method for acquiring an image by oversampled push-broom scanning
FR2882137A1 (fr) * 2005-02-15 2006-08-18 Thales Sa Dispositif d'acquisition d'une image numerique par balayage avec stabilisation passive
WO2006087307A1 (fr) * 2005-02-15 2006-08-24 Thales Dispositif d'acquisition d'une image numerique par balayage avec stabilisation passive
US8169479B2 (en) 2005-02-15 2012-05-01 Thales Device for scanning acquisition of a digital image with passive stabilization
CN110869981B (zh) * 2016-12-30 2023-12-01 辉达公司 用于自主车辆的高清晰度地图数据的向量数据编码

Also Published As

Publication number Publication date
JPS62284214A (ja) 1987-12-10
US4802757A (en) 1989-02-07
DE3708683C2 (de) 2000-04-06
FR2595817B1 (fr) 1991-04-12
DE3708683A1 (de) 1987-10-01

Similar Documents

Publication Publication Date Title
FR2595817A1 (fr) Procede de determination de l'orientation d'une plate-forme de capteur imageur ou instrument analogue
Delacourt et al. Remote-sensing techniques for analysing landslide kinematics: a review
EP1828992B1 (fr) Procede de traitement d'images mettant en oeuvre le georeferencement automatique d'images issues d'un couple d'images pris dans le meme plan focal
Grodecki et al. IKONOS geometric accuracy
Zhang Automatic digital surface model (DSM) generation from linear array images
Egels et al. Digital photogrammetry
EP2513668B1 (fr) Procede de geo-referencement d'une zone imagee
Sandau Digital airborne camera: introduction and technology
US5104217A (en) System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like
EP1982144B1 (fr) Procede de geo-localisation d'une ou plusieurs cibles
EP3359978B1 (fr) Methode de traitement d'une image radar de type sar et methode de detection de cible associee
Galiatsatos Assessment of the CORONA series of satellite imagery for landscape archaeology: a case study from the Orontes valley, Syria
Jacobsen Systematic geometric image errors of very high resolution optical satellites
Kim et al. High‐resolution hyperspectral imagery from pushbroom scanners on unmanned aerial systems
Chen et al. Development and calibration of the airborne three-line scanner (TLS) imaging system
EP0064439B1 (fr) Indicateur cartographique à enregistrement sur film photographique
EP4205406A1 (fr) Procédé d'acquisition d'images d'un objet spatial en orbite terrestre par un engin spatial en orbite terrestre
Ehlers Remote sensing for GIS applications: New sensors and analysis methods
Seiz et al. Reconstruction of cloud geometry from multi-view satellite images
EP3999865A1 (fr) Procede de determination de parametres d'etalonnage extrinseques d'un systeme de mesure
Torleàrrd Some photogrammetric experiments with digital image processing
Oliveira et al. Height gradient approach for occlusion detection in UAV imagery
Dukuzemariya Quality analysis comparison of 3D products from satellites and aerial images: MICMAC Application in Hilly Zones (Liège)
Linders et al. Large scale mapping-The multispectral airborne solution
Neville et al. Wide-angle high-resolution line-imager prototype flight test results

Legal Events

Date Code Title Description
ST Notification of lapse