FR2946765A1 - Systeme et procede de localisation d'image photographique. - Google Patents

Systeme et procede de localisation d'image photographique. Download PDF

Info

Publication number
FR2946765A1
FR2946765A1 FR0954054A FR0954054A FR2946765A1 FR 2946765 A1 FR2946765 A1 FR 2946765A1 FR 0954054 A FR0954054 A FR 0954054A FR 0954054 A FR0954054 A FR 0954054A FR 2946765 A1 FR2946765 A1 FR 2946765A1
Authority
FR
France
Prior art keywords
imager
photographic image
reflector
locating
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0954054A
Other languages
English (en)
Inventor
Luca Livio De
Matthieu Deveau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centre National de la Recherche Scientifique CNRS
Original Assignee
Centre National de la Recherche Scientifique CNRS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre National de la Recherche Scientifique CNRS filed Critical Centre National de la Recherche Scientifique CNRS
Priority to FR0954054A priority Critical patent/FR2946765A1/fr
Priority to PCT/FR2010/051169 priority patent/WO2010146289A2/fr
Publication of FR2946765A1 publication Critical patent/FR2946765A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un procédé et un système de localisation (2) d'image photographique (22) pour modéliser une scène en 3 dimensions. Le système (2) comporte : - un dispositif repéré (4) comprenant un premier imageur (10) et des cibles (12 , 12 ) ; le premier imageur (10) étant apte à imager une scène (20) pour générer l'image photographique à localiser (22) ; - un dispositif de repérage (6) comportant un deuxième imageur (26) propre à imager une cible (12 ) pour générer une vignette de référence, ledit deuxième imageur (26) étant apte à imager le dispositif repéré (4) pour générer une image photographique de repérage (30) ; et - une unité de calcul (9) apte à localiser angulairement l'image photographique à localiser (22) à partir de la vignette de référence et de l'image photographique de repérage (30).

Description

1
Système et procédé de localisation d'image photographique
La présente invention concerne un système et un procédé de localisation d'image photographique pour modéliser une scène en 3 dimensions, ainsi qu'un dispositif repéré associé.
La modélisation à partir de photographies consiste à prendre plusieurs prises de vues selon différents angles d'un bâtiment ou d'une scène à l'aide d'un appareil photographique, à calculer les positions et orientations des points de vue des différentes prises de vue, à pointer les différents éléments structurants de ce bâtiment sur les différentes prises de vues, et à reconstruire une maquette tridimensionnelle de ce bâtiment ou de cette scène dans un espace virtuel, à partir des positions pointées sur les différentes prises de vues. Dans ce processus, le pointage intervient dans deux étapes distinctes : - le calcul des positions et orientations des points de vue des différentes prises de vue ; et - la saisie des éléments structurants du bâtiment.
Le pointage est réalisé par un technicien qui sélectionne manuellement des pixels des prises de vues à l'aide d'un pointeur d'un ordinateur. Ce pointage requiert plusieurs heures de travail.
L'invention a notamment pour but de réduire ou de supprimer l'étape longue et fastidieuse de pointage liée au calcul des positions et orientations des clichés. 25 A cet effet, l'invention a pour objet un système de localisation d'image photographique pour modéliser une scène en 3 dimensions, le système comportant : - un dispositif repéré comprenant un premier imageur et au moins deux cibles distinctes l'une de l'autre ; le premier imageur étant apte à imager une scène pour générer 30 l'image photographique à localiser ; - un dispositif de repérage comportant un deuxième imageur propre à imager au moins une cible positionnée à une distance connue pour générer une vignette de référence, ledit deuxième imageur étant apte à imager le dispositif repéré pour générer une image photographique de repérage, ladite prise de vue du dispositif repéré étant simultanée à la prise de vue de la scène ; et - une unité de calcul apte à localiser angulairement l'image photographique à localiser par rapport à un référentiel à partir de la vignette de référence et de l'image 5 photographique de repérage.
Suivant des modes particuliers de réalisation, le système de localisation comporte l'une ou plusieurs des caractéristiques suivantes : - une unité de mesure apte à mesurer la position du dispositif repéré par rapport 10 au référentiel, ladite mesure de position étant simultanée à la prise de vue de la scène ; et dans lequel l'unité de calcul est apte à positionner l'image photographique à localiser à partir de la position mesurée ; ladite unité de mesure comprenant - un émetteur/récepteur apte à émettre un faisceau vers un réflecteur et à 15 réceptionner le faisceau réfléchi par le réflecteur ; et - un réflecteur apte à réfléchir le faisceau provenant de l'émetteur/récepteur ; l'émetteur/récepteur appartenant au dispositif de repérage, le réflecteur appartenant au dispositif repéré ; la position du dispositif repéré par rapport à un référentiel correspondant à la position du réflecteur par rapport à un 20 référentiel ; - des cibles de couleurs différentes.
L'invention a également pour objet un dispositif repéré pour un système de localisation d'image photographique décrit ci-dessus, ledit dispositif repéré comprenant 25 un premier imageur et au moins deux cibles distinctes l'une de l'autre ; le premier imageur étant apte à imager une scène pour générer l'image photographique à localiser.
L'invention a également pour objet un procédé de localisation d'au moins une image photographique pour modéliser une scène en 3 dimensions à partir d'un système 30 de localisation d'image photographique ; ledit système de localisation comportant un dispositif repéré comprenant un premier imageur et au moins deux cibles distinctes l'une de l'autre, et un dispositif de repérage comportant un deuxième imageur et une unité de calcul, caractérisé en ce que le procédé comporte les étapes suivantes : - obtention d'au moins une partie d'une image photographique, ci-après appelée vignette de référence, représentant au moins une cible positionnée à une distance connue ; - prise de vue d'une scène par le premier imageur pour générer l'image photographique à localiser ; - prise de vue du dispositif repéré par le deuxième imageur pour générer une image photographique de repérage, ladite prise de vue du dispositif repéré étant simultanée à la prise de vue de la scène ; - localisation angulaire de l'image photographique à localiser par rapport à un 10 référentiel à partir de la vignette de référence et de l'image photographique de repérage.
Suivant des modes particuliers de réalisation, le procédé comporte l'une ou plusieurs des caractéristiques suivantes : - à partir du système de localisation décrit ci-dessus comprenant en outre une 15 unité de mesure comportant un émetteur/récepteur intégré au dispositif de repérage et un réflecteur fixé au dispositif repéré ; le procédé comprend en outre les étapes suivantes : - mesure de la distance et des angles entre le réflecteur et le deuxième imageur par l'unité de mesure, ladite mesure de distance et d'angles étant simultanée à la prise de vue de la scène ; et 20 - positionnement de l'image photographique à localiser à partir de ladite mesure de distance et d'angles et de l'image photographique de repérage ; - l'étape d'obtention de la vignette de référence est réalisée par prise de vue de la cible positionnée à une distance connue par le deuxième imageur ; - le procédé comporte en outre les étapes suivantes : 25 - échantillonnage de la vignette de référence en fonction de la distance connue et de la distance entre le réflecteur et le deuxième imageur ; et - détermination de la position des cibles dans l'image photographique de repérage à partir de la vignette de référence échantillonnée ; - à partir du système de localisation décrit ci-dessus comprenant en outre une 30 mémoire stockant les distances et les angles entre chaque cible et le réflecteur, le procédé comporte en outre une étape de détermination des positions possibles de chaque cible dans un espace virtuel, lesdites positions possibles étant les points d'intersection entre une sphère virtuelle et une droite virtuelle, ladite sphère virtuelle étant centrée sur la position du réflecteur, ladite sphère virtuelle ayant un rayon égal à la distance entre chaque cible et le réflecteur ; ladite droite virtuelle passant par un point perspectif de l'image photographique de repérage et par la position du barycentre de chaque cible dans l'image photographique de repérage ; - le procédé comporte en outre une étape de détermination des positions des cibles dans l'espace virtuel par similitude entre, d'une part, les positions possibles des cibles et, d'autre part, les distances et les angles entre chaque cible et le réflecteur ; - à partir du système de localisation décrit ci-dessus, dans lequel la mémoire stocke les distances et les angles entre le réflecteur et le premier imageur, le procédé comporte les étapes suivantes : - calcul d'une matrice de rotation représentative de la rotation entre le réflecteur et le premier imageur et d'une matrice de translation représentative de la translation entre le réflecteur et le premier imageur ; et - établissement d'une matrice représentative de l'orientation du premier imageur par rapport au référentiel, et de la matrice représentative de la position premier imageur par rapport au référentiel, à partir des positions des cibles, de la matrice de rotation représentative de la rotation entre le réflecteur et le premier imageur, et de la matrice de translation représentative de la translation entre le réflecteur et le premier imageur ; et - localisation angulaire de l'image photographique à localiser par rapport au référentiel à partir de la matrice représentative de l'orientation du dispositif repéré par rapport au référentiel, et de la matrice représentative de la position du dispositif repéré par rapport au référentiel.
Enfin, l'invention a également pour objet un programme informatique, caractérisé en ce qu'il comporte des instructions pour mettre en oeuvre le procédé de localisation d'au moins une image photographique pour modéliser une scène en 3 dimensions à partir d'un système de localisation d'image photographique, lorsque ces instructions sont exécutées par un processeur.
L'invention sera mieux comprise à la lecture de la description qui va suivre, donnée uniquement à titre d'exemple et faite en se référant aux dessins, sur lesquels : la figure 1 est une vue schématique du système de localisation selon l'invention ; - la figure 2 est un diagramme des étapes du procédé selon l'invention ; et - les figures 3 et 4 sont des schémas représentant certaines étapes du procédé 5 selon l'invention.
En référence à la figure 1, le système de localisation 2 comprend un dispositif repéré 4 et un dispositif de repérage 6.
10 Selon le mode de réalisation illustré sur la figure 1, le dispositif repéré 4 comporte un support 8, un appareil photographique ci-après appelé premier imageur 10 et six cibles 12, avec i = 1,...6 portés par le support 8.
Le support 8 est par exemple formé par un anneau 16 sur le pourtour extérieur 15 duquel les cibles 12, sont fixées. L'anneau 16 est en outre muni d'une barre 18 portant le premier imageur 10.
En variante, le support 8 présente une forme différente.
20 Le premier imageur 10 est apte à prendre en photographie un bâtiment ou une scène 20 pour générer une image photographique à localiser 22.
Les six cibles 12, sont de forme sphérique. Chaque cible présente une couleur différente.
En variante, les cibles présentent des formes différentes.
En variante, le dispositif repéré 4 comporte uniquement deux cibles distinctes l'une de l'autre.
Le dispositif de repérage 6 comprend un deuxième appareil photographique, ci-après appelé deuxième imageur 26, propre à prendre en photographie le dispositif repéré 4 au moment où le premier imageur 10 prend en photographie la scène 20 pour 25 30 générer une image photographique ci-après appelée image photographique de repérage 30.
Le système de localisation 2 comporte en outre une unité de mesure 7 et une unité de calcul 9.
L'unité de mesure 7 est apte à mesurer la position du dispositif repéré par rapport à un repère fixe. Elle comprend un émetteur/récepteur 24 intégré au dispositif de repérage 6 et un réflecteur 14 fixé sur le pourtour intérieur de l'anneau 16 du dispositif repéré.
L'émetteur/récepteur 24 est apte à émettre un faisceau laser vers le réflecteur 14 et à réceptionner le faisceau réfléchi par le réflecteur 14.
L'ensemble émetteur/récepteur 24 et réflecteur 14 est par exemple constitué par un télémètre. Dans ce cas, le réflecteur 14 est un prisme, et le télémètre est muni d'un système de suivi optique du prisme.
L'ensemble émetteur/récepteur 24, réflecteur 14 et deuxième imageur 26 est de préférence constitué par une station totale. Dans ce cas, les positions mesurées par l'émetteur/récepteur de la station totale sont corrigées pour définir des positions par rapport au centre de visée du deuxième imageur 26. Dans la suite de la description, il sera considéré que l'ensemble émetteur/récepteur 24, réflecteur 14 et deuxième imageur 26 est constitué par une station totale et que les positions mesurées par l'émetteur/récepteur sont corrigées pour définir des positions par rapport au centre de visée du deuxième imageur 26.
En variante, l'émetteur/récepteur 24 est apte à émettre un faisceau ultrason.
Un référentiel 25 est choisi conventionnellement au centre de visée du deuxième imageur 26. Un référentiel 27 est choisi conventionnellement au centre du réflecteur 14. Un référentiel 28 est choisi conventionnellement au centre de visée du premier imageur 10.
Pour les besoins de l'invention, les matrices de rotation R, R' et Rg, et les matrices de translation T, T' et Tg sont établies.
La matrice de rotation R est représentative de la rotation entre le référentiel 27 du réflecteur 14 et le référentiel 28 du premier imageur 10. La matrice de rotation R' est représentative de la rotation entre le référentiel 25 du deuxième imageur 26 et le référentiel 27 du réflecteur 14. Enfin, la matrice Rg est représentative de la rotation entre le référentiel 25 du deuxième imageur 26 et le référentiel 28 du premier imageur 10 ou, autrement dit, l'orientation du premier imageur 10, par rapport au référentiel 25. En pratique, Rg = R . R'.
La matrice de translation T est représentative de la translation entre le référentiel 27 du réflecteur 14 et le référentiel 28 du premier imageur 10. La matrice de translation T' est représentative de la translation entre le référentiel 25 du deuxième imageur 26 et le référentiel 27 du réflecteur 14. La matrice de translation Tg est représentative de la translation entre le référentiel 25 du deuxième imageur et le référentiel 28 du premier imageur 10 ou, autrement dit, de la position du premier imageur 10, par rapport au référentiel 25. En pratique, Tg = T + T'.
L'unité de calcul 9 comporte une mémoire 32 propre à stocker un programme d'ordinateur et des données initiales, et un processeur 34 apte à exécuter ce programme d'ordinateur à partir des données initiales et des données fournies par l'unité de mesure 7, le premier imageur 10 et le deuxième imageur 26. A cet effet, l'unité de calcul 9, le premier imageur 10 et le deuxième imageur 26 comprennent des moyens de communication non représentés.
Les données initiales comportent les distances et les angles entre les cibles 12; et le réflecteur 14, les distances et les angles entre le réflecteur 14 et le premier imageur 10, ainsi qu'une vignette de référence, comme explicité ci-après.
En référence à la figure 2, le procédé de localisation selon l'invention débute par une étape 36 au cours de laquelle une cible est prise en photographie à une distance connue do. Cette cible est appelée première cible 121 ci-après.
Au cours d'une étape 38, une portion de l'image photographique photographiée au cours de l'étape 36, est extraite et enregistrée dans la mémoire 32. Cette portion d'image représente la première cible 121. Cette portion d'image est représentée schématiquement sur la figure 3 et sera appelée ci-après vignette de référence 39.
Au cours d'une étape 40, les distances et les angles entre le réflecteur 14, et plus précisément le référentiel 27 du réflecteur, et le premier imageur 10, ou plus précisément le référentiel 28 du premier imageur, sont mesurés et enregistrés dans la mémoire 32. Le processeur 34 calcule la matrice de rotation R et la matrice de translation T correspondantes et les enregistre dans la mémoire 32.
Au cours d'une étape 42, les distances et les angles entre les cibles 12; et le réflecteur 14 sont mesurés et enregistrés dans la mémoire 32.
Les distances et les angles entre les cibles 12; et le réflecteur 14 définissent le 20 modèle géométrique du dispositif repéré.
Les étapes 36 à 42 peuvent être effectuées en laboratoire.
Au cours d'une étape 44, le premier imageur 10 prend en photographie la scène 20 25 ou le bâtiment à photographier, et génère une image photographique à localiser 22.
Simultanément, le deuxième imageur 26 prend une photographie du dispositif repéré 4 pour générer une image photographique de repérage 30 et l'unité de mesure 7 mesure la distance jusqu'au dispositif répéré 4 et, en particulier, jusqu'au réflecteur 14 et 30 les angles de visée du faisceau laser dans le référentiel 25 du deuxième imageur. L'étape 44 est réalisée sur site.
En référence à la figure 3, le processeur 34 génère au cours d'une étape 46, une première 45, une deuxième 47 et une troisième 49 vignettes de travail par échantillonnage de la vignette de référence 39 avec trois facteurs de ré-échantillonnage différents. A cet effet, le processeur 34 utilise la distance entre le deuxième imageur 26 et le réflecteur 14 mesurée au cours de l'étape 44.
Le premier facteur de ré-échantillonnage fi est donné par la formule ci-dessous : Dans laquelle : - D est la distance entre le deuxième imageur 26 et le réflecteur 14.
- do est la distance entre la première cible l21 et le deuxième imageur 26 lors de la prise de vue effectuée au cours de l'étape 36.
Lorsque le premier facteur de ré-échantillonnage fi est appliqué à la vignette de référence 39, celle-ci est redimensionnée pour que la première cible l21 ait une dimension apparente équivalente à la dimension qu'elle aurait si elle avait été photographiée à une distance D.
Le deuxième facteur de ré-échantillonnage f2 est donné par la formule ci-dessous : f~ _ (D+R) do dans laquelle R est la distance entre le réflecteur 14 et la cible 12; la plus éloignée du réflecteur 14.
Lorsque le deuxième facteur de ré-échantillonnage f2 est appliqué à la vignette de référence 39, la vignette de référence 39 est redimensionnée pour que la première cible 121 ait une dimension apparente équivalente à la dimension qu'elle aurait si elle avait été photographiée à une distance égale à D+R.
Le troisième facteur de ré-échantillonnage f3 est donné par la formule ci-dessous : Îs=(D ù R) do Lorsque le troisième facteur de ré-échantillonnage f3 est appliqué à la vignette de référence 39, cette dernière est redimensionnée de manière à ce que la première cible l21 ait une dimension apparente équivalente à la dimension qu'elle aurait si elle avait été photographiée à une distance D-R.
Au cours d'une étape 48, un ensemble de scores de corrélation est calculé entre l'image photographique de repérage 30 et la première vignette de travail 45. A cet effet, 10 l'image photographique de repérage 30 est partitionnée en plusieurs portions d'image 51 de même dimension que la première vignette de travail 45.
Un score de corrélation est par exemple calculé selon la formule mentionnée ci-dessous : Cov(145,151) V(V(I45 ).V(151 )) Dans laquelle : - r est le score de corrélation, - 145 un vecteur ordonné représentatif des valeurs de gris xn5 de n pixels de la vignette de travail, 20 - I51 est un vecteur ordonné représentatif des valeurs de gris xn1 de la portion d'image 51, - V (145) est la variance des valeurs de gris du vecteur 145, - V(1S1) est la variance des valeurs de gris du vecteur 151, - Cov(145, I51) est la covariance de 145et 151, 25 Cov(145 151) = n x45 x51 ùNI45NI51 k k ) k=1 Dans laquelle : - n est le nombre total de pixels dans la vignette de travail M4Sest la moyenne des valeurs de gris des pixels 4;5 15 1 n 11 M' est la moyenne des valeurs de gris des pixels xn~ Des scores de corrélation sont également calculés entre l'image photographique de repérage 30 et la deuxième 47 et la troisième 49 vignettes de travail pour obtenir trois ensembles de scores de corrélation. Chaque ensemble de scores de corrélation correspond aux scores de corrélation calculés avec une vignette de travail différente. Ces trois ensembles de scores de corrélation peuvent par exemple être représentés par trois images 53, 55, 57 en trois dimensions comme illustré sur la figure 3.
Au cours d'une étape 50, le processeur 34 recherche parmi ces trois ensembles de scores de corrélation, la valeur la plus élevée du score de corrélation, ainsi que la position (x;, y,) dans une des images 53, 55, 57, correspondant à cette valeur
Au cours d'une étape 52, un procédé de détection de contour est réalisé dans un sous-ensemble de l'image photographique de repérage 30 centré sur la position (x;, y,) déterminée au cours de l'étape 50.
Au cours d'une étape 54, un cercle est estimé sur le contour détecté au cours de l'étape 52, et la position (xi, y) du centre de ce cercle est déterminée. Cette position (xi, y) est assimilable à la position du centre de la cible détectée. Cette cible est l'une quelconque des six cibles du support 8 et sera référencée ci-après cible 12i.
En variante, lorsque la cible 12i n'est pas sphérique, une forme correspondant à la forme de la cible est estimée sur le contour détecté et la position du barycentre de cette 25 forme est déterminée.
Au cours d'une étape 56, la cible 12i du support 8 correspondante à la cible détectée au cours des étapes 46 à 54, est reconnue par rapport à sa couleur.
30 Les étapes 46 à 56 permettent de déterminer les positions des cibles dans l'image photographique de repérage 30 à partir de la vignette de référence 39.
Au cours d'une étape 58, la position du réflecteur 14 est recherchée dans un espace virtuel créé par le processeur 34, à partir de la distance et des angles mesurés par l'unité de mesure 7 au cours de l'étape 44.
Une sphère virtuelle 59 illustrée sur la figure 4 est générée autour de la position du réflecteur 14. Le rayon de la sphère virtuelle 59 est égal à la distance entre le réflecteur 14 et la cible déterminée 12i. Cette distance a été enregistrée dans la mémoire 32 au cours de l'étape 42.
Au cours d'une étape 60, une droite virtuelle 61 passant par le centre de visée 63 du deuxième imageur, aussi appelé point perspectif de l'image photographique de repérage 30, et par la position (xi, yi) du centre de la cible 12j, est définie. Les points d'intersection entre la droite virtuelle 59 et la sphère virtuelle 61 définissent deux hypothèses de position de la cible 12J dans l'espace virtuel.
Au cours d'une étape 62, le score de corrélation ayant la deuxième valeur la plus élevée, est recherché et les étapes 52 à 60 sont répétées pour ce deuxième score de corrélation.
Les étapes 52 à 62 sont répétées un nombre de fois correspondant au nombre de cibles sur le dispositif repéré 4.
Lorsque ces étapes ont été répétées a fois avec a égal au nombre de cibles, au cours d'une étape 64, les positions réelles des cibles sont choisies parmi l'ensemble des hypothèses de position de cibles par similitude avec le modèle géométrique du dispositif repéré 4 enregistré dans la mémoire 32.
Au cours d'une étape 66, une matrice de rotation R' et une matrice de translation T' 30 sont établies entre le référentiel 25 du deuxième imageur et le référentiel 27 du réflecteur à l'aide de la position des cibles déterminées au cours de l'étape 64.
Au cours d'une étape 68, la matrice Rg représentative de l'orientation du premier imageur 10 et la matrice Tg représentative de la position du premier imageur 10 par rapport au référentiel 25, sont déterminées à partir des matrices R et T calculées au cours de l'étape 40, et des matrices R' et T' établies au cours de l'étape 66, et par application des formules ci-dessous : Rg=R.R' Tg = T + T'
Au cours d'une étape 70, l'image photographique à localiser 22 est localisée dans 10 l'espace virtuel par mise en oeuvre des matrices Rg et Tg dans des logiciels de modélisation 3D de type : - NUBES développé par M. Livio De Luca, du laboratoire GAMSAU, et disponible à l'adresse internet suivante : http://www.map.archi.fr/nubes/introduction/projet.htm ;
- MicMac développé par M. Marc Pierrot-Deseilligny de l'IGN et Yves Egels, del' ENSG et disponible à l'adresse internet suivante : http://www.micmac.ign.fr/ ;
- ImageModeler de la société Realviz û Autodesk ;
- Photomodeler de la société Eos System Inc. ; et
- Socet Set de la société BAE Systems.
25 En variante, l'image photographique à localiser 22 est localisée dans l'espace virtuel à l'aide de la matrice Rg et de la matrice Tg. La modélisation 3D de la scène est réalisée par pointage des éléments structurants sur l'image photographique 22 à localiser, par détection automatique des éléments structurant sur l'image photographique 22 et/ou par l'exploitation de toute autre information morphologique sur la surface à modéliser 30 (une ou plusieurs images positionnées et orientées, un nuage de points obtenu par numérisation par balayage laser, un modèle 3D déjà existant).. 15 2010 14
La matrice de rotation Rg et la matrice de translation Tg doivent être calculées pour chaque nouvelle position du dispositif repéré.
En variante, les images photographiques à localiser sont localisées par rapport à un 5 nuage de points représentatif de la scène à modéliser obtenu par une numérisation par balayage laser.
En variante, le dispositif repéré est monté sur un drone ou une montgolfière pour prendre des prises de vues aériennes. En variante, les images à localiser sont localisées par rapport à une maquette 3D de l'environnement.

Claims (13)

  1. REVENDICATIONS1.- Système de localisation (2) d'image photographique (22) pour modéliser une scène en 3 dimensions, caractérisé en ce que le système (2) comporte : - un dispositif repéré (4) comprenant un premier imageur (10) et au moins deux cibles (121, 122) distinctes l'une de l'autre ; le premier imageur (10) étant apte à imager une scène (20) pour générer l'image photographique à localiser (22) ; - un dispositif de repérage (6) comportant un deuxième imageur (26) propre à imager au moins une cible (l21) positionnée à une distance connue (do) pour générer une vignette de référence (39), ledit deuxième imageur (26) étant apte à imager le dispositif repéré (4) pour générer une image photographique de repérage (30), ladite prise de vue du dispositif repéré (4) étant simultanée à la prise de vue de la scène (20) ; et - une unité de calcul (9) apte à localiser angulairement l'image photographique à localiser (22) par rapport à un référentiel (25) à partir de la vignette de référence (39) et de l'image photographique de repérage (30).
  2. 2.- Système de localisation (2) selon la revendication 1, qui comprend une unité de mesure (7) apte à mesurer la position du dispositif repéré (4) par rapport au référentiel (25), ladite mesure de position étant simultanée à la prise de vue de la scène (20) ; et dans lequel l'unité de calcul (9) est apte à positionner l'image photographique à localiser (22) à partir de la position mesurée.
  3. 3.- Système de localisation (2) selon la revendication 2, dans lequel l'unité de mesure (7) comprend : - un émetteur/récepteur (24) apte à émettre un faisceau vers un réflecteur (14) et à réceptionner le faisceau réfléchi par le réflecteur (14) ; et - un réflecteur (14) apte à réfléchir le faisceau provenant de l'émetteur/récepteur (24) ; l'émetteur/récepteur (24) appartenant au dispositif de repérage (6), le réflecteur (14) appartenant au dispositif repéré (4) ; la position du dispositif repéré (4) par rapport à un référentiel (25) correspondant à la position du réflecteur (14) par rapport à un référentiel (25).
  4. 4.- Système de localisation (2) selon l'une quelconque des revendications 1 à 3, dans lequel les cibles (121, 122) sont de couleurs différentes.
  5. 5.- Dispositif repéré (4) pour un système de localisation (2) d'image photographique (22) selon l'une quelconque des revendications 1 à 4, caractérisé en ce que le dispositif repéré (4) comprend un premier imageur (10) et au moins deux cibles (121, 122) distinctes l'une de l'autre ; le premier imageur (10) étant apte à imager une scène (20) pour générer l'image photographique à localiser (22).
  6. 6.- Procédé de localisation d'au moins une image photographique (22) pour modéliser une scène en 3 dimensions à partir d'un système de localisation d'image photographique (2) ; ledit système de localisation (2) comportant un dispositif repéré (4) comprenant un premier imageur (10) et au moins deux cibles (121, 122) distinctes l'une de l'autre, et un dispositif de repérage (6) comportant un deuxième imageur (26) et une unité de calcul (9), caractérisé en ce que le procédé comporte les étapes suivantes : - obtention (36) d'au moins une partie d'une image photographique, ci-après appelée vignette de référence (39), représentant au moins une cible (l21) positionnée à une distance connue (do) ; - prise de vue (44) d'une scène (20) par le premier imageur (10) pour générer 20 l'image photographique à localiser (22) ; - prise de vue (44) du dispositif repéré (4) par le deuxième imageur (26) pour générer une image photographique de repérage (30), ladite prise de vue du dispositif repéré (4) étant simultanée à la prise de vue de la scène (20) ; - localisation (70) angulaire de l'image photographique à localiser (22) par 25 rapport à un référentiel (25) à partir de la vignette de référence (39) et de l'image photographique de repérage (30).
  7. 7.- Procédé de localisation selon la revendication 6, à partir du système de localisation (2) comprenant une unité de mesure (7) comportant un 30 émetteur/récepteur (24) intégré au dispositif de repérage (6) et un réflecteur (14) fixé au dispositif repéré (4) ; et dans lequel le procédé comprend en outre les étapes suivantes :- mesure (44) de la distance et des angles entre le réflecteur (14) et le deuxième imageur (26) par l'unité de mesure (7), ladite mesure de distance et d'angles étant simultanée à la prise de vue de la scène (20) ; et - positionnement (70) de l'image photographique à localiser (22) à partir de ladite 5 mesure de distance et d'angles, et de l'image photographique de repérage (30).
  8. 8.- Procédé de localisation selon l'une quelconque des revendications 6 et 7, dans lequel l'étape d'obtention (36) de la vignette de référence (39) est réalisée par prise de vue (36) de la cible (l21) positionnée à une distance connue (do) par le deuxième 10 imageur (26).
  9. 9.- Procédé de localisation selon l'une quelconque des revendications 7 et 8, qui comporte en outre les étapes suivantes : - échantillonnage (46) de la vignette de référence (39) en fonction de la distance 15 connue (do) et de la distance entre le réflecteur (14) et le deuxième imageur (26) ; et - détermination (48, 50, 52, 54, 56) de la position des cibles (121, 122) dans l'image photographique de repérage (30) à partir de la vignette de référence (39) échantillonnée. 20
  10. 10.- Procédé de localisation selon la revendication 9, à partir du système de localisation (2) qui comprend en outre une mémoire (32) stockant les distances et les angles entre chaque cible (121, 122) et le réflecteur (14), le procédé comportant une étape de détermination (58, 60, 62) des positions possibles de chaque cible (121, 122) dans un espace virtuel, lesdites positions possibles étant les points d'intersection entre une sphère 25 virtuelle (59) et une droite virtuelle (61), ladite sphère virtuelle (59) étant centrée sur la position du réflecteur (14), ladite sphère virtuelle (59) ayant un rayon égal à la distance entre chaque cible (121, 122) et le réflecteur (14) ; ladite droite virtuelle (61) passant par un point perspectif (63) de l'image photographique de repérage (22) et par la position du barycentre de chaque cible (121, 122) dans l'image photographique de repérage (30). 30
  11. 11.- Procédé de localisation selon la revendication 10, dans lequel le procédé comporte en outre une étape de détermination (64) des positions des cibles (121, 122) dans l'espace virtuel par similitude entre, d'une part, les positions possibles des cibles (121, 122) et, d'autre part, les distances et les angles entre chaque cible (121, 122) et le réflecteur (14).
  12. 12.- Procédé de localisation selon la revendication 11, à partir du système de localisation (2) dans lequel la mémoire (32) stocke les distances et les angles entre le réflecteur (14) et le premier imageur (10), dans lequel le procédé comporte les étapes suivantes : - calcul (40) d'une matrice de rotation (R) représentative de la rotation entre le réflecteur (14) et le premier imageur (10) et d'une matrice de translation (T) représentative de la translation entre le réflecteur (14) et le premier imageur (10) ; et - établissement (66, 68) d'une matrice (Rg) représentative de l'orientation du premier imageur (10) par rapport au référentiel (25), et d'une matrice (Tg) représentative de la position premier imageur (10) par rapport au référentiel (25), à partir des positions des cibles (121, 122), de la matrice de rotation (R) représentative de la rotation entre le réflecteur (14) et le premier imageur (10), et de la matrice de translation (T) représentative de la translation entre le réflecteur (14) et le premier imageur (10) ; et - localisation (70) angulaire de l'image photographique à localiser (22) par rapport au référentiel (25) à partir de la matrice (Rg) représentative de l'orientation du dispositif repéré (4) par rapport au référentiel (25), et de la matrice (Tg) représentative de la position du dispositif repéré (4) par rapport au référentiel (25).
  13. 13. Programme informatique, caractérisé en ce qu'il comporte des instructions pour mettre en oeuvre le procédé selon l'une quelconque des revendications 6 à 12, lorsqu'elles sont exécutées par un processeur.25
FR0954054A 2009-06-16 2009-06-16 Systeme et procede de localisation d'image photographique. Withdrawn FR2946765A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0954054A FR2946765A1 (fr) 2009-06-16 2009-06-16 Systeme et procede de localisation d'image photographique.
PCT/FR2010/051169 WO2010146289A2 (fr) 2009-06-16 2010-06-11 Système et procédé de localisation d'image photographique

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0954054A FR2946765A1 (fr) 2009-06-16 2009-06-16 Systeme et procede de localisation d'image photographique.

Publications (1)

Publication Number Publication Date
FR2946765A1 true FR2946765A1 (fr) 2010-12-17

Family

ID=41694602

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0954054A Withdrawn FR2946765A1 (fr) 2009-06-16 2009-06-16 Systeme et procede de localisation d'image photographique.

Country Status (2)

Country Link
FR (1) FR2946765A1 (fr)
WO (1) WO2010146289A2 (fr)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675112A (en) * 1994-04-12 1997-10-07 Thomson-Csf Aiming device for weapon and fitted-out weapon
US5889550A (en) * 1996-06-10 1999-03-30 Adaptive Optics Associates, Inc. Camera tracking system
US6724930B1 (en) * 1999-02-04 2004-04-20 Olympus Corporation Three-dimensional position and orientation sensing system
US6856935B1 (en) * 1998-02-18 2005-02-15 Gmd-Forschungszentrum Informationstechnik Gmbh Camera tracking system for a virtual television or video studio
WO2006047610A2 (fr) * 2004-10-27 2006-05-04 Cinital Procede et dispositif pour systeme de visualisation de scene virtuelle
WO2008008044A2 (fr) * 2006-07-14 2008-01-17 Bracco Imaging S.P.A. Procédés et appareils d'enregistrement en chirurgie guidée par l'image
WO2010010552A1 (fr) * 2008-07-21 2010-01-28 Cognitens Ltd. Procédé et système de création d’un modèle numérique d’un objet

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675112A (en) * 1994-04-12 1997-10-07 Thomson-Csf Aiming device for weapon and fitted-out weapon
US5889550A (en) * 1996-06-10 1999-03-30 Adaptive Optics Associates, Inc. Camera tracking system
US6856935B1 (en) * 1998-02-18 2005-02-15 Gmd-Forschungszentrum Informationstechnik Gmbh Camera tracking system for a virtual television or video studio
US6724930B1 (en) * 1999-02-04 2004-04-20 Olympus Corporation Three-dimensional position and orientation sensing system
WO2006047610A2 (fr) * 2004-10-27 2006-05-04 Cinital Procede et dispositif pour systeme de visualisation de scene virtuelle
WO2008008044A2 (fr) * 2006-07-14 2008-01-17 Bracco Imaging S.P.A. Procédés et appareils d'enregistrement en chirurgie guidée par l'image
WO2010010552A1 (fr) * 2008-07-21 2010-01-28 Cognitens Ltd. Procédé et système de création d’un modèle numérique d’un objet

Also Published As

Publication number Publication date
WO2010146289A2 (fr) 2010-12-23
WO2010146289A3 (fr) 2011-04-28

Similar Documents

Publication Publication Date Title
CN100339679C (zh) 测量机
JP3624353B2 (ja) 3次元形状計測方法およびその装置
JP4971344B2 (ja) 測量方法及び測量装置
JP3345113B2 (ja) 目標物認識方法及び標的同定方法
EP2947628B1 (fr) Procédé de traitement d'informations locales
EP0958527B1 (fr) Procede et dispositif de cartographie de sources de rayonnement
EP1554541A2 (fr) Cible codee et procede de photogrammetrie utilisant de telles cibles
FR2836215A1 (fr) Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet
CN112254670B (zh) 一种基于光扫描和智能视觉融合的3d信息采集设备
CN109341591A (zh) 一种基于手持式三维扫描仪的边缘检测方法及系统
CN111739050B (zh) 基于Zynq的姿态测量和天体形心提取的飞行器导航系统
EP3070643B1 (fr) Procédé et système de reconnaissance d'objets par analyse de signaux d'image numérique d'une scène
FR2946765A1 (fr) Systeme et procede de localisation d'image photographique.
US10685448B2 (en) Optical module and a method for objects' tracking under poor light conditions
EP0508905B1 (fr) Procédé d'autoguidage d'un engin vers une cible par mesure de distance
FR2910648A1 (fr) Procede et dispositif de capture de donnees geometriques
US20220156966A1 (en) Error compensation for a three-dimensional tracking system
WO2021009431A1 (fr) Procede de determination de parametres d'etalonnage extrinseques d'un systeme de mesure
TW202227894A (zh) 彈殼照明模組及使用其之鑑識分析系統
EP3757943B1 (fr) Procédé et dispositif de télémétrie passive par traitement d'image et utilisation de modeles en trois dimensions
EP4212825B1 (fr) Procédé d alignement d'une caméra sur une route
EP3018625A1 (fr) Procédé de calibration d'un système de visée
FR2702856A1 (fr) Procédé de repérage de position assisté par image et dispositif pour la mise en Óoeuvre dudit procédé.
KR20230016315A (ko) 공중 촬영 영상과 수치지도를 이용한 건물 영역 검출을 위한 딥러닝 학습데이터 자동 생성 방법 및 건물 영역 검출을 위한 딥러닝 학습데이터 자동 생성 장치
Ventura et al. 8 Urban Visual Modeling and Tracking

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20140228