FR2920546A1 - Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires - Google Patents

Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires Download PDF

Info

Publication number
FR2920546A1
FR2920546A1 FR0706132A FR0706132A FR2920546A1 FR 2920546 A1 FR2920546 A1 FR 2920546A1 FR 0706132 A FR0706132 A FR 0706132A FR 0706132 A FR0706132 A FR 0706132A FR 2920546 A1 FR2920546 A1 FR 2920546A1
Authority
FR
France
Prior art keywords
sensor
network
points
projection
image plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0706132A
Other languages
English (en)
Other versions
FR2920546B1 (fr
Inventor
Siegfried Rouzes
Lilian Lacoste
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR0706132A priority Critical patent/FR2920546B1/fr
Priority to PCT/EP2008/060943 priority patent/WO2009027311A1/fr
Publication of FR2920546A1 publication Critical patent/FR2920546A1/fr
Application granted granted Critical
Publication of FR2920546B1 publication Critical patent/FR2920546B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/22Aiming or laying means for vehicle-borne armament, e.g. on aircraft
    • F41G3/225Helmet sighting systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Le procédé de détection optique de la position apparente des extrémités d'un capteur (106) linéaire dans l'espace au moyen d'un système de projection (101, 102) d'au moins une mire (107') comprenant au moins un réseau de segments lumineux parallèles, la mire couvrant une zone (104) de l'espace dans laquellle est situé le capteur (106), est caractérisé en ce qu'il comprend :- Une première étape de projection d'au moins un réseau comprenant au moins trois segments lumineux parallèles dans la zone dans laquelle se trouve le capteur ;- Une seconde étape d'identification d'au moins un birapport d'un quadruplet de points dont les positions sont connues sur le capteur, le birapport (BR) de quatre points (A, B, C, D) étant défini par la relation - Une troisième étape de détermination des extrémités du capteur (P1, P2) dans le plan image.

Description

PROCEDE DE DETECTION DES EXTREMITES D'UN CAPTEUR LINEAIRE DANS L'ESPACE PAR PROJECTION DE MIRES
La présente invention concerne le domaine des dispositifs de détection optique de position et d'orientation d'objets dans l'espace. Elle s'applique plus particulièrement dans le domaine aéronautique où dans ce cas l'objet détecté est un casque de pilote.
La détermination du positionnement d'un point dans l'espace et la détermination de l'attitude d'un objet quelconque sont des problèmes concernant de nombreux domaines techniques. Les différentes solutions généralement apportées doivent lever toute ambiguïté de position ou d'attitude, répondre à une dynamique plus ou moins sévère des systèmes et satisfaire une précision élevée, en particulier dans le domaine aéronautique. Dans les systèmes de détection de position et d'attitude d'objets dans l'espace répondant à une précision meilleure que quelques millimètres en position et au degré en attitude, de nombreuses applications existent dans différents domaines. Ces systèmes sont utilisés en aéronautique, pour la détection de posture de tête, notamment pour les casques d'avions d'arme, d'hélicoptères militaires, civils ou para-civils. Dans ce dernier cas d'application para-civiles, il peut s'agir de missions de sauvetage en mer par exemple. Ils sont utilisés également pour la détection de casques de simulation, cette détection peut alors être combinée à un dispositif d'oculométrie, également appelé eyetracker, pour la détection de position du regard. Dans le domaine de la réalité virtuelle et des jeux, il existe également de nombreuses applications de ces systèmes.
Plus généralement, dans le domaine de la détection de posture générique, il existe également de nombreuses applications, notamment dans le domaine médical pour les opérations à distance et le contrôle d'instruments, dans le domaine du contrôle de position pour des machines outils asservies ou de la commande à distance et enfin pour le cinéma, afin de reproduire les mouvements en images de synthèse.
Ces différentes applications ont des solutions techniques répondant à des exigences plus ou moins contraignantes. Concernant des applications à faibles contraintes, notamment en terme de précisions, il existe différents systèmes de détection de position et/ ou d'orientation d'objets. Par exemple, les dispositifs à reconnaissance de patchs ou de formes par caméras utilisent des dessins imprimés sur un objet. Plusieurs caméras observent la scène et déterminent la configuration spatiale du dessin observé.
Il existe également des dispositifs à reconnaissance de sphères par caméras, qui sont utilisés, par exemple au cinéma, pour la reconstitution du mouvement humain. Le dispositif utilise plusieurs caméras qui observent des sphères réfléchissantes et déterminent leur trajectoire. Enfin il existe des dispositifs de positionnement à ultrasons 15 reposant sur le principe de triangulation entre émetteurs et récepteurs ultrasoniques.
Concernant des applications plus performantes, en particulier dans le domaine aéronautique, les dispositifs de détection de posture de 20 casques dans les aéronefs utilisent deux principales techniques qui sont la détection de posture électromagnétique et la détection de posture électrooptique. La détection de posture électromagnétique nécessite des dispositifs comprenant des moyens d'émission d'un champ 25 électromagnétique et des capteurs de réception sur le casque permettant de déterminer leur position par rapport à l'émetteur. Néanmoins, des solutions robustes sont difficiles à mettre en oeuvre. En particulier, dans le domaine aéronautique, les rayonnements parasites et les perturbations électromagnétiques peuvent dégrader les performances des systèmes 30 existants. Concernant la détection de posture électro-optique il existe deux solutions. La première solution nécessite généralement des motifs de diodes électroluminescentes, encore appelé LEDs, disposés sur le casque et plusieurs capteurs de type caméras montés dans le cockpit permettant de 35 déterminer la configuration spatiale d'un motif de LEDs.
Pour améliorer les performances, il est fréquent de combiner d'autres dispositifs comprenant des capteurs de types gyroscopiques, accéléro-métriques ou magnéto-métriques. Cette hybridation de capteurs permet d'améliorer les performances dynamiques ou de lever une ambiguïté d'orientation. Ces capteurs ne modifient pas les performances statiques de positionnement des dispositifs de détection cités précédemment.
Néanmoins, la cartographie du cockpit ou plus généralement la topologie de la zone contenant l'objet doit être connue, de ce fait elle présente un inconvénient. Dans l'aéronautique, cette topologie peut subir des déformations ou être difficile à cartographier. Par ailleurs, ces mêmes dispositifs nécessitent plusieurs caméras et plusieurs capteurs. Les calculs de position demandent de nombreuses ressources et l'analyse temps réel est complexe à mettre en oeuvre. De plus, la diffusion dans la zone de détection de la lumière des LEDs ne permet pas de s'affranchir complètement des perturbations de l'environnement lumineux du cockpit dues au soleil ou à des réflexions parasites sur la verrière.
La seconde solution utilisée concernant la détection de posture électro-optique nécessite un projecteur d'images dans le cockpit projetant des images nettes. Les images projetées dans une zone comprenant des capteurs comportent avantageusement des mires lumineuses. Les capteurs pouvant être de type matriciel ou linéaire par exemple, la détection des motifs de la mire permettent de situer le capteur par rapport à l'image projetée. Les capteurs étant disposés sur l'objet, la détection de l'attitude de l'objet peut se déduire de la détection de l'attitude de capteurs. Cette solution existe aujourd'hui, les moyens de projections pouvant être notamment un vidéo projecteur holographique développé par Light Blue Optics . La figure 1,A illustre un tel projecteur d'images 101, le projecteur d'images 101 émet une image 103, au point dans toute la zone 104, comprenant un ensemble de mires 107, 107'. Les mires sont projetées sur des ensembles 106, 106' de capteurs électro-optiques situés sur un objet 105. Une mire est un ensemble de motifs géométriques lumineux sur fond noir. Ces mires peuvent par exemple des cercles ou des anneaux. L'ensemble de capteurs est appelé cluster. Ces capteurs peuvent être regroupés de manière à ce que le cluster ait des propriétés géométriques pour la détection. Afin de retrouver la position et l'orientation des clusters dans l'espace, le dispositif selon l'invention comprend des moyens 102 d'analyse des données issues des capteurs. La position et l'orientation, d'au moins un cluster, étant déterminées, la position et l'orientation de l'objet sont alors connues. Néanmoins, cette dernière solution présente des inconvénients quant à l'efficacité de la détection. Les paramètres résultant d'une part du choix des capteurs, de leur disposition sur l'objet et de leur forme et d'autre part du type de mires projetées, de leurs motifs lumineux, de la zone de projection, des systèmes d'asservissement des moyens de projection par les informations reçues par les capteurs, ne sont actuellement pas optimisés pour la détection liée à l'attitude et la position d'un objet dans l'espace.
Un but de l'invention est notamment de pallier les inconvénients précités. Sachant que les positions des extrémités d'un groupe de capteurs linéaires permettent cle retrouver l'attitude d'un objet dans l'espace sur lequel les capteurs sont fixés, le problème se résume à retrouver les extrémités d'un capteur dans l'espace. L'invention a pour objet un procédé de détection des extrémités d'un capteur linéaire dans le plan image, le plan image étant celui d'un dispositif de projection, tel que celui de l'exemple de la figure 1A. En effet, le procédé dispose de moyens de projection d'images nettes dans une zone comprenant le(s) capteur(s), les images définissant des mires comprenant des réseaux de droites parallèles. Le procédé selon l'invention utilise notamment la conservation par des projections coniques et cylindriques du birapport, celui-ci étant calculé dans le repère du capteur, entre trois segments lumineux consécutifs d'une mire projetée avec une quatrième droite passant par une des extrémités de l'image du capteur dans le plan image. Le procédé selon l'invention permet notamment d'optimiser les calculs d'asservissant du projecteur sur l'objet à détecter dans un mode de suivi d'objet.35 Avantageusement, le procédé de détection optique des extrémités d'un capteur linéaire dans l'espace au moyen d'un système de projection d'au moins une mire comprenant au moins un réseau de segments lumineux parallèles dans le plan image projeté, la mire couvrant une zone de l'espace dans laquelle est situé le capteur comprend : - Une première étape de projection d'au moins deux réseaux, chacun des réseaux comprenant au moins trois segments lumineux identifiés, parallèles et interceptant le capteur ; Une seconde étape d'identification de quatre birapports de quadruplets de points dont les positions sont connues sur le capteur, un quadruplet comprenant les trois intersections d'un des deux réseaux avec le capteur et une des extrémités du capteur, le birapport (BR) de quatre points (A, B, C, D) étant défini par la relation Bi, = AC BD ; BC AD - Une troisième étape de détermination des extrémités de l'image du capteur (P1, P2) dans le plan image à partir de la construction de l'intersection de quatre droites définies dans le plan image de telle manière que chaque droite forme avec un des deux réseaux un quadruplet de droites parallèles dont le birapport est identique au birapport d'un des quadruplets de points définis sur le capteur.
Avantageusement, la première étape est réalisée au moyen d'un vidéo-projecteur comportant une source de lumière cohérente, et une très 25 grande profondeur de champ. Avantageusement, la première étape comprend la projection d'un réseau, dont la largeur (D) est suffisante pour couvrir la zone de débattement du capteur, comprenant un nombre déterminé de segments parallèles et dont les birapports de quatre segments consécutifs sont tous différents. 30 Avantageusement, chaque segment du réseau est espacé avec le segment précédent (X;_I) et le segment subséquent (X;+1) d'une distance (E) minimale prédéterminée, les abscisses (Xi) étant définies dans un repère comprenant un axe confondu avec une droite perpendiculaire au réseau.
Avantageusement, la distance comprenant l'espacement entre 3 segments successifs du réseau n'est pas supérieure à une valeur maximale prédéterminée. Avantageusement, la valeur absolue de la différence de deux birapports quelconques, chacun des birapports étant calculé à partir de quatre segments successifs du réseau dans le plan image, est supérieure à une valeur minimale lprédéterminée. Avantageusement, la première étape comprend la projection successive deux de mires comprenant respectivement un premier et un second réseau ayant les mêmes caractéristiques dont l'orientation du second réseau par rapport au premier réseau forme un angle déterminé.
Avantageusement, la première étape comprend la projection d'une mire comprenant d'une part un premier réseau de trois premiers segments lumineux parallèles entre eux, interceptant le capteur en trois points (A1, BI, C1) et d'autre part un second réseau de trois segments lumineux parallèles entre eux, interceptant le capteur en trois autres points (A2, B2, C2), les deux réseaux faisant un angle entre eux de telle manière que la forme des deux réseaux représente une ligne brisée formant au moins trois dents de scie.
Avantageusement, la seconde étape comprend l'identification d'un quadruplet de birapports (k11, k21, k12, k22), chacun des birapports comprenant trois points d'intersection d'un réseau ((A1, B1, C1) ou (A2, B2, C2)) avec le capteur et une extrémité du capteur (P1 ou P2), les birapports étant calculés dans un repère axial formé par le capteur ayant comme origine l'une des extrémités du capteur.
Avantageusement, la troisième étape comprend : - une étape de construction de trois points (A1', B1', C1') issus d'une première projection cylindrique des points (A1, B1, C1) sur une première droite (D1) perpendiculaire à l'axe du premier réseau, ; - une étape de construction de deux premiers points (P12, P22), projetés suer la droite (Dl) des extrémités du capteur dans le plan image, selon la première projection conique, les points étant identifiés par la conservation des birapports (k11, k21) ; une étape de construction de trois points (A2', B2', C2') issus de la projection conique des points (A2, B2, C2) sur une seconde droite (D2) perpendiculaire à l'axe du premier réseau ; une étape de construction de deux seconds points (P11, P21), projetés des extrémités du capteur dans le plan image, selon la première projection conique, les points étant identifiés par la conservation des birapports (k12, k22) ; -une étape de construction d'une troisième droite (D12) et d'une quatrième droite (D22) perpendiculaire à la première droite (D1) et passant respectivement par les deux premiers points (P12, P22) ; une étape de construction d'une cinquième (D11) et d'une sixième (D21) droite perpendiculaire à la première droite (D2) et passant respectivement par les deux seconds points (P11, P21) ; - une étape de calcul de l'intersection (P1) de la troisième (D12) et la cinquième (D11) droite et de l'intersection (P2) de la quatrième (D22) et de la sixième (D21) droite, les deux points identifiés étant les projetés des extrémités des capteurs dans le plan image.
Avantageusement, lorsque la troisième étape est terminée, le procédé est réitéré, les moyens de projection projetant une nouvelle mire dans une zone comprenant la position du capteur identifiée dans la troisième étape. D'autres caractéristiques et avantages de l'invention apparaîtront 25 à l'aide de la description qui suit faite en regard des dessins annexés qui représentent : • la figure 1A : un exemple de projecteur d'images projetant des mires sur des capteurs fixés sur un objet dans l'espace ; • la figure 1B : un exemple de mires générales mise en oeuvre 30 par le procédé ; • la figure 2 : un exemple de deux mires générales envoyées successivement ; • la figure 3 : un exemple de mire de tracking mise en oeuvre par le procédé ; • la figure 4 : deux cas d'orientations de deux réseaux d'une mire , • la figure 5 : la zone de débattement de projection d'une mire de tracking afin d'intercepter le capteur ; • la figure 6 : un exemple de mire de tracking étendue.
Le procédé selon l'invention permet, à partir de moyens de projection, projetant une image nette dans une zone déterminée comprenant au moins un capteur, de connaître les extrémités d'un capteur linéaire fixé 10 sur un objet, les extrémités étant repérées dans le plan image. A partir des coordonnées des extrémités dans le plan image d'un nombre déterminé de capteurs fixés sur un objet, par exemple deux capteurs dont les extrémités forment un carré plan dans l'espace, il est possible facilement de déterminer l'attitude de l'objet dans l'espace. 15 Le procédé de la présente description détaille les différentes étapes de construction du lieu des extrémités d'un capteur dans le plan image de l'image projetée, le capteur étant situé dans un plan de l'espace.
Le procédé comprend plusieurs étapes, la première étape 20 consiste à projeter une mire dans une zone de l'espace comprenant le capteur. L'image doit nécessairement être nette dans cette zone de l'espace. Une telle contrainte peut être résolue en utilisant par exemple un vidéo projecteur holographique tel que développé par Light Blue Optics .
25 La première étape du procédé comprend deux modes qui se différencient, d'une part, par la connaissance à priori de l'envergure de la zone dans laquelle se situe le capteur et d'autre part par le type de mires projetées en fonction de cette zone. Un premier mode correspond à une situation d'initialisation du procédé, la position du capteur n'étant pas connue 30 dans l'espace, le champ de projection est donc large. Un second mode correspond à une situation d'asservissement du système, la position du capteur étant connue par une détection antérieure, les moyens de projection émettent une image selon une direction connue dans un champ plus étroit, dont la taille est de l'ordre de grandeur de la taille du capteur, le capteur se situant dans le champ. Ce dernier mode est appelé dans la suite le mode de tracking car la mire suit le capteur.
A l'initialisation du procédé, la non-connaissance de la position du capteur dans l'espace nécessite de considérer, par exemple, une famille de mires particulières couvrant une large zone couvrant la zone de débattement possible du capteur. Dans l'exemple d'une détection de casque dans un cockpit, le casque comprenant des capteurs linéaires, la zone de plus grande envergure couvre une large partie du cockpit.
Le second mode correspond à une détection alors qu'une position précédente du capteur est connue. Ce mode permet de définir une image plus petite que celle projetée dans le premier mode. Ce second mode utilise une autre famille de mires. Dans les deux modes le procédé de détection selon l'invention, compte tenu des deux familles de mires, est identique. Le mode d'initialisation propose néanmoins un procédé de détection de la zone dans laquelle se situe le capteur comprenant une étape supplémentaire.
Le second mode permet un gain de précision dans les calculs notamment de la position de l'image du capteur dans le plan image. En outre, ce second mode permet d'émettre des mires dont la densité de lumière est plus importante dans les motifs émis que dans le premier mode, de ce fait la détection est plus efficace.
Ce second mode fonctionne généralement dans un mode asservi qui est initialisé par le premier mode. Nous nommerons les mires utilisées dans le premier mode : des mires générales , et les mires du second mode : des mires de tracking . Le procédé selon l'invention s'applique aux deux modes.
Les mires sont définies dans le plan image de l'image projetée. Généralement ce plan n'est pas parallèle au plan dans lequel un capteur situé sur l'objet se situe. Un principe du procédé repose sur le fait que les informations lues sur 35 le capteur, correspondants aux traces de la mire, permettent de calculer un invariant de projection centrale. Cette problématique est commune aux mires générales et aux mires de tracking.
Concernant, les mires générales, pour garantir qu'une mire intercepte le capteur, elle doit être spatialement suffisamment couvrante, ceci de façon à ce qu'un capteur puisse toujours permettre de calculer au moins un invariant projectif ou birapport. D'autre part les parties élémentaires constituant une mire générale doivent être suffisamment disjointes pour assurer qu'elles sont bien différenciées sur le capteur. Enfin, il peut être nécessaire d'envoyer plusieurs séries de mires générales afin de déterminer avec suffisamment de précision une zone du plan image dans laquelle se situe l'image du capteur, ladite zone étant suffisamment petite pour assurer qu'une mire de tracking, dans le second mode, envoyée dans cette zone permet de couvrir spatialement le capteur.
Le procédé selon l'invention permet de définir dans ce contexte une mire comprenant au moins un réseau de droites parallèles entre elles et au pian image. Pour une mire donnée, le procédé selon l'invention permet de déterminer une droite du plan image contenant une des extrémités de l'image du capteur, les positions des extrémités de l'image du capteur dans le plan image étant les positions recherchées. Ce type de mire est commun aux deux modes.
Une mire générale comprend un réseau de droites parallèles entre elles qui couvrent une large partie de l'espace dans lequel se situe le capteur. Au moins deux mires générales doivent être envoyées successivement pour construire les extrémités de l'image projetée du capteur dans le plan image, les deux réseaux des deux mires successives ne possédant pas la même orientation. Par ailleurs, les mires de tracking comprennent au moins une mire comprenant au moins deux réseaux de droites parallèles couvrant une zone de l'ordre de grandeur du capteur, les réseaux ne possédant pas la mème orientation.
Dans les deux modes, le procédé selon l'invention permet à partir de la connaissance de trois droites parallèles du réseau dans le plan image et de leur trace sur le capteur, de tracer dans le plan image une droite passant par chacune des extrémités de l'image du capteur dans le plan image. Il est donc nécessaire de considérer deux réseaux de trois droites, ne possédant pas les mêmes orientations, pour tracer deux droites passant par chacune des extrémités du capteur. Dans ce cas, le procédé permet de déduire les extrémités de l'image du capteur par construction des intersections des droites passant par lesdites extrémités. Cette construction est rendue possible car la projection d'une intersection de droites est l'intersection des projections des droites.
L'objectif des mires générales se distingue des mires de tracking par le fait que l'on ne connaît pas a priori le triplet de droites dont on lit la trace sur capteur, il faut donc pouvoir l'identifier. Dans ce contexte, le procédé selon l'invention permet de considérer un réseau de droites parallèles tel que tout quadruplet de droites successives du réseau définit un birapport unique. L'unicité du birapport d'un quadruplet définit un quadruplet unique et rend donc un triplet de droites interceptant le capteur identifiable. En pratique, cela peut s'avérer difficile à réaliser pour différentes raisons. Ainsi, le procédé s'applique également à un ensemble de plus de quatre droites. On peut envisager d'identifier de façon unique non pas un quadruplet, mais un quintuplet ou tout ensemble de N droites (N supérieur à 4). Pour un ensemble de N droites, le procédé s'applique à un espace plus étendu et permet de séparer au mieux les points et donc les groupes de droites. On rappelle ci-dessous la définition d'un birapport de quatre points alignés.
Le birapport BR de quatre points A, B, C, D alignés est défini par la relation suivante : BR (A, B, C, D) = AC BD ; exprimé en valeur algébrique par la BC AD relation suivante : 2920546 12 = x3ù xi x4ùx2 ou x1, x2, x3 et x4 sont les BR (xl, x2, x3, x4) x3ùx2 x4ùx1 abscisses des points A, B, C, D, celles-ci étant définies sur une droite contenant les points et ayant pour origine un point référence de la droite.
5 Ce principe de localisation par mires est appliqué à plusieurs capteurs ayant chacun une orientation différente.
Ainsi, pour un capteur donné, il est nécessaire de disposer de deux mires générales, de directions différentes et envoyées successivement, 10 afin de trouver les deux extrémités d'un capteur dans le plan image.
Ainsi, constitue une mire générale tout réseau de droites parallèles au plan image tel que : le réseau est à la fois suffisamment étendu et suffisamment serré, 15 pour assurer qu'il intercepte le capteur en au moins quatre points ; - le réseau est partout suffisamment détendu pour que l'on puisse distinguer sans confusion possible sur le capteur les tâches correspondant respectivement à 2 droites adjacentes quelconques du réseau ; 20 l'application qui envoie tout quadruplet de droites ou plus successives du réseau sur son birapport propre est une bijection, et cette bijection est suffisamment dispersive pour assurer que l'on peut toujours retrouver le quadruplet antécédent sans confusion possible. 25 Toute mire qui est constituée d'un tel réseau permet de déterminer la moitié des informations nécessaires à la reconstruction de l'image du capteur, notamment de ses extrémités, dans le plan image. La reconstruction totale est assurée par la projection 30 successivement de deux mires de ce type, avec des orientations de réseaux suffisamment différentes. La marge de différence des orientations des deux réseaux correspond à l'écart angulaire minimum entre deux droites sécantes pour assurer un traitement avec une précision suffisante quant aux coordonnées de l'intersection.35 La figure '1B illustre les différents paramètres d'une mire générale tels que définis précédemment. La droite 1 est perpendiculaire au réseau et chaque droite (ou segment) du réseau, noté D,,, a pour abscisses Xä sur la droite 1, une origine 5 0 étant déterminée. Ainsi le réseau {Dib < u < n est défini tel que Xi < X;+1 pour 1≤ i <_n. On note alors S; l'écart entre deux droites successives, on a la relation pour l'écart de chacune des droites (Di) : = X;+1 - Xi. Par ailleurs, on note b;, le birapport entre quatre droites 10 successives. On a alors la relation suivante : bi= Xi+2 --Xi , Xi+3 ùXi+2 Xi+2 -Xi+1 X,+3 ù Xi et on note enfin L=Xri-X1 la largeur du réseau.
Le procédé selon l'invention permet de définir une mire générale 15 comprenant un réseau de droites parallèles dont leur disposition permet de discriminer de manière unique, lors de la détection, les quatre droites de la mire générale qui interceptent le capteur. Afin de réaliser une mire ayant des caractéristiques optimales pour favoriser la détection d'un quadruplet de droites d'une mire générale 20 sans ambiguïté, le procédé permet de définir des constantes A, 8, E et p. représentant respectivement la largeur minimale du réseau, la densité maximale de quadruplets de droites successives du réseau, l'espacement du réseau, la dispersion minimale des birapports des quadruplets, de telle manière que : 25 • LA; • X;+3-X;<8, avec1 i5n; • X;+1-Xi >E, avec1 <_in; • Ib;-b;I>avec 1 i<jn-3 Les quatre constantes A, 8, e et p. étant des réels strictement 30 positifs. Les paramètres et conditions de la construction du réseau impliquent la contrainte suivante sur les constantes E et 8 : • 3.E<8 Si cette condition n'est pas réalisée, il est nécessaire d'agir sur le capteur. Par exemple, la constante E peut être diminuée en augmentant la résolution du capteur et la constante S peut être augmentée en allongeant le capteur.
Un exemple de cas de réalisation du procédé concernant la détection de casque dans un cockpit à partir de mires générales est de considérer les valeurs suivantes pour les constantes 0, S, E et : 0= 50; S=1,15 ; E = 0,225 ; =0,0189; et de considérer un réseau associé dont les caractéristiques sont : n= 100 ; X2i = 0,5 + 0,9•i, pour i e [1, 50] X21+1 = 0,8965•i, pour i E [1, 50] Cet exemple est calculé à partir d'un modèle théorique. Un autre exemple peut être obtenu à partir d'un algorithme d'optimisation combinatoire en espace discret. Le procédé selon l'invention permet dans ce premier mode de projection de mires générales de connaître les quatre droites du réseau qui interceptent le capteur. Cette détection est effectuée par discrimination des birapports de quadruplets de droites du réseau, ceux-ci étant uniques dans le réseau. Ce premier mode employant des mires générales permet d'une part de calculer, selon le procédé de l'invention, les extrémités du capteur dans le plan image et d'autre part d'initier le second mode. Le second mode permet de projeter des mires de tracking dans une zone plus petite notamment dans la zone comprenant les quatre droites ayant intercepté le capteur et de calculer les positions des extrémités du capteur dans le plan image. Ce dernier mode permet d'asservir la direction de projection des mires sur la position du capteur, il présente l'avantage d'être plus performant que le premier mode. La figure 2 représente un exemple deux de réseaux 5 et 6 35 envoyés successivement de deux mires générales, faisant un angle 9 entre eux. Les deux quadruplets 7 et 8 sont constitués des droites D6, D7, D8 D9 et possèdent un birapport unique. La détection des quatre points d'intersection de chaque réseau sur le capteur permet d'identifier une zone de plus faible envergure afin de projeter des mires de tracking telles que décrit dans la suite sur la figure 2. Par ailleurs, le procédé permet selon le procédé décrit par la suite à partir des mires de tracking de construire les extrémités de l'image du capteur dans le plan image. Il suffit de d'appliquer le procédé aux deux réseaux envoyés successivement et de considérer trois droites de chaque quadruplet de chaque réseau interceptant le capteur.
La durée entre deux projections de deux mires générales est nécessairement limitée de manière à ce que le capteur n'effectue pas un mouvement trop important dans l'espace lors de son déplacement.
Le procédé selon l'invention permet dans les deux modes de construire les extrémités de l'image du capteur dans le plan image à partir de deux réseaux projetés simultanément (cas des mires de tracking) ou successivement (cas des mires générales), les réseaux comprenant au moins trois droites (ou segments) parallèles dans le cas des mires de tracking et au moins quatre droites dans le cas des mires générales.
Le procédé permet d'envoyer deux réseaux de trois droites, les réseaux n'étant pas parallèles, afin de retrouver les extrémités du capteur linéaire dans le plan image. Dans le premier mode, les deux réseaux de droites, chacun constituant une mire générale, sont projetés successivement dans la zone comprenant le capteur. En revanche, dans le second mode, les deux réseaux de droites (ou segments) sont projetés dans une unique mire de tracking, c'est à dire en une seule image.
La figure 3 illustre une mire de tracking 26 dans le plan image de projection. Elle comprend un premier réseau de trois segments 10, 11 et 12 lumineux parallèles entre eux et second réseau de trois segments 20, 21 et 22. Les deux réseaux projetés dans la même image simultanément ne sont pas parallèles et sont joints par les extrémités des segments. Dans l'exemple de la figure 2, ils sont joints par les extrémités supérieures de chaque segment formant une figure en dents de scie. Dans la pratique, l'image constituée des segments lumineux se déforme dans la droite ou le plan comprenant le capteur, par une projection conique, lorsqu'elle intercepte le capteur linéaire, le plan du capteur et le plan de l'image projetée n'étant pas à priori parallèle. Le capteur détecte donc les points lumineux qui correspondent aux points d'intersection de l'image projetée avec le capteur. Le procédé selon l'invention considère l'image du capteur dans le plan de l'image projetée, l'image du capteur se déformant alors par la projection conique considérée ci-dessus, dans le plan image.
La figure ,3 représente l'image 25 du capteur dans le plan image. Les birapports des distances entre les points d'intersection du capteur et des droites du réseau se conservant par la' projection conique. L'image 25 du capteur comprend deux extrémités P1 et P2 dans le plan image qui ne sont pas connus à priori. La _construction de leur position dans le plan image constituant le coeur dû procédé selon l'invention. Par ailleurs, dans le plan image le premier réseau intercepte l'image 25 du capteur en trois points Al, BI et Cl, ces trois derniers points étant les projetés dans le plan image des points d'intersection du premier réseau avec le capteur. Le second réseau intercepte l'image 25 du capteur en trois autres points A2, B2 et C2, ces trois derniers points étant les projetés dans le plan image des points d'intersection du second réseau avec le capteur.
Le procédé décrit par la suite est valable également pour les mires générales et constitue la deuxième étape du procédé selon l'invention. Si l'on considère le capteur dans l'espace, l'une des extrémités du capteur peut-être considérée comme l'origine d'un repère comprenant l'axe des abscisses porté par l'axe du capteur, on note alors 0, x,42, xC1, xB2, xB1, XC2, XA1, xmax les abscisses respectives des points d'intersection du premier et du second réseau avec le capteur ainsi que l'autre extrémité du capteur, leurs projetés dans le plan image étant respectivement les points P1, A2, Cl, B2, BI, C2, Al et P2 dans le plan du capteur. Le procédé selon l'invention permet de considérer les birapports 35 k11, k12, k21, k22 de quadruplets de points définis sur l'axe des abscisses de l'axe du capteur par les relations suivantes, BR étant le birapport de quatre points définis précédemment : k11 = BR(xA1, xB1, )(Cl, 0) ; k12 = BR(xC1, xB1, )(Al, xmax) ; 5 k21 = BR(xC2, XB2, xA2, 0) ; k22 = BR(XA2, XB2, XC2, Xmax) ;
Enfin la troisième étape du procédé permet de construire les 10 extrémités de l'image du capteur dans le plan image. Le but étant de trouver les extrémités du capteur dans le plan image, par construction selon la projection conique et conservation des birapports dans le plan du capteur et dans le plan image des quadruplets précédemment considérés, il est ensuite aisé de retrouver la position du capteur dans l'espace. 15 Pour se faire, le procédé selon l'invention propose d'utiliser notamment la conservation des birapports de quatre points selon des projections coniques et cylindriques. Concernant la projection conique relative à la projection de l'image sur le capteur, le procédé selon l'invention permet de considérer les 20 birapports k11, k12, k21, k22 conservés par les projections coniques des quadruplets des points définis précédemment sur les droites Dl et D2, par les relations suivantes : k11=BR(A1,BI,CI,PI); k12 = BR(C1, BI, AI, P2) ; 25 k21 = BR(C2, B2, A2, P1) ; k22 = BR(A2, B2, C2, P2) ; Le procédé selon l'invention propose en premier lieu de construire dans le plan image deux droites perpendiculaires à chaque réseau. La 30 première droite D1 est perpendiculaire au premier réseau, elle est placée arbitrairement dans la partie inférieure de l'image. Les droites 10, 11 et 12 portant les segments lumineux du premier réseau interceptent la droite D1 en trois points Al', BI' et Cl'. De la même manière, la seconde droite D2 est perpendiculaire au second réseau, elle est placée arbitrairement dans la 35 partie supérieure de l'image. Les droites 20, 21 et 22 portant les segments lumineux du second réseau interceptent la droite D2 en trois points A2', B2' et C2'. On cherche à déterminer les extrémités P1 et P2 de l'image du capteur dans le plan image. Chacun de ces points possède deux projetés sur les droites D1 et D2 selon l'axe parallèle respectivement au premier et au second réseaux. Notons Pl1 le projeté de P1 sur D1 selon l'axe du premier réseau et P12 le projeté de PI sur D2 selon l'axe du second réseau. De manière analogue, notons P21 le projeté de P2 sur D1 selon l'axe du premier réseau et P22 le projeté de P2 sur D2 selon l'axe du second réseau.
Le procédé selon l'invention permet de considérer les birapports k11, k12, k21, k22 conservés par les projections cylindriques des quadruplets des points définis précédemment sur les droites Dl et D2, par les relations suivantes : k11 = BR(A'l', BI', C1', Pl 1') ; k12 = BR(C'l', BI', A1', P21) ; k21 = BR(C2', B2', A2', P12) ; k22 = BR(A2', B2', C2', P21) ;
A partir de là on peut en déduire : ù le point Pl 1 connaissant k11 et Al', BI', C1' ; ù le point P21 connaissant k21 et Al', BI', C1' ; - le point P12 connaissant k12 et A2 ', B2 ', C2 ' ; - le point P22 connaissant k22 et A2', B2',C2' ; Puis, on peut construire dans le plan image les droites : D11 connaissant P11 et la direction de projection de projection selon l'axe du premier réseau ; D21 connaissant P21 et la direction de projection de projection selon l'axe du second réseau; D12 connaissant P12 et la direction de projection de projection selon l'axe du premier réseau; D22 connaissant P22 et la direction de projection de projection selon l'axe du second réseau; Les deux directions étant connues par construction de la mire.
On obtient selon le procédé de l'invention les deux extrémités de l'image du capteur dans le plan image par construction : ù P1 =D11 nD12; - P2 = D21 n D22.
Algébriquement, cette dernière opération en deux dimensions possède une solution à partir du moment ou les deux réseaux ne sont pas colinéaires. Par construction ils ne le sont pas pour les mires de tracking lorsqu'ils sont projetés sur une même image et ne le sont pas non plus lors de l'envoi successif de deux mires générales. La démonstration est identique pour deux réseaux non parallèles envoyés successivement par la projection de mires générales. Le temps entre deux envois étant suffisamment court pour considérer que le capteur n'est quasiment pas changé de position dans l'espace.
Le procédé est d'autant plus précis que les réseaux ne sont pas colinéaires. II est donc nécessaire pour améliorer les performances de la précision de la détection que l'angle formé par les deux réseaux soit supérieur à une valeur critique. Par ailleurs, un angle trop grand détériore également les performances de détection. La figure 4 représente deux cas de mires 411 et 412 comprenant deux réseaux de trois segments formant respectivement un premier angle 412 et un second angle 402. L'image du capteur dans le plan image, dont les extrémités sont P1 et P2, est plus difficile à intercepter par des mires dont les réseaux forment un angle important. Les perturbations verticales pouvant alors détériorer les performances du procédé. Avantageusement, dans un cas de réalisation du procédé selon l'invention, un cas de mires comprenant deux réseaux de droites formant un 30 angle de 45 degrés est utilisé. Dans le cas des mires de tracking, un second cas de réalisation permet de projeter une mire ayant deux réseaux symétriques par rapport à l'axe de l'image du capteur détecté dans une position précédente.
Enfin, concernant les mires de tracking et l'asservissement du système de projection d'images, pour dimensionner la mire à afficher sur un capteur, il est important de connaître l'ampleur maximale des perturbations en position et en angle que nous cherchons à mesurer. Cela dépend de trois paramètres : les vitesses angulaires et linéaires de déplacement de la tête dans le cas d'une DDP ( Détection de Posture ) ; la position a priori du capteur ; la fréquence d'affichage des mire ou l'intervalle de temps entre 10 deux mesures.
Une fois l'enveloppe de déplacement pendant un intervalle de temps déterminé, le procédé permet de considérer une zone utile pour l'affichage de la mire. 15 La figure 5 représente l'enveloppe de déplacement d'un capteur 25 projeté dans le plan image entre deux projections de mires de tracking successives. Etant donné la fréquence d'affichage d'une mire par les moyens de projection, du type de capteur utilisé, de la vitesse de déplacement de l'objet sur lequel est fixé le capteur, la vitesse angulaire de l'objet, et de la 20 forme de l'objet, il est possible de déterminer une marge de maximale de déplacement du capteur. L'enveloppe est constituée de deux zones 51 et 52 dans lesquelles les positions des extrémités du capteur peuvent fluctuer. Un parallélogramme 50 constitue la zone dans laquelle le capteur est 25 susceptible de se déplacer. Un exemple de réalisation avec les hypothèses suivantes : la fréquence d'affichage est de 1440Hz soit un intervalle de temps de projection de 0.7ms ; un capteur de 2048 points de 14,um ; 30 une vitesse angulaire maximale de 9 radis ; une vitesse de déplacement maximale de 5 m/s ; un rayon moyen d'un casque de pilote de 15 cm ; permet de définir un terme d'erreur de 4.5 mm (hypothèse d'une erreur isotrope) soit une zone utile sur capteur de 19.67mm par 9mm dans 35 l'hypothèse d'un capteur parallèle au plan image.
La zone utile est avantageusement utilisée à hauteur minimale pour limiter la sensibilité aux imprécisions de mesure. Afin d'optimiser l'utilisation d'une mire de tracking, il est nécessaire d'adapter son aspect à chaque capteur et à chaque position a priori.
Une variante de réalisation du procédé selon l'invention afin d'améliorer la dynamique du système dans le mode tracking peut être envisagée.
Le procédé s'applique à une mire constituée de la juxtaposition de deux mires séparée par une droite caractéristique commune, les mires comprenant chacune deux réseaux de droites parallèles entre elles. Cette droite caractéristique est, par exemple, plus large que les autres, l'algorithme de traitement peut alors détecter, à partir du capteur, un point par lequel passe la droite caractéristique. Dans cette méthode, la droite caractéristique doit se situer dans la zone utile du capteur et le capteur doit nécessairement détecter la trace de trois droites de chaque réseau.
La figure 6 représente une mire de tracking comprenant deux mires 61 et 62 définies précédemment comportant deux réseaux de trois droites parallèles entre elles. Le capteur 25 est intercepté par certaines droites de la mire, notamment par la droite caractéristique 60, celle-ci étant commune aux deux mires 61 et 62.
Dans l'hypothèse où une trace de la droite caractéristique 60 est détectée par le capteur, l'avantage de cette mire est de pouvoir utiliser, pour les calculs géométriques, n'importe lesquelles des droites de la mire 61 ou 62 afin de déterminer le lieu des extrémités du capteur. Ainsi, on multiplie par deux l'étendue de la mire dans l'axe capteur a priori sans changer ses caractéristiques. Le but de la droite caractéristique 60 est d'assurer la discrimination entre les deux mires juxtaposées afin de pouvoir déterminer quelles traces des droites sont détectées par le capteur. Pour utiliser cette mire, la contrainte sur la dynamique du système asservi est donc que la zone utile enveloppant le capteur soit assez large pour être sûr que la trace de la droite caractéristique 60 est détectée à la mesure suivante.
L'avantage d'un tel procédé est la simplicité des calculs de 5 détection des extrémités d'un capteur dans le plan image. Ce procédé, lorsqu'il combine la détection d'au moins deux capteurs situés sur un objet, permet de retrouver l'attitude et la positon d'un objet dans l'espace. 10

Claims (11)

REVENDICATIONS
1. Procédé de détection optique des extrémités d'un capteur linéaire dans l'espace au moyen d'un système de projection d'au moins une mire comprenant au moins un réseau de segments lumineux parallèles dans le plan image projeté, la mire couvrant une zone de l'espace dans laquelle est situé le capteur, caractérisé en ce qu'il comprend : Une première étape de projection d'au moins deux réseaux, chacun des réseaux comprenant au moins trois segments lumineux identifiés, parallèles et interceptant le capteur ; Une seconde étape d'identification de quatre birapports de quadruplets de points dont les positions sont connues sur le capteur, un quadruplet comprenant les trois intersections d'un des deux réseaux avec le capteur et une des extrémités du capteur, le birapport (BR) de quatre points (A, B, C, D) étant défini par la relation BR = AC BD . BC AD Une troisième étape de détermination des extrémités de l'image du capteur (P1, P2) dans le plan image à partir de la construction de l'intersection de quatre droites définies dans le plan image de telle manière que chaque droite forme avec un des deux réseaux un quadruplet de droites parallèles dont le birapport est identique au birapport d'un des quadruplets de points définis sur le capteur.
2. Procédé selon la revendication 1, caractérisé en ce que la première étape est réalisée au moyen d'un vidéo-projecteur comportant une source de lumière cohérente, et une très grande profondeur de champ.
3. Procédé selon les revendications 1 à 2, caractérisé en ce que la première étape comprend la projection d'un réseau, dont la largeur (D) est suffisante pour couvrir la zone de débattement du capteur, comprenant un nombre déterminé de segments parallèles et dont les birapports de quatre segments consécutifs sont tous différents.
4. Procédé selon la revendication 3, caractérisé en ce que chaque segment du réseau est espacé avec le segment précédent (X;_I) et le segment subséquent (X;+1) d'une distance (E) minimale prédéterminée, les abscisses (Xi) étant définies dans un repère comprenant un axe confondu avec une droite perpendiculaire au réseau.
5. Procédé selon les revendications 1 à 4, caractérisé en ce que la distance comprenant l'espacement entre 3 segments successifs du réseau n'est pas supérieure à une valeur maximale prédéterminée.
6. Procédé selon les revendications 1 à 5, caractérisé en ce que la valeur absolue de la différence de deux birapports quelconques, chacun des birapports étant calculé à partir de quatre segments successifs du réseau dans le plan image, est supérieure à une valeur minimale prédéterminée.
7. Procédé selon les revendications 3 à 6, caractérisé en ce que la première étape comprend la projection successive de deux mires comprenant respectivement un premier et un second réseau ayant les mêmes caractéristiques dont l'orientation du second réseau par rapport au premier réseau forme un angle déterminé.
8. Procédé selon la revendication 1, caractérisé en ce que la première étape comprend la projection d'une mire comprenant d'une part un premier réseau de trois premiers segments lumineux parallèles entre eux, interceptant le capteur en trois points (AI, BI, CI) et d'autre part un second réseau de trois segments lumineux parallèles entre eux, interceptant le capteur en trois autres points (A2, B2, C2), les deux réseaux faisant un angle entre eux de telle manière que la forme des deux réseaux représente une ligne brisée formant au moins trois dents de scie.
9. Procédé selon les revendications 7 ou 8, caractérisé en ce que la seconde étape comprend l'identification d'un quadruplet de birapports (k11, k21, k12, k22), chacun des birapports comprenant trois points d'intersection d'un réseau ((A1, B1, C1) ou (A2, B2, C2)) avec le capteur et une extrémité du capteur (P1 ou P2), les birapports étant calculés dans un repère axial formé par le capteur ayant comme origine l'une des extrémités du capteur.
10. Procédé selon la revendication 8, caractérisé en ce que la troisième étape comprend : une étape de construction de trois points (A1', B1', C1') issus d'une première projection cylindrique des points (A1, B1, C1) sur une première droite (D1) perpendiculaire à l'axe du premier réseau, ; une étape de construction de deux premiers points (P12, P22), projetés sur la droite (Dl) des extrémités du capteur dans le plan image, selon la première projection conique, les points étant identifiés par la conservation des birapports (k11, k21) ; - une étape de construction de trois points (A2', B2', C2') issus de la projection conique des points (A2, B2, C2) sur une seconde droite (D2) perpendiculaire à l'axe du premier réseau ; une étape de construction de deux seconds points (P11, P21), projetés des extrémités du capteur dans le plan image, selon la première projection conique, les points étant identifiés par la conservation des birapports (k12, k22) ; une étape de construction d'une troisième droite (D12) et d'une quatrième droite (D22) perpendiculaire à la première droite (D1) et passant respectivement par les deux premiers points (P12, P22) ; - une étape de construction d'une cinquième (D11) et d'une sixième (D21) droite perpendiculaire à la première droite (D2) et passant respectivement par les deux seconds points (P11, P21) ; - une étape de calcul de l'intersection (P1) de la troisième (D12) et la cinquième (D11) droite et de l'intersection (P2) de la quatrième (D22) et de la sixième (D21) droite, les deux points identifiés étant les projetés des extrémités des capteurs dans le plan image.35
11. Procédé selon les revendications 7 à 10, caractérisé en ce que lorsque la troisième étape est terminée, le procédé est réitéré, les moyens de projection projetant une nouvelle mire dans une zone comprenant la position du capteur identifiée dans la troisième étape.5
FR0706132A 2007-08-31 2007-08-31 Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires Expired - Fee Related FR2920546B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0706132A FR2920546B1 (fr) 2007-08-31 2007-08-31 Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires
PCT/EP2008/060943 WO2009027311A1 (fr) 2007-08-31 2008-08-21 Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0706132A FR2920546B1 (fr) 2007-08-31 2007-08-31 Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires

Publications (2)

Publication Number Publication Date
FR2920546A1 true FR2920546A1 (fr) 2009-03-06
FR2920546B1 FR2920546B1 (fr) 2011-02-11

Family

ID=39332155

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0706132A Expired - Fee Related FR2920546B1 (fr) 2007-08-31 2007-08-31 Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires

Country Status (2)

Country Link
FR (1) FR2920546B1 (fr)
WO (1) WO2009027311A1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2169420A1 (fr) * 2008-09-26 2010-03-31 Thales Dispositif de détection optique de position et/ou d'orientation d'objets comprenant au moins un capteur linéaire
EP2169421A1 (fr) * 2008-09-26 2010-03-31 Thales Système de détection optique de position et/ou d'orientation d'objets comprenant au moins deux capteurs coplanaires
FR2959023A1 (fr) * 2010-04-20 2011-10-21 Thales Sa Systeme de visualisation multi-projecteurs asservi

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1520154A (en) * 1976-02-24 1978-08-02 Elliott Brothers London Ltd Apparatus for measuring the angular displacement of a bod
US5187540A (en) * 1990-10-31 1993-02-16 Gec Ferranti Defence Systems Limited Optical system for the remote determination of position and orientation
FR2723208A1 (fr) * 1986-06-17 1996-02-02 Thomson Csf Systeme de reperage spatial d'une direction liee a un corps mobile par rapport a une structure, utilisable notamment pour un viseur de casque
US5974365A (en) * 1997-10-23 1999-10-26 The United States Of America As Represented By The Secretary Of The Army System for measuring the location and orientation of an object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1520154A (en) * 1976-02-24 1978-08-02 Elliott Brothers London Ltd Apparatus for measuring the angular displacement of a bod
FR2723208A1 (fr) * 1986-06-17 1996-02-02 Thomson Csf Systeme de reperage spatial d'une direction liee a un corps mobile par rapport a une structure, utilisable notamment pour un viseur de casque
US5187540A (en) * 1990-10-31 1993-02-16 Gec Ferranti Defence Systems Limited Optical system for the remote determination of position and orientation
US5974365A (en) * 1997-10-23 1999-10-26 The United States Of America As Represented By The Secretary Of The Army System for measuring the location and orientation of an object

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2169420A1 (fr) * 2008-09-26 2010-03-31 Thales Dispositif de détection optique de position et/ou d'orientation d'objets comprenant au moins un capteur linéaire
EP2169421A1 (fr) * 2008-09-26 2010-03-31 Thales Système de détection optique de position et/ou d'orientation d'objets comprenant au moins deux capteurs coplanaires
FR2936607A1 (fr) * 2008-09-26 2010-04-02 Thales Sa Dispositif de detection optique de position et/ou d'orientation d'objets comprenant au moins un capteur lineaire
FR2936609A1 (fr) * 2008-09-26 2010-04-02 Thales Sa Systeme de detection optique de position et/ou d'orientation d'objets comprenant au moins deux capteurs coplanaires
US8675911B2 (en) 2008-09-26 2014-03-18 Thales System for optically detecting position and/or orientation of objects comprising at least two coplanar sensors
FR2959023A1 (fr) * 2010-04-20 2011-10-21 Thales Sa Systeme de visualisation multi-projecteurs asservi

Also Published As

Publication number Publication date
FR2920546B1 (fr) 2011-02-11
WO2009027311A1 (fr) 2009-03-05

Similar Documents

Publication Publication Date Title
EP2059829B1 (fr) Dispositif de detection optique de position et/ou d&#39;orientation d&#39;objets et procedes de detection associes
EP2169421B1 (fr) Système de détection optique de position et/ou d&#39;orientation d&#39;objets comprenant au moins deux capteurs coplanaires
EP2169420B1 (fr) Dispositif de détection optique de position et/ou d&#39;orientation d&#39;objets comprenant au moins un capteur linéaire
CN109458928B (zh) 基于扫描振镜和事件相机激光线扫描3d检测方法及系统
US11486698B2 (en) Systems and methods for estimating depth from projected texture using camera arrays
US10302424B2 (en) Motion contrast depth scanning
EP2059828B1 (fr) Procede de detection de l&#39;orientation et de la position d&#39;un objet dans l&#39;espace
WO2018215507A1 (fr) Procede de mesure de la courbure d&#39;une surface reflechissante et dispositif optique associe
EP2169419B1 (fr) Système de détection par balayage optique de position et/ou d&#39;orientation d&#39;objets
EP0418154A1 (fr) Procédé et système de contrôle à distance de l&#39;assemblage d&#39;un premier objet avec un deuxième objet
FR2920546A1 (fr) Procede de detection des extremites d&#39;un capteur lineaire dans l&#39;espace par projection de mires
EP3769035B1 (fr) Cartes de points répliquées pour calcul de profondeur simplifié à l&#39;aide d&#39;un apprentissage automatique
FR2642529A1 (fr) Procede et dispositif de mesure de la position d&#39;un vehicule
FR3009413A1 (fr) Dispositif d&#39;aide a la detection d&#39;objets poses sur le sol a partir d&#39;images du sol issues d&#39;un dispositif d&#39;imagerie par reflexion d&#39;ondes
EP0539264B1 (fr) Procédé et dispositif de détermination de l&#39;orientation d&#39;un solide
EP2554942B1 (fr) Système optique de mesure d&#39;orientation à coin de cube et masque
CN106443584A (zh) 一种位置确定的方法及装置
FR3064770B1 (fr) Procede et systeme de determination de periodicite de donnees
FR3067841A1 (fr) Systeme et procede de localisation par traitement d&#39;images
RU2776397C2 (ru) Способ измерения кривизны отражающей поверхности и соответствующее оптическое устройство
WO2007006895A2 (fr) Système de traceur optique, dispositif émissif, dispositif de détection et de détermination et procédés correspondants
WO2023094770A1 (fr) Procédé de localisation d&#39;une cible au moyen d&#39;un détecteur à plusieurs quadrants
FR3146517A1 (fr) Procédé de reconstruction en trois dimensions d&#39;un élément mobile
FR3119910A1 (fr) Procédé de détection de l’occupation d’une pièce et Détecteur susceptible d’etre mis en œuvre dans un tel procede
WO2017097585A1 (fr) Procede et dispositif d&#39;affichage de donnees pour systeme de depouillement de donnees sonar

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20140430