WO2009027311A1 - Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires. - Google Patents
Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires. Download PDFInfo
- Publication number
- WO2009027311A1 WO2009027311A1 PCT/EP2008/060943 EP2008060943W WO2009027311A1 WO 2009027311 A1 WO2009027311 A1 WO 2009027311A1 EP 2008060943 W EP2008060943 W EP 2008060943W WO 2009027311 A1 WO2009027311 A1 WO 2009027311A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sensor
- network
- points
- projection
- image plane
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/22—Aiming or laying means for vehicle-borne armament, e.g. on aircraft
- F41G3/225—Helmet sighting systems
Definitions
- the present invention relates to the field of devices for optical detection of position and orientation of objects in space. It applies more particularly in the aeronautical field where in this case the detected object is a pilot helmet.
- Determining the positioning of a point in space and determining the attitude of any object are problems in many technical fields.
- patch or pattern recognition devices utilize printed designs on an object. Several cameras observe the scene and determine the spatial configuration of the observed pattern. There are also devices for recognizing spheres by cameras, which are used, for example in the cinema, for the reconstitution of human movement. The device uses several cameras that observe reflective spheres and determine their trajectory.
- helmet posture detection devices in aircraft use two main techniques which are the detection of electromagnetic posture and the detection of electro-optical posture.
- the electromagnetic posture detection requires devices comprising means for emitting an electromagnetic field and reception sensors on the helmet for determining their position relative to the transmitter. Nevertheless, robust solutions are difficult to implement. In particular, in the aeronautical field, spurious radiation and electromagnetic disturbances can degrade the performance of existing systems.
- the first solution generally requires light emitting diode patterns, also called LEDs, arranged on the helmet and several camera type sensors mounted in the cockpit to determine the spatial configuration of a pattern of LEDs.
- LEDs light emitting diode patterns
- camera type sensors mounted in the cockpit to determine the spatial configuration of a pattern of LEDs.
- the diffusion in the detection zone of the light of the LEDs does not make it possible to completely get rid of the disturbances of the luminous environment of the cockpit due to the sun or to parasitic reflections on the canopy.
- the second solution used for the detection of electro-optical posture requires a projector images in the cockpit projecting clear images.
- the images projected in an area comprising sensors advantageously comprise luminous patterns. Since the sensors may be of matrix or linear type, for example, the detection of the patterns of the pattern makes it possible to locate the sensor with respect to the projected image.
- the sensors being arranged on the object, the detection of the attitude of the object can be deduced from the detection of the attitude of sensors.
- the projection means can be including a holographic video projector developed by "Light Blue Optics".
- FIG. 1A illustrates such an image projector 101, the image projector 101 emits an image 103, at the point throughout zone 104, comprising a set of patterns 107, 107 ".
- the patterns are projected onto sets 106, 106 'of electro-optical sensors located on an object 105.
- a test pattern is a set of bright geometric patterns on a background black. These patterns may for example circles or rings.
- the set of sensors is called cluster. These sensors can be grouped together so that the cluster has geometric properties for detection.
- the device according to the invention comprises means 102 for analyzing data from the sensors. The position and orientation of at least one cluster being determined, the position and orientation of the object are then known.
- An object of the invention is in particular to overcome the aforementioned drawbacks. Knowing that the positions of the ends of a group of linear sensors make it possible to find the attitude of an object in the space on which the sensors are fixed, the problem comes down to finding the ends of a sensor in the space .
- the subject of the invention is a method for detecting the ends of a linear sensor in the image plane, the image plane being that of a projection device, such as that of the example of FIG. 1A. Indeed, the method has means for projecting sharp images in an area comprising the sensor (s), the images defining patterns comprising networks of parallel lines.
- the method according to the invention uses in particular the conservation by conical and cylindrical projections of the birapport, the latter being calculated in the reference of the sensor, between three consecutive light segments of a projected pattern with a fourth line passing through one of the ends of the image of the sensor in the image plane.
- the method according to the invention makes it possible in particular to optimize the slaving calculations of the projector on the object to be detected in an object tracking mode.
- the method of optical detection of the ends of a linear sensor in space by means of a projection system of at least one target comprising at least one network of parallel light segments in the projected image, the target covering an area of the space in which the sensor is located is characterized in that it comprises:
- the first step is performed by means of a video projector comprising a coherent light source and a very large depth of field.
- the first step comprises the projection of a network, whose width (D) is sufficient to cover the deflection area of the sensor, comprising a determined number of parallel segments and whose birapports of four consecutive segments are all different.
- each segment of the network is spaced with the preceding segment (XM) and the subsequent segment (X
- the distance comprising the spacing between 3 successive segments of the network is not greater than a predetermined maximum value.
- the absolute value of the difference of any two ratios, each of the two ratios being calculated from four successive segments of the network in the image plane is greater than a predetermined minimum value.
- the first step comprises the successive projection of two patterns respectively comprising a first and a second network having the same characteristics whose orientation of the second network with respect to the first network forms a determined angle.
- the first step comprises the projection of a pattern comprising on the one hand a first network of three first parallel light segments between them, intercepting the three-point sensor (A 1 , B 1 , Ci) and on the other hand a second network of three light segments parallel to each other, intercepting the sensor in three other points (A 2 , B 2 , C 2 ), the two networks forming an angle between them so that the shape of the two networks represents a broken line forming at least three saw teeth.
- the second step comprises the identification of a quadruple of two reports (kn, k 21 , k 12 , k 22 ), each of the birapports comprising three points of intersection of a network ((A 1 , B 1 , C 1 ) or (A 2 , B 2 , C 2 )) with the sensor and one end of the sensor (Pi or P 2 ), the birapports being calculated in an axial reference formed by the sensor having one of the ends of the sensor as origin .
- the third step comprises:
- a step of constructing three points (A 1 ', Bi', C 1 ') issuing from a first cylindrical projection of the points (A 1 , B 1 , C 1 ) on a first straight line (D 1 ) perpendicular to the axis of the first network,;
- the projection means projecting a new pattern in an area comprising the position of the sensor identified in the third step.
- Figure 1A an example of an image projector projecting sights on sensors attached to an object in space
- FIG. 3 an example of a tracking pattern implemented by the method
- Figure 4 two cases of orientations of two networks of a target
- the method according to the invention makes it possible, from projection means, projecting a sharp image in a determined zone comprising at least one sensor, to know the ends of a linear sensor fixed on an object, the ends being marked in the plane picture.
- the method of the present description details the different steps of construction of the location of the ends of a sensor in the image plane of the projected image, the sensor being located in a plane of the space.
- the method comprises several steps, the first step is to project a pattern into an area of the space including the sensor.
- the image must necessarily be clear in this area of space.
- the first step of the method comprises two modes which are differentiated, on the one hand, by the prior knowledge of the extent of the area in which the sensor is located and, on the other hand, by the type of pattern projected according to this zoned.
- a first mode corresponds to a process initialization situation, the position of the sensor is not known in space, the projection field is wide.
- a second mode corresponds to a situation of servocontrol of the system, the position of the sensor being known by an earlier detection, the projection means emit an image in a known direction in a narrower field, whose size is of the order of size of the sensor, the sensor lying in the field. This latter mode is called in the following mode "tracking" because the pattern follows the sensor.
- the lack of knowledge of the position of the sensor in space necessitates considering, for example, a family of particular patterns covering a wide area covering the range of possible deflection of the sensor.
- a family of particular patterns covering a wide area covering the range of possible deflection of the sensor.
- the helmet comprising linear sensors
- the larger area covers a large part of the cockpit.
- the second mode corresponds to a detection whereas a previous position of the sensor is known. This mode makes it possible to define a smaller image than that projected in the first mode.
- This second mode uses another family of patterns.
- the detection method according to the invention given the two families of patterns, is identical.
- the initialization mode nevertheless proposes a method of detecting the zone in which the sensor is located, comprising an additional step.
- the second mode allows a gain of precision in the calculations including the position of the image of the sensor in the image plane.
- this second mode makes it possible to emit patterns whose light density is greater in the emitted patterns than in the first mode, thus the detection is more efficient.
- This second mode generally operates in a slave mode that is initialized by the first mode.
- the patterns are defined in the image plane of the projected image. Generally this plane is not parallel to the plane in which a sensor located on the object is located.
- a principle of the method is based on the fact that the information read on the sensor, corresponding to the traces of the test pattern, makes it possible to calculate a central projection invariant. This problem is common to general targets and tracking patterns.
- the elementary parts constituting a general test must be sufficiently disjointed to ensure that they are well differentiated on the sensor.
- the method according to the invention makes it possible to define in this context a pattern comprising at least one network of straight lines parallel to each other and to the image plane. For a given pattern, the method according to the invention makes it possible to determine a line of the image plane containing one of the ends of the image of the sensor, the positions of the ends of the image of the sensor in the image plane being the desired positions. This type of pattern is common to both modes.
- a general pattern includes a network of lines parallel to each other that cover a large portion of the space in which the sensor is located. At least two general patterns must be sent successively to build the ends of the projected image of the sensor in the image plane, the two networks of the two successive patterns not having the same orientation.
- the tracking patterns comprise at least one pattern comprising at least two parallel straight line networks covering an area of the order of magnitude of the sensor, the networks not having the same orientation.
- the method makes it possible to deduce the ends of the image of the sensor by constructing the intersections of the lines passing through said ends. This construction is made possible because the projection of an intersection of lines is the intersection of the projections of the lines.
- the method according to the invention makes it possible to consider a network of parallel lines such that any quadruplet of successive lines of the network defines a single birapport.
- the uniqueness of the quadruple birapport defines a single quadruple and thus makes a triplet of lines intercepting the identifiable sensor. In practice, this can be difficult to achieve for a variety of reasons.
- the method also applies to a set of more than four straight lines.
- B R (jcl, * 2, ⁇ 3, x4) •, where x1, x2, x3 and x4 are the x3 - x2 x4 - xl x of the points A, B, C, D 1 these being defined on a straight line containing the points and originating from a reference point on the line.
- This locating principle per pattern is applied to several sensors each having a different orientation.
- the network is at the same time sufficiently wide and sufficiently tight to ensure that it intercepts the sensor in at least four points;
- the network is everywhere relaxed enough that one can distinguish without confusion on the sensor tasks respectively corresponding to any 2 adjacent straight lines of the network; - the application that sends every quadruple straight or more successive network on its own birapport is a bijection, and this bijection is sufficiently dispersive to ensure that we can always find the quadruplet antecedent without possible confusion.
- test pattern that consists of such a network makes it possible to determine half of the information needed to reconstruct the image of the sensor, in particular its ends, in the image plane.
- FIG. 1 B illustrates the various parameters of a general test as defined above.
- each right (or segment) of the network denoted D n
- D n is the abscissa Xn on ia right 1
- an origin 0 is determined.
- the network ⁇ D, ⁇ i ⁇ , ⁇ n is defined as X, ⁇ X, + i for 1 ⁇ i ⁇ n.
- the method according to the invention makes it possible to define a general pattern comprising a network of parallel lines whose arrangement makes it possible to discriminate in a unique manner, during detection, the four lines of the general pattern which intercept the sensor.
- the method makes it possible to define constants ⁇ , ⁇ , ⁇ and ⁇ respectively representing the minimum width of the network, the maximum density of successive straight quadruplets of the network, the network spacing, the minimum dispersion of quadruplets' birapports, such that: • L> ⁇ ;
- the constant ⁇ can be decreased by increasing the resolution of the sensor and the constant ⁇ can be increased by lengthening the sensor.
- An exemplary embodiment of the method relating to the detection of helmet in a cockpit from general sights is to consider the following values for the constants ⁇ , ⁇ , ⁇ and ⁇ :
- This example is calculated from a theoretical model.
- Another example can be obtained from a combinatorial optimization algorithm in discrete space.
- the method according to the invention makes it possible, in this first general-purpose projection mode, to know the four straight lines of the network that intercept the sensor. This detection is carried out by discriminating the quadruple right quadruplets of the network, these being unique in the network.
- This first mode employing general patterns allows on the one hand to calculate, according to the method of the invention, the ends of the sensor in the image plane and on the other hand to initiate the second mode.
- the second mode makes it possible to project tracking patterns in a smaller area, especially in the area comprising the four lines that intercepted the sensor and to calculate the positions of the ends of the sensor in the image plane.
- This last mode allows to enslave the direction of projection of the sights on the position of the sensor, it has the advantage of being more efficient than the first mode.
- FIG. 2 represents an example two of networks 5 and 6 sent successively from two general test patterns, making an angle 9 between them.
- the two quadruplets 7 and 8 consist of the straight lines D6, D7, D8 D9 and have a single birapport.
- the detection of the four points of intersection of each network on the sensor makes it possible to identify a zone of smaller size in order to project tracking patterns as described in the following in FIG. 2.
- the method allows, according to the method subsequently described from the tracking patterns to build the ends of the image of the sensor in the image plane. It suffices to apply the method to the two networks sent successively and to consider three lines of each quadruple of each network intercepting the sensor.
- the duration between two projections of two general sights is necessarily limited so that the sensor does not make too much movement in the space during its movement.
- the method according to the invention makes it possible in both modes to construct the ends of the image of the sensor in the image plane from two projected networks simultaneously (in the case of tracking patterns) or successively (in the case of general targets), the networks comprising at least three straight lines (or segments) parallel in the case of tracking patterns and at least four straight lines in the case of general sights.
- the method makes it possible to send two networks of three lines, the networks being not parallel, in order to find the ends of the linear sensor in the image plane.
- the two straight lines are projected successively in the zone comprising the sensor.
- the two networks of lines are projected in a single tracking pattern, ie in a single image.
- Figure 3 illustrates a tracking pattern 26 in the projection image plane. It comprises a first network of three luminous segments 10, 11 and 12 parallel to one another and second network of three segments 20, 21 and 22. The two networks projected in the same image simultaneously are not parallel and are joined by the ends of the segments. . In the example In Figure 2, they are joined by the upper ends of each segment forming a sawtooth figure.
- the image consisting of the light segments is deformed in the line or plane comprising the sensor, by a conical projection, when it intercepts the linear sensor, the plane of the sensor and the plane of the projected image. being not a priori parallel.
- the sensor thus detects the light spots that correspond to the intersection points of the projected image with the sensor.
- the method according to the invention considers the image of the sensor in the plane of the projected image, the image of the sensor then deforming by the conical projection considered above, in the image plane.
- Figure 3 shows the image of the sensor in the image plane.
- the image of the sensor comprises two ends P1 and P2 in the image plane which are not known a priori.
- the construction of their position in the image plane constituting the heart of the method according to the invention.
- the first network intercepts the image 25 of the sensor at three points A1, B1 and C1, these last three points being projected in the image plane of the points of intersection of the first network with the sensor.
- the second network intercepts the image of the sensor at three other points A2, B2 and C2, these last three points being projected in the image plane of the intersection points of the second network with the sensor.
- one of the ends of the sensor can be considered as the origin of a reference including the abscissa axis carried by the axis of the sensor, we then note 0, XA2, XC-I, X B2 , X BI , x C 2, XAI, Xmax the respective abscissae of the points of intersection of the first and the second network with the sensor as well as the other end of the sensor, their projected in the plane image being respectively the points P1, A2, C1, B2, B1, C2, A1 and P2 in the plane of the sensor.
- the third step of the method makes it possible to construct the ends of the image of the sensor in the image plane.
- the aim being to find the ends of the sensor in the image plane, by construction according to the conical projection and conservation of birapports in the plane of the sensor and in the image of quadruplets previously considered, it is then easy to find the position of the sensor in space.
- the method according to the invention proposes to use, in particular, the preservation of four-point birapports according to conical and cylindrical projections.
- the method according to the invention proposes in the first place to construct in the image plane two lines perpendicular to each network.
- the first line D1 is perpendicular to the first network, it is placed arbitrarily in the lower part of the image.
- the lines 10, 11 and 12 carrying the light segments of the first network intercept the line D1 at three points A1 ', B1' and C1 '.
- the second line D2 is perpendicular to the second network, it is placed arbitrarily in the upper part of the image.
- the lines 20, 21 and 22 carrying the segments light of the second network intercept the line D2 in three points A2 ⁇ B2 'and C2 ⁇
- D21 knowing P21 and the projection projection direction along the axis of the second network
- D12 knowing P12 and the projection projection direction along the axis of the first network
- the two ends of the image of the sensor are obtained in the image plane by construction:
- this last two-dimensional operation has a solution from the moment when the two networks are not collinear. By construction, they are not used for tracking patterns when they are projected on the same image, and they are not when sending two general targets.
- the proof is identical for two nonparallel networks successively sent by the projection of general targets.
- the time between two shipments being short enough to consider that the sensor is almost not changed position in space.
- the process is all the more precise as the networks are not collinear. It is therefore necessary, in order to improve the performance of the detection accuracy, for the angle formed by the two networks to be greater than a critical value. On the other hand, too large an angle also deteriorates the detection performance.
- FIG. 4 shows two cases of patterns 411 and 412 comprising two networks of three segments respectively forming a first angle 412 and a second angle 402.
- the image of the sensor in the image plane, whose ends are P1 and P2 is more difficult to intercept by targets whose networks form an important angle. Vertical disturbances can then deteriorate the performance of the process.
- a case of patterns comprising two straight lines forming an angle of 45 degrees is used.
- a second embodiment makes it possible to project a target having two symmetrical networks with respect to the axis of the image of the sensor detected in a previous position.
- Figure 5 shows the displacement envelope of a sensor
- the envelope consists of two zones 51 and 52 in which the positions of the ends of the sensor can fluctuate.
- a parallelogram 50 constitutes the zone in which the sensor is likely to move.
- the display frequency is 1440 Hz, ie a projection time interval of 0.7 ms;
- the useful zone is advantageously used at a minimum height to limit the sensitivity to measuring inaccuracies. In order to optimize the use of a tracking chart, it is necessary to adapt its appearance to each sensor and to each position a priori.
- the method is applied to a pattern consisting of the juxtaposition of two patterns separated by a common characteristic line, the patterns each comprising two parallel lines of lines between them.
- This characteristic line is, for example, wider than the others, the processing algorithm can then detect, from the sensor, a point through which the characteristic line passes.
- the characteristic line must lie in the useful area of the sensor and the sensor must necessarily detect the trace of three lines of each network.
- FIG. 6 represents a tracking pattern comprising two patterns 61 and 62 defined above comprising two networks of three straight lines parallel to one another.
- the sensor 25 is intercepted by certain lines of the test pattern, in particular by the characteristic line 60, the latter being common to the two test patterns 61 and 62.
- the characteristic line 60 In the event that a trace of the characteristic line 60 is detected by the sensor, the The advantage of this pattern is to be able to use, for geometric calculations, any of the straight lines of the pattern 61 or 62 in order to determine the location of the ends of the sensor.
- the scope of the test pattern is multiplied by two in the sensor axis a priori without changing its characteristics.
- the purpose of the characteristic line 60 is to discriminate between the two juxtaposed patterns in order to determine which traces of the lines are detected by the sensor.
- the constraint on the dynamics of the slave system is therefore that the zone The wrap around the sensor is wide enough to be sure that the trace of the characteristic line 60 is detected at the next measurement.
- the advantage of such a method is the simplicity of the detection calculations of the ends of a sensor in the image plane.
- This method when it combines the detection of at least two sensors located on an object, allows to find the attitude and position of an object in space.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Le procédé de détection optique de la position apparente des extrémités d'un capteur linéaire dans l'espace au moyen d'un système de projection d'au moins une mire comprenant au moins un réseau de segments lumineux parallèles, la mire couvrant une zone de l'espace dans laquelle est situé le capteur, est caractérisé en ce qu'il comprend : - Une première étape de projection d'au moins un réseau comprenant au moins trois segments lumineux parallèles dans la zone dans laquelle se trouve le capteur; - Une seconde étape d'identification d'au moins un birapport d'un quadruplet de points dont les positions sont connues sur le capteur, le birapport (BR) de quatre points (A, B, C, D) étant défini par la relation (I) - Une troisième étape de détermination des extrémités du capteur (P1, P2) dans le plan image.
Description
PROCEDE DE DETECTION DES EXTREMITES D'UN CAPTEUR LINEAIRE DANS L'ESPACE PAR PROJECTION DE MIRES.
La présente invention concerne le domaine des dispositifs de détection optique de position et d'orientation d'objets dans l'espace. Elle s'applique plus particulièrement dans le domaine aéronautique où dans ce cas l'objet détecté est un casque de pilote.
La détermination du positionnement d'un point dans l'espace et la détermination de l'attitude d'un objet quelconque sont des problèmes concernant de nombreux domaines techniques.
Les différentes solutions généralement apportées doivent lever toute ambiguïté de position ou d'attitude, répondre à une dynamique plus ou moins sévère des systèmes et satisfaire une précision élevée, en particulier dans le domaine aéronautique.
Dans les systèmes de détection de position et d'attitude d'objets dans l'espace répondant à une précision meilleure que quelques millimètres en position et au degré en attitude, de nombreuses applications existent dans différents domaines.
Ces systèmes sont utilisés en aéronautique, pour la détection de posture de tête, notamment pour les casques d'avions d'arme, d'hélicoptères militaires, civils ou para-civils. Dans ce dernier cas d'application para-civiles, il peut s'agir de missions de sauvetage en mer par exemple. Ils sont utilisés également pour la détection de casques de simulation, cette détection peut alors être combinée à un dispositif d'oculométrie, également appelé eyetracker, pour la détection de position du regard. Dans le domaine de la réalité virtuelle et des jeux, il existe également de nombreuses applications de ces systèmes.
Plus généralement, dans le domaine de la détection de posture générique, il existe également de nombreuses applications, notamment dans le domaine médical pour les opérations à distance et le contrôle d'instruments, dans le domaine du contrôle de position pour des machines outils asservies ou de la commande à distance et enfin pour le cinéma, afin de reproduire les mouvements en images de synthèse.
Ces différentes applications ont des solutions techniques répondant à des exigences plus ou moins contraignantes.
Concernant des applications à faibles contraintes, notamment en terme de précisions, il existe différents systèmes de détection de position et/ ou d'orientation d'objets. Par exemple, les dispositifs à reconnaissance de patchs ou de formes par caméras utilisent des dessins imprimés sur un objet. Plusieurs caméras observent !a scène et déterminent la configuration spatiale du dessin observé. II existe également des dispositifs à reconnaissance de sphères par caméras, qui sont utilisés, par exemple au cinéma, pour la reconstitution du mouvement humain. Le dispositif utilise plusieurs caméras qui observent des sphères réfléchissantes et déterminent leur trajectoire.
Enfin i! existe des dispositifs de positionnement à ultrasons reposant sur ie principe de triangulation entre émetteurs et récepteurs ultrasoniques.
Concernant des applications plus performantes, en particulier dans Ie domaine aéronautique, les dispositifs de détection de posture de casques dans les aéronefs utilisent deux principales techniques qui sont la détection de posture électromagnétique et la détection de posture électrooptique.
La détection de posture électromagnétique nécessite des dispositifs comprenant des moyens d'émission d'un champ électromagnétique et des capteurs de réception sur le casque permettant de déterminer leur position par rapport à l'émetteur. Néanmoins, des solutions robustes sont difficiles à mettre en oeuvre. En particulier, dans ie domaine aéronautique, les rayonnements parasites et les perturbations électromagnétiques peuvent dégrader les performances des systèmes existants.
Concernant la détection de posture électro-optique il existe deux solutions. La première solution nécessite généralement des motifs de diodes électroluminescentes, encore appelé LEDs, disposés sur Ie casque et plusieurs capteurs de type caméras montés dans le cockpit permettant de déterminer la configuration spatiale d'un motif de LEDs.
Pour améliorer les performances, i! est fréquent de combiner d'autres dispositifs comprenant des capteurs de types gyroscopiques, accéléro-métriques ou magnéto-métriques. Cette hybridation de capteurs permet d'améliorer les performances dynamiques ou de lever une ambiguïté d'orientation. Ces capteurs ne modifient pas les performances statiques de positionnement des dispositifs de détection cités précédemment.
Néanmoins, la cartographie du cockpit ou plus généralement la topologie de la zone contenant l'objet doit être connue, de ce fait elle présente un inconvénient. Dans l'aéronautique, cette topologie peut subir des déformations ou être difficile à cartographier.
Par ailleurs, ces mêmes dispositifs nécessitent plusieurs caméras et plusieurs capteurs. Les calculs de position demandent de nombreuses ressources et l'analyse temps réel est complexe à mettre en œuvre.
De plus, la diffusion dans la zone de détection de la lumière des LEDs ne permet pas de s'affranchir complètement des perturbations de l'environnement lumineux du cockpit dues au soleil ou à des réflexions parasites sur la verrière.
La seconde solution utilisée concernant la détection de posture électro-optique nécessite un projecteur d'images dans le cockpit projetant des images nettes. Les images projetées dans une zone comprenant des capteurs comportent avantageusement des mires lumineuses. Les capteurs pouvant être de type matriciel ou linéaire par exemple, la détection des motifs de la mire permettent de situer le capteur par rapport à l'image projetée. Les capteurs étant disposés sur l'objet, la détection de l'attitude de l'objet peut se déduire de la détection de l'attitude de capteurs. Cette solution existe aujourd'hui, les moyens de projections pouvant être notamment un vidéo projecteur holographique développé par « Light Blue Optics ».
La figure 1A illustre un tel projecteur d'images 101 , le projecteur d'images 101 émet une image 103, au point dans toute la zone 104, comprenant un ensemble de mires 107, 107". Les mires sont projetées sur des ensembles 106, 106' de capteurs électro-optiques situés sur un objet 105. Une mire est un ensemble de motifs géométriques lumineux sur fond
noir. Ces mires peuvent par exemple des cercles ou des anneaux. L'ensemble de capteurs est appelé cluster. Ces capteurs peuvent être regroupés de manière à ce que le cluster ait des propriétés géométriques pour la détection. Afin de retrouver la position et l'orientation des clusters dans l'espace, le dispositif selon l'invention comprend des moyens 102 d'analyse des données issues des capteurs. La position et l'orientation, d'au moins un cluster, étant déterminées, la position et l'orientation de l'objet sont alors connues.
Néanmoins, cette dernière solution présente des inconvénients quant à l'efficacité de la détection. Les paramètres résultant d'une part du choix des capteurs, de leur disposition sur l'objet et de leur forme et d'autre part du type de mires projetées, de leurs motifs lumineux, de la zone de projection, des systèmes d'asservissement des moyens de projection par les informations reçues par les capteurs, ne sont actuellement pas optimisés pour la détection liée à l'attitude et la positon d'un objet dans l'espace.
Un but de l'invention est notamment de pallier les inconvénients précités. Sachant que les positions des extrémités d'un groupe de capteurs linéaires permettent de retrouver l'attitude d'un objet dans l'espace sur lequel les capteurs sont fixés, le problème se résume à retrouver les extrémités d'un capteur dans l'espace. L'invention a pour objet un procédé de détection des extrémités d'un capteur linéaire dans le plan image, le plan image étant celui d'un dispositif de projection, tel que celui de l'exemple de Ia figure 1A. En effet, le procédé dispose de moyens de projection d'images nettes dans une zone comprenant le(s) capteur(s), les images définissant des mires comprenant des réseaux de droites parallèles.
Le procédé selon l'invention utilise notamment la conservation par des projections coniques et cylindriques du birapport, celui-ci étant calculé dans le repère du capteur, entre trois segments lumineux consécutifs d'une mire projetée avec une quatrième droite passant par une des extrémités de l'image du capteur dans le plan image. Le procédé selon l'invention permet notamment d'optimiser les calculs d'asservissant du projecteur sur l'objet à détecter dans un mode de suivi d'objet.
Avantageusement, le procédé de détection optique des extrémités d'un capteur linéaire dans l'espace au moyen d'un système de projection d'au moins une mire comprenant au moins un réseau de segments lumineux parallèles dans le pian image projeté, la mire couvrant une zone de l'espace dans laquelle est situé le capteur est caractérisé en ce qu'il comprend :
- Une première étape de projection d'au moins deux réseaux, chacun des réseaux comprenant au moins trois segments lumineux identifiés, parallèles et interceptant le capteur ; - Une seconde étape d'identification de quatre birapports de quadruplets de points dont les positions sont connues sur le capteur, un quadruplet comprenant les trois intersections d'un des deux réseaux avec le capteur et une des extrémités du capteur, le birapport (BR) de quatre points (A, B, C, D) étant défini par la relation Bn = = • = ;
BC AD
- Une troisième étape de détermination des extrémités de l'image du capteur (P1 , P2) dans le plan image à partir de la construction de l'intersection de quatre droites définies dans le plan image de telle manière que chaque droite forme avec un des deux réseaux un quadruplet de droites parallèles dont le birapport est identique au birapport d'un des quadruplets de points définis sur le capteur.
Avantageusement, la première étape est réalisée au moyen d'un vidéo-projecteur comportant une source de lumière cohérente, et une très grande profondeur de champ.
Avantageusement, la première étape comprend la projection d'un réseau, dont la largeur (D) est suffisante pour couvrir la zone de débattement du capteur, comprenant un nombre déterminé de segments parallèles et dont les birapports de quatre segments consécutifs sont tous différents. Avantageusement, chaque segment du réseau est espacé avec le segment précédent (XM) et le segment subséquent (X|+i) d'une distance (ε) minimale prédéterminée, les abscisses (Xj) étant définies dans un repère comprenant un axe confondu avec une droite perpendiculaire au réseau.
Avantageusement, la distance comprenant l'espacement entre 3 segments successifs du réseau n'est pas supérieure à une valeur maximale prédéterminée.
Avantageusement, la valeur absolue de la différence de deux birapports quelconques, chacun des birapports étant calculé à partir de quatre segments successifs du réseau dans le plan image, est supérieure à une valeur minimale prédéterminée.
Avantageusement, la première étape comprend la projection successive deux de mires comprenant respectivement un premier et un second réseau ayant les mêmes caractéristiques dont l'orientation du second réseau par rapport au premier réseau forme un angle déterminé.
Avantageusement, la première étape comprend la projection d'une mire comprenant d'une part un premier réseau de trois premiers segments lumineux parallèles entre eux, interceptant ie capteur en trois points (A1, B1, Ci) et d'autre part un second réseau de trois segments lumineux parallèles entre eux, interceptant le capteur en trois autres points (A2, B2, C2), les deux réseaux faisant un angle entre eux de telle manière que la forme des deux réseaux représente une ligne brisée formant au moins trois dents de scie.
Avantageusement, la seconde étape comprend l'identification d'un quadruplet de birapports (k-n, k21, k12, k22), chacun des birapports comprenant trois points d'intersection d'un réseau ((A1, B1, C-j) ou (A2, B2, C2)) avec le capteur et une extrémité du capteur (Pi ou P2), les birapports étant calculés dans un repère axial formé par le capteur ayant comme origine l'une des extrémités du capteur.
Avantageusement, la troisième étape comprend :
- une étape de construction de trois points (A1', Bi', C1') issus d'une première projection cylindrique des points (A1, B1, C1) sur une première droite (D1) perpendiculaire à l'axe du premier réseau, ;
- une étape de construction de deux premiers points (P12, P22), projetés sur la droite (D1 ) des extrémités du capteur dans le plan image, selon la première projection conique, les points étant identifiés par la conservation des birapports (k-n, k21) ;
- une étape de construction de trois points (A2', B2', C2') issus de la projection conique des points (A2, B2, C2) sur une seconde droite (D2) perpendiculaire à l'axe du premier réseau ;
- une étape de construction de deux seconds points (P11, P21), projetés des extrémités du capteur dans le plan image, selon ia première projection conique, les points étant identifiés par ia conservation des birapports (k-ι2, k22) ;
- une étape de construction d'une troisième droite (D12) et d'une quatrième droite (D22) perpendiculaire à ia première droite (D1) et passant respectivement par les deux premiers points (P12, P22) ;
- une étape de construction d'une cinquième (D1 I) et d'une sixième (D21) droite perpendiculaire à la première droite (D2) et passant respectivement par les deux seconds points (P11, P21) ;
- une étape de calcul de l'intersection (P1) de la troisième (Di2) et la cinquième (Du) droite et de l'intersection (P2) de la quatrième (D22) et de la sixième (D21) droite, les deux points identifiés étant les projetés des extrémités des capteurs dans le plan image.
Avantageusement, lorsque ia troisième étape est terminée, le procédé est réitéré, les moyens de projection projetant une nouvelle mire dans une zone comprenant la position du capteur identifiée dans la troisième étape.
D'autres caractéristiques et avantages de l'invention apparaîtront à i'aide de la description qui suit faite en regard des dessins annexés qui représentent :
• la figure 1A : un exemple de projecteur d'images projetant des mires sur des capteurs fixés sur un objet dans l'espace ;
• la figure 1 B : un exemple de mires générales mise en œuvre par le procédé ;
• la figure 2 : un exemple de deux mires générales envoyées successivement ;
• la figure 3 : un exemple de mire de tracking mise en œuvre par le procédé ;
• la figure 4 : deux cas d'orientations de deux réseaux d'une mire ;
• la figure 5 : la zone de débattement de projection d'une mire de tracking afin d'intercepter le capteur ; • la figure 6 : un exemple de mire de tracking étendue.
Le procédé selon l'invention permet, à partir de moyens de projection, projetant une image nette dans une zone déterminée comprenant au moins un capteur, de connaître les extrémités d'un capteur linéaire fixé sur un objet, les extrémités étant repérées dans le plan image.
A partir des coordonnées des extrémités dans le plan image d'un nombre déterminé de capteurs fixés sur un objet, par exemple deux capteurs dont les extrémités forment un carré plan dans l'espace, il est possible facilement de déterminer l'attitude de l'objet dans l'espace. Le procédé de la présente description détaille les différentes étapes de construction du lieu des extrémités d'un capteur dans le plan image de l'image projetée, le capteur étant situé dans un plan de l'espace.
Le procédé comprend plusieurs étapes, la première étape consiste à projeter une mire dans une zone de l'espace comprenant le capteur. L'image doit nécessairement être nette dans cette zone de l'espace.
Une telle contrainte peut être résolue en utilisant par exemple un vidéo projecteur holographique tel que développé par « Light Blue Optics ».
La première étape du procédé comprend deux modes qui se différencient, d'une part, par la connaissance à priori de l'envergure de la zone dans laquelle se situe le capteur et d'autre part par le type de mires projetées en fonction de cette zone. Un premier mode correspond à une situation d'initialisation du procédé, la position du capteur n'étant pas connue dans l'espace, le champ de projection est donc large. Un second mode correspond à une situation d'asservissement du système, la position du capteur étant connue par une détection antérieure, les moyens de projection émettent une image selon une direction connue dans un champ plus étroit, dont la taille est de l'ordre de grandeur de la taille du capteur, le capteur se
situant dans le champ. Ce dernier mode est appelé dans ia suite le mode de « tracking » car la mire suit le capteur.
A l'initialisation du procédé, ia non-connaissance de la position du capteur dans l'espace nécessite de considérer, par exemple, une famille de mires particulières couvrant une iarge zone couvrant la zone de débattement possible du capteur. Dans l'exemple d'une détection de casque dans un cockpit, le casque comprenant des capteurs linéaires, îa zone de plus grande envergure couvre une large partie du cockpit. Le second mode correspond à une détection alors qu'une position précédente du capteur est connue. Ce mode permet de définir une image plus petite que celle projetée dans le premier mode. Ce second mode utilise une autre famille de mires.
Dans les deux modes le procédé de détection selon l'invention, compte tenu des deux familles de mires, est identique. Le mode d'initialisation propose néanmoins un procédé de détection de la zone dans laquelle se situe le capteur comprenant une étape supplémentaire.
Le second mode permet un gain de précision dans les calculs notamment de la position de l'image du capteur dans le plan image. En outre, ce second mode permet d'émettre des mires dont la densité de lumière est plus importante dans les motifs émis que dans le premier mode, de ce fait la détection est plus efficace.
Ce second mode fonctionne généralement dans un mode asservi qui est initialisé par le premier mode.
Nous nommerons les mires utilisées dans le premier mode : des « mires générales », et les mires du second mode : des « mires de tracking ». Le procédé selon l'invention s'applique aux deux modes.
Les mires sont définies dans le plan image de l'image projetée. Généralement ce plan n'est pas parallèle au plan dans lequel un capteur situé sur l'objet se situe.
Un principe du procédé repose sur le fait que les informations lues sur le capteur, correspondants aux traces de la mire, permettent de calculer un
invariant de projection centrale. Cette problématique est commune aux mires générales et aux mires de tracking.
Concernant, les mires générales, pour garantir qu'une mire intercepte le capteur, elle doit être spatialement suffisamment couvrante, ceci de façon à ce qu'un capteur puisse toujours permettre de calculer au moins un invariant projectif ou birapport.
D'autre part les parties élémentaires constituant une mire générale doivent être suffisamment disjointes pour assurer qu'elles sont bien différenciées sur le capteur. Enfin, il peut être nécessaire d'envoyer plusieurs séries de mires générales afin de déterminer avec suffisamment de précision une zone du plan image dans laquelle se situe l'image du capteur, ladite zone étant suffisamment petite pour assurer qu'une mire de tracking, dans le second mode, envoyée dans cette zone permet de couvrir spatialement le capteur.
Le procédé selon l'invention permet de définir dans ce contexte une mire comprenant au moins un réseau de droites parallèles entre elles et au plan image. Pour une mire donnée, le procédé selon l'invention permet de déterminer une droite du plan image contenant une des extrémités de l'image du capteur, les positions des extrémités de l'image du capteur dans le plan image étant les positions recherchées. Ce type de mire est commun aux deux modes.
Une mire générale comprend un réseau de droites parallèles entre elles qui couvrent une large partie de l'espace dans lequel se situe le capteur. Au moins deux mires générales doivent être envoyées successivement pour construire les extrémités de l'image projetée du capteur dans le plan image, les deux réseaux des deux mires successives ne possédant pas la même orientation. Par ailleurs, les mires de tracking comprennent au moins une mire comprenant au moins deux réseaux de droites parallèles couvrant une zone de l'ordre de grandeur du capteur, les réseaux ne possédant pas la même orientation.
Dans les deux modes, le procédé selon l'invention permet à partir de la connaissance de trois droites parallèles du réseau dans le plan image et de leur trace sur Ie capteur, de tracer dans le plan image une droite passant par chacune des extrémités de l'image du capteur dans le plan image. il est donc nécessaire de considérer deux réseaux de trois droites, ne possédant pas les mêmes orientations, pour tracer deux droites passant par chacune des extrémités du capteur. Dans ce cas, le procédé permet de déduire !es extrémités de l'image du capteur par construction des intersections des droites passant par lesdites extrémités. Cette construction est rendue possible car la projection d'une intersection de droites est l'intersection des projections des droites.
L'objectif des mires générales se distingue des mires de tracking par le fait que l'on ne connaît pas a priori le triplet de droites dont on lit la trace sur capteur, il faut donc pouvoir l'identifier. Dans ce contexte, le procédé selon l'invention permet de considérer un réseau de droites parallèles tel que tout quadruplet de droites successives du réseau définit un birapport unique. L'unicité du birapport d'un quadruplet définit un quadrupiet unique et rend donc un triplet de droites interceptant le capteur identifiable. En pratique, cela peut s'avérer difficile à réaliser pour différentes raisons. Ainsi, le procédé s'applique également à un ensemble de pius de quatre droites. On peut envisager d'identifier de façon unique non pas un quadruplet, mais un quintupiet ou tout ensemble de N droites (N supérieur à 4). Pour un ensemble de N droites, le procédé s'applique à un espace pius étendu et permet de séparer au mieux les points et donc les groupes de droites.
On rappelle ci-dessous la définition d'un birapport de quatre points alignés. Le birapport BR de quatre points A, B, C, D alignés est défini par la relation suivante :
BR (A, B, C, D) ==_- •===- ; exprimé en valeur algébrique par la BC AD relation suivante :
y 7 — ri x A — v9
BR (jcl, *2, χ3, x4) = • , où x1 , x2, x3 et x4 sont les x3 — x2 x4 - xl abscisses des points A, B, C, D1 ceiles-ci étant définies sur une droite contenant les points et ayant pour origine un point référence de la droite.
Ce principe de localisation par mires est appliqué à plusieurs capteurs ayant chacun une orientation différente.
Ainsi, pour un capteur donné, il est nécessaire de disposer de deux mires générales, de directions différentes et envoyées successivement, afin de trouver les deux extrémités d'un capteur dans le plan image.
Ainsi, constitue une mire générale tout réseau de droites parallèles au plan image tel que :
- le réseau est à la fois suffisamment étendu et suffisamment serré, pour assurer qu'il intercepte le capteur en au moins quatre points ;
- le réseau est partout suffisamment détendu pour que l'on puisse distinguer sans confusion possible sur le capteur les tâches correspondant respectivement à 2 droites adjacentes quelconques du réseau ; - l'application qui envoie tout quadruplet de droites ou plus successives du réseau sur son birapport propre est une bijection, et cette bijection est suffisamment dispersive pour assurer que l'on peut toujours retrouver le quadruplet antécédent sans confusion possible.
Toute mire qui est constituée d'un tel réseau permet de déterminer la moitié des informations nécessaires à la reconstruction de l'image du capteur, notamment de ses extrémités, dans le plan image.
La reconstruction totale est assurée par la projection successivement de deux mires de ce type, avec des orientations de réseaux suffisamment différentes. La marge de différence des orientations des deux réseaux correspond à l'écart angulaire minimum entre deux droites sécantes pour assurer un traitement avec une précision suffisante quant aux coordonnées de l'intersection.
La figure 1 B illustre les différents paramètres d'une mire générale tels que définis précédemment.
La droite 1 est perpendiculaire au réseau et chaque droite (ou segment) du réseau, noté Dn, a pour abscisses Xn sur ia droite 1 , une origine 0 étant déterminée. Ainsi le réseau {D,}i < , < n est défini tel que X, < X,+i pour 1 < i <n.
On note alors ô, l'écart entre deux droites successives, on a ia relation pour l'écart de chacune des droites (Di) : δ, = X1-M - X,
Par ailleurs, on note blr le birapport entre quatre droites successives. On a alors la relation suivante :
et on note enfin L=Xn-Xi la largeur du réseau.
Le procédé selon l'invention permet de définir une mire générale comprenant un réseau de droites parallèles dont leur disposition permet de discriminer de manière unique, lors de la détection, les quatre droites de la mire générale qui interceptent le capteur.
Afin de réaliser une mire ayant des caractéristiques optimales pour favoriser la détection d'un quadruplet de droites d'une mire générale sans ambiguïté, le procédé permet de définir des constantes Δ, δ, ε et μ représentant respectivement ia largeur minimale du réseau, la densité maximale de quadruplets de droites successives du réseau, l'espacement du réseau, la dispersion minimale des birapports des quadruplets, de telle manière que : • L > Δ ;
• Xi+3-X1 < δ, avec 1 < i < n ;
• X1+1-X1 > ε, avec 1 < i < n ;
• | bj-b, I > μ, avec 1 < i < j < n-3
Les quatre constantes Δ, δ, ε et μ étant des réels strictement positifs.
Les paramètres et conditions de Ia construction du réseau impliquent la contrainte suivante sur les constantes ε et δ :
• 3-ε < δ
Si cette condition n'est pas réalisée, il est nécessaire d'agir sur le capteur. Par exemple, ia constante ε peut être diminuée en augmentant la résolution du capteur et la constante δ peut être augmentée en allongeant le capteur. Un exemple de cas de réalisation du procédé concernant la détection de casque dans un cockpit à partir de mires générales est de considérer les valeurs suivantes pour les constantes Δ, δ, ε et μ :
Δ = 50 ;
5 = 1 ,15 ; ε = 0,225 ; μ = 0,0189 ; et de considérer un réseau associé dont les caractéristiques sont : n= 100 ;
X2i = 0,5 + 0,9-i, pour i e [1 , 50] X2ι+i = 0,8965-i, pour i ε [1 , 50]
Cet exemple est calculé à partir d'un modèle théorique. Un autre exemple peut être obtenu à partir d'un algorithme d'optimisation combinatoire en espace discret.
Le procédé selon l'invention permet dans ce premier mode de projection de mires générales de connaître les quatre droites du réseau qui interceptent le capteur. Cette détection est effectuée par discrimination des birapports de quadruplets de droites du réseau, ceux-ci étant uniques dans !e réseau.
Ce premier mode employant des mires générales permet d'une part de calculer, selon le procédé de l'invention, les extrémités du capteur dans ie plan image et d'autre part d'initier le second mode. Le second mode permet de projeter des mires de tracking dans une zone plus petite notamment dans la zone comprenant les quatre droites ayant intercepté le capteur et de calculer les positions des extrémités du capteur dans le plan image. Ce dernier mode permet d'asservir la direction de projection des mires sur la position du capteur, il présente l'avantage d'être plus performant que le premier mode.
La figure 2 représente un exemple deux de réseaux 5 et 6 envoyés successivement de deux mires générales, faisant un angle 9 entre
eux. Les deux quadruplets 7 et 8 sont constitués des droites D6, D7, D8 D9 et possèdent un birapport unique. La détection des quatre points d'intersection de chaque réseau sur le capteur permet d'identifier une zone de plus faible envergure afin de projeter des mires de tracking telles que décrit dans la suite sur la figure 2. Par ailleurs, le procédé permet selon le procédé décrit par la suite à partir des mires de tracking de construire les extrémités de l'image du capteur dans le plan image. Il suffit de d'appliquer le procédé aux deux réseaux envoyés successivement et de considérer trois droites de chaque quadruplet de chaque réseau interceptant le capteur. La durée entre deux projections de deux mires générales est nécessairement limitée de manière à ce que le capteur n'effectue pas un mouvement trop important dans l'espace lors de son déplacement.
Le procédé selon l'invention permet dans les deux modes de construire les extrémités de l'image du capteur dans le plan image à partir de deux réseaux projetés simultanément (cas des mires de tracking) ou successivement (cas des mires générales), les réseaux comprenant au moins trois droites (ou segments) parallèles dans le cas des mires de tracking et au moins quatre droites dans le cas des mires générales.
Le procédé permet d'envoyer deux réseaux de trois droites, les réseaux n'étant pas parallèles, afin de retrouver les extrémités du capteur linéaire dans le plan image.
Dans le premier mode, les deux réseaux de droites, chacun constituant une mire générale, sont projetés successivement dans la zone comprenant le capteur. En revanche, dans le second mode, les deux réseaux de droites (ou segments) sont projetés dans une unique mire de tracking, c'est à dire en une seule image.
La figure 3 illustre une mire de tracking 26 dans le plan image de projection. Elle comprend un premier réseau de trois segments 10, 11 et 12 lumineux parallèles entre eux et second réseau de trois segments 20, 21 et 22. Les deux réseaux projetés dans la même image simultanément ne sont pas parallèles et sont joints par les extrémités des segments. Dans l'exemple
de ia figure 2, ils sont joints par les extrémités supérieures de chaque segment formant une figure en dents de scie.
Dans la pratique, l'image constituée des segments lumineux se déforme dans la droite ou le plan comprenant Ie capteur, par une projection conique, lorsqu'elle intercepte le capteur linéaire, le plan du capteur et le plan de l'image projetée n'étant pas à priori parallèle. Le capteur détecte donc les points lumineux qui correspondent aux points d'intersection de l'image projetée avec le capteur. Le procédé selon l'invention considère l'image du capteur dans le plan de l'image projetée, l'image du capteur se déformant alors par la projection conique considérée ci-dessus, dans le plan image.
La figure 3 représente l'image 25 du capteur dans le plan image. Les birapports des distances entre les points d'intersection du capteur et des droites du réseau se conservant par ia projection conique. L'image 25 du capteur comprend deux extrémités P1 et P2 dans le plan image qui ne sont pas connus à priori. La construction de leur position dans le plan image constituant le cœur du procédé selon l'invention. Par ailleurs, dans le plan image le premier réseau intercepte l'image 25 du capteur en trois points A1 , B1 et C1 , ces trois derniers points étant les projetés dans le plan image des points d'intersection du premier réseau avec le capteur. Le second réseau intercepte l'image 25 du capteur en trois autres points A2, B2 et C2, ces trois derniers points étant les projetés dans le plan image des points d'intersection du second réseau avec le capteur.
Le procédé décrit par la suite est valable également pour les mires générales et constitue la deuxième étape du procédé selon l'invention.
Si l'on considère le capteur dans l'espace, l'une des extrémités du capteur peut-être considérée comme l'origine d'un repère comprenant l'axe des abscisses porté par l'axe du capteur, on note alors 0, XA2, XC-I , XB2, XBI, xC2, XAI, Xmax les abscisses respectives des points d'intersection du premier et du second réseau avec le capteur ainsi que l'autre extrémité du capteur, leurs projetés dans le plan image étant respectivement les points P1 , A2, C1 , B2, B1 , C2, A1 et P2 dans le plan du capteur.
Le procédé selon l'invention permet de considérer les birapports k-n, ki2, k2i, k22 de quadruplets de points définis sur l'axe des abscisses de
i'axe du capteur par les relations suivantes, BR étant le birapport de quatre points définis précédemment : kn = BR(xAi, XBI , XCI , 0) ; ki2 = BR(XCI , Xβ1. ><A1 > Xmax) ! k21 = BR(XC2, XB2, XA2, 0) ; k22 = BR(XA2, XB2. *C2, Xmax) ',
Enfin la troisième étape du procédé permet de construire les extrémités de l'image du capteur dans le plan image. Le but étant de trouver les extrémités du capteur dans le plan image, par construction selon la projection conique et conservation des birapports dans le plan du capteur et dans le pian image des quadruplets précédemment considérés, il est ensuite aisé de retrouver la position du capteur dans l'espace. Pour se faire, le procédé selon l'invention propose d'utiliser notamment la conservation des birapports de quatre points selon des projections coniques et cylindriques.
Concernant la projection conique relative à la projection de l'image sur le capteur, le procédé selon l'invention permet de considérer les birapports kn, k12, k2-ι, k22 conservés par les projections coniques des quadruplets des points définis précédemment sur les droites D1 et D2, par les relations suivantes : kn = BR(AI 1 BI 1 CI 1 PI ) ; k12 ≈ BR(CI , B1. A1. P2) ; k21 = BR(C2, B2, A2, P1 ) ; k22 = BR(A2, B2, C2, P2) ;
Le procédé selon l'invention propose en premier lieu de construire dans le plan image deux droites perpendiculaires à chaque réseau. La première droite D1 est perpendiculaire au premier réseau, elle est placée arbitrairement dans la partie inférieure de l'image. Les droites 10, 11 et 12 portant ies segments lumineux du premier réseau interceptent la droite D1 en trois points A1 ', B1' et C1 '. De la même manière, la seconde droite D2 est perpendiculaire au second réseau, elle est placée arbitrairement dans la partie supérieure de l'image. Les droites 20, 21 et 22 portant les segments
lumineux du second réseau interceptent la droite D2 en trois points A2\ B2' et C2\
On cherche à déterminer les extrémités P1 et P2 de l'image du capteur dans le plan image. Chacun de ces points possède deux projetés sur les droites D1 et D2 selon l'axe parallèle respectivement au premier et au second réseaux. Notons P11 le projeté de P1 sur D1 selon l'axe du premier réseau et P12 le projeté de P1 sur D2 selon l'axe du second réseau. De manière analogue, notons P21 ie projeté de P2 sur D1 selon l'axe du premier réseau et P22 le projeté de P2 sur D2 selon l'axe du second réseau. Le procédé selon l'invention permet de considérer les birapports kn, k-12, k2i, k22 conservés par les projections cylindriques des quadruplets des points définis précédemment sur les droites D1 et D2, par les relations suivantes : kn ≈ BR(A-T1 B1 ', d'. PH 1) ; ki2 = BR(Cr, B1\ A1', P21 ) ; k21 = BR(C2\ B2', A2', P12) ; k22 = BR(A2', B2\ C2', P21 ) ;
A partir de là on peut en déduire : - le point P11 connaissant kn et A11, B11, C11 ;
- le point P21 connaissant k2i et A1\ B1 \ C11 ;
- le point P12 connaissant ki2 et A2 ', B2 ', C2 ' ;
- le point P22 connaissant k22 et A2\ B2',C2' ;
Puis, on peut construire dans le plan image les droites :
- D11 connaissant P11 et la direction de projection de projection selon l'axe du premier réseau ;
- D21 connaissant P21 et la direction de projection de projection selon l'axe du second réseau; - D12 connaissant P12 et la direction de projection de projection selon l'axe du premier réseau;
- D22 connaissant P22 et la direction de projection de projection selon l'axe du second réseau;
Les deux directions étant connues par construction de la mire.
On obtient selon le procédé de l'invention les deux extrémités de l'image du capteur dans le plan image par construction :
- P1 = D11 n D12 ; - P2 = D21 n D22.
Algébriquement, cette dernière opération en deux dimensions possède une solution à partir du moment ou les deux réseaux ne sont pas colinéaires. Par construction ils ne le sont pas pour les mires de tracking lorsqu'ils sont projetés sur une même image et ne le sont pas non plus lors de l'envoi successif de deux mires générales.
La démonstration est identique pour deux réseaux non parallèles envoyés successivement par la projection de mires générales. Le temps entre deux envois étant suffisamment court pour considérer que le capteur n'est quasiment pas changé de position dans l'espace.
Le procédé est d'autant plus précis que les réseaux ne sont pas colinéaires. El est donc nécessaire pour améliorer les performances de la précision de la détection que l'angle formé par les deux réseaux soit supérieur à une valeur critique. Par ailleurs, un angle trop grand détériore également les performances de détection.
La figure 4 représente deux cas de mires 411 et 412 comprenant deux réseaux de trois segments formant respectivement un premier angle 412 et un second angle 402. L'image du capteur dans le plan image, dont Ses extrémités sont P1 et P2, est plus difficile à intercepter par des mires dont les réseaux forment un angle important. Les perturbations verticales pouvant alors détériorer ies performances du procédé.
Avantageusement, dans un cas de réalisation du procédé selon l'invention, un cas de mires comprenant deux réseaux de droites formant un angle de 45 degrés est utilisé.
Dans le cas des mires de tracking, un second cas de réalisation permet de projeter une mire ayant deux réseaux symétriques par rapport à l'axe de l'image du capteur détecté dans une position précédente.
Enfin, concernant les mires de tracking et l'asservissement du système de projection d'images, pour dimensionner la mire à afficher sur un capteur, il est important de connaître l'ampleur maximaie des perturbations en position et en angle que nous cherchons à mesurer. Cela dépend de trois paramètres :
- les vitesses angulaires et linéaires de déplacement de ia tête dans le cas d'une DDP (« Détection de Posture ») ;
- la position a priori du capteur ;
- la fréquence d'affichage des mire ou l'intervalle de temps entre deux mesures.
Une fois l'enveloppe de déplacement pendant un intervalle de temps déterminé, le procédé permet de considérer une zone utile pour l'affichage de la mire. La figure 5 représente l'enveloppe de déplacement d'un capteur
25 projeté dans le plan image entre deux projections de mires de tracking successives. Etant donné la fréquence d'affichage d'une mire par les moyens de projection, du type de capteur utilisé, de la vitesse de déplacement de l'objet sur lequel est fixé le capteur, la vitesse angulaire de l'objet, et de la forme de l'objet, il est possible de déterminer une marge de maximale de déplacement du capteur.
L'enveloppe est constituée de deux zones 51 et 52 dans lesquelles les positions des extrémités du capteur peuvent fluctuer. Un parallélogramme 50 constitue la zone dans laquelle le capteur est susceptible de se déplacer.
Un exemple de réalisation avec les hypothèses suivantes :
- la fréquence d'affichage est de 1440Hz soit un intervalle de temps de projection de 0.7ms ;
- un capteur de 2048 points de 14μm ; - une vitesse angulaire maximale de 9 rad/s ;
- une vitesse de déplacement maximale de 5 m/s ;
- un rayon moyen d'un casque de pilote de 15 cm ; permet de définir un terme d'erreur de 4.5 mm {hypothèse d'une erreur isotrope) soit une zone utile sur capteur de 19.67mm par 9mm dans l'hypothèse d'un capteur parallèle au plan image.
La zone utile est avantageusement utilisée à hauteur minimale pour limiter la sensibilité aux imprécisions de mesure. Afin d'optimiser l'utilisation d'une mire de tracking, il est nécessaire d'adapter son aspect à chaque capteur et à chaque position a priori.
Une variante de réalisation du procédé selon l'invention afin d'améliorer la dynamique du système dans le mode tracking peut être envisagée.
Le procédé s'applique à une mire constituée de la juxtaposition de deux mires séparée par une droite caractéristique commune, les mires comprenant chacune deux réseaux de droites parallèles entre elles. Cette droite caractéristique est, par exemple, plus large que les autres, l'algorithme de traitement peut alors détecter, à partir du capteur, un point par lequel passe la droite caractéristique. Dans cette méthode, la droite caractéristique doit se situer dans la zone utile du capteur et le capteur doit nécessairement détecter la trace de trois droites de chaque réseau.
La figure 6 représente une mire de tracking comprenant deux mires 61 et 62 définies précédemment comportant deux réseaux de trois droites parallèles entre elles. Le capteur 25 est intercepté par certaines droites de la mire, notamment par la droite caractéristique 60, celle-ci étant commune aux deux mires 61 et 62. Dans l'hypothèse où une trace de la droite caractéristique 60 est détectée par le capteur, l'avantage de cette mire est de pouvoir utiliser, pour les calculs géométriques, n'importe lesquelles des droites de la mire 61 ou 62 afin de déterminer ie lieu des extrémités du capteur. Ainsi, on multiplie par deux l'étendue de la mire dans l'axe capteur a priori sans changer ses caractéristiques.
Le but de la droite caractéristique 60 est d'assurer la discrimination entre les deux mires juxtaposées afin de pouvoir déterminer quelles traces des droites sont détectées par le capteur. Pour utiliser cette mire, la contrainte sur la dynamique du système asservi est donc que la zone
utile enveloppant le capteur soit assez large pour être sûr que la trace de ia droite caractéristique 60 est détectée à la mesure suivante.
L'avantage d'un tel procédé est la simplicité des calculs de détection des extrémités d'un capteur dans le plan image.
Ce procédé, lorsqu'il combine la détection d'au moins deux capteurs situés sur un objet, permet de retrouver l'attitude et la positon d'un objet dans l'espace.
Claims
1. Procédé de détection optique des extrémités d'un capteur linéaire dans l'espace au moyen d'un système de projection d'au moins une mire comprenant au moins un réseau de segments lumineux parallèles dans le plan image projeté, la mire couvrant une zone de l'espace dans laquelle est situé le capteur, caractérisé en ce qu'il comprend :
- Une première étape de projection d'au moins deux réseaux, chacun des réseaux comprenant trois segments lumineux identifiés, parallèles et interceptant le capteur ;
- Une seconde étape d'identification de quatre birapports de quadruplets de points dont les positions sont connues sur le capteur, un quadrupiet comprenant trois intersections successives d'un des deux réseaux avec le capteur et une des extrémités du capteur, le birapport (BR) de quatre points (A, B, C, D) étant défini
„ Ic ~BD par la relation BR = = . = ;
BC AD
- Une troisième étape de détermination des extrémités de l'image du capteur (P1 , P2) dans le plan image à partir de la construction des intersections de quatre droites, prises deux à deux, définies dans le plan image de telle manière que chaque droite forme avec un des deux réseaux de droites comprenant les trois segments un quadrupiet de droites parallèles dont le birapport est identique au birapport d'un des quadruplets de points définis sur le capteur.
2. Procédé selon la revendication 1 , caractérisé en ce que la première étape est réalisée au moyen d'un vidéo-projecteur comportant une source de lumière cohérente, et une très grande profondeur de champ.
3. Procédé selon les revendications 1 à 2, caractérisé en ce que la première étape comprend la projection d'un réseau, dont la largeur (D) est suffisante pour couvrir la zone de débattement du capteur, comprenant un nombre déterminé de segments parallèles et dont les birapports de quatre segments consécutifs sont tous différents.
4. Procédé selon la revendication 3, caractérisé en ce que chaque segment du réseau est espacé avec le segment précédent (XM) et ie segment subséquent (Xi+1) d'une distance (ε) minimale prédéterminée, les abscisses (Xj) étant définies dans un repère comprenant un axe confondu avec une droite perpendiculaire au réseau.
5. Procédé selon les revendications 1 à 4, caractérisé en ce que la distance comprenant l'espacement entre 3 segments successifs du réseau n'est pas supérieure à une valeur maximale prédéterminée.
6. Procédé selon les revendications 1 à 5, caractérisé en ce que la valeur absolue de la différence de deux birapports quelconques, chacun des birapports étant calculé à partir de quatre segments successifs du réseau dans te plan image, est supérieure à une valeur minimale prédéterminée.
7. Procédé selon les revendications 3 à 6, caractérisé en ce que la première étape comprend la projection successive deux de mires comprenant respectivement un premier et un second réseau ayant les mêmes caractéristiques dont l'orientation du second réseau par rapport au premier réseau forme un angle déterminé.
8. Procédé selon la revendication 1 , caractérisé en ce que la première étape comprend la projection d'une mire comprenant d'une part un premier réseau de trois premiers segments lumineux parallèles entre eux, interceptant le capteur en trois points (A1, B1, Ci) et d'autre part un second réseau de trois segments lumineux parallèles entre eux, interceptant ie capteur en trois autres points (A2, B2, C2), les deux réseaux faisant un angle entre eux de teile manière que la forme des deux réseaux représente une ligne brisée formant au moins trois dents de scie.
9. Procédé selon les revendications 7 ou 8, caractérisé en ce que la seconde étape comprend l'identification d'un quadrupiet de birapports (kn, k21, ki2, k22), chacun des birapports comprenant trois points d'intersection d'un réseau ((At, B-i, Ci) ou (A2, B2, C2)) avec Se capteur et une extrémité du capteur (Pi ou P2), les birapports étant calculés dans un repère axial formé par le capteur ayant comme origine l'une des extrémités du capteur.
10. Procédé selon la revendication 8, caractérisé en ce que la troisième étape comprend :
- une étape de construction de trois points (A1', B-Λ CV) issus d'une première projection cylindrique des points (A1, B-i, CO sur une première droite (Di) perpendiculaire à i'axe du premier réseau, ; - une étape de construction de deux premiers points (P12, P22), projetés sur la droite (D1 ) des extrémités du capteur dans le plan image, selon la première projection conique, les points étant identifiés par la conservation des birapports (kn, k2i) ;
- une étape de construction de trois points (A2', B2', C2') issus de la projection conique des points (A2, B2, C2) sur une seconde droite
(D2) perpendiculaire à l'axe du premier réseau ;
- une étape de construction de deux seconds points (Pn, P2i), projetés des extrémités du capteur dans Ie plan image, selon la première projection conique, les points étant identifiés par la conservation des birapports (k-|2, k22) ;
- une étape de construction d'une troisième droite (Di2) et d'une quatrième droite (D22) perpendiculaire à la première droite (Di) et passant respectivement par les deux premiers points (Pi2, P22) ;
- une étape de construction d'une cinquième (Dn) et d'une sixième (D2-I ) droite perpendiculaire à la première droite (D2) et passant respectivement par les deux seconds points (Pn, P21) ;
- une étape de calcul de l'intersection (Pi) de la troisième (Di2) et la cinquième (Dn) droite et de l'intersection (P2) de la quatrième (D22) et de la sixième (D21) droite, les deux points identifiés étant les projetés des extrémités des capteurs dans le plan image.
11. Procédé selon les revendications 7 à 10, caractérisé en ce que lorsque la troisième étape est terminée, le procédé est réitéré, les moyens de projection projetant une nouvelle mire dans une zone comprenant la position du capteur identifiée dans la troisième étape.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0706132 | 2007-08-31 | ||
FR0706132A FR2920546B1 (fr) | 2007-08-31 | 2007-08-31 | Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2009027311A1 true WO2009027311A1 (fr) | 2009-03-05 |
Family
ID=39332155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2008/060943 WO2009027311A1 (fr) | 2007-08-31 | 2008-08-21 | Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires. |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR2920546B1 (fr) |
WO (1) | WO2009027311A1 (fr) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2936609B1 (fr) * | 2008-09-26 | 2012-10-12 | Thales Sa | Systeme de detection optique de position et/ou d'orientation d'objets comprenant au moins deux capteurs coplanaires |
FR2936607B1 (fr) * | 2008-09-26 | 2012-10-12 | Thales Sa | Dispositif de detection optique de position et/ou d'orientation d'objets comprenant au moins un capteur lineaire |
FR2959023B1 (fr) * | 2010-04-20 | 2012-05-25 | Thales Sa | Systeme de visualisation multi-projecteurs asservi |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1520154A (en) * | 1976-02-24 | 1978-08-02 | Elliott Brothers London Ltd | Apparatus for measuring the angular displacement of a bod |
US5187540A (en) * | 1990-10-31 | 1993-02-16 | Gec Ferranti Defence Systems Limited | Optical system for the remote determination of position and orientation |
FR2723208A1 (fr) * | 1986-06-17 | 1996-02-02 | Thomson Csf | Systeme de reperage spatial d'une direction liee a un corps mobile par rapport a une structure, utilisable notamment pour un viseur de casque |
US5974365A (en) * | 1997-10-23 | 1999-10-26 | The United States Of America As Represented By The Secretary Of The Army | System for measuring the location and orientation of an object |
-
2007
- 2007-08-31 FR FR0706132A patent/FR2920546B1/fr not_active Expired - Fee Related
-
2008
- 2008-08-21 WO PCT/EP2008/060943 patent/WO2009027311A1/fr active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1520154A (en) * | 1976-02-24 | 1978-08-02 | Elliott Brothers London Ltd | Apparatus for measuring the angular displacement of a bod |
FR2723208A1 (fr) * | 1986-06-17 | 1996-02-02 | Thomson Csf | Systeme de reperage spatial d'une direction liee a un corps mobile par rapport a une structure, utilisable notamment pour un viseur de casque |
US5187540A (en) * | 1990-10-31 | 1993-02-16 | Gec Ferranti Defence Systems Limited | Optical system for the remote determination of position and orientation |
US5974365A (en) * | 1997-10-23 | 1999-10-26 | The United States Of America As Represented By The Secretary Of The Army | System for measuring the location and orientation of an object |
Also Published As
Publication number | Publication date |
---|---|
FR2920546B1 (fr) | 2011-02-11 |
FR2920546A1 (fr) | 2009-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2169421B1 (fr) | Système de détection optique de position et/ou d'orientation d'objets comprenant au moins deux capteurs coplanaires | |
EP2169420B1 (fr) | Dispositif de détection optique de position et/ou d'orientation d'objets comprenant au moins un capteur linéaire | |
US11940535B2 (en) | Multi-pulse LIDAR system for multi-dimensional detection of objects | |
US10767981B2 (en) | Systems and methods for estimating depth from projected texture using camera arrays | |
EP3262439B1 (fr) | Utilisation des variations d'intensité dans un motif de lumière pour une cartographie de profondeur des objets dans un volume | |
CN104054003B (zh) | 具有以图形方式提供目标的功能的激光跟踪器 | |
US8860930B2 (en) | Three dimensional surface mapping system using optical flow | |
US9842407B2 (en) | Method and system for generating light pattern using polygons | |
EP2059828B1 (fr) | Procede de detection de l'orientation et de la position d'un objet dans l'espace | |
CN108195305B (zh) | 一种双目检测系统及其深度检测方法 | |
WO2009027311A1 (fr) | Procede de detection des extremites d'un capteur lineaire dans l'espace par projection de mires. | |
EP2169419A1 (fr) | Système de détection par balayage optique de position et/ou d'orientation d'objets | |
EP3028255A1 (fr) | Dispositif d'aide a la detection d'objets poses sur le sol a partir d'images du sol issues d'un dispositif d'imagerie par reflexion d'ondes | |
WO2017140820A1 (fr) | Procédé de localisation de sources d'émission d'impulsions électromagnétiques dans un environnement comprenant des réflecteurs | |
FR2642529A1 (fr) | Procede et dispositif de mesure de la position d'un vehicule | |
CA2184872A1 (fr) | Dispositif optique de determination de l'orientation d'un solide | |
EP0539264B1 (fr) | Procédé et dispositif de détermination de l'orientation d'un solide | |
CN106443584A (zh) | 一种位置确定的方法及装置 | |
CA2925241C (fr) | Terminal d'operateur a affichage de zones de qualite de prises de vues | |
JP6625284B1 (ja) | 表面の2つのオーバーラップした画像の切断縁部を検知する方法および装置 | |
WO2007006895A2 (fr) | Système de traceur optique, dispositif émissif, dispositif de détection et de détermination et procédés correspondants | |
FR3064770B1 (fr) | Procede et systeme de determination de periodicite de donnees | |
EP4261561A1 (fr) | Synchronisation adaptative sensible à la localisation et à l'espace | |
FR3067841A1 (fr) | Systeme et procede de localisation par traitement d'images | |
RU2776397C2 (ru) | Способ измерения кривизны отражающей поверхности и соответствующее оптическое устройство |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 08803125 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 08803125 Country of ref document: EP Kind code of ref document: A1 |