FR2890477A1 - Vehicle e.g. motor truck, position determining method for detecting e.g. pedestrian, involves determining corresponding values of vehicle height with respect to ground, roll angle, and vehicle pitch angle for storing them in memory - Google Patents

Vehicle e.g. motor truck, position determining method for detecting e.g. pedestrian, involves determining corresponding values of vehicle height with respect to ground, roll angle, and vehicle pitch angle for storing them in memory Download PDF

Info

Publication number
FR2890477A1
FR2890477A1 FR0508997A FR0508997A FR2890477A1 FR 2890477 A1 FR2890477 A1 FR 2890477A1 FR 0508997 A FR0508997 A FR 0508997A FR 0508997 A FR0508997 A FR 0508997A FR 2890477 A1 FR2890477 A1 FR 2890477A1
Authority
FR
France
Prior art keywords
vehicle
camera
image
values
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0508997A
Other languages
French (fr)
Other versions
FR2890477B1 (en
Inventor
Remy Bendahan
Sylvain Bougnoux
Christophe Vestri
Sebastien Wybo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMRA Europe SAS
Original Assignee
IMRA Europe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMRA Europe SAS filed Critical IMRA Europe SAS
Priority to FR0508997A priority Critical patent/FR2890477B1/en
Publication of FR2890477A1 publication Critical patent/FR2890477A1/en
Application granted granted Critical
Publication of FR2890477B1 publication Critical patent/FR2890477B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles
    • G01C7/02Tracing profiles of land surfaces
    • G01C7/04Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space

Abstract

The method involves determining, by using a calculation unit (5), corresponding values of a height of a vehicle (2) with respect to the ground, roll angle and pitch angle of the vehicle, from an image of an observation zone (3), values of parameters stored in a memory and from data related to the shape of the ground at the level of the zone. The observation zone is illuminated by a light source (4) e.g. laser source, and the image is transmitted to the unit (5) by a charge coupled device (CCD) camera (1). The determined values are stored in the memory by the calculation unit.

Description

2890477 12890477 1

METHODE ET DISPOSITIF D'EVALUATION DE LA POSITION D'UN VEHICULE DANS SON ENVIRONNEMENT  METHOD AND DEVICE FOR EVALUATING THE POSITION OF A VEHICLE IN ITS ENVIRONMENT

DESCRIPTION DOMAINE TECHNIQUEDESCRIPTION TECHNICAL FIELD

Le domaine technique de l'invention est celui des dispositifs et méthodes de repérage de la position d'un véhicule dans un environnement et de la représentation de cet environnement. Le véhicule, tel que par exemple une automobile, un camion, un engin de chantier, un véhicule monté sur des rails ou encore un engin téléguidé, est apte à se déplacer sur un sol dans un environnement. Les méthodes et dispositifs concernés utilisent principalement des projecteurs de lumière et des caméras vidéo pour enregistrer des images de l'environnement du véhicule qui sont ensuite transmises à une unité de traitement d'images.  The technical field of the invention is that of devices and methods for identifying the position of a vehicle in an environment and the representation of this environment. The vehicle, such as for example an automobile, a truck, a construction machine, a vehicle mounted on rails or an unmanned vehicle, is able to move on a floor in an environment. The methods and devices concerned mainly use light projectors and video cameras to record images of the vehicle environment which are then transmitted to an image processing unit.

ÉTAT DE LA TECHNIQUE ANTÉRIEURE Le repérage de l'environnement d'un véhicule ou celui de la position du véhicule au sein d'un environnement est particulièrement utile dans de nombreuses situations, par exemple pour détecter des obstacles et permettre au véhicule de les éviter (comme dans le cas de l'assistance au parcage), pour repérer des zones de guidage du véhicule ou pour situer le véhicule dans un environnement géographique (comme dans le cas du guidage routier des véhicules).  STATE OF THE PRIOR ART The identification of the environment of a vehicle or that of the position of the vehicle in an environment is particularly useful in many situations, for example to detect obstacles and allow the vehicle to avoid them ( as in the case of parking assistance), to identify vehicle guidance areas or to locate the vehicle in a geographical environment (as in the case of vehicle route guidance).

Le brevet DE 195 13 113 divulgue un système de repérage du profil d'un tunnel ou d'une route où évolue un véhicule. Le système est monté sur le véhicule, et comprend une source laser, une caméra vidéo et une unité de traitement d'image. L'unité de traitement d'image analyse une image d'une zone balayée par la source laser, enregistrée et transmise par la caméra vidéo, et détermine les positions des points d'un profil de la zone dans un repère centré sur le véhicule à partir d'une transformation géométrique des points correspondants de l'image enregistrée. Ce système de repérage de profil ne permet toutefois pas d'évaluer la position du véhicule relativement au sol, c'est-à-dire à la fois la hauteur du véhicule et inclinaison du véhicule (l'inclinaison du plan du châssis par exemple) par rapport au sol dans le cas général où ces paramètres sont susceptibles de varier (notamment au cours du déplacement du véhicule).  Patent DE 195 13 113 discloses a system for identifying the profile of a tunnel or a road where a vehicle is moving. The system is mounted on the vehicle, and includes a laser source, a video camera and an image processing unit. The image processing unit analyzes an image of an area scanned by the laser source, recorded and transmitted by the video camera, and determines the positions of the points of a profile of the area in a frame centered on the vehicle to be scanned. from a geometric transformation of the corresponding points of the recorded image. This profile tracking system does not, however, make it possible to evaluate the position of the vehicle relative to the ground, that is to say both the height of the vehicle and the inclination of the vehicle (the inclination of the plane of the frame for example) relative to the ground in the general case where these parameters are likely to vary (especially during the movement of the vehicle).

La demande de brevet WO 03/106924 divulgue un dispositif monté sur un véhicule qui permet de mesurer le profil transverse d'une route sur laquelle évolue le véhicule. Le dispositif comporte une source laser pour éclairer verticalement la route selon une ligne transversale par rapport à la route et au véhicule, une caméra pour enregistrer une image à la fois de la ligne lumineuse formée sur la route et d'une ligne de référence disposée sur le véhicule, et une unité de traitement d'image pour détecter un angle entre la ligne projetée sur la route et la ligne de référence et en déduire un profil transversal de la route. Ce dispositif peut aussi comprendre une seconde source laser, disposée selon une direction transversale au véhicule et à une distance donnée de la première source laser, pour former une seconde ligne lumineuse transversale sur la route. L'unité de traitement, à partir d'une image enregistrée par la caméra comportant à la fois les deux lignes lumineuses et la ligne de référence, détermine un angle pour chaque ligne et peut ainsi calculer un profil longitudinal de la route entre les deux lignes lumineuses transversales. Pour tenter d'améliorer ce dispositif, un accéléromètre est aussi disposé sur le véhicule pour mesurer une accélération dans le plan laser vertical. Cependant, ce dispositif reste mal adapté à l'évaluation de la position du véhicule relativement à la route car soit il ne tient pas compte des mouvements verticaux du châssis soit il n'en tient compte que via une mesure d'accélération qui nécessite ensuite d'effectuer une double intégration en temps, source d'imprécision, pour corriger les angles et les profils. De plus, l'accélération verticale n'étant mesurée qu'en un point, le dispositif ne peut pas déterminer l'inclinaison du châssis relativement au sol. Ce dispositif est aussi inadapté à la détermination de la forme de l'environnement autour et à distance du véhicule ainsi qu'à la détection d'obstacles fixes ou mobiles (tels que d'autres véhicules ou des piétons par exemple).  Patent application WO 03/106924 discloses a device mounted on a vehicle for measuring the transverse profile of a road on which the vehicle is moving. The device comprises a laser source for vertically illuminating the road in a line transverse to the road and to the vehicle, a camera for recording an image of both the light line formed on the road and a reference line arranged on the road. the vehicle, and an image processing unit for detecting an angle between the line projected on the road and the reference line and deriving a transverse profile of the road. This device may also include a second laser source, disposed in a direction transverse to the vehicle and at a given distance from the first laser source, to form a second transverse light line on the road. The processing unit, from an image recorded by the camera comprising both the light lines and the reference line, determines an angle for each line and can thus calculate a longitudinal profile of the road between the two lines. transverse lights. In an attempt to improve this device, an accelerometer is also placed on the vehicle to measure an acceleration in the vertical laser plane. However, this device remains poorly adapted to the assessment of the position of the vehicle relative to the road because either it does not take into account the vertical movements of the chassis or it takes into account only via an acceleration measurement which then requires d perform a double time integration, a source of inaccuracy, to correct angles and profiles. In addition, since the vertical acceleration is only measured at one point, the device can not determine the inclination of the chassis relative to the ground. This device is also unsuited to determining the shape of the environment around and away from the vehicle as well as the detection of fixed or mobile obstacles (such as other vehicles or pedestrians for example).

De nombreuses recherches sont en cours pour améliorer la sécurité des véhicules en utilisant un traitement automatique de données issues de capteurs tels que des radars ou des caméras. Ce traitement de données vise à obtenir une représentation tridimensionnelle de l'environnement autour du véhicule afin de détecter des obstacles ou des dangers. La qualité de la représentation tridimensionnelle de l'environnement dépend fortement de la précision et du calibrage des divers capteurs utilisés. Malheureusement, de même que pour des mouvements d'objets de l'environnement, les accélérations, les freinages ou les virages du véhicule introduisent des changements dans la position et l'orientation du véhicule et, par conséquent, dans la pose des capteurs. Dans la plupart des systèmes d'acquisition de données ce problème est ignoré en supposant que le mouvement du véhicule n'introduit pas une erreur trop importante dans la représentation tridimensionnelle de l'environnement. De plus, dans la plupart de ces systèmes, le monde exploré par les capteurs est supposé être plat pour permettre une représentation plus aisée. Toutefois ces deux dernières hypothèses causent une dégradation des performances de ces systèmes d'acquisition. De telles suppositions peuvent même s'avérer être dangereuses dans certaines situations où une bonne précision est requise, par exemple pour détecter des obstacles éloignés ou des obstacles très proches (comme dans le cas du parcage du véhicule). Certains des dispositifs utilisés pour la détection d'objets proches, comme les capteurs à ultrasons, outre qu'ils ne donnent pas une représentation tridimensionnelle précise, ne peuvent pas fournir des mesures à des distances courtes (inférieures à 20 ou 30 cm).  Much research is underway to improve vehicle safety by automatically processing data from sensors such as radars or cameras. This data processing aims at obtaining a three-dimensional representation of the environment around the vehicle in order to detect obstacles or dangers. The quality of the three-dimensional representation of the environment strongly depends on the accuracy and the calibration of the various sensors used. Unfortunately, as for movements of objects of the environment, acceleration, braking or cornering of the vehicle introduce changes in the position and orientation of the vehicle and, therefore, in the installation of sensors. In most data acquisition systems this problem is ignored by assuming that the motion of the vehicle does not introduce too much error into the three-dimensional representation of the environment. Moreover, in most of these systems, the world explored by the sensors is supposed to be flat to allow easier representation. However, these last two assumptions cause a degradation of the performance of these acquisition systems. Such assumptions may even prove to be dangerous in certain situations where good accuracy is required, for example to detect distant obstacles or very close obstacles (as in the case of parking the vehicle). Some of the devices used for the detection of nearby objects, such as ultrasonic sensors, besides not giving a precise three-dimensional representation, can not provide measurements at short distances (less than 20 or 30 cm).

EXPOSÉ DE L'INVENTION La présente invention a donc pour objectif de remédier aux inconvénients mentionnés ci-dessus, notamment en ce qui concerne la détermination des 2890477 5 paramètres de position d'un véhicule relativement au sol et au sein d'un environnement, ou la détection d'obstacles fixes ou mobiles par rapport au véhicule.  SUMMARY OF THE INVENTION The object of the present invention is therefore to overcome the drawbacks mentioned above, in particular as regards the determination of the position parameters of a vehicle relative to the ground and within an environment, or the detection of fixed or moving obstacles with respect to the vehicle.

Plus précisément, un des objectifs de la présente invention est d'obtenir une méthode, et un dispositif correspondant, de détermination de la position d'un véhicule dans un environnement.  More precisely, one of the objectives of the present invention is to obtain a method, and a corresponding device, for determining the position of a vehicle in an environment.

Cet objectif est atteint grâce à un premier mode général de réalisation d'une méthode selon l'invention, qui est une méthode de détermination de la position d'un véhicule dans un environnement, pour un véhicule apte à se déplacer sur un sol et équipé: - d'une première caméra, montée sur le véhicule en un emplacement donné et calibrée (c'est-à-dire dont on a déterminé les valeurs des paramètres internes et externes), apte à enregistrer une image d'une première zone d'observation située sur le sol à proximité du véhicule; - d'une première source de lumière apte à projeter des rayons lumineux sur la première zone d'observation pour l'éclairer de manière non uniforme, et montée sur le véhicule en un emplacement donné de façon à ce que les directions de projection des rayons sur la première zone d'observation ne coïncident pas avec l'axe optique de la première caméra enregistrant une image la première zone d'observation; et - d'une unité de calcul possédant une mémoire, et dans laquelle la première caméra est apte à transmettre une image enregistrée à l'unité de calcul, l'unité de calcul est apte à recevoir et à traiter une image transmise par la première caméra, la mémoire est 2890477 6 apte à stocker des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera ainsi que des paramètres de position par rapport au véhicule et de projection de la première source de lumière, ladite méthode étant caractérisée en ce que, à partir d'une image de la première zone d'observation éclairée par la première source de lumière enregistrée et transmise à l'unité de calcul par la première caméra, de valeurs des paramètres stockées dans la mémoire, et à partir de données relatives à la forme du sol au niveau de la première zone d'observation stockées dans la mémoire, l'unité de calcul détermine des valeurs correspondantes de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 8 et de l'angle de tangage 9 du véhicule dans un repère R lié au sol et stocke ces valeurs dans la mémoire.  This objective is achieved thanks to a first general embodiment of a method according to the invention, which is a method for determining the position of a vehicle in an environment, for a vehicle able to move on a floor and equipped a first camera, mounted on the vehicle at a given and calibrated location (that is to say the values of the internal and external parameters have been determined), capable of recording an image of a first zone of observation located on the ground near the vehicle; a first light source capable of projecting light rays onto the first observation zone in order to illuminate it in a non-uniform manner, and mounted on the vehicle at a given location so that the directions of projection of the rays on the first observation zone do not coincide with the optical axis of the first camera recording an image the first observation zone; and - a calculation unit having a memory, and in which the first camera is able to transmit an image recorded to the computing unit, the computing unit is able to receive and process an image transmitted by the first camera, the memory is capable of storing values of the calibration and position parameters with respect to the vehicle of the first camera as well as position parameters with respect to the vehicle and projection of the first light source, said method being characterized in that, from an image of the first viewing area illuminated by the first light source recorded and transmitted to the computing unit by the first camera, values of the parameters stored in the memory, and from data relating to the shape of the ground at the level of the first observation zone stored in the memory, the calculation unit determines corresponding values from the top h of the vehicle relative to the ground, the roll angle 8 and the pitch angle 9 of the vehicle in a grounded R mark and stores these values in the memory.

Ce premier mode de réalisation général est avantageux car toutes les mesures sont faites 20 optiquement, sans contact avec le sol.  This first general embodiment is advantageous because all measurements are made optically, without contact with the ground.

L'objectif est aussi atteint grâce un premier dispositif correspondant selon l'invention, qui est un dispositif général de détermination de la position d'un véhicule dans un environnement, le véhicule étant apte à se déplacer sur un sol, le dispositif apte à être embarqué à bord du véhicule comprenant: une première caméra apte à être montée sur le véhicule en un emplacement donné et calibrée, et apte à enregistrer une image d'une première zone d'observation située sur le sol à proximité du véhicule; une première source de lumière apte à projeter des rayons lumineux sur la première zone d'observation pour l'éclairer de manière non uniforme, et apte à être montée sur le véhicule en un emplacement donné de façon à ce que les directions de projection des rayons sur la première zone d'observation ne coïncident pas avec l'axe optique de la première caméra enregistrant une image des points de référence de la première zone d'observation; et une unité de calcul possédant une mémoire, dans lequel la première caméra est apte à transmettre une image enregistrée à l'unité de calcul; l'unité de calcul est apte à recevoir et à traiter 15 une image transmise par la première caméra; la mémoire est apte à stocker des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera ainsi que des paramètres de position par rapport au véhicule et de projection de la première source de lumière, ledit dispositif étant caractérisée en ce que, à partir d'une image de la première zone d'observation éclairée par la première source de lumière enregistrée et transmise à l'unité de calcul par la première caméra, de valeurs des paramètres stockées dans la mémoire, et à partir de données relatives à la forme du sol au niveau de la première zone d'observation stockées dans la mémoire, l'unité de calcul est apte à déterminer des valeurs correspondantes de la hauteur h du véhicule par rapport au sol, de l'angle de roulis A et de l'angle de tangage cp du véhicule dans un repère R lié au sol et à stocker ces valeurs dans la mémoire.  The objective is also achieved by means of a first corresponding device according to the invention, which is a general device for determining the position of a vehicle in an environment, the vehicle being able to move on a ground, the device capable of being embedded in the vehicle comprising: a first camera adapted to be mounted on the vehicle at a given and calibrated location, and capable of recording an image of a first observation area located on the ground close to the vehicle; a first light source capable of projecting light rays onto the first observation zone to illuminate it in a non-uniform manner, and able to be mounted on the vehicle at a given location so that the projection directions of the rays on the first observation zone do not coincide with the optical axis of the first camera recording an image of the reference points of the first observation zone; and a computing unit having a memory, wherein the first camera is adapted to transmit a recorded image to the computing unit; the computing unit is adapted to receive and process an image transmitted by the first camera; the memory is capable of storing values of the calibration and position parameters with respect to the vehicle of the first camera as well as position parameters with respect to the vehicle and projection of the first light source, said device being characterized in that , from an image of the first observation area illuminated by the first light source recorded and transmitted to the calculation unit by the first camera, values of the parameters stored in the memory, and from relative data. at the shape of the ground at the level of the first observation zone stored in the memory, the calculation unit is able to determine corresponding values of the height h of the vehicle relative to the ground, the roll angle A and the pitch angle cp of the vehicle in a ground-related locator R and storing these values in the memory.

Ainsi le premier mode de réalisation général permet-il de déterminer les paramètres de position du véhicule (h, e, cf)) avec une grande précision car le traitement de l'image de la première zone compense les effets de distorsion de la caméra à travers l'utilisation des paramètres de distorsion. En effet, pour que cette image prise par la première caméra puisse être exploitée valablement, la première caméra est préalablement calibrée, c'est-à-dire qu'une correspondance est établie entre des positions spatiales (tridimensionnelles) de points de référence de la première zone d'observation, utilisée comme zone de calibrage, et des positions bidimensionnelles des points correspondant de contrôle sur une image de cette zone de calibrage enregistrée dans le plan image de la caméra, et cette correspondance tient compte des distorsions diverses générées par l'optique et/ou le support d'enregistrement de la caméra. L'unité de calcul utilise ensuite les valeurs obtenues de ces paramètres de calibrage, stockées en mémoire, pour corriger des divers effets de distorsion une image transmise par la première caméra.  Thus, the first general embodiment makes it possible to determine the position parameters of the vehicle (h, e, cf) with great precision because the image processing of the first zone compensates for the distortion effects of the camera at through the use of distortion parameters. Indeed, for this image taken by the first camera can be exploited validly, the first camera is previously calibrated, that is to say that a correspondence is established between spatial positions (three-dimensional) of reference points of the first observation area, used as a calibration area, and two-dimensional positions of the corresponding control points on an image of this calibration area recorded in the camera image plane, and this correspondence takes into account the various distortions generated by the optical and / or recording media of the camera. The computing unit then uses the values obtained from these calibration parameters, stored in memory, to correct various distortion effects an image transmitted by the first camera.

La première caméra et la première source de lumière sont aussi disposées l'une par rapport à l'autre de façon à assurer une vision stéréoscopique de la première zone d'observation, c'est-à-dire de façon à ce que les directions de projection des rayons sur la première zone d'observation ne coïncident pas avec l'axe optique de la première caméra lorsque celle-ci 2890477 9 enregistre une image la première zone d'observation. Cette disposition relative permet de toujours pouvoir déterminer la position dans l'espace d'un point de référence à partir du point de contrôle correspondant (en utilisant bien sûr les valeurs des paramètres de calibrage pour corriger les divers effets de distorsion). La donnée des valeurs des positions de la première caméra et de la première source de lumière par rapport au véhicule ainsi que des paramètres de projection (l'orientation des rayons projetés) de la première source de lumière, permet de connaître la position et la direction de l'axe optique de la première caméra ainsi que la position relative de la source et de la caméra. C'est ainsi que les matrices de rotation entre respectivement, un référentiel spatial lié à la première source de lumière et un référentiel spatial lié au véhicule, et entre un référentiel spatial lié à la première caméra (à son centre optique, à son axe optique et à son plan image par exemple) et le référentiel spatial lié au véhicule sont connues, de même que sont connues que les coordonnées spatiales (dans le référentiel lié au véhicule) d'un point de la caméra et d'un point de la source. Un référentiel bidimensionnel lié au plan image de la première caméra est aussi connu à partir de ces données. L'unité de calcul peut donc effectuer des changements de référentiels nécessaires, en tenant compte des distorsions, pour passer d'un point de contrôle à un point de référence.  The first camera and the first light source are also arranged relative to each other so as to provide a stereoscopic view of the first viewing area, that is to say, so that the directions projection of the rays on the first observation zone do not coincide with the optical axis of the first camera when the latter records an image the first observation zone. This relative arrangement makes it possible always to be able to determine the position in space of a reference point from the corresponding control point (by of course using the values of the calibration parameters to correct the various distortion effects). The data of the values of the positions of the first camera and the first light source with respect to the vehicle as well as the projection parameters (the orientation of the projected rays) of the first light source, makes it possible to know the position and the direction the optical axis of the first camera as well as the relative position of the source and the camera. Thus, the rotation matrices between, respectively, a spatial reference linked to the first light source and a spatial reference linked to the vehicle, and between a spatial reference linked to the first camera (at its optical center, at its optical axis and its image plane for example) and the vehicle-related spatial repository are known, as are the spatial coordinates (in the vehicle-related reference frame) of a point of the camera and a point of the source . A two-dimensional repository linked to the image plane of the first camera is also known from these data. The computing unit can therefore make necessary changes of reference, taking into account the distortions, to go from a control point to a reference point.

Enfin, pour lever toute indétermination, la forme géométrique du sol au niveau de la première zone d'observation est donnée. Cette forme peut aussi être approximée, par exemple par un plan. Ce plan peut même être supposé horizontal (dans une étape initiale d'un processus itératif de traitement des images enregistrées par exemple).  Finally, to remove any indeterminacy, the geometric shape of the soil at the level of the first observation zone is given. This form can also be approximated, for example by a plane. This plane can even be assumed horizontal (in an initial step of an iterative process of processing recorded images for example).

Des procédés connus, par exemple la triangulation, permettent alors d'associer de façon biunivoque un point de contrôle dans un référentiel bidimensionnel de l'image à un point de référence dans un repère tridimensionnel lié au sol, et ainsi de 10 calculer des valeurs des paramètres de position du véhicule: hauteur h par rapport au sol, angle de roulis A (autour d'une direction quelconque donnée du véhicule), angle de tangage p. Plus précisément, un deuxième mode particulier de réalisation du mode général selon l'invention, dans lequel la première source de lumière est en outre apte à projeter une matrice de points lumineux sur la première zone d'observation, comprend les étapes suivantes consistant à: (I) former une matrice d'au moins trois points de référence lumineux non alignés sur la première zone d'observation au moyen de la première source de lumière; (II) enregistrer au moyen de la première caméra une image des points de référence lumineux formés sur première zone d'observation dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la première zone d'observation; (III) déterminer au moyen de l'unité de calcul les valeurs des coordonnées dans le plan image de la première caméra d'au moins trois points de contrôle non alignés de l'image enregistrée par la première caméra et stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et (IV) à partir des valeurs déterminées des coordonnées des points de contrôle dans le plan image de la première caméra et des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera ainsi que des paramètres de position par rapport au véhicule et de projection de la première source de lumière, et à partir des données relatives à la forme du sol au niveau de la première zone d'observation, déterminer au moyen de l'unité de calcul les valeurs des coordonnées spatiales, dans le repère R, des points de référence correspondant aux points de contrôle et en déduire des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 0 et de l'angle de tangage cf) du véhicule dans ce repère.  Known methods, for example triangulation, then enable a control point in a two-dimensional reference frame of the image to be associated in a one-to-one way with a reference point in a ground-based three-dimensional coordinate system, and thus to calculate values of vehicle position parameters: height h relative to the ground, roll angle A (around any given direction of the vehicle), pitch angle p. More specifically, a second particular embodiment of the general mode according to the invention, in which the first light source is further capable of projecting a matrix of light spots on the first observation zone, comprises the following steps: (I) forming a matrix of at least three non-aligned light reference points on the first viewing area by means of the first light source; (II) recording, by means of the first camera, an image of the luminous reference points formed on the first observation zone in the image plane of the camera and transmitting the recorded image to the computing unit, the recorded image comprising control points and each control point corresponding to the image of a luminous reference point of the first observation zone; (III) determining by means of the calculation unit the values of the coordinates in the image plane of the first camera of at least three non-aligned control points of the image recorded by the first camera and storing the values determined in the first camera; memory of the computing unit; and (IV) from the determined values of the coordinates of the control points in the image plane of the first camera and the values of the calibration and position parameters with respect to the vehicle of the first camera as well as position parameters with respect to the vehicle and projection of the first light source, and from the data relating to the shape of the ground at the first observation zone, determine by means of the calculation unit the values of the spatial coordinates, in the reference R, reference points corresponding to the control points and deduce values of the height h of the vehicle relative to the ground, the roll angle 0 and the pitch angle cf) of the vehicle in this frame.

L'avantage procuré par les points de référence lumineux est de permettre une bonne localisation des points de contrôle correspondant sur l'image enregistrée de ces points lumineux, notamment par rapport aux méthodes qui requièrent la détermination de contours sur l'image qui sont particulièrement sensibles à l'éclairement de la zone d'observation. La méthode selon l'invention est au contraire très robuste par rapport à ces conditions d'éclairement de la zone d'observation.  The advantage provided by the luminous reference points is to allow a good localization of the corresponding control points on the recorded image of these luminous points, particularly with respect to the methods which require the determination of contours on the image which are particularly sensitive. to the illumination of the observation area. The method according to the invention is on the contrary very robust with respect to these conditions of illumination of the observation zone.

A ce deuxième mode particulier de réalisation du premier mode général correspond un deuxième mode particulier de réalisation du premier dispositif général, dans lequel la première source de lumière est apte à projeter une matrice d'au moins trois points de référence lumineux non alignés sur la première zone d'observation; la première caméra est apte à enregistrer une image de points de référence lumineux formés sur première zone d'observation par la première source de lumière dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la première zone d'observation; l'unité de calcul est apte à déterminer des valeurs de coordonnées dans le plan image de la première caméra d'au moins trois points de contrôle non alignés d'une image enregistrée par la première caméra et à stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et à partir de valeurs stockées en mémoire de coordonnées de points de contrôle dans le plan image de la première caméra, de paramètres de calibrage et de position par rapport au véhicule de la première camera, de paramètres de position par rapport au véhicule et de projection de la première source de lumière, et à partir de données relatives à la forme du sol au niveau de la première zone d'observation stockées en mémoire, l'unité de calcul est apte à déterminer les valeurs des coordonnées spatiales, dans un repère R lié au sol, de points de référence correspondant aux points de contrôle et à en déduire des valeurs correspondantes de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 0 et de l'angle de tangage p du véhicule dans ce repère.  In this second particular embodiment of the first general mode corresponds a second particular embodiment of the first general device, wherein the first light source is capable of projecting a matrix of at least three non-aligned light reference points on the first observation area; the first camera is able to record an image of luminous reference points formed on the first observation zone by the first light source in the image plane of the camera and transmit the recorded image to the computing unit, the image recorded having control points and each control point corresponding to the image of a light reference point of the first observation area; the calculation unit is capable of determining coordinate values in the image plane of the first camera of at least three non-aligned control points of an image recorded by the first camera and storing the determined values in the memory of the first camera; the unit of calculation; and from values stored in control point coordinate memory in the image plane of the first camera, calibration parameters and position relative to the vehicle of the first camera, position parameters with respect to the vehicle and projection of the first light source, and from data relating to the shape of the ground at the level of the first observation zone stored in memory, the computing unit is able to determine the values of the spatial coordinates, in a reference frame R ground points corresponding to the control points and to derive corresponding values of the height h of the vehicle relative to the ground, the roll angle θ and the pitch angle ρ of the vehicle in this mark.

Un autre objectif de l'invention est de permettre de compléter les valeurs des paramètres de position h, 0, p correspondant à un instant donné par des valeurs de position et d'orientation bidimensionnelles du véhicule sur la portion du sol sur laquelle il se trouve à un instant correspondant. Ces dernières valeurs permettent de préciser où se trouve le véhicule au sein de l'environnement de manière globale. La position bidimensionnelle du véhicule au niveau du sol (dans un plan localement parallèle au sol) permet par exemple de situer le véhicule sur une carte (bidimensionnelle) locale de l'environnement. A partir de la mesure de la position bidimensionnelle de deux points distincts du véhicule, il est possible d'obtenir l'orientation d'un axe commun à ces deux points, d'où on déduit l'orientation bidimensionnelle du véhicule au niveau du sol. La connaissance de cette orientation permet alors de connaître celle de la caméra (c'est-à-dire de son axe optique), car l'emplacement de la caméra sur le véhicule est connu. Les images enregistrées par la caméra, et les points de référence associés, peuvent alors être replacées dans un contexte plus global de l'environnement du véhicule. Il existe de nombreux moyens, c'est-à-dire des capteurs de position, pour obtenir ces valeurs de position et d'orientation bidimensionnelles du véhicule au niveau du sol, on peut citer à titre d'exemples les capteurs de position utilisant le système GPS (Global Positioning System), les odomètres, les centrales à inertie etc...  Another object of the invention is to allow the values of the position parameters h, 0, p corresponding to a given instant to be supplemented by two-dimensional position and orientation values of the vehicle on the portion of the ground on which it is located. at a corresponding moment. These last values make it possible to specify where the vehicle is located in the environment in a global manner. The two-dimensional position of the vehicle at ground level (in a plane locally parallel to the ground) makes it possible for example to locate the vehicle on a local (two-dimensional) map of the environment. From the measurement of the two-dimensional position of two distinct points of the vehicle, it is possible to obtain the orientation of a common axis at these two points, from which the two-dimensional orientation of the vehicle at the ground level is deduced. . The knowledge of this orientation then makes it possible to know that of the camera (that is to say of its optical axis), because the location of the camera on the vehicle is known. The images recorded by the camera, and the associated reference points, can then be placed in a more global context of the vehicle environment. There are many means, i.e., position sensors, for obtaining these two-dimensional position and orientation values of the vehicle at ground level, examples of which are position sensors using the GPS system (Global Positioning System), odometers, inertial units etc ...

Cet objectif est atteint avec un troisième 5 mode de réalisation de l'invention, qui est une variante du deuxième mode précédent, dans lequel le véhicule est en outre équipé d'un capteur de position apte à déterminer une position et une orientation bidimensionnelles du véhicule au niveau du sol à un instant donné et à transmettre les données relatives à cette position et cette orientation à l'unité de calcul, la mémoire de l'unité de calcul est apte à stocker les données de position et d'orientation du véhicule 15 déterminées par le capteur de position, la première caméra, la première source de lumière ainsi que l'unité de calcul sont aptes à fonctionner de manière synchronisée avec le capteur de position grâce à un moyen de synchronisation, et l'étape (IV) de détermination des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 9 et de l'angle de tangage W du véhicule par l'unité de calcul ainsi que la détermination des valeurs de la position et l'orientation du véhicule au niveau du sol par le capteur de position sont synchronisées par le moyen de synchronisation, les valeurs déterminées de la position et de l'orientation du véhicule étant stockées dans la mémoire de l'unité de calcul.  This object is achieved with a third embodiment of the invention, which is a variant of the previous second mode, wherein the vehicle is further equipped with a position sensor capable of determining a two-dimensional position and orientation of the vehicle. at ground level at a given instant and to transmit the data relating to this position and this orientation to the computing unit, the memory of the computing unit is able to store the position and orientation data of the vehicle 15 determined by the position sensor, the first camera, the first light source and the computing unit are able to operate synchronously with the position sensor by means of synchronization means, and step (IV) of determining the values of the height h of the vehicle relative to the ground, the roll angle 9 and the pitch angle W of the vehicle by the calculation unit and the determination of the values of the position and the orientation of the vehicle at ground level by the position sensor are synchronized by the synchronization means, the determined values of the position and the orientation of the vehicle being stored in the memory of the unit of calculation.

Cette variante permet d'obtenir un ensemble 30 complet de valeurs permettant de caractériser la situation du véhicule dans son environnement.  This variant makes it possible to obtain a complete set of values making it possible to characterize the situation of the vehicle in its environment.

Bien sûr, il correspond à cette variante un troisième mode de réalisation du dispositif selon l'invention, qui est une variante du dispositif selon le deuxième mode de réalisation, comportant en outre: un capteur de position apte à être monté sur le véhicule, à déterminer une position et une orientation bidimensionnelles du véhicule au niveau du sol à un instant donné et à transmettre les données relatives à cette position et cette orientation à l'unité de calcul, l'unité de calcul étant apte à stocker dans la mémoire des données de position et d'orientation du véhicule transmises par le capteur de position; et un moyen de synchronisation apte à synchroniser le fonctionnement de la première caméra, de la première source de lumière, de l'unité de calcul et du capteur de position, dans lequel le moyen de synchronisation est apte à synchroniser l'opération de détermination des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage cp du véhicule par l'unité de calcul avec l'opération de détermination des valeurs de la position et l'orientation du véhicule au niveau du sol par le capteur de position.  Of course, it corresponds to this variant a third embodiment of the device according to the invention, which is a variant of the device according to the second embodiment, further comprising: a position sensor adapted to be mounted on the vehicle, to determining a two-dimensional position and orientation of the vehicle at ground level at a given moment and transmitting the data relating to this position and this orientation to the computing unit, the computing unit being able to store in the memory of the data position and orientation of the vehicle transmitted by the position sensor; and synchronization means adapted to synchronize the operation of the first camera, the first light source, the calculation unit and the position sensor, in which the synchronization means is able to synchronize the operation of determining the values of the height h of the vehicle relative to the ground, the roll angle e and the pitch angle cp of the vehicle by the calculation unit with the operation of determining the values of the position and the orientation of the vehicle at ground level by the position sensor.

Un autre objectif de l'invention est de permettre d'explorer, à l'aide de la première caméra et d'une deuxième source de lumière, une deuxième zone d'observation distincte de la première zone, par exemple plus éloignée du véhicule, pour déterminer les coordonnées spatiales (dans un repère lié au sol) des points de références de cette deuxième zone d'observation.  Another object of the invention is to make it possible to explore, using the first camera and a second light source, a second observation zone distinct from the first zone, for example further from the vehicle, for determining the spatial coordinates (in a reference linked to the ground) of the reference points of this second observation zone.

Cet objectif est atteint avec un quatrième mode de réalisation de la méthode selon l'invention, qui est une variante du troisième mode précédent, dans laquelle le véhicule est en outre équipé d'une deuxième source de lumière apte à projeter vers le sol une matrice de points de référence lumineux sur une deuxième zone d'observation distincte de la première zone d'observation, et la première caméra est en outre apte à enregistrer une image de points de référence lumineux de la deuxième zone d'observation, la deuxième source de lumière étant montée sur le véhicule en un emplacement donné de façon à ce que les directions de projection des points de référence sur la deuxième zone d'observation ne coïncident pas avec l'axe optique de la première caméra enregistrant une image des points de référence de la deuxième zone d'observation, les valeurs des paramètres de position par rapport au véhicule et de projection de la deuxième source de lumière étant stockées dans la mémoire de l'unité de calcul, la première caméra, la première et la deuxième source de lumière ainsi que l'unité de calcul étant aptes à fonctionner de manière synchronisée avec le capteur de position grâce au moyen de synchronisation, ladite méthode comprenant en outre les étapes suivantes consistant à, de manière synchronisée avec le capteur de position: (a) former une matrice de points de référence lumineux 30 sur la deuxième zone d'observation au moyen de la deuxième source de lumière; (b) enregistrer au moyen de la première caméra une image des points de référence lumineux formés sur deuxième zone d'observation dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la deuxième zone d'observation; (c) déterminer au moyen de l'unité de calcul les valeurs des coordonnées dans le plan image de la première caméra de points de contrôle de l'image de la deuxième zone d'observation enregistrée par la première caméra et stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et (d) à partir des valeurs déterminées des coordonnées des points de contrôle correspondant à la deuxième zone d'observation dans le plan image de la première caméra, des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera ainsi que des paramètres de position par rapport au véhicule et de projection de la deuxième source de lumière, et à partir des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 8 et de l'angle de tangage 9 du véhicule calculés à l'étape (IV) et des données relatives à la position et à l'orientation du véhicule, calculer au moyen de l'unité de calcul les valeurs des coordonnées des points de référence de la deuxième zone d'observation correspondant aux points de contrôles dont les coordonnées ont été calculées à l'étape (c) et les stocker dans la mémoire de l'unité de calcul.  This objective is achieved with a fourth embodiment of the method according to the invention, which is a variant of the third preceding mode, wherein the vehicle is further equipped with a second light source capable of projecting a matrix towards the ground. light reference points on a second observation zone distinct from the first observation zone, and the first camera is furthermore capable of recording an image of luminous reference points of the second observation zone, the second source of light being mounted on the vehicle at a given location so that the projection directions of the reference points on the second viewing area do not coincide with the optical axis of the first camera recording an image of the reference points of the second observation zone, the values of the position parameters with respect to the vehicle and the projection of the second source of light t stored in the memory of the computing unit, the first camera, the first and the second light source and the computing unit being able to operate synchronously with the position sensor by means of synchronization means, method further comprising the steps of synchronously with the position sensor: (a) forming a matrix of light reference points 30 on the second viewing area by means of the second light source; (b) recording, by means of the first camera, an image of the luminous reference points formed on the second observation zone in the image plane of the camera and transmitting the recorded image to the computing unit, the recorded image comprising control points and each control point corresponding to the image of a luminous reference point of the second observation zone; (c) determining by means of the computing unit the coordinate values in the image plane of the first image control point camera of the second viewing area recorded by the first camera and storing the determined values in the memory of the computing unit; and (d) from the determined values of the coordinates of the control points corresponding to the second observation area in the image plane of the first camera, values of the calibration and position parameters with respect to the vehicle of the first camera as well as that position parameters with respect to the vehicle and projection of the second light source, and from the values of the height h of the vehicle relative to the ground, the roll angle 8 and the pitch angle 9 of the vehicle calculated in step (IV) and data relating to the position and orientation of the vehicle, calculating by means of the calculation unit the values of the coordinates of the reference points of the second corresponding observation zone. to the control points whose coordinates were calculated in step (c) and store them in the memory of the computing unit.

Un quatrième mode de réalisation du dispositif selon l'invention est associé à cette méthode, qui est une variante du dispositif selon le troisième mode de réalisation, dans lequel une deuxième source de lumière est apte à projeter vers le sol une matrice de points de référence lumineux sur une deuxième zone d'observation distincte de la première zone d'observation; la première caméra est en outre apte à enregistrer une image de points de référence lumineux formés sur la deuxième zone d'observation dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la deuxième zone d'observation; la deuxième source de lumière est apte à être montée sur le véhicule en un emplacement donné de façon à ce que les directions de projection des points de référence sur la deuxième zone d'observation ne coïncident pas avec l'axe optique de la première caméra enregistrant une image des points de référence de cette deuxième zone d'observation; la mémoire de l'unité de calcul est apte à stocker 25 des paramètres de position par rapport au véhicule et de projection de la deuxième source de lumière; le moyen de synchronisation est apte à faire fonctionner de manière synchronisée avecle capteur de position la première caméra, la première et la deuxième source de lumière ainsi que l'unité de calcul; et l'unité de calcul est apte à: déterminer des valeurs de coordonnées dans le plan image de la première caméra de points de contrôle d'une image de la deuxième zone d'observation enregistrée par la première caméra et stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et à partir de valeurs stockées en mémoire de coordonnées de points de contrôle correspondant à la deuxième zone d'observation dans le plan image de la première caméra, de valeurs de paramètres de calibrage et de position par rapport au véhicule de la première camera ainsi que de paramètres de position par rapport au véhicule et de projection de la deuxième source de lumière, et à partir de valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis O et de l'angle de tangage p du véhicule et de données relatives à la position et à l'orientation du véhicule, à calculer des valeurs des coordonnées des points de référence de la deuxième zone d'observation correspondant aux points de contrôles et à les stocker dans la mémoire de l'unité de calcul.  A fourth embodiment of the device according to the invention is associated with this method, which is a variant of the device according to the third embodiment, in which a second light source is able to project towards the ground a matrix of reference points. illuminated on a second observation zone distinct from the first observation zone; the first camera is furthermore capable of recording an image of luminous reference points formed on the second observation zone in the image plane of the camera and transmitting the recorded image to the computing unit, the recorded image comprising control points and each control point corresponding to the image of a luminous reference point of the second observation zone; the second light source is adapted to be mounted on the vehicle at a given location so that the directions of projection of the reference points on the second observation area do not coincide with the optical axis of the first recording camera an image of the reference points of this second observation zone; the memory of the computing unit is able to store position parameters with respect to the vehicle and projection of the second light source; the synchronizing means is operable synchronously with the position sensor for the first camera, the first and the second light source and the computing unit; and the calculation unit is able to: determine coordinate values in the image plane of the first camera of control points of an image of the second observation zone recorded by the first camera and store the values determined in the memory of the computing unit; and from values stored in control point coordinate memory corresponding to the second observation area in the image plane of the first camera, values of calibration parameters and position relative to the vehicle of the first camera as well as positional parameters with respect to the vehicle and projection of the second light source, and from values of the height h of the vehicle relative to the ground, the roll angle O and the pitch angle p of the vehicle and data relating to the position and orientation of the vehicle, to calculate values of the coordinates of the reference points of the second observation area corresponding to the control points and to store them in the memory of the control unit. calculation.

Une fois obtenues les coordonnées des points de référence de la deuxième zone d'observation, il est possible d'exploiter ces données pour déterminer la forme géométrique de la deuxième zone d'observation. De nombreux procédés connus permettent d'obtenir une représentation de la forme de cette zone: par exemple à l'aide de maillages où de lignes tracés par interpolation à partir de points de référence, par lignes de niveau etc... L'invention permet alors de représenter, ou de modéliser, l'environnement correspondant à cette deuxième zone d'observation. C'est ainsi que dans un cinquième mode de réalisation de la méthode selon l'invention, variante du quatrième mode précédent, une étape supplémentaire (e) consiste à déterminer au moyen de l'unité de calcul () la forme géométrique de la deuxième zone d'observation, à partir d'un ensemble de valeurs de coordonnées de points de référence calculées à l'étape (d) à un instant donné, et stocker dans la mémoire de l'unité de calcul () les données relatives à cette forme. Un cinquième mode de réalisation du dispositif selon l'invention est associé à ce cinquième mode de réalisation de la méthode selon l'invention, qui est une variante du dispositif selon le quatrième mode de réalisation, dans lequel l'unité de calcul est apte à exécuter l'étape (e) mentionnée ci- dessus.  Once the coordinates of the reference points of the second observation zone have been obtained, it is possible to use these data to determine the geometrical shape of the second observation zone. Many known methods make it possible to obtain a representation of the shape of this zone: for example using meshes or lines drawn by interpolation from reference points, by level lines, etc. The invention makes it possible to obtain a representation of the shape of this zone. then to represent, or to model, the environment corresponding to this second observation zone. Thus, in a fifth embodiment of the method according to the invention, variant of the fourth mode above, an additional step (e) consists in determining by means of the calculation unit () the geometric shape of the second observation area, from a set of reference point coordinate values calculated in step (d) at a given instant, and storing in the memory of the calculation unit () the data relating to this form. A fifth embodiment of the device according to the invention is associated with this fifth embodiment of the method according to the invention, which is a variant of the device according to the fourth embodiment, in which the calculation unit is suitable for perform step (e) above.

Il est possible d'utiliser l'information que représente la forme géométrique calculée à l'étape (e) lors d'un déplacement du véhicule. En effet, si le déplacement du véhicule est tel qu'au cours du temps la première zone d'observation recouvre une portion du sol qui a fait partie de la deuxième zone d'observation à un instant où la forme géométrique de la deuxième zone d'observation a été déterminée, alors cette forme géométrique est peut être utilisée comme forme du sol au niveau de la première zone d'observation à l'étape (IV) du calcul de h, 0 et p (dans le deuxième mode de réalisation de l'invention). Par exemple, si la première et la deuxième zone d'observation se trouvent à l'arrière du véhicule, la deuxième zone étant plus éloignée du véhicule que la première zone, alors si le véhicule recule, le cas de recouvrement mentionné plus haut peut se produire. De façon similaire, si la première et la deuxième zone d'observation se trouvent à l'avant du véhicule, la deuxième zone étant plus éloignée du véhicule que la première zone, alors si le véhicule avance, le cas de recouvrement mentionné plus haut peut se produire. Ainsi, des données précises de forme de zone stockées en mémoire peuvent servir à améliorer la précision du calcul des valeurs de h, 8 et (p.  It is possible to use the information represented by the geometrical shape calculated in step (e) during a displacement of the vehicle. Indeed, if the movement of the vehicle is such that over time the first observation zone covers a portion of the ground that was part of the second observation zone at a time when the geometric shape of the second zone of observation has been determined, then this geometrical form can be used as the shape of the ground at the first observation zone in step (IV) of the computation of h, 0 and p (in the second embodiment of the invention). For example, if the first and second viewing areas are at the rear of the vehicle, the second area being farther away from the vehicle than the first area, then if the vehicle backs off, the above-mentioned case of overlap can occur. produce. Similarly, if the first and second viewing areas are at the front of the vehicle, the second area being farther away from the vehicle than the first area, then if the vehicle is moving forward, the recovery case mentioned above may happen. Thus, accurate zone shape data stored in memory can be used to improve the accuracy of calculation of the values of h, 8 and (p.

Plus précisément, une telle utilisation d'une forme géométrique préalablement calculée concerne un sixième mode de réalisation de la méthode selon l'invention, qui est une variante du cinquième mode précédent dans laquelle, la deuxième zone d'observation étant plus éloignée du véhicule que la première zone d'observation et l'unité de calcul étant en outre apte à évaluer un déplacement du véhicule à partir de données de position et d'orientation du véhicule transmises par le capteur de position, si l'unité de calcul détermine que le véhicule se déplace de façon à ce que, à un instant donné, la première zone d'observation recouvre une portion du sol qui a fait partie de la deuxième zone d'observation à un instant antérieur où ladite forme géométrique de la deuxième zone d'observation a été déterminée, alors cette forme géométrique est utilisée comme forme du sol au niveau de la première zone d'observation à l'étape (IV) de calcul des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 8 et de l'angle de tangage c du véhicule correspondant à l'instant donné.  More precisely, such a use of a previously calculated geometric shape concerns a sixth embodiment of the method according to the invention, which is a variant of the fifth preceding mode in which, the second observation zone being further away from the vehicle than the first observation zone and the computing unit being further able to evaluate a displacement of the vehicle from position and orientation data of the vehicle transmitted by the position sensor, if the calculation unit determines that the vehicle moves so that, at a given instant, the first observation area covers a portion of the ground that has been part of the second observation zone at a previous time when said geometric shape of the second zone of observation has been determined, then this geometric shape is used as the shape of the ground at the level of the first observation zone at the step (IV) of calculating values of the height h of the vehicle relative to the ground, the roll angle 8 and the pitch angle c of the vehicle corresponding to the given instant.

Un sixième mode de réalisation du dispositif selon l'invention, variante du dispositif selon le cinquième mode de réalisation, correspond à la méthode selon le sixième mode de réalisation précédente et possède une unité de calcul apte à mettre en uvre les étapes de cette méthode. Par conséquent, dans ce sixième mode de réalisation, la deuxième zone d'observation étant plus éloignée du véhicule que la première zone d'observation, l'unité de calcul est apte à évaluer un déplacement du véhicule à partir de données de position et d'orientation du véhicule transmises par le capteur de position et stockées en mémoire, et, si l'unité de calcul détermine que le véhicule se déplace de façon à ce que, à un instant donné, la première zone d'observation recouvre une portion du sol qui a fait partie de la deuxième zone d'observation à un instant antérieur où la forme géométrique de ladite deuxième zone d'observation a été déterminée, alors l'unité de calcul utilise cette forme géométrique stockée en mémoire comme forme du sol au niveau de la première zone d'observation pour le calcul des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage p du véhicule correspondant à l'instant donné.  A sixth embodiment of the device according to the invention, variant of the device according to the fifth embodiment, corresponds to the method according to the sixth previous embodiment and has a calculation unit capable of implementing the steps of this method. Consequently, in this sixth embodiment, the second observation zone being further away from the vehicle than the first observation zone, the computing unit is able to evaluate a displacement of the vehicle from position data and from orientation of the vehicle transmitted by the position sensor and stored in memory, and, if the computing unit determines that the vehicle is moving so that, at a given moment, the first observation area covers a portion of the which has been part of the second observation zone at a previous time when the geometrical shape of said second observation zone has been determined, then the calculation unit uses this geometric shape stored in memory as the shape of the ground at the of the first observation zone for calculating the values of the height h of the vehicle relative to the ground, the roll angle e and the pitch angle p of the vehicle corresponding to the insta given.

Dans les modes de réalisation précédents, la ou les zones d'observation sont situées dans le champ de vision de la première caméra. Cependant, lorsque le véhicule est amené à se déplacer dans différentes directions ou à évoluer selon des sens opposés d'une même direction (par exemple si le véhicule avance puis recule), il est avantageux de pouvoir observer une troisième zone (distincte de la première ou de la deuxième zone d'observation). Pour cela, on peut monter sur le véhicule une troisième source de lumière pour projeter une matrice de points de référence lumineux sur la troisième zone d'observation ainsi qu'une deuxième caméra pour pouvoir enregistrer une image de cette troisième zone d'observation afin de permettre à l'unité de calcul d'évaluer les coordonnées de points de référence lumineux de cette zone. La troisième zone peut par exemple se trouver n'importe où autour du véhicule (à l'avant, à l'arrière ou sur un coté), toutefois il sera avantageux, dans le cas où la première caméra est montée à l'arrière du véhicule (respectivement à l'avant) que cette troisième zone d'observation soit située à l'avant du véhicule (respectivement à l'arrière). Cette disposition sera particulièrement utile pour des opérations de parcage du véhicule ou de détection d'obstacles par exemple.  In the previous embodiments, the observation zone (s) are located in the field of view of the first camera. However, when the vehicle is required to move in different directions or to move in opposite directions of the same direction (for example if the vehicle moves forward and then backwards), it is advantageous to be able to observe a third zone (distinct from the first one). or the second observation area). For this purpose, a third light source may be mounted on the vehicle to project a matrix of light reference points on the third observation zone and a second camera to be able to record an image of this third observation zone in order to allow the computing unit to evaluate the coordinates of light reference points of this area. The third zone may for example be anywhere around the vehicle (front, rear or on one side), however it will be advantageous, in the case where the first camera is mounted at the rear of the vehicle. vehicle (respectively at the front) that this third observation area is located at the front of the vehicle (respectively at the rear). This arrangement will be particularly useful for vehicle parking operations or obstacle detection for example.

Par conséquent, un septième mode de réalisation de l'invention, variante de la méthode selon le troisième mode de réalisation, est une méthode dans laquelle le véhicule est en outre équipé: d'une troisième source de lumière apte à projeter vers le sol une matrice de points de référence lumineux sur une troisième zone d'observation distincte de la première zone d'observation; d'une deuxième caméra, montée sur le véhicule en un emplacement donné et calibrée, apte à enregistrer une image de points de référence lumineux de la troisième zone d'observation, et dans laquelle l'unité de calcul est en outre apte à recevoir et à traiter une image enregistrée par la deuxième caméra, la troisième source de lumière est montée sur le véhicule en un emplacement donné de façon à ce que les directions de projection des points de référence sur la troisième zone d'observation ne coïncident pas avec l'axe optique de la deuxième caméra enregistrant une image des points de référence de cette troisième zone d'observation, les valeurs des paramètres de position par rapport au véhicule et de projection de la troisième source de lumière étant stockées dans la mémoire de l'unité de calcul, la troisième source de lumière, la deuxième caméra et l'unité de calcul étant aptes à fonctionner de manière synchronisée grâce au moyen de synchronisation, ladite méthode comprend en outre les étapes suivantes consistant à, de manière synchronisée avec le capteur de position: (al) former une matrice de points de référence lumineux 20 sur la troisième zone d'observation au moyen de la troisième source de lumière; (bl) enregistrer au moyen de la deuxième caméra une image des points de référence lumineux formés sur la troisième zone d'observation dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la troisième zone d'observation; (cl) déterminer au moyen de l'unité de calcul les valeurs des coordonnées dans le plan image de la deuxième caméra de points de contrôle de l'image de la troisième zone d'observation enregistrée par la deuxième caméra et stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et (dl) à partir des valeurs déterminées des coordonnées des points de contrôle correspondant à la troisième zone d'observation dans le plan image de la deuxième caméra, des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera ainsi que des paramètres de position par rapport au véhicule et de projection de la troisième source de lumière, et à partir des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage p du véhicule calculés à l'étape (IV) et des données relatives à la position et à l'orientation du véhicule, calculer au moyen de l'unité de calcul les valeurs des coordonnées des points de référence de la troisième zone d'observation correspondant aux points de contrôles dont les coordonnées ont été calculées à l'étape (cl) et les stocker dans la mémoire de l'unité de calcul.  Therefore, a seventh embodiment of the invention, variant of the method according to the third embodiment, is a method in which the vehicle is further equipped with: a third light source capable of projecting towards the ground a matrix of luminous reference points on a third observation zone distinct from the first observation zone; a second camera, mounted on the vehicle in a given and calibrated location, capable of recording an image of luminous reference points of the third observation zone, and in which the computing unit is furthermore able to receive and processing an image recorded by the second camera, the third light source is mounted on the vehicle at a given location so that the directions of projection of the reference points on the third observation area do not coincide with the optical axis of the second camera recording an image of the reference points of this third observation zone, the values of the position parameters relative to the vehicle and of the projection of the third light source being stored in the memory of the unit of calculation, the third light source, the second camera and the computing unit being able to operate in a synchronized manner by means of synchronous means wherein said method further comprises the steps of: synchronously with the position sensor: (a1) forming a matrix of light reference points on the third viewing area by means of the third light source; (bl) recording by means of the second camera an image of the luminous reference points formed on the third observation zone in the image plane of the camera and transmitting the recorded image to the computing unit, the recorded image comprising control points and each control point corresponding to the image of a luminous reference point of the third observation zone; (cl) determining by means of the calculation unit the values of the coordinates in the image plane of the second camera of the image control points of the third observation zone recorded by the second camera and storing the values determined in the memory of the computing unit; and (d1) from the determined values of the coordinates of the control points corresponding to the third observation zone in the image plane of the second camera, values of the calibration and position parameters with respect to the vehicle of the first camera as well as that position parameters with respect to the vehicle and projection of the third light source, and from the values of the height h of the vehicle relative to the ground, the roll angle e and the pitch angle p of the vehicle calculated in step (IV) and data relating to the position and the orientation of the vehicle, calculating by means of the calculation unit the values of the coordinates of the reference points of the third corresponding observation zone to the control points whose coordinates were calculated in step (c1) and store them in the memory of the calculation unit.

Bien sûr, la méthode précédente peut comporter en outre l'étape suivante consistant à: (el) déterminer au moyen de l'unité de calcul la forme géométrique de la troisième zone d'observation, à partir d'un ensemble de valeurs de coordonnées de points de référence calculées à l'étape (dl) à un instant donné, et stocker dans la mémoire de l'unité de calcul les données relatives à cette forme. De plus, la troisième zone d'observation étant plus éloignée du véhicule que la première zone d'observation et l'unité de calcul étant en outre apte à évaluer un déplacement du véhicule à partir de données de position et d'orientation du véhicule transmises par le capteur de position, si l'unité de calcul détermine que le véhicule se déplace de façon à ce que, à un instant donné, la première zone d'observation recouvre une portion du sol qui a fait partie de la troisième zone d'observation à un instant antérieur où ladite forme géométrique de la troisième zone a été déterminée, alors cette forme géométrique est utilisée comme forme du sol au niveau de la première zone d'observation à l'étape (IV) de calcul des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage 9 du véhicule correspondant à l'instant donné. Ainsi, l'observation de la troisième zone peut-elle améliorer la précision du calcul des paramètres h, 0 et p. Il est clair que d'autres zones d'observation complémentaires peuvent être considérée, dans toute variante d'un mode de réalisation utilisant une deuxième zone d'observation, ainsi que des caméras complémentaires associées pour observer ces zones et des sources complémentaires de lumière associées pour éclairer ces zones (par projection vers le sol de matrices de points lumineux). Tout ceci afin d'encore améliorer les possibilités de représenter les alentours du véhicule ou d'améliorer la précision du calcul des paramètres de position du véhicule par rapport au sol.  Of course, the above method may further comprise the following step of: (el) determining by means of the computing unit the geometric shape of the third observation area, from a set of coordinate values reference points calculated in step (dl) at a given instant, and store in the memory of the computing unit the data relating to this form. In addition, the third observation zone being farther from the vehicle than the first observation zone and the computing unit being further able to evaluate a displacement of the vehicle from vehicle position and orientation data transmitted. by the position sensor, if the computing unit determines that the vehicle is moving so that, at a given moment, the first observation area covers a portion of the ground that has been part of the third zone of observation at a previous time when said geometrical shape of the third zone has been determined, then this geometrical shape is used as the shape of the ground at the level of the first observation zone in the step (IV) of calculating the values of the height h of the vehicle relative to the ground, the roll angle e and the pitch angle 9 of the vehicle corresponding to the given instant. Thus, the observation of the third zone can improve the accuracy of the calculation of the parameters h, 0 and p. It is clear that other complementary observation zones can be considered, in any variant of an embodiment using a second observation zone, as well as complementary cameras associated to observe these zones and complementary complementary light sources. to illuminate these areas (by projecting to the ground dots of light points). All this in order to further improve the possibilities of representing the surroundings of the vehicle or to improve the accuracy of the calculation of the position parameters of the vehicle relative to the ground.

Dans le cas d'une zone d'observation complémentaire, cela correspond à une méthode selon l'invention dans laquelle le véhicule est en outre équipé d'une source complémentaire de lumière apte à projeter vers le sol une matrice de points de référence lumineux sur une zone d'observation complémentaire associée, d'une caméra complémentaire, montée sur le véhicule en un emplacement donné et calibrée, apte à enregistrer une image de points de référence lumineux de la zone d'observation complémentaire, et dans laquelle la source complémentaire de lumière est montée sur le véhicule en un emplacement donné de façon à ce que les directions de projection des points de référence sur la zone d'observation complémentaire associée ne coïncident pas avec l'axe optique de la caméra complémentaire enregistrant une image des points de référence de cette zone d'observation complémentaire, les valeurs des paramètres de calibrage et de position par rapport au véhicule de la camera complémentaire ainsi que des paramètres de position par rapport au véhicule et de projection de la source complémentaire de lumière étant stockées dans la mémoire de l'unité de calcul, la source complémentaire de lumière, la caméra complémentaire ainsi que l'unité de calcul étant aptes à fonctionner de manière synchronisée avec le capteur de position grâce au moyen de synchronisation, ladite méthode comprend en outre les étapes suivantes consistant à, de manière synchronisée avec le capteur de position: (a2) former une matrice de points de référence lumineux sur la zone d'observation complémentaire au moyen de la source complémentaire de lumière; (b2) enregistrer au moyen de la caméra complémentaire une image des points de référence lumineux formés sur la zone d'observation complémentaire dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la zone d'observation complémentaire; (c2) déterminer au moyen de l'unité de calcul les valeurs des coordonnées dans le plan image de la première caméra de points de contrôle de l'image de la zone d'observation complémentaire enregistrée par la caméra complémentaire et stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et (d2) à partir des valeurs déterminées des coordonnées des points de contrôle correspondant à la zone d'observation complémentaire dans le plan image de la caméra complémentaire, des valeurs des paramètres de calibrage et de position par rapport au véhicule de la camera complémentaire ainsi que des paramètres de position par rapport au véhicule et de projection de la source complémentaire de lumière, et à partir des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis A et de l'angle de tangage g> du véhicule calculées à l'étape (IV) et des données relatives à la position et à l'orientation du véhicule, calculer au moyen de l'unité de calcul les valeurs des coordonnées des points de référence de la zone d'observation complémentaire correspondant aux points de contrôles dont les coordonnées ont été calculées à l'étape (c2) et les stocker dans la mémoire de l'unité de calcul.  In the case of a complementary observation zone, this corresponds to a method according to the invention in which the vehicle is furthermore equipped with a complementary source of light able to project towards the ground a matrix of reference points of light on an associated complementary observation zone, of a complementary camera, mounted on the vehicle at a given and calibrated location, capable of recording an image of luminous reference points of the complementary observation zone, and in which the complementary source of light is mounted on the vehicle at a given location so that the projection directions of the reference points on the associated complementary observation area do not coincide with the optical axis of the complementary camera recording an image of the reference points of this complementary observation zone, the values of the calibration and position parameters with respect to the vehicle the complementary camera as well as position parameters with respect to the vehicle and projection of the complementary source of light being stored in the memory of the computing unit, the complementary source of light, the complementary camera and the unit with the synchronization means, said method further comprises the following steps, synchronously with the position sensor: (a2) forming a matrix of reference points illuminated on the complementary observation area by means of the complementary source of light; (b2) recording, by means of the complementary camera, an image of the luminous reference points formed on the complementary observation zone in the image plane of the camera and transmitting the recorded image to the computing unit, the recorded image comprising control points and each control point corresponding to the image of a luminous reference point of the complementary observation zone; (c2) determining, by means of the calculation unit, the values of the coordinates in the image plane of the first camera of image control points of the complementary observation zone recorded by the complementary camera and storing the values determined in the memory of the computing unit; and (d2) from the determined values of the coordinates of the control points corresponding to the complementary observation zone in the image plane of the complementary camera, the values of the calibration and position parameters relative to the vehicle of the complementary camera as well as only positional parameters relative to the vehicle and projection of the complementary source of light, and from the values of the height h of the vehicle relative to the ground, the roll angle A and the pitch angle g of the vehicle calculated in step (IV) and data relating to the position and orientation of the vehicle, calculating by means of the calculation unit the values of the coordinates of the reference points of the complementary observation zone corresponding to the control points whose coordinates were calculated in step (c2) and store them in the memory of the calculation unit.

Afin d'exploiter les données acquises, par exemple pour modéliser l'environnement du véhicule, la méthode précédente peut en outre comprendre l'étape suivante consistant à: (e2) déterminer au moyen de l'unité de calcul la forme géométrique de la zone d'observation complémentaire, à partir d'un ensemble de valeurs de coordonnées de points de référence calculées à l'étape (d2) à un instant donné, et stocker dans la mémoire de l'unité de calcul les données relatives à cette forme.  In order to exploit the acquired data, for example to model the vehicle environment, the above method may further comprise the following step of: (e2) determining by means of the computing unit the geometric shape of the area complementary observation, from a set of reference point coordinate values calculated in step (d2) at a given instant, and store in the memory of the calculation unit the data relating to this form.

Il est clair que le rôle de la caméra complémentaire peut être tenu par la première caméra (lorsque la zone d'observation complémentaire peut se trouver dans le champ de visée de cette dernière). La première caméra peut aussi, par exemple, être mobile sur un axe de façon à pouvoir observer la troisième zone dans une position donnée. De plus, la source complémentaire de lumière peut aussi être la première ou la deuxième source de lumière. Le rôle de la caméra complémentaire peut aussi être tenu par la deuxième caméra (lorsque la zone d'observation complémentaire peut se trouver dans le champ de visée de cette dernière), et, dans ce cas, la source complémentaire de lumière peut aussi être la troisième source de lumière. On notera qu'il est possible que dans les modes précédents la deuxième source de lumière soit la première source de lumière.  It is clear that the role of the complementary camera can be held by the first camera (when the complementary observation zone can be in the field of view of the latter). The first camera can also, for example, be movable on an axis so as to observe the third zone in a given position. In addition, the complementary source of light may also be the first or second light source. The role of the complementary camera can also be held by the second camera (when the complementary observation zone can be in the field of view of the latter), and in this case the complementary light source can also be the third source of light. Note that it is possible that in the previous modes the second light source is the first light source.

Afin d'améliorer la qualité de l'enregistrement des images en assurant un bon contraste, il est avantageux dans l'une quelconque des réalisations précédentes qu'au moins une source de lumière soit une source de lumière laser, ou bien, de façon à assurer la sécurité au niveau des yeux des personnes susceptibles de se trouver dans l'environnement du véhicule tout en bénéficiant d'un bon contraste, qu'au moins une source de lumière soit une source de lumière pulsée, et qu'un moyen de synchronisation de pulsation soit apte à synchroniser chaque source de lumière pulsée avec la caméra correspondante apte à enregistrer une image de la zone d'observation éclairée par la source de lumière pulsée.  In order to improve the quality of image recording by providing good contrast, it is advantageous in any of the preceding embodiments that at least one light source is a laser light source, or else to ensure the safety of the eyes of persons likely to be in the vehicle environment while enjoying a good contrast, that at least one light source is a source of pulsed light, and that a means of synchronization pulsation is able to synchronize each pulsed light source with the corresponding camera capable of recording an image of the observation area illuminated by the pulsed light source.

L'invention concerne aussi une méthode selon l'un quelconque des modes précédents mettant en oeuvre l'enregistrement d'une image de la deuxième zone d'observation, dans laquelle, si un objet se trouve dans l'une des zones d'observation éclairée par l'une des sources de lumière, l'unité de calcul détecte la présence de l'objet et le mouvement de l'objet par rapport au véhicule à partir du traitement d'au moins deux images de cette zone d'observation éclairée par la source de lumière et reçues consécutivement dans le temps, et stocke dans la mémoire les informations relatives au mouvement détecté et à l'emplacement de l'objet détecté. Ce mode de réalisation permet de détecter la présence d'obstacles en mouvement relatif par rapport au véhicule et permet, par exemple, d'éviter une collision. Ceci est particulièrement important si l'obstacle est un piéton. Dans le cas où une source de lumière pulsée est utilisée pour éclairer la zone d'observation considérée, la valeur de la fréquence de pulsation (éventuellement réglable) et le temps (éventuellement réglable) séparant deux prises de vues consécutives par la caméra concernée déterminent la vitesse maximale détectable d'un objet en mouvement relativement au véhicule.  The invention also relates to a method according to any one of the preceding modes implementing the recording of an image of the second observation zone, in which, if an object is in one of the observation zones illuminated by one of the light sources, the computing unit detects the presence of the object and the movement of the object relative to the vehicle from the processing of at least two images of this illuminated observation area by the light source and received consecutively in time, and stores in the memory the information relating to the detected motion and the location of the detected object. This embodiment makes it possible to detect the presence of obstacles in relative movement with respect to the vehicle and makes it possible, for example, to avoid a collision. This is especially important if the obstacle is a pedestrian. In the case where a pulsed light source is used to illuminate the observation zone in question, the value of the frequency of pulsation (possibly adjustable) and the time (possibly adjustable) separating two consecutive shots by the camera concerned determine the detectable maximum velocity of an object in motion relative to the vehicle.

Dans un autre mode de réalisation, variante de l'un quelconque des modes précédents utilisant un capteur de position, l'unité de calcul calcule une représentation graphique de l'environnement du véhicule à partir des données de position stockées dans la mémoire de l'unité de calcul concernant le véhicule et des points de référence d'au moins une zone d'observation. Cette variante permet de modéliser l'environnement du véhicule tel qu'observé à partir des différentes zones d'observation. En outre, dans une variante complémentaire destinée à réaliser une aide à la navigation, l'unité de calcul associe une position du véhicule stockée en mémoire à un emplacement correspondant sur une carte de l'environnement du véhicule stockée en mémoire, et stocke en mémoire le résultat de cette association.  In another embodiment, variant of any one of the preceding modes using a position sensor, the computing unit calculates a graphical representation of the vehicle environment from the position data stored in the memory of the vehicle. calculation unit relating to the vehicle and reference points of at least one observation zone. This variant makes it possible to model the environment of the vehicle as observed from the different observation zones. In addition, in a complementary variant intended to provide a navigation aid, the computing unit associates a position of the vehicle stored in memory with a corresponding location on a map of the vehicle environment stored in memory, and stores in memory the result of this association.

Pour assurer un contrôle efficace du véhicule et de son déplacement dans l'environnement, un mode de réalisation de l'invention, variante de l'un quelconque des modes précédents, est une méthode dans laquelle l'unité de calcul met en forme des données stockées en mémoire et transmet ces données mises en forme à un moyen d'affichage pour afficher une représentation de ces données. Cela permet à un opérateur regardant le moyen d'affichage, à bord du véhicule ou à l'extérieur (les données d'affichage étant alors transmises par radio par exemple), d'avoir accès aux diverses données obtenues par l'unité de calcul selon diverses représentations. L'opérateur peut alors visualiser la position du véhicule dans l'environnement, éventuellement la situation du véhicule sur une carte ou la présence d'obstacles (fixes ou en mouvement). Sur la base de ces informations, l'opérateur pourra guider le véhicule de manière plus sûre.  To ensure efficient control of the vehicle and its movement in the environment, an embodiment of the invention, variant of any of the preceding modes, is a method in which the computing unit formats data. stored in memory and transmits this formatted data to a display means for displaying a representation of these data. This allows an operator looking at the display means, on board the vehicle or outside (the display data is then transmitted by radio for example), to have access to the various data obtained by the calculation unit according to various representations. The operator can then view the position of the vehicle in the environment, possibly the situation of the vehicle on a map or the presence of obstacles (fixed or moving). Based on this information, the operator can guide the vehicle more safely.

Bien sûr, à chacun des modes de réalisation précédents de la méthode de détermination de la position d'un véhicule dans un environnement, et de ses diverses variantes, correspond un dispositif selon l'invention apte à le mettre en uvre, comme indiqué dans les revendications annexées.  Of course, to each of the preceding embodiments of the method for determining the position of a vehicle in an environment, and its various variants, corresponds to a device according to the invention able to implement it, as indicated in the appended claims.

Enfin, l'invention concerne aussi un véhicule équipé d'un quelconque des dispositifs de détermination de la position d'un véhicule dans un environnement mentionné plus haut.  Finally, the invention also relates to a vehicle equipped with any one of the devices for determining the position of a vehicle in an environment mentioned above.

D'autres caractéristiques et avantages de l'invention ressortiront de la description suivante de modes de réalisation particuliers, donnés à titre d'exemples en référence aux dessins annexés.  Other features and advantages of the invention will emerge from the following description of particular embodiments, given by way of example with reference to the accompanying drawings.

BRÈVE DESCRIPTION DES DESSINSBRIEF DESCRIPTION OF THE DRAWINGS

La Figure 1 est une représentation simplifiée, correspondant à une vue de dessus, d'une première caméra montée à l'arrière d'un véhicule, d'une première source de lumière pour la projection d'une matrice de points lumineux sur une première zone d'observation.  FIG. 1 is a simplified representation, corresponding to a view from above, of a first camera mounted at the rear of a vehicle, of a first light source for projecting a matrix of light spots on a first observation area.

La Figure 2 est une vue de profil 5 correspondant à la Figure 1.  Figure 2 is a side view corresponding to Figure 1.

La Figure 3 est représentation simplifiée, correspondant à une vue de dessus, d'un mode de réalisation mettant en uvre une caméra, montée à l'arrière du véhicule, avec deux sources de lumière pour éclairer deux zones d'observation.  Figure 3 is a simplified representation, corresponding to a top view, of an embodiment implementing a camera, mounted at the rear of the vehicle, with two light sources for illuminating two observation areas.

La Figure 4 est une vue de profil correspondant à la Figure 3.  Figure 4 is a side view corresponding to Figure 3.

La Figure 5 est une représentation simplifiée, correspondant à une vue de dessus, d'un mode de réalisation mettant en uvre deux caméras, l'une à l'avant du véhicule l'autre à l'arrière, avec trois sources de lumière pour éclairer trois zones d'observation.  FIG. 5 is a simplified representation, corresponding to a view from above, of an embodiment implementing two cameras, one at the front of the vehicle and the other at the rear, with three light sources for illuminate three areas of observation.

La Figure 6 est une vue de profil 20 correspondant à la Figure 5.  Figure 6 is a side view corresponding to Figure 5.

La Figure 7 est une représentation simplifiée, correspondant à une vue de dessus, d'un mode de réalisation mettant en uvre une caméra, à l'arrière, avec quatre sources de lumière pour éclairer quatre zones d'observation.  Figure 7 is a simplified representation, corresponding to a top view, of an embodiment implementing a camera, at the rear, with four light sources for illuminating four observation zones.

La Figure 8 est une représentation simplifiée, correspondant à une vue de dessus, d'un mode de réalisation mettant en uvre quatre caméras, une à l'avant du véhicule, une autre à l'arrière et une de chaque coté du véhicule, avec onze sources de lumière pour éclairer onze zones d'observation.  FIG. 8 is a simplified representation, corresponding to a view from above, of an embodiment implementing four cameras, one at the front of the vehicle, another at the rear and one on each side of the vehicle, with eleven light sources to illuminate eleven areas of observation.

Dans les diverses figures, les éléments identiques ont les mêmes références.  In the various figures, the identical elements have the same references.

EXPOSÉ DÉTAILLÉ D'UN MODE DE RÉALISATION PARTICULIER Un mode particulier de réalisation de l'invention, décrit en référence aux figures 1 et 2, concerne un dispositif particulier du second mode de réalisation de l'invention mentionné plus haut comprenant une première caméra (1) à enregistrement CCD montée à l'arrière d'un véhicule (2) (ici une automobile) pour enregistrer des images d'une première zone d'observation (3), située à l'arrière du véhicule et à proximité immédiate de celui-ci. Est aussi montée à l'arrière du véhicule (2) la première source de lumière (4), ici une source laser, pour projeter une matrice de points lumineux vers la première zone d'observation (3). Une unité de calcul (5) est embarquée à bord du véhicule (2) et permet d'effectuer un traitement des images reçues de la caméra (1).  DETAILED DESCRIPTION OF A PARTICULAR EMBODIMENT A particular embodiment of the invention, described with reference to FIGS. 1 and 2, relates to a particular device of the second embodiment of the invention mentioned above comprising a first camera (1). ) CCD record mounted on the back of a vehicle (2) (here an automobile) for recording images of a first viewing area (3), located at the rear of the vehicle and in close proximity to that -this. Also mounted at the rear of the vehicle (2) the first light source (4), here a laser source, for projecting a matrix of light points to the first observation area (3). A calculation unit (5) is embedded in the vehicle (2) and makes it possible to process images received from the camera (1).

Le véhicule est situé sur une route, et on supposera que la forme du sol au niveau de la première zone d'observation est plane et correspond même à un plan sensiblement horizontal. On supposera aussi, pour simplifier la présentation des calculs et sans restreindre la généralité, que ce plan horizontal a pour équation zp = 0 dans un repère cartésien lié à la caméra (1). Ainsi, si Xp désigne un point de la zone d'observation (3) dans le repère lié à la première source de lumière (4), alors les coordonnées homogènes de ce point sont Xp = [xp, yp, zp=0, 1] T. La source laser (4) forme N (N >- 3) points de référence lumineux Pi (i=1, ...,N) sur le sol dans la première zone d'observation (3) conformément à l'étape (I) de la méthode. Les points de référence Pi correspondent ici aux noeuds d'une grille lumineuse formée par la source laser (4) sur la zone (3). La première caméra (1) enregistre alors une image de la première zone d'observation (3) avec les points Pi selon l'étape (II). Les coordonnées des points Pi sont présentées sous la forme de coordonnées homogènes pour une formulation matricielle du problème: Pi = [Pix, Piy, Piz, 1] T, i = 1,...,N, où les trois premières coordonnées sont les coordonnées du point Pi dans un repère cartésien R lié au sol et 15 d'axes x, y et z. La caméra (1) CCD enregistre dans son plan image les points de contrôle correspondant aux points de référence selon l'étape (II). Désignons par Ci (i = 1,...,N) les N points de contrôle sur l'image enregistrée qui correspondent aux N points de référence Pi de la zone d'observation (3). Ces points de contrôle Ci, une fois corrigés de l'effet de distorsion par l'unité de calcul (5) (selon l'une des nombreuses méthodes connues, voir par exemple l'article de F.Devernay et O.Faugeras, Machine Vision and Applications (13), 14-24 2001), donnent des points Di (i = 1,...,N) : on a alors Di = F (Ci) , i = 1, ..., N, où F désigne une fonction de distorsion formée avec les paramètres de distorsion de la caméra (1) stockés dans la mémoire de l'unité de calcul (5) Dans ce mode de réalisation, ainsi que dans les autres, l'unité de calcul (5) peut aussi mettre en oeuvre une méthode de seuillage lors de l'analyse d'une image de la zone d'observation reçue de la caméra. Ce seuillage permet d'améliorer la précision de la détermination par l'unité de calcul des coordonnées des points de contrôle Ci détectés sur l'image, et par conséquent aussi celle des points Di associés à ces points Ci lors de la correction de distorsion conformément à l'étape (III) de la méthode utilisée.  The vehicle is located on a road, and it will be assumed that the shape of the ground at the first observation area is flat and even corresponds to a substantially horizontal plane. To simplify the presentation of the calculations and without restricting the generality, we suppose that this horizontal plane has the equation zp = 0 in a cartesian coordinate system linked to the camera (1). Thus, if Xp designates a point of the observation zone (3) in the coordinate system linked to the first light source (4), then the homogeneous coordinates of this point are Xp = [xp, yp, zp = 0, 1 ] T. The laser source (4) forms N (N> - 3) luminous reference points Pi (i = 1, ..., N) on the ground in the first observation zone (3) according to the step (I) of the method. The reference points Pi here correspond to the nodes of a light grid formed by the laser source (4) on the zone (3). The first camera (1) then records an image of the first observation zone (3) with the points Pi according to step (II). The coordinates of the points Pi are presented in the form of homogeneous coordinates for a matrix formulation of the problem: Pi = [Pix, Piy, Piz, 1] T, i = 1, ..., N, where the first three coordinates are the coordinates of the point Pi in a cartesian coordinate system R linked to the ground and 15 axes x, y and z. The camera (1) CCD records in its image plane the control points corresponding to the reference points according to step (II). Let Ci (i = 1, ..., N) denote the N control points on the recorded image that correspond to the N reference points Pi of the observation zone (3). These control points Ci, once corrected for the distortion effect by the calculation unit (5) (according to one of the many known methods, see for example the article by F.Devernay and O.Faugeras, Machine Vision and Applications (13), 14-24 2001), give points Di (i = 1, ..., N): we then have Di = F (Ci), i = 1, ..., N, where F denotes a distortion function formed with the distortion parameters of the camera (1) stored in the memory of the computing unit (5) In this embodiment, as in the others, the computing unit (5) ) can also implement a thresholding method when analyzing an image of the observation area received from the camera. This thresholding makes it possible to improve the accuracy of the determination by the calculation unit of the coordinates of the control points Ci detected on the image, and consequently also of the points Di associated with these points Ci during the distortion correction according to in step (III) of the method used.

Désignons par Rc le repère cartésien d'axes u, v du plan image de la caméra (1) (ce plan image est perpendiculaire à l'axe optique de la caméra). Les paramètres intrinsèques de calibrage de la première camera (1) sont ici au nombre de quatre: a, la distance focale horizontale de la caméra, b, la distance focale verticale de la caméra, c, la coordonnée horizontale du centre optique, et d, la coordonnée verticale du centre optique. a représente le produit de la longueur du pixel par la distance focale f de la caméra; b représente le produit de la largeur du pixel par la distance focale f de la caméra.  Let Rc denote the cartesian coordinate system of axes u, v of the image plane of the camera (1) (this image plane is perpendicular to the optical axis of the camera). The intrinsic calibration parameters of the first camera (1) are here four in number: a, the horizontal focal distance of the camera, b, the vertical focal distance of the camera, c, the horizontal coordinate of the optical center, and d , the vertical coordinate of the optical center. a represents the product of the length of the pixel by the focal length f of the camera; b represents the product of the pixel width by the focal distance f of the camera.

Les coordonnées c et d dans le repère Rc (d'axes u, v) du plan image de la caméra (plan d'enregistrement de la caméra) représentent la projection du centre optique le long de l'axe optique dans le plan image. Ces quatre paramètres constituent les élément d'une a 0 c 0 matrice II  The coordinates c and d in the reference Rc (of axes u, v) of the image plane of the camera (recording plane of the camera) represent the projection of the optical center along the optical axis in the image plane. These four parameters constitute the elements of a 0 c 0 matrix II

(3x4) : II = 0 b d 0 0 0 1 0 Dans ce qui suit, on désigne la matrice connue de rotation (3x3) d'un repère lié à la source laser (4) par rapport à un repère lié au véhicule par RL/v = [aij] (où les indices respectifs de ligne et de colonne i et j varient de 1 à 3), la matrice connue de rotation (3x3) d'un repère lié à la caméra (1) par rapport à un repère lié au véhicule par Rc/v = [bij] (où i,j =1,2,3), et la matrice de rotation (3x3) d'un repère lié au véhicule par rapport au repère R lié au sol par Rv/o = [vi,j] (où i,j =1,2,3). Les matrices RL/v et Rc/v sont connues car les emplacements de la caméra (1) et de la source laser (4), ainsi que les repères associés, sont connus. Les matrices RL/v et Rc/v sont stockées dans la mémoire de l'unité de calcul (5).  (3x4): II = 0 bd 0 0 0 1 0 In the following, we designate the known matrix of rotation (3x3) of a reference linked to the laser source (4) relative to a reference linked to the vehicle by RL / v = [aij] (where the respective row and column indices i and j vary from 1 to 3), the known rotation matrix (3x3) of a reference linked to the camera (1) with respect to a reference mark linked to the vehicle by Rc / v = [bij] (where i, j = 1,2,3), and the rotation matrix (3x3) of a reference linked to the vehicle relative to the reference R linked to the ground by Rv / o = [vi, j] (where i, j = 1,2,3). The matrices RL / V and Rc / v are known because the locations of the camera (1) and the laser source (4), as well as the associated references, are known. The matrices RL / V and Rc / v are stored in the memory of the computing unit (5).

De manière générale, les coefficient vij de la matrice de rotation Rv/o s'expriment en fonction des angles de de roulis 0, de tangage p du véhicule (2) et d'un angle 4 de rotation autour d'un axe perpendiculaire par rapport au plan du châssis du véhicule (2), de la façon suivante: v1 1 = cosp cos* ' 1,2 = cosp sin* v1 3 = -sincp v2,1 = sine sincp cos* - cose sin* V2,2 = sine sincp sin* + cose cos* v2,3 = sine cosp v3,1 = cose sincp cos* + sine sin* V3,2 = cose sincp sin* - sine cos* v3,3 = cose cosp Il est bien connu que si Ryix désigne la matrice de rotation d'un repère Y par rapport à un repère X, alors la matrice de passage Py/x du repère X au repère Y peut s'écrire sous la forme (si un vecteur A quelconque s'exprime comme un vecteur colonne A. dans le repère X et comme un vecteur colonne AY dans le repère Y, alors on a AY = PY/x AX) : PY/x =[Râ'r(RY'1YX)1, et la matrice de passage inverse.  In general, the coefficients vij of the rotation matrix Rv / o are expressed as a function of the angles of roll 0, pitch p of the vehicle (2) and a rotation angle 4 about a perpendicular axis by relative to the plane of the chassis of the vehicle (2), as follows: v1 1 = cosp cos * '1,2 = cosp sin * v1 3 = -sincp v2,1 = sine sincp cos * - cose sin * V2,2 = sine sincp sin * + cose cos * v2,3 = sine cosp v3,1 = cose sincp cos * + sine sin * V3,2 = cose sincp sin * - sine cos * v3,3 = cose cosp It is well known that if Ryix designates the rotation matrix of a Y mark relative to an X mark, then the Py / x passing matrix from the X mark to the Y mark can be written in the form (if any A vector expresses itself as a column vector A. in the X mark and as a column vector AY in the Y mark, then we have AY = PY / x AX): PY / x = [Râ'r (RY'1YX) 1, and the matrix of reverse passage.

= (Py/x) -1 _ [(Ri1, XY où (RY/x) ' désigne 0 1 la matrice transposée de Ry/x.  = (Py / x) -1 _ [(Ri1, XY where (RY / x) 'denotes 0 1 the transposed matrix of Ry / x.

Les coordonnées respectives des origines des repères de 10 la source laser (4) et de la caméra (1) dans le repère du véhicule (2), c'est-à- dire VL = [11, 12, 13] T et VC = [cl, c2, c3] T, sont connues et stockées dans la mémoire de l'unité de calcul (5).  The respective coordinates of the origins of the marks of the laser source (4) and of the camera (1) in the vehicle mark (2), that is to say VL = [11, 12, 13] T and VC = [cl, c2, c3] T, are known and stored in the memory of the calculation unit (5).

On désigne par 0V= [dx, dy, dZ] T les coordonnées de l'origine du repère du véhicule dans le repère R. Soit D un point (corrigé des effets de distorsion) correspondant à un point de référence P de la zone d'observation (3), dont les coordonnées homogènes dans le repère Rc sont k.[u,v,1]T, où k désigne la profondeur sur l'axe optique entre les points P et D (ku et kv désignant donc les coordonnées corrigées de la distorsion de la caméra (1); u, v désignant les coordonnées du point de contrôle C correspondant à p déterminées par l'unité de calcul selon l'étape (III)), alors l'équation (El) reliant les coordonnées de D calculées par l'unité de calcul (5) à celles du point de référence correspondant P (de la zone d'observation (3)) dont les coordonnées sont exprimées dans le repère Px/Y lié à la source de lumière (4) (voir plus haut le point XP) est (avec CL = VL VC) : a 0 c 0- (El) : D =II. Pc/v É (PL/v) -1. XP = 0 b d 0 0 0 1 0 Ensuite, à partir de l'équation (El) on extrait: (E2) : fxP-f(u,v) où f et g sont des fonctions connues de y,, =g(u,v) leurs arguments, et à partir de (E2) on arrive à: CRov(RL,v) 'RcXLI 0 1 J x,, Op (E3) : P = ( Pv/o) 1. ( PL/v) 1. XP = C(Rvio)ô(Ruv) '(OV+(RPio)VL)1 ou P représente le point de référence correspondant aux points D et Xi, , dans le repère R. Il reste alors à déterminer les valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 0 et de l'angle de tangage p du véhicule dans le repère R. Pour cela, on observe que l'équation (E3), qui exprime la relation existant entre des points correspondants dans le repère R et dans le repère de la source de lumière (4), peut s'écrire: Xi, où R= [rij] , (i, j=1, 2, 3) , est une matrice P = (3x3) définie par: ri = aLk.vk,i (avec la convention d'Einstein sur les indices), et où t désigne le vecteur OV+ Rv/o. VL (de coordonnées tX, ty, tZ) . La matrice R est stockée dans la mémoire de l'unité de calcul (5). Ainsi, (E3) est-elle équivalente à P x = rI, .xP+ rl2.yp+tx (E4) : P,=r2,!.xP+r2,2.yp+tY P= = r3.I.xP + r3,2.yp + tz Pour simplifier l'exposé des calculs (sans restreindre la généralité de la méthode) on peut supposer que l'origine des altitudes dans le repère R correspond à la côte z=0. De plus, du fait de l'hypothèse de planéité de la zone d'observation faite plus haut (dans un cas plus général il suffira de se donner l'équation représentant la forme locale de cette zone), on obtient que (E4) est équivalente à (E5) : r3,1.xp+ r3,2.yp+tZ = 0, qui s'écrit aussi V1,3 (a1,1Xp+a2,lyp+11) +V2,3 (a1,2Xp+a2,2yp+12) +V3, 3 (a1,3)Cp+a2,3yp+13) +dz = 0, ou encore (E6) : -m sincp +n sine cosp +p cose cosp = - dz avec m = a1,1xp+a2,1yp+l1 n = al, 2xp+a2, 2yp+12 p = a1, 3xp+a2, 3yp+13 Les valeurs de xp et yp ne dépendent pas du mouvement du véhicule (2) (car Pv/o ne figure pas dans (El)) et par conséquent m, n et p ont des valeurs constantes pour un point donné dans l'image enregistrée. Afin de calculer les valeurs de p, 0 et dz, il faut au moins trois points non alignés dans l'image enregistrée par la caméra (1) : soient D1, D2 et D3 ces trois points (associés aux trois points de contrôle C1, C2 et C3 détectés par l'unité de calcul (5) sur l'image) dont les coordonnées corrigées des effets de distorsion sont stockées dans la mémoire (ces points correspondent donc à trois points Xp1, Xp2 et Xp3 de la zone d'observation), alors à partir de (E6), considérée pour chacun de ces points, on obtient un système (E7) de trois équations à trois inconnues p, 0 et dZ: (E7) : -m1 sincp + (ni sine +pi cose) cosp = - dz 2890477 41 -m2 sincp +(n2 sine +p2 cose) coscp = - dz -m3 sincp +(n3 sine +p3 cose) cosy = - dZ d'où l'on obtient le résultat (E8) : tarte=[ (m2-ml) (P3-pl) - (m3-m1) (P2-Pl) [ (m3-m1) (n2-n1) - (m2-ml) (n3-n1) ] tancp= [ (n2-n1) sine + (p2-pl) cose] / [m2-ml] dZ = misincp - (nlsine +p1cose) cosp dans lequel dZ représente la hauteur h du véhicule par rapport au sol. Les valeurs cherchées des angles 0 et cp sont obtenues en appliquant la fonction inverse Arc tan aux membres de droite correspondants dans (E8) . Ainsi, l'unité de calcul (5) est-elle capable, selon l'étape (IV) de la méthode, de calculer des valeurs de h, 0 et cp à partir d'au moins trois points Dl, D2 et D3.  0V = [dx, dy, dZ] T denotes the coordinates of the origin of the vehicle reference mark in the reference frame R. Let D be a point (corrected for the distortion effects) corresponding to a reference point P of the zone d observation (3), whose homogeneous coordinates in the reference frame Rc are k. [u, v, 1] T, where k denotes the depth on the optical axis between the points P and D (ku and kv thus designating the coordinates corrected for the distortion of the camera (1), u, v designating the coordinates of the control point C corresponding to p determined by the calculation unit according to step (III)), then the equation (El) connecting the coordinates of D calculated by the calculation unit (5) to those of the corresponding reference point P (of the observation zone (3)) whose coordinates are expressed in the reference Px / Y bound to the light source ( 4) (see point XP above) is (with CL = VL VC): a 0 c 0- (El): D = II. Pc / v E (PL / v) -1. XP = 0 bd 0 0 0 1 0 Then, from equation (El) we extract: (E2): fxP-f (u, v) where f and g are known functions of y ,, = g ( u, v) their arguments, and from (E2) one arrives at: CRov (RL, v) 'RcXLI 0 1 J x ,, Op (E3): P = (Pv / o) 1. (PL / v ) 1. XP = C (Rvio) δ (Ruv) '(OV + (RPio) VL) 1 where P represents the reference point corresponding to the points D and Xi, in the reference frame R. It remains then to determine the values of the height h of the vehicle relative to the ground, the roll angle θ and the pitch angle ρ of the vehicle in the reference R. For this, it is observed that the equation (E3), which expresses the existing relation between corresponding points in the reference R and in the reference of the light source (4), can be written: Xi, where R = [rij], (i, j = 1, 2, 3), is a matrix P = (3x3) defined by: ri = aLk.vk, i (with the Einstein convention on indices), and where t denotes the vector OV + Rv / o. VL (of coordinates tX, ty, tZ). The matrix R is stored in the memory of the computing unit (5). So, (E3) is it equivalent to P x = rI, .xP + rl2.yp + tx (E4): P, = r2,! .XP + r2,2.yp + tY P = = r3.I.xP + r3,2.yp + tz To simplify the presentation of the computations (without restricting the generality of the method) one can suppose that the origin of the altitudes in the reference frame R corresponds to the coast z = 0. Moreover, because of the assumption of flatness of the observation zone made above (in a more general case it will suffice to give the equation representing the local form of this zone), we obtain that (E4) is equivalent to (E5): r3,1.xp + r3,2.yp + tZ = 0, which is also written V1,3 (a1,1Xp + a2, lyp + 11) + V2,3 (a1,2Xp + a2 , 2yp + 12) + V3, 3 (a1,3) Cp + a2,3yp + 13) + dz = 0, or else (E6): -m sincp + n sine cosp + p cose cosp = -dz with m = a1,1xp + a2,1yp + l1 n = al, 2xp + a2, 2yp + 12 p = a1, 3xp + a2, 3yp + 13 The values of xp and yp do not depend on the movement of the vehicle (2) (because Pv / o does not appear in (El)) and therefore m, n and p have constant values for a given point in the recorded image. In order to calculate the values of p, 0 and dz, at least three non-aligned points in the image recorded by the camera (1) are required: let D1, D2 and D3 be those three points (associated with the three control points C1, C2 and C3 detected by the calculation unit (5) on the image) whose corrected coordinates of the distortion effects are stored in the memory (these points therefore correspond to three points Xp1, Xp2 and Xp3 of the observation zone ), then from (E6), considered for each of these points, we obtain a system (E7) of three equations with three unknowns p, 0 and dZ: (E7): -m1 sincp + (ni sine + pi cose ) cosp = - dz 2890477 41 -m2 sincp + (n2 sine + p2 cose) coscp = - dz -m3 sincp + (n3 sine + p3 cose) cos = - dZ from which we obtain the result (E8): pie = [(m2-ml) (P3-pl) - (m3-m1) (P2-P1) [(m3-m1) (n2-n1) - (m2-ml) (n3-n1)] tan = (n2-n1) sine + (p2-pl) cose] / [m2-ml] dZ = misincp - (nlsine + p1cose) cosp where dZ is the height h of the vehicle the relative to the ground. The sought values of the angles 0 and cp are obtained by applying the inverse function Arc tan to the corresponding right-hand members in (E8). Thus, the calculation unit (5) is capable, according to step (IV) of the method, of calculating values of h, 0 and cp from at least three points D1, D2 and D3.

Dans le cas général, au lieu de supposer que la première zone d'observation (3) est plane et horizontale, on peut supposer qu'elle a une forme quelconque donnée. Par exemple, un point Xp de cette zone appartiendra à une surface d'équation donnée sous forme paramétrique ou explicite. L'équation de la surface (dans le repère lié à la source de lumière) permet alors d'exprimer une des coordonnées du point en fonction des deux autres, par exemple zp = a (xp, yp) . Il suffit alors de remplacer dans (El) le vecteur xn par le vecteur n z,, = a(xP7 yp) dans (E3) le vecteur xp yP 0 1 par x,, le vecteur (où xp=f (u,v) , yp=g(u,v) et zp=a(f (u,v) , Y, z g (u, v))) , alors (E4) devient P x = rt. I.xP + r] .2.yP + rt,3.zP + t. (E4)': PY = r2.1.xP+r2,2.yP+rz,3.ZP+ty Pr. = r3.I.xP+ r3.2.y,+r3,3.zp+ tz Mais comme le point P est sur la zone d'observation dont l'équation de la surface est connue (dans le repère de la source laser c'est zp=a (xp, yp)) , il existe une relation connue (correspondant à l'équation de la surface dans le repère R) entre les coordonnées de P, par exemple Pz=(3(Px,Py). Par conséquent, l'équation (E5) devient a (E5) ' : r3 1. xp+ r3 2. yp+ r3 3. a (xp, yp) + tz = 3 (Px, Py), Où l'on a.  In the general case, instead of assuming that the first viewing area (3) is flat and horizontal, it can be assumed that it has any given shape. For example, a point Xp of this area will belong to a given equation surface in parametric or explicit form. The equation of the surface (in the reference linked to the light source) then makes it possible to express one of the coordinates of the point as a function of the other two, for example zp = a (xp, yp). It is then enough to replace in (El) the vector xn by the vector nz ,, = a (xP7 yp) in (E3) the vector xp yP 0 1 by x ,, the vector (where xp = f (u, v) , yp = g (u, v) and zp = a (f (u, v), Y, zg (u, v))), then (E4) becomes P x = rt. I.xP + r] .2.yP + rt, 3.zP + t. (E4) ': PY = r2.1.xP + r2,2.yP + rz, 3.ZP + ty Pr. = R3.I.xP + r3.2.y, + r3,3.zp + tz But as the point P is on the observation zone whose surface equation is known (in the reference of the laser source it is zp = a (xp, yp)), there exists a known relation (corresponding to the equation of the area in the coordinate system R) between the coordinates of P, for example Pz = (3 (Px, Py) Therefore, the equation (E5) becomes a (E5) ': r3 1. xp + r3 2. yp + r3 3. a (xp, yp) + tz = 3 (Px, Py), where we have.

xp=f (u, v) , yp=g (u, v) , Px= r1 1. xp+rl, 2 É Yp+rl, 3 É a (xp, Yp) + tx, et Py= r2,1.xp+r2,2ÉYp+r2,3Éa(xp,Yp)+ty De la même façon que précédemment, la donnée de trois points D1, D2 et D3 (et donc des coordonnées u, v associées) déterminés par l'unité de calcul (5) permet de former un système de trois équations à trois inconnues et d'en déduire des valeurs de h, A et T. Un autre mode particulier de réalisation de l'invention, décrit en référence aux figures 3 et 4 concerne un dispositif particulier du cinquième mode de réalisation de l'invention mentionné plus haut comprenant (les éléments communs avec le mode particulier précédent ont les mêmes références) un véhicule (2) equipé d'une première caméra (1) montée à l'arrière du véhicule pour enregistrer des images d'une première zone d'observation (3) située à l'arrière du véhicule, d'une première source de lumière laser (4) montée à l'arrière du véhicule pour projeter des points de référence lumineux Pi (i=1, ..., N) sur la zone (3), d'une unité de calcul (5) qui permet d'effectuer un traitement des images reçues de la caméra (1), d'une deuxième source de lumière laser (6) montée à l'arrière du véhicule pour projeter des points de référence lumineux Qi (i=1,...,M) sur une deuxième zone d'observation (7) située à l'arrière du véhicule et plus à l'extérieur de celui-ci que la première zone (3). Cette deuxième source de lumière (6) est montée sur le véhicule (2) en un emplacement donné de façon à ce que les directions de projection des points de référence sur la deuxième zone d'observation (7) ne coïncident pas avec l'axe optique de la première caméra (1) lorsque celle-ci enregistre une image des points de référence de la deuxième zone d'observation (7). Le véhicule (2) est aussi équipé d'un capteur de position (8) apte à déterminer une position et une orientation bidimensionnelles du véhicule au niveau du sol à un instant donné et à transmettre les données relatives à cette position et cette orientation à l'unité de calcul (5), et d'un moyen de synchronisation (9) pour faire fonctionner de manière synchronisée avec le capteur de position (8) la première caméra (1), la première (4) et la deuxième (6) source de lumière ainsi que l'unité de calcul (5). Dans ce mode particulier, le capteur de position (8) est du type GPS et permet d'enregistrer 2890477 44 les positions de deux points du véhicule, respectivement situés aux extrémités avant et arrière du véhicule (2), pour déterminer une position et une orientation bidimensionnelles du véhicule (2) au niveau du sol à un instant donné et transmettre les données relatives à cette position et cette orientation à l'unité de calcul (5). Ce capteur de position (8) permet en fait de connaître la direction d'un axe longitudinal du châssis du véhicule (2) (au niveau du sol sur lequel se trouve le véhicule) passant par les deux points situés aux extrémités du véhicule mentionnés ci-dessus.  xp = f (u, v), yp = g (u, v), Px = r1 1.xp + r1, 2E Yp + r1, 3Ea (xp, Yp) + tx, and Py = r2,1 .xp + r2,2EYp + r2,3Ea (xp, Yp) + ty In the same way as previously, the data of three points D1, D2 and D3 (and thus of the associated coordinates u, v) determined by the unit of calculation (5) makes it possible to form a system of three equations with three unknowns and to deduce from them values of h, A and T. Another particular embodiment of the invention, described with reference to FIGS. particular device of the fifth embodiment of the invention mentioned above comprising (the elements common with the previous particular mode have the same references) a vehicle (2) equipped with a first camera (1) mounted at the rear of the vehicle for recording images of a first viewing area (3) at the rear of the vehicle, a first laser light source (4) mounted at the rear of the vehicle for projecting reference light Pi (i = 1, ..., N) on the zone (3), a calculation unit (5) which makes it possible to process the images received from the camera (1), a second laser light source (6) mounted at the rear of the vehicle for projecting luminous reference points Qi (i = 1, ..., M) onto a second observation area (7) located at the rear of the vehicle; vehicle and more outside of it than the first zone (3). This second light source (6) is mounted on the vehicle (2) at a given location so that the directions of projection of the reference points on the second observation zone (7) do not coincide with the axis optical of the first camera (1) when it records an image of the reference points of the second observation area (7). The vehicle (2) is also equipped with a position sensor (8) able to determine a two-dimensional position and orientation of the vehicle at ground level at a given moment and to transmit the data relating to this position and this orientation to the vehicle. computing unit (5), and synchronizing means (9) for synchronously operating with the position sensor (8) the first camera (1), the first (4) and the second (6) light source as well as the computing unit (5). In this particular mode, the position sensor (8) is of the GPS type and makes it possible to record the positions of two points of the vehicle, located respectively at the front and rear ends of the vehicle (2), to determine a position and a position. two-dimensional orientation of the vehicle (2) at ground level at a given moment and transmit the data relating to this position and this orientation to the computing unit (5). This position sensor (8) makes it possible to know the direction of a longitudinal axis of the vehicle frame (2) (at the ground on which the vehicle is located) passing through the two points at the ends of the vehicle mentioned here. -above.

Le calcul par l'unité de calcul (5) des valeurs de h, 0 et cp à partir d'une image de la première zone d'observation (3) enregistrée par la caméra (1) est effectué selon les mêmes étapes que celles présentées plus haut pour le premier mode particulier de réalisation de l'invention.  Calculation by the calculation unit (5) of the values of h, 0 and cp from an image of the first observation zone (3) recorded by the camera (1) is carried out according to the same steps as those presented above for the first particular embodiment of the invention.

Pour déterminer les valeurs des coordonnées de chaque point de référence Q de la deuxième zone d'observation (7) dans le repère R lié au sol (voir plus haut à propos du premier mode particulier de réalisation de l'invention pour ce qui concerne les repères liés au sol, à la caméra, à la première source de lumière ainsi que les matrices de rotation, de passage et de calibrage de la caméra), l'unité de calcul (5) utilise une méthode différente de celle vue plus haut pour déterminer les valeurs des coordonnées d'un point de référence P de la première zone (3). En effet, les valeurs de h, 0 et cp ont déjà été calculées (voir plus haut) à partir d'une image de la première zone d'observation, et la donnée de position et d'orientation du véhicule (2) issue du capteur de position (8) permet de calculer directement une valeur correspondante de l'angle i.  To determine the values of the coordinates of each reference point Q of the second observation zone (7) in the ground-related reference frame R (see above with respect to the first particular embodiment of the invention with respect to the ground, camera, and first light source markers as well as rotation, passage and calibration matrices of the camera), the calculation unit (5) uses a method different from that seen above for determine the values of the coordinates of a reference point P of the first zone (3). Indeed, the values of h, 0 and cp have already been calculated (see above) from an image of the first observation area, and the position and orientation data of the vehicle (2) from the position sensor (8) directly calculates a corresponding value of the angle i.

On désigne la matrice connue de rotation (3x3) d'un repère lié à la deuxième source laser (6) par rapport au repère lié au véhicule par RL2/v =[a'1] (où les indices respectifs de ligne et de colonne i et j varient de 1 à 3), cette matrice est stockée en mémoire. Les coordonnées de l'origine du repère de la deuxième source laser (6) dans le repère du véhicule (2) sont VL2_ [l' 1, l' 2r 1' 3] T, elles sont connues et stockées dans la mémoire de l'unité de calcul (5). Si Xq désigne un point de référence de la zone d'observation (7) dans le repère lié à la deuxième source de lumière (6) (dans le repère R ce point est désigné par Q, voir l'étape (a) du quatrième mode de réalisation de la méthode selon l'invention), alors les coordonnées homogènes de ce point sont Xq = [xq, yq, zq, 1]T.  The known rotation matrix (3 × 3) of a reference linked to the second laser source (6) with respect to the reference linked to the vehicle by RL2 / v = [a'1] (where the respective row and column indices) is designated i and j vary from 1 to 3), this matrix is stored in memory. The coordinates of the origin of the reference of the second laser source (6) in the reference of the vehicle (2) are VL2_ [l ', 2r 1' 3] T, they are known and stored in the memory of the computing unit (5). If Xq designates a reference point of the observation zone (7) in the coordinate system linked to the second light source (6) (in the reference frame R this point is designated by Q, see step (a) of the fourth embodiment of the method according to the invention), then the homogeneous coordinates of this point are Xq = [xq, yq, zq, 1] T.

A ce point de référence correspond un point de contrôle Cq de l'image de la zone (7) enregitrée par la caméra (1) dont le coordonnées u, v dans le repère Rc du plan image sont calculées par l'unité de calcul (5) (voir les étapes (b) et (c) du quatrième mode de réalisation de la méthode selon l'invention), ainsi qu'un point Dq de coordonnées homogènes k.[u,v, l]T obtenu par l'unité de calcul lors de la correction de distorsion. L'équation reliant Dq et Xq est =II. PC/V ( PL2/v) -1 É Xq = É a 0 c 0-0 b d 0 0 0 1 0 RC / V(RL2,V)' RC /VCL, 0 1 Dq Xq Yq Zq PL2/V est la matrice de passage du repère du véhicule où au repère de la deuxième source laser (6). Cette équation permet d'exprimer Xq en fonction de Dq. Pour obtenir le point Q correspondant il suffit alors d'appliquer la relation connue Xq (R,o)'(Ri2 ')' (OV+(Rvo)'VL) 0 1 Yq Zq Q = (Pv/o) -1. (PL2/v (où Q représente le point de référence correspondant aux points Dq et Xq, dans le repère R). La relation 10 précédente peut s'écrire: R' t' Xq où R'=[r'iA] , (i,j=1,2,3) , est une 0 1 matrice (3x3) définie par: r'iA = a'i,k.vk,i (avec la convention d'Einstein sur les indices), et où t' désigne le vecteur OV +Rv/o. VL, (de coordonnées t'X,t'y,t'Z). Rappelons que l'on a.  At this reference point corresponds a control point Cq of the image of the zone (7) recorded by the camera (1) whose coordinates u, v in the reference Rc of the image plane are calculated by the calculation unit ( 5) (see steps (b) and (c) of the fourth embodiment of the method according to the invention), as well as a point Dq of homogeneous coordinates k. [U, v, l] T obtained by the calculation unit during distortion correction. The equation connecting Dq and Xq is = II. PC / V (PL2 / v) -1Eqq = 0c0-0-0 0 0 0 1 0 RC / V (RL2, V) 'RC / VCL, 0 1 Dq Xq Yq Zq PL2 / V is the matrix of passage of the mark of the vehicle where to the mark of the second laser source (6). This equation makes it possible to express Xq as a function of Dq. To obtain the corresponding point Q, it suffices then to apply the known relation Xq (R, o) '(Ri2') '(OV + (Rvo)' VL) 0 1 Yq Zq Q = (Pv / o) -1. (PL2 / v (where Q represents the reference point corresponding to the points Dq and Xq, in the frame R) The previous relation 10 can be written: R 't' Xq where R '= [r'iA], ( i, j = 1,2,3), is a 0 1 matrix (3x3) defined by: r'iA = a'i, k.vk, i (with the Einstein convention on indices), and where t 'denotes the vector OV + Rv / o VL, (of coordinates t'X, t'y, t'Z).

vl l = coscp cos*, v1,2 = coscp sing, v1,3 = -since v2,1 = sine since cos* - cose sing V2,2 = sine sincp sing + cose cos*, v2,3 sine cosy v3,1 = cos() sincp cos* + sine sing v3,2 = cose since sing - sine cos*, v3,3 cose coscp Ici, les angles e et cp sont connus, l'angle * (angle de rotation autour d'un axe perpendiculaire au plan du châssis du véhicule (2)) est lui aussi connu, en effet  vl l = coscp cos *, v1,2 = coscp sing, v1,3 = -since v2,1 = sine since cos * - cose sing V2,2 = sine sincp sing + cose cos *, v2,3 sine cozy v3, 1 = cos () sincp cos * + sine sing v3,2 = cose since sing - sine cos *, v3,3 cose coscp Here, the angles e and cp are known, the angle * (angle of rotation around a axis perpendicular to the plane of the chassis of the vehicle (2)) is also known, indeed

QQ

2890477 47 le capteur de position (8) a mesuré la position et l'orientation bidimensionnelle (dans le plan (x,y) du repère R lié au sol) du véhicule (2), ce qui permet de déduire la valeur de l'angle Par conséquent, toutes les valeurs vk,i sont connues.  The position sensor (8) measured the position and the two-dimensional orientation (in the plane (x, y) of the reference R connected to the ground) of the vehicle (2), which makes it possible to deduce the value of the angle Therefore, all values vk, i are known.

La matrice R' est stockée dans la mémoire de l'unité de calcul (5). Cette relation est équivalente à Qx = r'..xq+r'.2.yq+r'.3.zq+t'x y=r2.I.xq+r2.2. yq+r2.3.zq+t Y Qz - r'3., . xq + r'32. yq + r'3.3. zq + t' z Ainsi, conformément au quatrième mode de réalisation de la méthode selon l'invention, étape (d), l'unité de calcul (5) détermine la valeur des coordonnées du point de référence Q de la deuxième zone d'observation (7). Cette opération est répétée pour un ensemble de points de référence Qi (i=1,...,M) . De plus, conformément au cinquième mode de réalisation de la méthode selon l'invention, étape (e), l'unité de calcul (5) détermine la forme géométrique de la zone d'observation (7), par exemple en interpolant analytiquement (interpolation linéaire ou quadratique etc...) entre les points de référence Qi (i=1,...,M) dont les coordonnées ont été calculées par l'unité de calcul (5) comme indiqué précédemmnent. Ainsi on dispose d'une représentation de la surface de la zone d'observation (7) qui est mémorisée et qui peut facilement être représentée sur un écran à l'aide d'un logiciel graphique.  The matrix R 'is stored in the memory of the computing unit (5). This relation is equivalent to Qx = r '.. xq + r'.2.yq + r'.3.zq + t'x y = r2.I.xq + r2.2. yq + r2.3.zq + t Y Qz - r'3.,. xq + r'32. yq + r'3.3. zq + t 'z Thus, according to the fourth embodiment of the method according to the invention, step (d), the calculation unit (5) determines the value of the coordinates of the reference point Q of the second zone of observation (7). This operation is repeated for a set of reference points Qi (i = 1, ..., M). In addition, according to the fifth embodiment of the method according to the invention, step (e), the computing unit (5) determines the geometrical shape of the observation zone (7), for example by analytically interpolating ( linear or quadratic interpolation etc ...) between the reference points Qi (i = 1, ..., M) whose coordinates have been calculated by the calculation unit (5) as previously indicated. Thus there is a representation of the area of the observation area (7) which is stored and which can easily be represented on a screen by means of graphic software.

Un autre mode de réalisation particulier du dispositif de détermination de la position du véhicule (2) dans l'environnement est illustré sur les figures 5 2890477 48 et 6. Le dispositif conforme au quatrième mode de réalisation du dispositif selon l'invention mentionné plus haut, représenté monté sur le véhicule (2), comporte: - une première caméra (1), ici une caméra CCD montée à l'arrière du véhicule et calibrée, pour enregistrer des images d'une première (3) et d'une deuxième (7) zone d'observation sur chacune desquelles, respectivement, une première source de lumière laser (4) et une deuxième source de lumière laser (6) montées à l'arrière du véhicule peuvent former une matrice de points de référence lumineux, - une unité de calcul (5), un capteur de position (8) et un moyen de synchronisation (9) embarqués (voir le 15 mode particulier précédent), - une troisième source de lumière (12), ici une source laser montée à l'avant du véhicule (2), et apte à projeter vers le sol une matrice de points de référence lumineux sur une troisième zone d'observation (11) (à l'avant du véhicule et donc distincte de la première zone d'observation (3) et de la deuxième zone d'observation (7)), et - une deuxième caméra (10), ici une caméra CCD montée à l'avant du véhicule en un emplacement donné et calibrée, et apte à enregistrer une image de points de référence lumineux de la troisième zone d'observation (11) et à transmettre une image enregistrée à l'unité de calcul (5), dans lequel -l'unité de calcul (5) est en outre apte à recevoir et à traiter une image enregistrée par la deuxième caméra (10), - la troisième source de lumière (12) est montée sur le véhicule (2) en un emplacement donné de façon à ce que les directions de projection des points de référence sur la troisième zone d'observation (11) ne coïncident pas avec l'axe optique de la deuxième caméra (10) enregistrant une image des points de référence de cette troisième zone d'observation, - les valeurs des paramètres de position par rapport au véhicule de la troisième source de lumière (12) étant stockées dans la mémoire de l'unité de calcul(5), la troisième source de lumière (12), la deuxième caméra (10) et l'unité de calcul (5) étant aussi aptes à fonctionner de manière synchronisée grâce au moyen de synchronisation (9), ledit dispositif est apte à, de manière synchronisée avec le capteur de position (8): - former une matrice de points de référence lumineux sur la troisième zone d'observation (11) au moyen de la troisième source de lumière (12); et - enregistrer au moyen de la deuxième caméra (10) une image des points de référence lumineux formés sur la troisième zone d'observation (11) dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul (5), l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la troisième zone d'observation (11); et - déterminer au moyen de l'unité de calcul (5) les valeurs des coordonnées dans le plan image de la deuxième caméra (10) de points de contrôle de l'image de la troisième zone d'observation enregistrée par la deuxième caméra (10) et stocker les valeurs déterminées dans la mémoire de l'unité de calcul (5); et - à partir des valeurs déterminées des coordonnées des points de contrôle correspondant à la troisième zone d'observation (11) dans le plan image de la deuxième caméra (10), des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera (1) ainsi que des paramètres de position par rapport au véhicule et de projection de la troisième source de lumière (12), et à partir des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage cf) du véhicule et des données relatives à la position et à l'orientation du véhicule, calculer au moyen de l'unité de calcul (5) les valeurs des coordonnées des points de référence de la troisième zone d'observation (11) correspondant aux points de contrôles dont les coordonnées ont été calculées et les stocker dans la mémoire de l'unité de calcul (5).  Another particular embodiment of the device for determining the position of the vehicle (2) in the environment is illustrated in FIGS. 2890477 48 and 6. The device according to the fourth embodiment of the device according to the invention mentioned above. , shown mounted on the vehicle (2), comprises: - a first camera (1), here a CCD camera mounted at the rear of the vehicle and calibrated, to record images of a first (3) and a second (7) an observation area on each of which, respectively, a first laser light source (4) and a second laser light source (6) mounted at the rear of the vehicle can form a matrix of light reference points; a calculation unit (5), a position sensor (8) and an on-board synchronization means (9) (see the particular embodiment above), - a third light source (12), here a laser source mounted on the front of the vehicle (2), e t able to project towards the ground a matrix of luminous reference points on a third observation zone (11) (at the front of the vehicle and therefore distinct from the first observation zone (3) and the second zone d observation (7)), and - a second camera (10), here a CCD camera mounted at the front of the vehicle at a given and calibrated location, and capable of recording an image of light reference points of the third zone d observation (11) and transmitting a recorded image to the computing unit (5), wherein the computing unit (5) is further adapted to receive and process an image recorded by the second camera (10). ), the third light source (12) is mounted on the vehicle (2) at a given location so that the directions of projection of the reference points on the third observation area (11) do not coincide with the optical axis of the second camera (10) recording an image of the points of r reference of this third observation zone, the values of the position parameters with respect to the vehicle of the third light source (12) being stored in the memory of the computing unit (5), the third light source ( 12), the second camera (10) and the computing unit (5) being also able to operate synchronously by means of synchronization means (9), said device is adapted to synchronously with the position sensor ( 8): - forming a matrix of light reference points on the third observation zone (11) by means of the third light source (12); and - recording by means of the second camera (10) an image of the light reference points formed on the third observation zone (11) in the image plane of the camera and transmitting the recorded image to the computing unit ( 5), the recorded image having control points and each control point corresponding to the image of a light reference point of the third viewing area (11); and - determining by means of the calculation unit (5) the values of the coordinates in the image plane of the second camera (10) of control points of the image of the third observation zone recorded by the second camera ( 10) and storing the determined values in the memory of the computing unit (5); and - from the determined values of the coordinates of the control points corresponding to the third observation zone (11) in the image plane of the second camera (10), values of the calibration and position parameters relative to the vehicle of the first camera (1) as well as positional parameters with respect to the vehicle and projection of the third light source (12), and from the values of the height h of the vehicle relative to the ground, the angle of roll and the pitch angle cf) of the vehicle and data relating to the position and orientation of the vehicle, calculating by means of the calculation unit (5) the values of the coordinates of the reference points of the vehicle. third observation zone (11) corresponding to the control points whose coordinates have been calculated and store them in the memory of the calculation unit (5).

Dans ce mode de réalisation particulier, le calcul des valeurs des coordonnées des points de référence de la troisième zone d'observation (11), à partir des points de contrôle de l'image de cette zone enregistrée par la caméra (10), se fait de manière analogue à ce qui a été vu plus haut dans le mode de réalisation particulier précédent (quatrième mode) pour le calcul des coordonnées des points de référence de la 2890477 51 deuxième zone d'observation (7). En effet, outre les quantités déjà connues (voir le mode de réalisation particulier précédent) et mémorisées, les positions de la source laser (12) et de la caméra (10) sont connues; on connaît donc aussi.  In this particular embodiment, the calculation of the values of the coordinates of the reference points of the third observation zone (11), from the control points of the image of this zone recorded by the camera (10), is analogously to what has been seen above in the above particular embodiment (fourth mode) for computing the coordinates of the reference points of the second observation area (7). Indeed, in addition to the quantities already known (see the previous particular embodiment) and stored, the positions of the laser source (12) and the camera (10) are known; so we know too.

- la matrice de rotation (3x3) d'un repère lié à la troisième source laser (12) par rapport au repère lié au véhicule RL3/v =[a'' ,] (où les indices respectifs de ligne et de colonne i et j varient de 1 à 3), cette matrice est stockée en mémoire; - les coordonnées de l'origine du repère de la troisième source laser (12) dans le repère du véhicule (2) sont VL3=[1"1,1"2,1"3]T, elles sont connues et stockées dans la mémoire de l'unité de calcul (5); les coordonnées de l'origine du repère de la caméra (10) dans le repère du véhicule (2), c'est-à-dire VC2= [c' 1, c' 2r c:' 3] T, qui sont stockées dans la mémoire de l'unité de calcul (5); - la matrice II' de calibrage de la deuxième caméra (10), II'= a' 0 c' 0- 0 b' d' 0 0 0 1 0 - les composantes (t', t"y, t"Z) du vecteur t ' ' =0V + Rv/o. VL3, - la matrice R''= [r" i,j] , (i, j=1, 2, 3) , est une matrice (3x3) définie par: r"i,j = a" k.vk i (avec la convention d'Einstein sur les indices). La matrice R" est stockée dans la mémoire de l'unité de calcul (5), les vk,i étant connus car on connaît les angles 0, cp et 4 (voir plus haut le mode précédent).  the rotation matrix (3 × 3) of a reference linked to the third laser source (12) relative to the reference linked to the vehicle RL3 / v = [a '',] (where the respective row and column indices i and j vary from 1 to 3), this matrix is stored in memory; the coordinates of the origin of the reference of the third laser source (12) in the reference of the vehicle (2) are VL3 = [1 "1.1" 2.1 "3] T, they are known and stored in the memory of the computing unit (5), the coordinates of the origin of the camera mark (10) in the vehicle mark (2), that is to say VC2 = [c '1, c' 2r c: '3] T, which are stored in the memory of the computing unit (5) - the calibration matrix II' of the second camera (10), II '= a' 0 c '0- 0 b 'd' 0 0 0 1 0 - the components (t ', t "y, t" Z) of the vector t' '= 0V + Rv / o VL3, - the matrix R' '= [r "i, j], (i, j = 1, 2, 3), is a matrix (3x3) defined by: r "i, j = a" k.vk i (with the Einstein convention on indices). The matrix R "is stored in the memory of the computing unit (5), the vk, i being known because the angles 0, cp and 4 are known (see above the previous mode).

Par conséquent, si A désigne un point de référence de la zone (11) dans le repère R lié au sol, et Xa ce point dans le repère de la source laser (12) (de coordonnées homogènes [xa, Ya, Za. l] T) L si Da désigne le point de contrôle (corrigé de la distorsion par l'unité de calcul) de l'image enregistrée par la caméra (10), on a de façon similaire à ce qui a été vu plus haut (mode de réalisation précédent) a' 0 c' 0 Da=n.PC2/V (PL3/v) 1ÉXa= O b' d' 0 [RC2/V(RL3/V)' RC2/VC2L3 I 0 1 où Pc2/v est la matrice de passage du repère du véhicule au repère de la deuxième caméra (10), PL3/v est la matrice de passage du repère du véhicule au repère de la troisième source laser (121 (RL3/v est la matrice rotation du repère de la source laser (12) par rapport au repère du véhicule, RC2/v est la matrice de rotation du repère de la deuxième caméra (10) par rapport au repère du véhicule, et C2L3 = VL3 -VC2). Cette équation permet d'exprimer Xa en fonction de Da. Pour obtenir le point A correspondant il suffit alors d'appliquer la 20 relation connue xa 0 0 1 0 Y. za A = (Pv/o) 1. (PL3/V) 1.Xa = [(Rv l o)' (RL3 (OV + (Ri,/ 0)'VL) (où A représente donc le point de référence correspondant aux points Da et Xa, dans le repère R) . Cette relation s'écrit aussi R" t"- A = d'où l'on obtient les valeurs Xa 0 1 cherchées: = r..x. + r,.z.ya + r.3.za + t x y=r z..xa+r z.2.ya+r,3. za+t Y A = r"3.1.xa+r'4z.ya+r"33.ze+t"= Ce calcul est effectué pour chaque point de contrôle détecté par l'unité de calcul (5) sur l'image de la zone (11) (éclairée par la source (12)) enregistrée par la caméra (10), et les coordonnées obtenues des points de référence de la zone (11) sont stockées dans la mémoire de l'unité de calcul. De façon similaire, l'unité de calcul peut calculer des points de référence formés sur un zone d'observation quelconque (à l'aide d'une source de lumière adaptée) à partir des points de contrôle d'une image de cette zone enregistrée par une caméra calibrée montée sur le véhicule en un emplacement déterminé. Ces données peuvent ensuite être utilisées pour modéliser l'environnement (représentation tridimensionnelle, profil selon une direction donnée, coupe selon un plan donné etc...) du véhicule au niveau de la zone d'observation concernée.  Therefore, if A designates a reference point of the zone (11) in the ground-related reference frame R, and Xa that point in the reference of the laser source (12) (of homogeneous coordinates [xa, Ya, Za. ] T) L if Da designates the control point (corrected for the distortion by the computation unit) of the image recorded by the camera (10), it is similar to what has been seen above (mode PREFERRED EMBODIMENTS OF THE PREFERRED EMBODIMENTS OF THE PREFERRED EMBODIMENTS OF THE PREFERRED EMBODIMENTS OF THE PREFERRED EMBODIMENTS OF THE PREFERRED EMBODIMENT OF PC2 / V (PL3 / V). is the matrix of passage of the reference mark of the vehicle with the mark of the second camera (10), PL3 / v is the matrix of passage of the mark of the vehicle with the mark of the third laser source (121 (RL3 / v is the matrix rotation of the reference of the laser source (12) with respect to the reference of the vehicle, RC2 / v is the rotation matrix of the reference of the second camera (10) with respect to the reference of the vehicle, and C2L3 = VL3 -VC2). 'express Xa according to Da. To obtain the corresponding point A, it suffices then to apply the known relation xa 0 0 1 0 Y. za A = (Pv / o) 1. (PL3 / V) 1.Xa = [(Rv lo) '(RL3 (OV + (Ri, / 0) 'VL) (where A represents the reference point corresponding to the points Da and Xa, in the reference R). This relation is also written R "t" - A = from which one obtains the values Xa 0 1 sought: = r..x. + r, .z.ya + r.3.za + t x y = r z..xa + r z.2.y + r, 3. za + t Y A = r "3.1.xa + r'4z.ya + r" 33.ze + t "= This calculation is performed for each control point detected by the calculation unit (5) on the image of the area (11) (illuminated by the source (12)) recorded by the camera (10), and the coordinates obtained from the reference points of the area (11) are stored in the memory of the calculation unit. similarly, the computing unit may compute reference points formed on any observation area (using a suitable light source) from the control points of an image of that area recorded by a calibrated camera mounted on the vehicle at a specific location.These data can then be used to model the environment (three-dimensional representation, profile in a given direction, cut according to a given plane, etc.) of the vehicle at the zone level. concerned.

La modélisation locale obtenue peut ensuite être exploité de plusieurs façons: représentation graphique sur un écran (à l'aide d'un logiciel graphique), détection de formes, alerte en cas de distance du véhicule à un objet détecté inférieure à une distance minimale de sécurité.  The local modeling obtained can then be exploited in several ways: graphical representation on a screen (using a graphic software), shape detection, alert in case of distance from the vehicle to a detected object less than a minimum distance of security.

Les données issues des divers points de référence détectés sur les images ou du capteur de position sont indexées par le temps dans le cas des dispositifs possédant un moyen de synchronisation, par conséquent l'analyse de ces données au cours du temps permet aussi de détecter et d'estimer le déplacement d'un objet dans l'environnement du véhicule (par exemple pour permettre au véhicule d'éviter un obstacle). Toutes ces applications peuvent être mises en oeuvre sur l'unité de calcul.  The data from the various reference points detected on the images or from the position sensor are indexed by time in the case of devices having a means of synchronization, therefore the analysis of these data over time also makes it possible to detect and to estimate the displacement of an object in the environment of the vehicle (for example to allow the vehicle to avoid an obstacle). All these applications can be implemented on the computing unit.

D'autres modes de réalisation particulier du dispositif selon l'invention sont illustrés sur les figures 7 à 8 sur lesquelles les éléments déjà décrits à propos des figures précédentes sont seulement mentionnés.  Other particular embodiments of the device according to the invention are illustrated in FIGS. 7 to 8 on which the elements already described with reference to the preceding figures are only mentioned.

La figure 7 illustre un dispositif selon l'invention monté sur un véhicule (2) et comprenant une première caméra (1) à l'arrière du véhicule, une première source de lumière (4) pour former des points de référence sur un première zone d'observation (3) à l'arrière du véhicule et à proximité immédiate de celui-ci, une deuxième source de lumière (6) pour former des points de référence sur un deuxième zone d'observation (7) à l'arrière du véhicule (plus éloignée du véhicule) dans le champ de la première caméra (1), une zone d'observation (13) éclairée par une source de lumière (14) et une zone d'observation (15) éclairée par une source de lumière (16) sur lesquelles des points de référence peuvent être formés, ces deux zones (13) et (15) se trouvant dans le champ de la première caméra (1) à l'arrière du véhicule et sur les cotés, une unité calcul (5), un capteur de position (8) et un moyen de synchronisation (9) (pour 2890477 55 synchroniser le fonctionnement de la caméra, du capteur et des sources de lumière). Ce dispositif permet de modéliser l'environnement du véhicule situé à l'arrière du véhicule de manière à pouvoir par exemple détecter la présence des véhicules (27) et (28) sur les cotés du véhicule (2) ou d'un objet (29) à l'arrière du véhicule (2).  FIG. 7 illustrates a device according to the invention mounted on a vehicle (2) and comprising a first camera (1) at the rear of the vehicle, a first light source (4) for forming reference points on a first zone at the rear of the vehicle and in close proximity thereto, a second light source (6) for forming reference points on a second observation zone (7) at the rear of the vehicle. vehicle (farther from the vehicle) in the field of the first camera (1), an observation zone (13) illuminated by a light source (14) and an observation zone (15) illuminated by a light source (16) on which reference points can be formed, these two areas (13) and (15) being in the field of the first camera (1) at the rear of the vehicle and on the sides, a calculation unit ( 5), a position sensor (8) and a synchronizing means (9) (for synchronizing the operation of the camera, sensor and light sources). This device makes it possible to model the environment of the vehicle situated at the rear of the vehicle so that, for example, it is possible to detect the presence of the vehicles (27) and (28) on the sides of the vehicle (2) or an object (29). ) at the rear of the vehicle (2).

La figure 8 illustre un dispositif selon l'invention monté sur un véhicule (2), plus complet que celui de la figure 7, ce dispositif reprend celui de la figure 7 et le complète avec: une caméra (10) montée à l'avant pour enregistrer des images des zones d'observation (11), (17) et (19) situées à l'avant du véhicule (ces zones étant respectivement éclairées par les sources laser (12), (18) et (20)), une caméra (25) et un caméra (26) sur chaque coté du véhicule pour respectivement enregistrer des images des zones d'observation (21) et (23) situées sur les cotés du véhicule (2). Des sources de lumière (22) et (24), sur les cotés du véhicule, sont aptes à former des points de référence lumineux respectivement sur les zones d'observation (21) et (23). L'unité de calcul (5) est apte à traiter les images issues des quatre caméras. Le moyen de synchronisation (9) est apte à synchroniser le fonctionnement des quatre caméras, du capteur de position (8) et des onze sources de lumière.  FIG. 8 illustrates a device according to the invention mounted on a vehicle (2), more complete than that of FIG. 7, this device takes again that of FIG. 7 and completes it with: a camera (10) mounted at the front for recording images of the observation zones (11), (17) and (19) located at the front of the vehicle (these areas being respectively illuminated by the laser sources (12), (18) and (20)), a camera (25) and a camera (26) on each side of the vehicle for respectively recording images of the viewing areas (21) and (23) located on the sides of the vehicle (2). Light sources (22) and (24), on the sides of the vehicle, are able to form luminous reference points respectively on the observation zones (21) and (23). The computing unit (5) is able to process the images from the four cameras. The synchronization means (9) is able to synchronize the operation of the four cameras, the position sensor (8) and the eleven light sources.

Ce dispositif permet de modéliser l'environnement entourant le véhicule de façon à assurer une sécurité renforcée.  This device makes it possible to model the environment surrounding the vehicle so as to provide enhanced security.

Il est clair que de nombreuses autres dispositions relatives de ou des caméras et de ou des sources de lumière, pour éclairer une ou plusieurs zones d'observation se trouvant dans le champ de ou des caméras, sont possibles tout en restant dans le domaine de l'invention.  It is clear that many other related provisions of or cameras and / or light sources, for illuminating one or more viewing areas in the field of or cameras, are possible while remaining within the scope of the invention. 'invention.

2890477 572890477 57

Claims (47)

REVENDICATIONS 1. Méthode de détermination de la position d'un véhicule (2) dans un environnement, dans laquelle le véhicule apte à se déplacer sur un sol est équipé: d'une première caméra (1), montée sur le véhicule en un emplacement donné et calibrée, apte à enregistrer une image d'une première zone d'observation (3) située sur le sol à proximité du véhicule; d'une première source (4) de lumière apte à projeter des rayons lumineux sur la première zone d'observation (3) pour l'éclairer de manière non uniforme, et montée sur le véhicule (2) en un emplacement donné de façon à ce que les directions de projection des rayons sur la première zone d'observation (3) ne coïncident pas avec l'axe optique de la première caméra (1) enregistrant une image la première zone d'observation; et d'une unité de calcul (5) possédant une mémoire, et dans laquelle la première caméra (1) est apte à transmettre une image enregistrée à l'unité de calcul (5), l'unité de calcul (5) est apte à recevoir et à traiter une image transmise par la première caméra (1), la mémoire est apte à stocker des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera (1) ainsi que des paramètres de position par rapport au véhicule et de projection de la première source de lumière (4), ladite méthode étant caractérisée en ce que, à partir d'une image de la première zone d'observation éclairée par la première source de lumière enregistrée et transmise à l'unité de calcul par la première caméra, de valeurs des paramètres stockées dans la mémoire, et à partir de données relatives à la forme du sol au niveau de la première zone d'observation stockées dans la mémoire, l'unité de calcul (5) détermine des valeurs correspondantes de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage du véhicule dans un repère R lié au sol et stocke ces valeurs dans la mémoire.  1. Method for determining the position of a vehicle (2) in an environment in which the vehicle capable of traveling on a floor is equipped with: a first camera (1) mounted on the vehicle at a given location and calibrated, capable of recording an image of a first observation zone (3) located on the ground close to the vehicle; a first source (4) of light capable of projecting light rays onto the first observation zone (3) to illuminate it in a non-uniform manner, and mounted on the vehicle (2) at a given location so as to that the ray projection directions on the first observation zone (3) do not coincide with the optical axis of the first camera (1) recording an image the first observation zone; and a computing unit (5) having a memory, and in which the first camera (1) is able to transmit a recorded image to the computing unit (5), the computing unit (5) is suitable to receive and process an image transmitted by the first camera (1), the memory is able to store values of the calibration and position parameters relative to the vehicle of the first camera (1) as well as position parameters relative to to the vehicle and projection of the first light source (4), said method being characterized in that, from an image of the first observation area illuminated by the first light source recorded and transmitted to the unit calculation by the first camera, values of the parameters stored in the memory, and from data relating to the shape of the ground at the level of the first observation zone stored in the memory, the calculation unit (5) determines corresponding values of the height h of the vehicle relative to the ground, the roll angle e and the pitch angle of the vehicle in a ground-related reference R and stores these values in the memory. 2. Méthode selon la revendication 1, dans laquelle la première source de lumière (4) est en outre apte à projeter une matrice de points lumineux sur la première zone d'observation (3), et comprenant les étapes suivantes consistant à: (I) former une matrice d'au moins trois points de référence lumineux non alignés sur la première zone d'observation (3) au moyen de la première source de lumière (4); (II) enregistrer au moyen de la première caméra (1) une image des points de référence lumineux formés sur première zone d'observation (3) dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul (5), l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la première zone d'observation (3); (III) déterminer au moyen de l'unité de calcul (5) les valeurs des coordonnées dans le plan image de la première caméra (1) d'au moins trois points de contrôle non alignés de l'image enregistrée par la première caméra (1) et stocker les valeurs déterminées dans la mémoire de l'unité de calcul (5); et (IV) à partir des valeurs déterminées des coordonnées des points de contrôle dans le plan image de la première caméra (1) et des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera (1) ainsi que des paramètres de position par rapport au véhicule et de projection de la première source de lumière (4), et à partir des données relatives à la forme du sol au niveau de la première zone d'observation, déterminer au moyen de l'unité de calcul (5) les valeurs des coordonnées spatiales, dans le repère R, des points de référence correspondant aux points de contrôle et en déduire des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage p du véhicule dans ce repère.  The method according to claim 1, wherein the first light source (4) is further adapted to project a matrix of light spots onto the first viewing area (3), and comprising the following steps: ) forming a matrix of at least three non-aligned light reference points on the first viewing area (3) by means of the first light source (4); (II) recording by means of the first camera (1) an image of the luminous reference points formed on the first observation zone (3) in the image plane of the camera and transmitting the recorded image to the computing unit ( 5), the recorded image having control points and each control point corresponding to the image of a light reference point of the first viewing area (3); (III) determining by means of the calculation unit (5) the coordinate values in the image plane of the first camera (1) of at least three non-aligned control points of the image recorded by the first camera ( 1) and store the determined values in the memory of the computing unit (5); and (IV) from the determined values of the coordinates of the control points in the image plane of the first camera (1) and the values of the calibration and position parameters with respect to the vehicle of the first camera (1) as well as the positional parameters with respect to the vehicle and projection of the first light source (4), and from the data relating to the shape of the ground at the level of the first observation zone, determine by means of the calculation unit (5) the values of the spatial coordinates, in the reference frame R, of the reference points corresponding to the control points and to deduce from it values of the height h of the vehicle relative to the ground, the roll angle e and the pitch angle p of the vehicle in this frame. 3. Méthode selon la revendication 2, dans laquelle le véhicule est en outre équipé d'un capteur de position (8) apte à déterminer une position et une orientation bidimensionnelles du véhicule au niveau du sol à un instant donné et à transmettre les données relatives à cette position et cette orientation à l'unité de calcul (5), la mémoire de l'unité de calcul (5) est apte à stocker les données de position et d'orientation du véhicule déterminées par le capteur de position (8), la première caméra (1), la première (4) source de lumière ainsi que l'unité de calcul (5) sont aptes à fonctionner de manière synchronisée avec le capteur de position (8) grâce à un moyen de synchronisation (9), et l'étape (IV) de détermination des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis A et de l'angle de tangage cp du véhicule par l'unité de calcul ainsi que la détermination des valeurs de la position et l'orientation du véhicule au niveau du sol par le capteur de position (8) sont synchronisées par le moyen de synchronisation (9), les valeurs déterminées de la position et de l'orientation du véhicule étant stockées dans la mémoire de l'unité de calcul (5).  3. The method of claim 2, wherein the vehicle is further equipped with a position sensor (8) adapted to determine a two-dimensional position and orientation of the vehicle at ground level at a given time and to transmit the data relating to at this position and this orientation to the calculation unit (5), the memory of the calculation unit (5) is able to store the position and orientation data of the vehicle determined by the position sensor (8) , the first camera (1), the first (4) light source and the computing unit (5) are able to operate synchronously with the position sensor (8) by means of synchronization means (9) , and the step (IV) of determining the values of the height h of the vehicle relative to the ground, the roll angle A and the pitch angle cp of the vehicle by the calculation unit and the determination values of the position and orientation of the vehicle at the end in the ground by the position sensor (8) are synchronized by the synchronization means (9), the determined values of the position and the orientation of the vehicle being stored in the memory of the calculation unit (5). 4. Méthode selon la revendication 3, dans laquelle le véhicule est en outre équipé d'une deuxième source de lumière (6) apte à projeter vers le sol une matrice de points de référence lumineux sur une deuxième zone d'observation (7) distincte de la première zone d'observation (3), et la première caméra (1) est en outre apte à enregistrer une image de points de référence lumineux de la deuxième zone d'observation (7), la deuxième source de lumière (6) étant montée sur le véhicule (2) en un emplacement donné de façon à ce que les directions de projection des points de référence sur la deuxième zone d'observation (7) ne coïncident pas avec l'axe optique de la première caméra (1) enregistrant une image des points de référence de la deuxième zone d'observation, les valeurs des paramètres de position par rapport au véhicule et de projection de la deuxième source de lumière (6) étant stockées dans la mémoire de l'unité de calcul(5), la première caméra (1), 2890477 61 la première (4) et la deuxième (6) source de lumière ainsi que l'unité de calcul (5) étant aptes à fonctionner de manière synchronisée avec le capteur de position (8) grâce au moyen de synchronisation (9), ladite méthode comprenant en outre les étapes suivantes consistant à, de manière synchronisée avec le capteur de position (8): (a) former une matrice de points de référence lumineux sur la deuxième zone d'observation (7) au moyen de la 10 deuxième source de lumière (6); (b) enregistrer au moyen de la première caméra (1) une image des points de référence lumineux formés sur deuxième zone d'observation (7) dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul (5), l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la deuxième zone d'observation (7); (c) déterminer au moyen de l'unité de calcul (5) les valeurs des coordonnées dans le plan image de la première caméra (1) de points de contrôle de l'image de la deuxième zone d'observation enregistrée par la première caméra (1) et stocker les valeurs déterminées dans la mémoire de l'unité de calcul (5); et (d) à partir des valeurs déterminées des coordonnées des points de contrôle correspondant à la deuxième zone d'observation (7) dans le plan image de la première caméra (1), des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera (1) ainsi que des paramètres de position par rapport au véhicule et de projection de la deuxième source de lumière (6), et à partir des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage p du véhicule calculés à l'étape (IV) et des données relatives à la position et à l'orientation du véhicule, calculer au moyen de l'unité de calcul (5) les valeurs des coordonnées des points de référence de la deuxième zone d'observation correspondant aux points de contrôles dont les coordonnées ont été calculées à l'étape (c) et les stocker dans la mémoire de l'unité de calcul (5).  4. The method of claim 3, wherein the vehicle is further equipped with a second light source (6) adapted to project to the ground a matrix of light reference points on a second separate observation zone (7). of the first observation zone (3), and the first camera (1) is furthermore capable of recording an image of luminous reference points of the second observation zone (7), the second light source (6) being mounted on the vehicle (2) at a given location so that the directions of projection of the reference points on the second observation area (7) do not coincide with the optical axis of the first camera (1) recording an image of the reference points of the second observation area, the values of the position parameters with respect to the vehicle and the projection of the second light source (6) being stored in the memory of the calculation unit (5). ), the first camer a (1), 2890477 61 the first (4) and the second (6) light source and the computing unit (5) being able to operate synchronously with the position sensor (8) through the means of synchronization (9), said method further comprising the following steps, synchronously with the position sensor (8): (a) forming a matrix of light reference points on the second observation zone (7) at means of the second light source (6); (b) recording by means of the first camera (1) an image of the luminous reference points formed on the second observation zone (7) in the image plane of the camera and transmitting the recorded image to the computing unit ( 5), the recorded image having control points and each control point corresponding to the image of a luminous reference point of the second viewing area (7); (c) determining by means of the calculation unit (5) the values of the coordinates in the image plane of the first camera (1) of image control points of the second observation area recorded by the first camera (1) and storing the determined values in the memory of the computing unit (5); and (d) from the determined values of the coordinates of the control points corresponding to the second observation area (7) in the image plane of the first camera (1), values of the calibration and position parameters with respect to the vehicle of the first camera (1) as well as position parameters with respect to the vehicle and projection of the second light source (6), and from the values of the height h of the vehicle relative to the ground, of the roll angle e and the pitch angle p of the vehicle calculated in step (IV) and data relating to the position and orientation of the vehicle, calculate by means of the calculation unit (5) the values of the coordinates of the reference points of the second observation zone corresponding to the control points whose coordinates have been calculated in step (c) and store them in the memory of the calculation unit (5). 5. Méthode selon la revendication 4, comprenant en outre l'étape suivante consistant à: (e) déterminer au moyen de l'unité de calcul (5) la forme géométrique de la deuxième zone d'observation, à partir d'un ensemble de valeurs de coordonnées de points de référence calculées à l'étape (d) à un instant donné, et stocker dans la mémoire de l'unité de calcul (5) les données relatives à cette forme.  The method according to claim 4, further comprising the following step of: (e) determining by means of the computing unit (5) the geometric shape of the second viewing area, from a set reference point coordinate values calculated in step (d) at a given instant, and store in the memory of the computing unit (5) the data relating to that shape. 6. Méthode selon la revendication 5, dans laquelle, la deuxième zone d'observation (7) étant plus éloignée du véhicule (2) que la première zone d'observation (3) et l'unité de calcul étant en outre apte à évaluer un déplacement du véhicule (2) à partir de données de position et d'orientation du véhicule transmises par le capteur de position (8), si l'unité de calcul (5) détermine que le véhicule se déplace de façon à ce que, à un instant donné, la première zone d'observation (3) recouvre une portion du sol qui a fait partie de la deuxième zone d'observation (7) à un instant antérieur où ladite forme géométrique de la deuxième zone d'observation a été déterminée, alors cette forme géométrique est utilisée comme forme du sol au niveau de la première zone d'observation à l'étape (IV) de calcul des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 0 et de l'angle de tangage cp du véhicule correspondant à l'instant donné.  6. Method according to claim 5, wherein, the second observation zone (7) being further away from the vehicle (2) than the first observation zone (3) and the computing unit being further able to evaluate a movement of the vehicle (2) from position and orientation data of the vehicle transmitted by the position sensor (8), if the computing unit (5) determines that the vehicle is moving so that, at a given moment, the first observation zone (3) covers a portion of the ground that has been part of the second observation zone (7) at a previous moment when said geometrical shape of the second observation zone has been determined, then this geometric shape is used as the shape of the ground at the first observation zone in step (IV) for calculating the values of the height h of the vehicle relative to the ground, of the roll angle 0 and the pitch angle cp of the vehicle corresponding to the given instant ed. 7. Méthode selon la revendication 3, dans laquelle le 10 véhicule est en outre équipé: d'une troisième source de lumière (12) apte à projeter vers le sol une matrice de points de référence lumineux sur une troisième zone d'observation (11) distincte de la première zone d'observation (3); d'une deuxième caméra (10), montée sur le véhicule (2) en un emplacement donné et calibrée, apte à enregistrer une image de points de référence lumineux de la troisième zone d'observation (11), et dans laquelle l'unité de calcul (5) est en outre apte à recevoir et à traiter une image enregistrée par la deuxième caméra (10), la troisième source de lumière (12) est montée sur le véhicule (2) en un emplacement donné de façon à ce que les directions de projection des points de référence sur la troisième zone d'observation (11) ne coïncident pas avec l'axe optique de la deuxième caméra (10) enregistrant une image des points de référence de cette troisième zone d'observation, les valeurs des paramètres de position par rapport au véhicule et de projection de la troisième source de lumière (12) étant stockées dans 2890477 64 la mémoire de l'unité de calcul (5) , la troisième source de lumière (12), la deuxième caméra (10) et l'unité de calcul (5) étant aptes à fonctionner de manière synchronisée grâce au moyen de synchronisation (9), ladite méthode comprend en outre les étapes suivantes consistant à, de manière synchronisée avec le capteur de position (8) : (al) former une matrice de points de référence lumineux sur la troisième zone d'observation (11) au moyen de la 10 troisième source de lumière (12); (bl) enregistrer au moyen de la deuxième caméra (10) une image des points de référence lumineux formés sur la troisième zone d'observation (11) dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul (5), l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'an point de référence lumineux de la troisième zone d'observation (il); (cl) déterminer au moyen de l'unité de calcul (5) les valeurs des coordonnées dans le plan image de la deuxième caméra (10) de points de contrôle de l'image de la troisième zone d'observation enregistrée par la deuxième caméra (10) et stocker les valeurs déterminées dans la mémoire de l'unité de calcul (5); et (dl) à partir des valeurs déterminées des coordonnées des points de contrôle correspondant à la troisième zone d'observation (11) dans le plan image de la deuxième caméra (10), des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera (1) ainsi que des paramètres de position par rapport au véhicule et de projection de la troisième source de lumière (12), et à partir des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage W du véhicule calculés à l'étape (IV) et des données relatives à la position et à l'orientation du véhicule, calculer au moyen de l'unité de calcul (5) les valeurs des coordonnées des points de référence de la troisième zone d'observation correspondant aux points de contrôles dont les coordonnées ont été calculées à l'étape (cl) et les stocker dans la mémoire de l'unité de calcul (5).  7. The method according to claim 3, wherein the vehicle is further equipped with: a third light source (12) adapted to project to the ground a matrix of light reference points on a third observation zone (11); ) distinct from the first observation zone (3); a second camera (10), mounted on the vehicle (2) at a given and calibrated location, capable of recording an image of light reference points of the third viewing area (11), and in which the unit of calculation (5) is further adapted to receive and process an image recorded by the second camera (10), the third light source (12) is mounted on the vehicle (2) at a given location so that the directions of projection of the reference points on the third observation zone (11) do not coincide with the optical axis of the second camera (10) recording an image of the reference points of this third observation zone, the values positional parameters with respect to the vehicle and projection of the third light source (12) being stored in the memory of the computing unit (5), the third light source (12), the second camera ( 10) and the computing unit (5) both of which are capable of synchronously operating by means of synchronization means (9), said method further comprises the following steps, synchronously with the position sensor (8): (a1) forming a matrix of luminous reference points on the third viewing area (11) by means of the third light source (12); (bl) recording by means of the second camera (10) an image of the light reference points formed on the third viewing area (11) in the image plane of the camera and transmitting the recorded image to the computing unit (5), the recorded image having control points and each control point corresponding to the image of a light reference point of the third observation zone (11); (cl) determining by means of the calculation unit (5) the values of the coordinates in the image plane of the second camera (10) of image control points of the third observation zone recorded by the second camera (10) and storing the determined values in the memory of the computing unit (5); and (d1) from the determined values of the coordinates of the control points corresponding to the third observation zone (11) in the image plane of the second camera (10), values of the calibration and position parameters with respect to the vehicle of the first camera (1) as well as position parameters with respect to the vehicle and projection of the third light source (12), and from the values of the height h of the vehicle relative to the ground, of the roll angle e and the pitch angle W of the vehicle calculated in step (IV) and data relating to the position and orientation of the vehicle, calculating by means of the calculation unit (5) the values of the coordinates of the reference points of the third observation zone corresponding to the control points whose coordinates have been calculated in step (c1) and to store them in the memory of the calculation unit (5). 8. Méthode selon la revendication 7, comprenant en outre l'étape suivante consistant à: (el) déterminer au moyen de l'unité de calcul (5) la forme géométrique de la troisième zone d'observation, à partir d'un ensemble de valeurs de coordonnées de points de référence calculées à l'étape (dl) à un instant donné, et stocker dans la mémoire de l'unité de calcul (5) les données relatives à cette forme.  The method according to claim 7, further comprising the following step of: (el) determining by means of the calculation unit (5) the geometric shape of the third observation area, from a set reference point coordinate values calculated in step (d1) at a given instant, and store in the memory of the computing unit (5) the data relating to this form. 9. Méthode selon la revendication 8, dans laquelle, la troisième zone d'observation (11) étant plus éloignée du véhicule (2) que la première zone d'observation (3) et l'unité de calcul étant en outre apte à évaluer un déplacement du véhicule (2) à partir de données de position et d'orientation du véhicule transmises par le capteur de position (8), si l'unité de calcul (5) détermine que le véhicule se déplace de façon à ce que, à un instant donné, la première zone d'observation (3) recouvre une portion du sol qui a fait partie de la troisième zone d'observation (11) à un instant antérieur où ladite forme géométrique de la troisième zone a été déterminée, alors cette forme géométrique est utilisée comme forme du sol au niveau de la première zone d'observation à l'étape (IV) de calcul des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 8 et de l'angle de tangage p du véhicule correspondant à l'instant donné.  9. Method according to claim 8, wherein, the third observation zone (11) being further away from the vehicle (2) than the first observation zone (3) and the computing unit being further able to evaluate a movement of the vehicle (2) from position and orientation data of the vehicle transmitted by the position sensor (8), if the computing unit (5) determines that the vehicle is moving so that, at a given moment, the first observation zone (3) covers a portion of the ground which has formed part of the third observation zone (11) at a previous moment when said geometrical shape of the third zone has been determined, then this geometric shape is used as the shape of the ground at the first observation zone in step (IV) for calculating the values of the height h of the vehicle relative to the ground, the roll angle 8 and the pitch angle p of the vehicle corresponding to the given instant. 10. Méthode selon les revendications 6 et 9, dans  10. Method according to claims 6 and 9, in laquelle, le véhicule étant apte à se mouvoir vers l'avant ou vers l'arrière, la première caméra (1) est montée à l'arrière du véhicule (2) et la deuxième caméra (10) est montée à l'avant du véhicule (2).  which, the vehicle being able to move forwards or backwards, the first camera (1) is mounted at the rear of the vehicle (2) and the second camera (10) is mounted in front of the vehicle (2). 11. Méthode selon l'une quelconque des revendications 4 à 10, dans laquelle le véhicule est en outre équipé d'une source complémentaire de lumière (22) apte à projeter vers le sol une matrice de points de référence lumineux sur une zone d'observation complémentaire associée (21) , d'une caméra complémentaire (25), montée sur le véhicule en un emplacement donné et calibrée, apte à enregistrer une image de points de référence lumineux de la zone d'observation complémentaire (21), et dans laquelle la source complémentaire de lumière (22) est montée sur le véhicule (2) en un emplacement donné de façon à ce que les directions de projection des points de référence sur la zone d'observation complémentaire associée (21) ne coïncident pas avec l'axe optique de la caméra complémentaire (25) enregistrant une image des 2890477 67 points de référence de cette zone d'observation complémentaire, les valeurs des paramètres de calibrage et de position par rapport au véhicule de la camera complémentaire (25) ainsi que des paramètres de position par rapport au véhicule et de projection de la source complémentaire de lumière (22) étant stockées dans la mémoire de l'unité de calcul (5), la source complémentaire de lumière, la caméra complémentaire ainsi que l'unité de calcul étant aptes à fonctionner de manière synchronisée avec le capteur de position (8) grâce au moyen de synchronisation (9), ladite méthode comprend en outre les étapes suivantes consistant à, de manière synchronisée avec le capteur de 15 position (8): (a2) former une matrice de points de référence lumineux sur la zone d'observation complémentaire au moyen de la source complémentaire de lumière; (b2) enregistrer au moyen de la caméra complémentaire une image des points de référence lumineux formés sur la zone d'observation complémentaire dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la zone d'observation complémentaire; (c2) déterminer au moyen de l'unité de calcul les valeurs des coordonnées dans le plan image de la première caméra (1) de points de contrôle de l'image de la zone d'observation complémentaire enregistrée par la caméra complémentaire (25) et stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et (d2) à partir des valeurs déterminées des coordonnées des points de contrôle correspondant à la zone d'observation complémentaire dans le plan image de la caméra complémentaire, des valeurs des paramètres de calibrage et de position par rapport au véhicule de la camera complémentaire ainsi que des paramètres de position par rapport au véhicule et de projection de la source complémentaire de lumière, et à partir des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 6 et de l'angle de tangage (ID du véhicule calculées à l'étape (IV) et des données relatives à la position et à l'orientation du véhicule, calculer au moyen de l'unité de calcul les valeurs des coordonnées des points de référence de la zone d'observation complémentaire correspondant aux points de contrôles dont les coordonnées ont été calculées à l'étape (c2) et les stocker dans la mémoire de l'unité de calcul.  11. Method according to any one of claims 4 to 10, wherein the vehicle is further equipped with a complementary source of light (22) capable of projecting towards the ground a matrix of light reference points on an area of complementary complementary observation (21) of a complementary camera (25), mounted on the vehicle at a given and calibrated location, capable of recording an image of luminous reference points of the complementary observation zone (21), and in which the complementary light source (22) is mounted on the vehicle (2) at a given location so that the directions of projection of the reference points on the associated complementary observation area (21) do not coincide with the the optical axis of the complementary camera (25) recording an image of the reference points of this complementary observation zone, the values of the calibration and position parameters relative to to the vehicle of the complementary camera (25) as well as position parameters with respect to the vehicle and projection of the complementary source of light (22) being stored in the memory of the computing unit (5), the complementary source of light, the complementary camera and the computing unit being able to operate synchronously with the position sensor (8) by means of synchronization means (9), said method further comprises the following steps consisting of, synchronously with the position sensor (8): (a2) forming a matrix of luminous reference points on the complementary observation area by means of the complementary light source; (b2) recording, by means of the complementary camera, an image of the luminous reference points formed on the complementary observation zone in the image plane of the camera and transmitting the recorded image to the computing unit, the recorded image comprising control points and each control point corresponding to the image of a luminous reference point of the complementary observation zone; (c2) determining by means of the calculation unit the coordinate values in the image plane of the first camera (1) of image control points of the complementary observation area recorded by the complementary camera (25) and storing the determined values in the memory of the computing unit; and (d2) from the determined values of the coordinates of the control points corresponding to the complementary observation zone in the image plane of the complementary camera, the values of the calibration and position parameters relative to the vehicle of the complementary camera as well as than positional parameters with respect to the vehicle and projection of the complementary source of light, and from the values of the height h of the vehicle relative to the ground, the roll angle 6 and the pitch angle ( Vehicle ID calculated in step (IV) and vehicle position and orientation data, calculating by means of the calculation unit the coordinate values of the reference points of the complementary observation area corresponding to the control points whose coordinates were calculated in step (c2) and store them in the memory of the calculation unit. 12. Méthode selon la revendication 11, comprenant en outre l'étape suivante consistant à: (e2) déterminer au moyen de l'unité de calcul la forme géométrique de la zone d'observation complémentaire, à partir d'un ensemble de valeurs de coordonnées de points de référence calculées à l'étape (d2) à un instant donné, et stocker dans la mémoire de l'unité de calcul les données relatives à cette forme.  The method of claim 11, further comprising the step of: (e2) determining by means of the computing unit the geometric shape of the complementary observation area, from a set of values of coordinates of reference points calculated in step (d2) at a given instant, and store in the memory of the computing unit the data relating to this form. 2890477 69  2890477 69 13. Méthode selon la revendication 11 ou 12, dans laquelle la caméra complémentaire est la première caméra (1).13. The method of claim 11 or 12, wherein the complementary camera is the first camera (1). 14. Méthode selon la revendication 13, dans laquelle la source complémentaire de lumière est la première source de lumière ou la deuxième source de lumière.  The method of claim 13, wherein the complementary light source is the first light source or the second light source. 15. Méthode selon la revendication 11 ou 12 et selon la 10 revendication 7, dans laquelle la caméra complémentaire est la deuxième caméra (10).  The method of claim 11 or 12 and claim 7, wherein the complementary camera is the second camera (10). 16. Méthode selon la revendication 15, dans laquelle la source complémentaire de lumière est la troisième source de lumière (12).  The method of claim 15, wherein the complementary light source is the third light source (12). 17. Méthode selon l'une quelconque des revendications 3 à 16, dans laquelle la première source de lumière est la deuxième source de lumière.  The method of any one of claims 3 to 16, wherein the first light source is the second light source. 18. Méthode selon l'une quelconque des revendications 1 à 17, dans laquelle au moins une source de lumière est une source laser.  The method of any one of claims 1 to 17, wherein at least one light source is a laser source. 19. Méthode selon l'une quelconque des revendications 1 à 18, dans laquelle au moins une source de lumière est une source de lumière pulsée, et un moyen de synchronisation de pulsation est apte à synchroniser chaque source de lumière pulsée avec la caméra correspondante apte à enregistrer une image de la zone d'observation éclairée par la source de lumière pulsée.  The method of any one of claims 1 to 18, wherein at least one light source is a pulsed light source, and a pulse synchronization means is adapted to synchronize each pulsed light source with the corresponding camera capable of recording an image of the viewing area illuminated by the pulsed light source. 20. Méthode selon l'une quelconque des revendications 4 à 19, dans laquelle, si un objet (29) se trouve dans l'une des zones d'observation éclairée par l'une des sources de lumière, l'unité de calcul détecte la présence de l'objet et le mouvement de l'objet par rapport au véhicule (2) à partir du traitement d'au moins deux images de cette zone d'observation éclairée par la source de lumière et reçues consécutivement dans le temps, et stocke dans la mémoire les informations relatives au mouvement détecté et à l'emplacement de l'objet détecté.  20. A method according to any one of claims 4 to 19, wherein, if an object (29) is in one of the viewing areas illuminated by one of the light sources, the computing unit detects the presence of the object and the movement of the object relative to the vehicle (2) from the treatment of at least two images of this observation zone illuminated by the light source and received consecutively in time, and stores information about the detected motion and the location of the detected object in the memory. 21. Méthode selon l'une quelconque des revendications 3 à 20, dans laquelle l'unité de calcul (5) calcule une représentation graphique de l'environnement du véhicule (2) à partir des données de position stockées dans la mémoire de l'unité de calcul concernant le véhicule (2) et des points de référence d'au moins une zone d'observation.  Method according to any one of claims 3 to 20, wherein the computing unit (5) calculates a graphical representation of the environment of the vehicle (2) from the position data stored in the memory of the vehicle. calculation unit relating to the vehicle (2) and reference points of at least one observation zone. 22. Méthode selon l'une quelconque des revendications 3 à 21, dans laquelle l'unité de calcul associe une position du véhicule stockée en mémoire à un emplacement correspondant sur une carte de l'environnement du véhicule stockée en mémoire, et stocke en mémoire le résultat de cette association.  22. Method according to any one of claims 3 to 21, wherein the computing unit associates a position of the vehicle stored in memory at a corresponding location on a map of the vehicle environment stored in memory, and stores in memory the result of this association. 2890477 71  2890477 71 23. Méthode selon l'une quelconque des revendications 1 à 22, dans laquelle l'unité de calcul met en forme des données stockées en mémoire et transmet ces données mises en forme à un moyen d'affichage pour afficher une représentation de ces données.The method of any one of claims 1 to 22, wherein the computing unit formats data stored in memory and transmits the formatted data to a display means for displaying a representation of that data. 24. Dispositif de détermination de la position d'un véhicule (2) dans un environnement, le véhicule étant apte à se déplacer sur un sol, le dispositif apte à être embarqué à bord du véhicule comprenant: une première caméra (1) apte à être montée sur le véhicule en un emplacement donné et calibrée, et apte à enregistrer une image d'une première zone d'observation (3) située sur le sol à proximité du véhicule; une première source (4) de lumière apte à projeter des rayons lumineux sur la première zone d'observation (3) pour l'éclairer de manière non uniforme, et apte à être montée sur le véhicule en un emplacement donné de façon à ce que les directions de projection des rayons sur la première zone d'observation (3) ne coïncident pas avec l'axe optique de la première caméra (1) enregistrant une image des points de référence de la première zone d'observation (3); et une unité de calcul (5) possédant une mémoire, 25 dans lequel la première caméra (1) est apte à transmettre une image enregistrée à l'unité de calcul (5); l'unité de calcul (5) est apte à recevoir et à traiter une image transmise par la première caméra (1); la mémoire est apte à stocker des valeurs des paramètres de calibrage et de position par rapport au 2890477 72 véhicule de la première camera (1) ainsi que des paramètres de position par rapport au véhicule et de projection de la première source de lumière (4), ledit dispositif étant caractérisée en ce que, à partir d'une image de la première zone d'observation éclairée par la première source de lumière enregistrée et transmise à l'unité de calcul par la première caméra, de valeurs des paramètres stockées dans la mémoire, et à partir de données relatives à la forme du sol au niveau de la première zone d'observation stockées dans la mémoire, l'unité de calcul est apte à déterminer des valeurs correspondantes de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage p du véhicule dans un repère R lié au sol et à stocker ces valeurs dans la mémoire.  24. A device for determining the position of a vehicle (2) in an environment, the vehicle being able to move on a ground, the device suitable for being on board the vehicle comprising: a first camera (1) adapted to be mounted on the vehicle at a given and calibrated location, and able to record an image of a first observation area (3) located on the ground close to the vehicle; a first source (4) of light capable of projecting light rays onto the first observation zone (3) so as to illuminate it in a non-uniform manner and able to be mounted on the vehicle at a given location so that the directions of projection of the rays on the first observation zone (3) do not coincide with the optical axis of the first camera (1) recording an image of the reference points of the first observation zone (3); and a computing unit (5) having a memory, wherein the first camera (1) is adapted to transmit a recorded image to the computing unit (5); the calculation unit (5) is able to receive and process an image transmitted by the first camera (1); the memory is capable of storing values of the calibration and position parameters with respect to the vehicle of the first camera (1) as well as position parameters with respect to the vehicle and projection of the first light source (4) , said device being characterized in that, from an image of the first observation area illuminated by the first light source recorded and transmitted to the computing unit by the first camera, values of the parameters stored in the memory, and from data relating to the shape of the ground at the first observation area stored in the memory, the calculation unit is able to determine corresponding values of the height h of the vehicle relative to the ground, of the roll angle e and the pitch angle p of the vehicle in a ground-related locator R and to store these values in the memory. 25. Dispositif selon la revendication 24, dans lequel la première source de lumière est apte à projeter une matrice d'au moins trois points de référence lumineux non alignés sur la première zone d'observation; la première caméra est apte à enregistrer une image de points de référence lumineux formés sur première zone d'observation par la première source de lumière dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la première zone d'observation; l'unité de calcul est apte à déterminer des valeurs de coordonnées dans le plan image de la première caméra d'au moins trois points de contrôle non alignés d'une image enregistrée par la première caméra et à stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et à partir de valeurs stockées en mémoire de coordonnées de points de contrôle dans le plan image de la première caméra, de paramètres de calibrage et de position par rapport au véhicule de la première camera, de paramètres de position par rapport au véhicule et de projection de la première source de lumière, et à partir de données relatives à la forme du sol au niveau de la première zone d'observation stockées en mémoire, l'unité de calcul est apte à déterminer les valeurs des coordonnées spatiales, dans un repère R lié au sol, de points de référence correspondant aux points de contrôle et à en déduire des valeurs correspondantes de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 0 et de l'angle de tangage cf) du véhicule dans ce repère.  25. Device according to claim 24, wherein the first light source is capable of projecting a matrix of at least three non-aligned light reference points on the first observation zone; the first camera is able to record an image of luminous reference points formed on the first observation zone by the first light source in the image plane of the camera and transmit the recorded image to the computing unit, the image recorded having control points and each control point corresponding to the image of a light reference point of the first observation area; the calculation unit is capable of determining coordinate values in the image plane of the first camera of at least three non-aligned control points of an image recorded by the first camera and storing the determined values in the memory of the first camera; the unit of calculation; and from values stored in control point coordinate memory in the image plane of the first camera, calibration parameters and position relative to the vehicle of the first camera, position parameters with respect to the vehicle and projection of the first light source, and from data relating to the shape of the ground at the level of the first observation zone stored in memory, the computing unit is able to determine the values of the spatial coordinates, in a reference frame R linked to the ground, reference points corresponding to the control points and to deduce corresponding values of the height h of the vehicle relative to the ground, the roll angle 0 and the pitch angle cf) of the vehicle in this mark. 26. Dispositif selon la revendication 25, comportant en outre: un capteur de position (8) apte à être monté sur le véhicule, à déterminer une position et une orientation bidimensionnelles du véhicule au niveau du sol à un instant donné et à transmettre les données relatives à cette position et cette orientation à l'unité de calcul, l'unité de calcul étant apte à stocker dans la mémoire des données de position et d'orientation du véhicule transmises par le capteur de position (8); et un moyen de synchronisation (9) apte à synchroniser le fonctionnement de la première caméra, de la première 2890477 74 source de lumière, de l'unité de calcul et du capteur de position, dans lequel le moyen de synchronisation est apte à synchroniser l'opération de détermination des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis O et de l'angle de tangage p du véhicule par l'unité de calcul avec l'opération de détermination des valeurs de la position et l'orientation du véhicule au niveau du sol par le capteur de position.  Apparatus according to claim 25, further comprising: a position sensor (8) adapted to be mounted on the vehicle, determining a two-dimensional position and orientation of the vehicle at ground level at a given time and transmitting the data. relating to this position and this orientation to the computing unit, the computing unit being able to store in the memory of the position and orientation data of the vehicle transmitted by the position sensor (8); and synchronization means (9) adapted to synchronize the operation of the first camera, the first light source, the computing unit and the position sensor, wherein the synchronizing means is adapted to synchronize the an operation for determining the values of the height h of the vehicle relative to the ground, the roll angle O and the pitch angle p of the vehicle by the calculation unit with the operation of determining the values of the position and orientation of the vehicle at ground level by the position sensor. 27. Dispositif selon la revendication 26, dans lequel une deuxième source de lumière (6) est apte à projeter vers le sol une matrice de points de référence lumineux sur une deuxième zone d'observation (7) distincte de la première zone d'observation (3); la première caméra (1) est en outre apte à enregistrer une image de points de référence lumineux formés sur la deuxième zone d'observation (3) dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul (5), l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la deuxième zone d'observation (7); la deuxième source de lumière (6) est apte à être montée sur le véhicule (2) en un emplacement donné de façon à ce que les directions de projection des points de référence sur la deuxième zone d'observation (7) ne coïncident pas avec l'axe optique de la première caméra (1) enregistrant une image des points de référence de cette deuxième zone d'observation; 2890477 75 la mémoire de l'unité de calcul est apte à stocker des paramètres de position par rapport au véhicule et de projection de la deuxième source de lumière (6); le moyen de synchronisation (9) est apte à faire fonctionner de manière synchronisée avec le capteur de position (8) la première caméra (1), la première (4) et la deuxième (6) source de lumière ainsi que l'unité de calcul (5); et l'unité de calcul est apte à: déterminer des valeurs de coordonnées dans le plan image de la première caméra de points de contrôle d'une image de la deuxième zone d'observation enregistrée par la première caméra et stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et à partir de valeurs stockées en mémoire de coordonnées de points de contrôle correspondant à la deuxième zone d'observation dans le plan image de la première caméra, de valeurs de paramètres de calibrage et deposition par rapport au véhicule de la première camera ainsi que de paramètres de position par rapport au véhicule et de projection de la deuxième source de lumière, et à partir de valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 0 et de l'angle de tangage W du véhicule et de données relatives à la position et à l'orientation du véhicule, à calculer des valeurs des coordonnées des points de référence de la deuxième zone d'observation correspondant aux points de contrôles et à les stocker dans la mémoire de l'unité de calcul.  Device according to claim 26, wherein a second light source (6) is able to project towards the ground a matrix of luminous reference points on a second observation zone (7) distinct from the first observation zone. (3); the first camera (1) is furthermore capable of recording an image of luminous reference points formed on the second observation zone (3) in the image plane of the camera and transmitting the recorded image to the computing unit ( 5), the recorded image having control points and each control point corresponding to the image of a luminous reference point of the second viewing area (7); the second light source (6) is adapted to be mounted on the vehicle (2) at a given location so that the directions of projection of the reference points on the second observation zone (7) do not coincide with the optical axis of the first camera (1) recording an image of the reference points of this second observation area; The memory of the calculation unit is able to store position parameters with respect to the vehicle and projection of the second light source (6); the synchronization means (9) is able to operate synchronously with the position sensor (8) the first camera (1), the first (4) and the second (6) light source and the unit of calculation (5); and the calculation unit is able to: determine coordinate values in the image plane of the first camera of control points of an image of the second observation zone recorded by the first camera and store the values determined in the memory of the computing unit; and from values stored in control point coordinate memory corresponding to the second observation area in the image plane of the first camera, values of calibration parameters and positioning with respect to the vehicle of the first camera as well as positional parameters with respect to the vehicle and projection of the second light source, and from values of the height h of the vehicle relative to the ground, the roll angle θ and the pitch angle W of the vehicle and data relating to the position and orientation of the vehicle, calculating values of the coordinates of the reference points of the second observation zone corresponding to the control points and storing them in the memory of the calculation unit . 28. Dispositif selon la revendication 27, dans lequel 2890477 76 l'unité de calcul est en outre apte à déterminer la forme géométrique de la deuxième zone d'observation, à partir d'un ensemble de valeurs de coordonnées de points de référence de la deuxième zone d'observation stockées en mémoire et correspondant à un instant donné, et à stocker des données relatives à cette forme dans la mémoire de l'unité de calcul.  The apparatus of claim 27, wherein the computing unit is further adapted to determine the geometric shape of the second viewing area from a set of reference point coordinate values of the second observation zone stored in memory and corresponding to a given instant, and storing data relating to this form in the memory of the computing unit. 29. Dispositif selon la revendication 28, dans lequel, 10 la deuxième zone d'observation étant plus éloignée du véhicule que la première zone d'observation, l'unité de calcul est apte à évaluer un déplacement du véhicule à partir de données de position et d'orientation du véhicule transmises par le capteur de position et stockées en mémoire, et, si l'unité de calcul détermine que le véhicule se déplace de façon à ce que, à un instant donné, la première zone d'observation (3) recouvre une portion du sol qui a fait partie de la deuxième zone d'observation (7) à un instant antérieur où la forme géométrique de ladite deuxième zone d'observation a été déterminée, alors l'unité de calcul utilise cette forme géométrique stockée en mémoire comme forme du sol au niveau de la première zone d'observation pour le calcul des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage cp du véhicule correspondant à l'instant donné.  29. The device according to claim 28, wherein, the second observation zone being farther from the vehicle than the first observation zone, the computing unit is able to evaluate a displacement of the vehicle from position data. and vehicle orientation transmitted by the position sensor and stored in memory, and, if the computing unit determines that the vehicle is moving so that, at a given time, the first viewing area (3 ) covers a portion of the ground that has been part of the second observation zone (7) at a previous time when the geometric shape of said second observation zone has been determined, then the calculation unit uses this stored geometrical shape in memory as a shape of the ground at the first observation zone for calculating the values of the height h of the vehicle relative to the ground, the roll angle e and the pitch angle cp of the corresponding vehicle at the given moment. 30. Dispositif selon la revendication 26, comportant en 30 outre une troisième source de lumière (12) apte à être montée sur le véhicule (2) et à projeter vers le sol une matrice de points de référence lumineux sur une troisième zone d'observation (11) distincte de la première zone d'observation (3); et une deuxième caméra (10) apte à être montée sur le véhicule (2) en un emplacement donné et calibrée, et apte à enregistrer une image de points de référence lumineux de la troisième zone d'observation (11) et à transmettre une image enregistrée à l'unité de calcul (5), dans lequel l'unité de calcul est apte à recevoir et à traiter une image enregistrée par la deuxième caméra (10), la troisième source de lumière (12) est apte à être montée sur le véhicule en un emplacement donné de façon à ce que les directions de projection des points de référence sur la troisième zone d'observation (11) ne coïncident pas avec l'axe optique de la deuxième caméra (10) enregistrant une image des points de référence de cette troisième zone d'observation, les valeurs des paramètres de position par rapport au véhicule de la troisième source de lumière étant stockées dans la mémoire de l'unité de calcul, la troisième source de lumière, la deuxième caméra et l'unité de calcul étant aptes à fonctionner de manière synchronisée grâce au moyen de synchronisation (9), ledit dispositif est apte à, de manière synchronisée avec le capteur de position (8): former une matrice de points de référence lumineux sur la troisième zone d'observation au moyen de la troisième source de lumière; et enregistrer au moyen de la deuxième caméra une image des points de référence lumineux formés sur la troisième zone d'observation dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la troisième zone d'observation; et déterminer au moyen de l'unité de calcul les valeurs des coordonnées dans le plan image de la deuxième caméra de points de contrôle de l'image de la troisième zone d'observation enregistrée par la deuxième caméra et stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et à partir des valeurs déterminées des coordonnées des points de contrôle correspondant à la troisième zone d'observation dans le plan image de la deuxième caméra, des valeurs des paramètres de calibrage et de position par rapport au véhicule de la première camera ainsi que des paramètres de position par:rapport au véhicule et de projection de la troisième source de lumière, et à partir des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 0 et de l'angle de tangage 9 du véhicule et des données relatives à la position et à l'orientation du véhicule, calculer au moyen de l'unité de calcul les valeurs des coordonnées des points de référence de la troisième zone d'observation correspondant aux points de contrôles dont les coordonnées ont été calculées et les stocker dans la mémoire de l'unité de calcul.  30. Apparatus according to claim 26, further comprising a third light source (12) adapted to be mounted on the vehicle (2) and to project towards the ground a matrix of light reference points on a third observation zone. (11) distinct from the first observation zone (3); and a second camera (10) adapted to be mounted on the vehicle (2) at a given and calibrated location, and capable of recording an image of light reference points of the third viewing area (11) and transmitting an image stored in the computing unit (5), in which the computing unit is adapted to receive and process an image recorded by the second camera (10), the third light source (12) is adapted to be mounted on the vehicle at a given location so that the directions of projection of the reference points on the third observation zone (11) do not coincide with the optical axis of the second camera (10) recording an image of the points of reference of this third observation zone, the values of the position parameters with respect to the vehicle of the third light source being stored in the memory of the computing unit, the third light source, the second camera and the computing unit being able to operate in a synchronized manner by means of synchronization means (9), said device is adapted, in synchronism with the position sensor (8): to form a matrix of light reference points on the third observation zone by means of the third light source; and recording, by means of the second camera, an image of the luminous reference points formed on the third observation zone in the image plane of the camera and transmitting the recorded image to the computing unit, the recorded image comprising dots control and each control point corresponding to the image of a light reference point of the third observation zone; and determining by means of the calculation unit the values of the coordinates in the image plane of the second camera of the image control points of the third observation zone recorded by the second camera and storing the determined values in the memory the unit of calculation; and from the determined values of the coordinates of the control points corresponding to the third observation zone in the image plane of the second camera, values of the calibration and position parameters with respect to the vehicle of the first camera as well as parameters of position by: ratio to the vehicle and projection of the third light source, and from the values of the height h of the vehicle relative to the ground, the roll angle 0 and the pitch angle 9 of the vehicle and data relating to the position and orientation of the vehicle, calculating by means of the calculation unit the coordinate values of the reference points of the third observation zone corresponding to the control points whose coordinates have been calculated and store them in the memory of the computing unit. 31. Dispositif selon la revendication 30, dans lequel l'unité de calcul est en outre apte à déterminer la forme géométrique de la troisième zone d'observation, à partir d'un ensemble de valeurs de coordonnées de points de référence stockées dans la mémoire correspondant à un instant donné, et à stocker dans la mémoire les données relatives à cette forme.  Apparatus according to claim 30, wherein the computing unit is further adapted to determine the geometric shape of the third observation area from a set of reference point coordinate values stored in the memory. corresponding to a given instant, and to store in the memory the data relating to this form. 32. Dispositif selon la revendication 31, dans lequel la troisième zone d'observation étant plus éloignée du véhicule que la première zone d'observation et l'unité de calcul étant en outre apte à évaluer un déplacement du véhicule à partir de données de position et d'orientation du véhicule transmises par le capteur de position et stockées dans la mémoire, si l'unité de calcul détermine que le véhicule se déplace de façon à ce que, à un instant donné, la première zone d'observation recouvre une portion du sol qui a fait partie de la troisième zone d'observation à un instant antérieur où ladite forme géométrique de la troisième zone a été déterminée, alors cette forme géométrique est utilisée comme forme du sol au niveau de la première zone d'observation dans le calcul des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis 0 et de l'angle de tangage cp du véhicule correspondant à l'instant donné.  Apparatus according to claim 31, wherein the third viewing area is further away from the vehicle than the first viewing area and the computing unit is further adapted to evaluate a movement of the vehicle from position data. and orientation of the vehicle transmitted by the position sensor and stored in the memory, if the computing unit determines that the vehicle is moving so that, at a given moment, the first observation area covers a portion of the soil which has been part of the third observation zone at a previous time when said geometrical shape of the third zone has been determined, then this geometrical shape is used as the shape of the soil at the level of the first observation zone in the calculating the values of the height h of the vehicle relative to the ground, the roll angle θ and the pitch angle cp of the vehicle corresponding to the given instant. 33. Dispositif selon les revendication 29 et 32, dans lequel, le véhicule étant apte à se mouvoir vers l'avant ou vers l'arrière, la première caméra est apte à être montée à l'arrière du véhicule et la deuxième caméra est apte à être montée à l'avant du véhicule.  33. Device according to claims 29 and 32, wherein, the vehicle being able to move forwards or backwards, the first camera is adapted to be mounted at the rear of the vehicle and the second camera is fit to be mounted at the front of the vehicle. 34. Dispositif selon l'une quelconque des revendications 27 à 33, dans lequel une source complémentaire de lumière (20) est apte à être montée sur le véhicule et à projeter vers le sol une matrice de points de référence lumineux sur une zone d'observation complémentaire associée (19) ; une caméra complémentaire est apte à être montée sur le véhicule en un emplacement donné et calibrée, et à enregistrer une image de points de référence lumineux de la zone d'observation complémentaire; la source complémentaire de lumière est apte à être montée sur le véhicule en un emplacement donné de façon à ce que les directions de projection des points de référence sur la zone d'observation complémentaire associée ne coïncident pas avec l'axe optique de la caméra complémentaire enregistrant une image des points de référence de cette zone d'observation complémentaire, les valeurs des paramètres de calibrage et de position par rapport au véhicule de la camera complémentaire ainsi que des paramètres de position par rapport au véhicule et de projection de la source complémentaire de lumière étant stockées dans la mémoire de l'unité de calcul, la source complémentaire de lumière, la caméra complémentaire ainsi que l'unité de calcul étant aptes à fonctionner de manière synchronisée avec le capteur de position grâce au moyen de synchronisation, ledit dispositif est en outre apte à, de manière synchronisée avec le capteur de position: former une matrice de points de référence lumineux sur la zone d'observation complémentaire au moyen de la source complémentaire de lumière; et enregistrer au moyen de la caméra complémentaire une image des points de référence lumineux formés sur la zone d'observation complémentaire dans le plan image de la caméra et transmettre l'image enregistrée à l'unité de calcul, l'image enregistrée comportant des points de contrôle et chaque point de contrôle correspondant à l'image d'un point de référence lumineux de la zone d'observation complémentaire; et déterminer au moyen de l'unité de calcul les valeurs des coordonnées dans le plan image de la première caméra de points de contrôle de l'image de la zone d'observation complémentaire enregistrée par la caméra complémentaire et stocker les valeurs déterminées dans la mémoire de l'unité de calcul; et à partir des valeurs déterminées des coordonnées des points de contrôle correspondant à la zone d'observation complémentaire dans le plan image de la caméra complémentaire, des valeurs des paramètres de calibrage et de position par rapport au véhicule de la camera complémentaire ainsi que des paramètres de position par rapport au véhicule et de projection de la source complémentaire de lumière, et à partir des valeurs de la hauteur h du véhicule par rapport au sol, de l'angle de roulis e et de l'angle de tangage cf) du véhicule et des 2890477 82 données relatives à la position et à l'orientation du véhicule, calculer au moyen de l'unité de calcul les valeurs des coordonnées des points de référence de la zone d'observation complémentaire correspondant aux points de contrôles dont les coordonnées ont été calculées et les stocker dans la mémoire de l'unité de calcul.  34. Device according to any one of claims 27 to 33, wherein a complementary light source (20) is adapted to be mounted on the vehicle and to project towards the ground a matrix of light reference points on a zone of complementary observation associated (19); a complementary camera is adapted to be mounted on the vehicle in a given and calibrated location, and to record an image of luminous reference points of the complementary observation area; the complementary source of light is adapted to be mounted on the vehicle at a given location so that the directions of projection of the reference points on the associated complementary observation area do not coincide with the optical axis of the complementary camera recording an image of the reference points of this complementary observation zone, the values of the calibration and position parameters relative to the vehicle of the complementary camera as well as the position parameters with respect to the vehicle and projection of the complementary source of light being stored in the memory of the computing unit, the complementary light source, the complementary camera and the computing unit being able to operate synchronously with the position sensor by means of synchronization, said device is furthermore capable of synchronously with the position sensor: forming a matrix of luminous reference points on the complementary observation zone by means of the complementary source of light; and recording by means of the complementary camera an image of the luminous reference points formed on the complementary observation area in the image plane of the camera and transmitting the recorded image to the computing unit, the recorded image comprising dots control and each control point corresponding to the image of a luminous reference point of the complementary observation zone; and determining by means of the calculation unit the coordinate values in the image plane of the first image control point camera of the complementary observation area recorded by the complementary camera and storing the determined values in the memory the unit of calculation; and from the determined values of the coordinates of the control points corresponding to the complementary observation zone in the image plane of the complementary camera, values of the calibration and position parameters relative to the vehicle of the complementary camera as well as the parameters of position relative to the vehicle and projection of the complementary source of light, and from the values of the height h of the vehicle relative to the ground, the roll angle e and the pitch angle cf) of the vehicle and data relating to the position and orientation of the vehicle, calculating by means of the calculation unit the values of the coordinates of the reference points of the complementary observation zone corresponding to the control points whose coordinates have have been calculated and stored in the memory of the computing unit. 35. Dispositif selon la revendication 34, dans lequel l'unité de calcul est en outre apte à déterminer la forme géométrique de la zone d'observation complémentaire, à partir d'un ensemble de valeurs de coordonnées de points de référence stockées dans la mémoire correspondant à un instant donné, et à stocker dans la mémoire les données relatives à cette forme.  Apparatus according to claim 34, wherein the computing unit is further adapted to determine the geometric shape of the complementary viewing area from a set of reference point coordinate values stored in the memory. corresponding to a given instant, and to store in the memory the data relating to this form. 36. Dispositif selon la revendication 34 ou 35, dans lequel la caméra complémentaire est la première caméra.  36. Device according to claim 34 or 35, wherein the complementary camera is the first camera. 37. Dispositif selon la revendication 36, dans lequel la source complémentaire de lumière est la première source de lumière ou la deuxième source de lumière.  37. Device according to claim 36, wherein the complementary source of light is the first light source or the second light source. 38. Dispositif selon la revendication 34 ou 35, dans 25 lequel la caméra complémentaire est la deuxième caméra.  Device according to claim 34 or 35, wherein the complementary camera is the second camera. 39. Dispositif selon la revendication 38, dans lequel la source complémentaire de lumière est la troisième source de lumière.  39. Device according to claim 38, wherein the complementary source of light is the third light source. 2890477 83  2890477 83 40. Dispositif selon l'une quelconque des revendications 26 à 39, dans lequel la première source de lumière est la deuxième source de lumière.40. Device according to any one of claims 26 to 39, wherein the first light source is the second light source. 41. Dispositif selon l'une quelconque des revendications 24 à 40, dans lequel au moins une source de lumière est une source laser.  41. Device according to any one of claims 24 to 40, wherein at least one light source is a laser source. 42. Dispositif selon l'une quelconque des 10 revendications 24 à 41, dans lequel au moins une source de lumière est une source de lumière pulsée; un moyen de synchronisation de pulsation est apte à synchroniser chaque source de lumière pulsée avec la caméra correspondante apte à enregistrer une image de la zone d'observation éclairée par la source de lumière pulsée.  42. The device of any one of claims 24 to 41, wherein at least one light source is a pulsed light source; a pulsation synchronization means is adapted to synchronize each pulsed light source with the corresponding camera capable of recording an image of the observation area illuminated by the pulsed light source. 43. Dispositif selon l'une quelconque des 20 revendications 27 à 42, dans lequel si un objet (29) se trouve dans l'une des zones d'observation éclairée par l'une des sources de lumière, l'unité de calcul est apte à détecter la présence de l'objet et le mouvement de l'objet par rapport au véhicule à partir du traitement d'au moins deux images de cette zone d'observation éclairée par la source de lumière et reçues consécutivement dans le temps, et à stocker dans la mémoire les informations relatives au mouvement détecté et à l'emplacement de l'objet détecté.  43. Apparatus according to any one of claims 27 to 42, wherein if an object (29) is in one of the viewing areas illuminated by one of the light sources, the computing unit is able to detect the presence of the object and the movement of the object relative to the vehicle from the treatment of at least two images of this observation zone illuminated by the light source and received consecutively in time, and storing in the memory the information relating to the detected motion and the location of the detected object. 2890477 84  2890477 84 44. Dispositif selon l'une quelconque des revendications 26 à 43, dans lequel l'unité de calcul représentation graphique 5 à partir des données est apte à calculer une de l'environnement du véhicule de position stockées dans la mémoire de l'unité de calcul concernant le véhicule et des points de référence d'au moins une zone d'observation.44. Apparatus according to any one of claims 26 to 43, wherein the computing unit graphical representation 5 from the data is able to calculate one of the position vehicle environment stored in the memory of the unit of vehicle calculation and reference points of at least one observation area. 45. Dispositif selon l'une quelconque des  45. Device according to any one of revendications 26 à 44, dans lequel  claims 26 to 44, wherein l'unité de calcul est apte à associer une position du véhicule stockée en mémoire à un emplacement correspondant sur une carte de l'environnement du véhicule stockée en mémoire, et à stocker en mémoire le résultat de cette association.  the calculation unit is capable of associating a position of the vehicle stored in memory with a corresponding location on a map of the environment of the vehicle stored in memory, and storing in memory the result of this association. 46. Dispositif selon l'une quelconque des  46. Device according to any one of revendications 24 à 45, dans lequel  claims 24 to 45, wherein l'unité de calcul est apte à mettre en forme des données stockées en mémoire et à transmettre ces données mises en forme à un moyen d'affichage pour afficher une représentation de ces données.  the computing unit is able to format data stored in memory and to transmit this formatted data to a display means for displaying a representation of these data. 47. Véhicule (2) équipé d'un dispositif de détermination de position dans un environnement selon l'une quelconque des revendications 24 à 46.  47. A vehicle (2) equipped with a position determining device in an environment according to any one of claims 24 to 46.
FR0508997A 2005-09-02 2005-09-02 METHOD AND DEVICE FOR EVALUATING THE POSITION OF A VEHICLE IN ITS ENVIRONMENT Expired - Fee Related FR2890477B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0508997A FR2890477B1 (en) 2005-09-02 2005-09-02 METHOD AND DEVICE FOR EVALUATING THE POSITION OF A VEHICLE IN ITS ENVIRONMENT

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0508997A FR2890477B1 (en) 2005-09-02 2005-09-02 METHOD AND DEVICE FOR EVALUATING THE POSITION OF A VEHICLE IN ITS ENVIRONMENT

Publications (2)

Publication Number Publication Date
FR2890477A1 true FR2890477A1 (en) 2007-03-09
FR2890477B1 FR2890477B1 (en) 2009-10-16

Family

ID=37770264

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0508997A Expired - Fee Related FR2890477B1 (en) 2005-09-02 2005-09-02 METHOD AND DEVICE FOR EVALUATING THE POSITION OF A VEHICLE IN ITS ENVIRONMENT

Country Status (1)

Country Link
FR (1) FR2890477B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11365966B2 (en) 2016-07-19 2022-06-21 Machines With Vision Limited Vehicle localisation using the ground surface with an event camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07329743A (en) * 1994-06-03 1995-12-19 Mitsubishi Heavy Ind Ltd Runaway detector of unmanned transport vehicle
DE19730414A1 (en) * 1997-07-16 1999-01-21 Opel Adam Ag Method to judge condition of roadway in advance
DE10059786A1 (en) * 2000-12-01 2002-06-27 Volkswagen Ag Monitoring device for area around vehicle uses cameras selectively used for scanning road surface when uneven road surface is detected
WO2003106924A1 (en) * 2002-04-26 2003-12-24 Digatech Ab A device for measuring the profile of a roadway

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07329743A (en) * 1994-06-03 1995-12-19 Mitsubishi Heavy Ind Ltd Runaway detector of unmanned transport vehicle
DE19730414A1 (en) * 1997-07-16 1999-01-21 Opel Adam Ag Method to judge condition of roadway in advance
DE10059786A1 (en) * 2000-12-01 2002-06-27 Volkswagen Ag Monitoring device for area around vehicle uses cameras selectively used for scanning road surface when uneven road surface is detected
WO2003106924A1 (en) * 2002-04-26 2003-12-24 Digatech Ab A device for measuring the profile of a roadway

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11365966B2 (en) 2016-07-19 2022-06-21 Machines With Vision Limited Vehicle localisation using the ground surface with an event camera

Also Published As

Publication number Publication date
FR2890477B1 (en) 2009-10-16

Similar Documents

Publication Publication Date Title
US10949684B2 (en) Vehicle image verification
KR101953521B1 (en) A robust method for detecting traffic signals and their associated states
US8886387B1 (en) Estimating multi-vehicle motion characteristics by finding stable reference points
CN112424046A (en) Carrier sensor verification and calibration
NL2004996C2 (en) A METHOD FOR MANUFACTURING A DIGITAL PHOTO, AT LEAST PART OF THE IMAGE ELEMENTS INCLUDING POSITION INFORMATION AND SUCH DIGITAL PHOTO.
US11245858B2 (en) Electronic device and method for providing image of surroundings of vehicle
FR2853121A1 (en) DEVICE FOR MONITORING THE SURROUNDINGS OF A VEHICLE
JP2006501542A (en) Method and apparatus for video-based monitoring and measurement around the side of a vehicle
WO2018142057A1 (en) Method and device for calibrating a perception system including a set of lidar rangefinders
EP1785966B1 (en) Evaluation process, by a motor vehicle, of the characteristics of a frontal element
FR2958741A1 (en) METHOD AND INFORMATION SYSTEM FOR MARKING A DESTINATION IN A VEHICLE
FR2922029A1 (en) Detector for e.g. car, has controller for detecting geographic end point and determining position of point in spatial reference from transition zone images, where point is associated to end contour of object at transition zone
EP2043044B1 (en) Method and device for automobile parking assistance
EP2748625B1 (en) Method for locating an object using a reference grid
FR2945491A1 (en) METHOD AND DEVICE FOR EXTENDING A VISIBILITY AREA
FR2890477A1 (en) Vehicle e.g. motor truck, position determining method for detecting e.g. pedestrian, involves determining corresponding values of vehicle height with respect to ground, roll angle, and vehicle pitch angle for storing them in memory
JP2009014645A (en) Distance measuring device used for vehicle
FR3067999B1 (en) METHOD FOR AIDING THE DRIVING OF A MOTOR VEHICLE
FR3052581B1 (en) METHOD FOR MAKING A DEPTH CARD FROM SUCCESSIVE IMAGES OF A SINGLE CAMERA (MONO) EMBARKED IN A MOTOR VEHICLE
FR2911678A1 (en) METHOD FOR EVALUATING THE DISTANCE BETWEEN A VEHICLE AND AN OBJECT AND DRIVING ASSISTANCE SYSTEM USING THE SAME
FR2948478A1 (en) METHOD FOR RECORDING INFORMATION RELATING TO VERTICAL SIGNALING PANELS, ASSOCIATED DEVICE AND APPLICATION
WO2017216465A1 (en) Method and device for processing images acquired by a camera of a motor vehicle
EP4165601A1 (en) Method for calibrating a camera and associated device
EP4264535A1 (en) System and method for computing a final image of an area surrounding a vehicle
WO2023280745A1 (en) Method for labelling an epipolar-projected 3d image

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20160531