WO2023088932A1 - Title: method for determining the relative orientation of two vehicles - Google Patents
Title: method for determining the relative orientation of two vehicles Download PDFInfo
- Publication number
- WO2023088932A1 WO2023088932A1 PCT/EP2022/082068 EP2022082068W WO2023088932A1 WO 2023088932 A1 WO2023088932 A1 WO 2023088932A1 EP 2022082068 W EP2022082068 W EP 2022082068W WO 2023088932 A1 WO2023088932 A1 WO 2023088932A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- image sensor
- image
- reference object
- relative orientation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000004891 communication Methods 0.000 claims description 4
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims description 2
- 238000013519 translation Methods 0.000 description 5
- 230000014616 translation Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Definitions
- This disclosure relates to a method for determining the relative orientation of two vehicles equipped with cameras. It finds advantageous applications in driving assistance functionalities such as third-party vehicle trajectory forecasting or estimation, collision detection, or the grouping of vehicles into platoons or convoys.
- lidar sensors are expensive, have a high energy consumption and also have a fairly large size which makes them difficult to integrate on a small vehicle. Therefore, not all vehicles are equipped with lidar sensors.
- an object of the invention is to propose a method for determining the orientation of a vehicle with respect to another object, for example a second vehicle, which is more precise than the solutions of the prior art.
- Another object of the invention is to be applicable to vehicles without Lidar sensors, but equipped with cameras.
- the reference object is a pedestrian, another vehicle, or an element of infrastructure.
- the method is implemented by a computer on board the vehicle, in the reference object, or by a remote computer.
- the reference object is a second vehicle
- the method is implemented by a computer on board the first and/or the second vehicle, and comprises a preliminary step of establishing a communication link between the first and the second vehicle.
- the determination of the relative orientation between the two image sensors is implemented by minimizing the difference between the first estimated position and the second calculated position of the same image sensor. .
- the determination of the relative orientation between the two image sensors is implemented by the Levenberg-Marquardt algorithm.
- the determination of the relative orientation between the image sensors comprises the determination of the relative yaw and pitch between the image sensors, the roll being assumed to be zero.
- a computer program product comprising instructions for implementing the method according to the preceding description when it is executed by a processor.
- non-transitory recording medium readable by a computer on which is recorded a program for the implementation of the method according to the preceding description when this program is executed by a processor.
- a vehicle comprising an image sensor, a computer, and a connection interface to a telecommunications network, characterized in that the computer is configured to implement the method according to foregoing description.
- the proposed method makes it possible to determine the relative orientation between a vehicle equipped with an image sensor, for example a camera, and a reference object, from an image acquired by the vehicle and the position, with respect to the reference object, of an image sensor mounted thereon.
- this method is applicable to the determination of the relative orientation between two vehicles both equipped with cameras.
- This process makes it possible to calculate the relative yaw and pitch between the two vehicles, including when the road is not flat. It can be implemented in the absence of a Lidar sensor on the vehicles.
- Figure 1 schematically shows two vehicles that can implement the method.
- FIG. 2 schematically represents the main steps of the method for determining the relative orientation between a vehicle and a reference object.
- FIG. 3 schematically represents the implementation of the method according to one embodiment.
- FIG. 4 schematically represents the implementation of the method according to one embodiment.
- FIG. 5 represents an example of a vehicle comprising an on-board camera and illustrates the references associated respectively with the vehicle and with the camera.
- an image sensor is understood to mean a sensor suitable for detecting the position of an object, it may be a camera, or even a radar or lidar sensor.
- the reference object is a second vehicle VB, in particular a four-wheeled vehicle of the car or truck type, traveling on the same road as the vehicle.
- the numerical references in accordance with this example and associated with the first and second vehicles respectively comprise an index A or B.
- the reference object can be another type of vehicle, for example a two-wheeler. It can also be a pedestrian equipped with a camera or a mobile phone. It can also be an element of infrastructure, for example a toll or a gate.
- each vehicle has an image sensor 10A, 10B which is mounted on the respective vehicle with a known position and orientation of the image sensor relative to the vehicle on which it is mounted.
- the image sensor can be oriented from the front to the rear of the vehicle so as to acquire images on which the vehicles preceding or following the vehicle are visible.
- the image sensor can also be mounted on one side of the vehicle.
- one or each vehicle VA, VB can be equipped with several cameras oriented towards the front and/or towards the rear and/or towards the sides of the vehicle.
- the vehicle VA, and the reference object VB further comprise an access interface 11 A, 11 B to a telecommunications network, for example of the GSM, LTE, 3G, 4G or 5G type, or a Wi -Fi.
- a telecommunications network for example of the GSM, LTE, 3G, 4G or 5G type, or a Wi -Fi.
- the vehicles can communicate with each other by a vehicle-to-vehicle type communication.
- the vehicles also include a computer 12A, 12B configured to implement the method described below after having established communication between them, and a memory 13A, 13B storing the code instructions for the implementation of this method. , as well as information regarding the position and orientation of the camera mounted on the respective vehicle with respect to it.
- the vehicle VA and the reference object are adapted to communicate with a remote server S.
- the reference object is a second vehicle VB.
- the method is implemented by the computer of one of the vehicles, by convention below, of the first vehicle VA.
- the method is implemented by a remote server S.
- the method comprises a first step 100 of receiving at least one image acquired by the image sensor of the first vehicle VA, on which the other vehicle or reference object is visible.
- the first vehicle VA acquires an image IA where the second vehicle VB is visible.
- the computer 12A of the first vehicle the computer is connected to the camera and receives the images that it acquires.
- This step also includes the reception of an image IB acquired by the camera 11 B of the second vehicle (or of the reference object), on which the first vehicle VA is visible.
- the method is implemented by a computer on board the first vehicle, the latter receives the image IB of the first vehicle via a wireless network.
- the remote server can receive the images IA, IB, acquired by the cameras of the two vehicles, via the telecommunications network.
- the method then comprises the reception 200 by the computer implementing the processing, of position information from the image sensor 10B of the reference object, with respect to the latter, that is to say say in the previous example, position information denoted CB of the image sensor 10B of the second vehicle VB relative to the latter.
- This information can for example comprise a simplified three-dimensional representation of the reference object, as well as the position of the marker element in a marker associated with this simplified representation.
- This step also includes receiving position information from the image sensor 10A of the first vehicle VA by relation to this one. If the method is implemented by the computer of the first vehicle, this information is retrieved from the memory 13A.
- this step comprises the reception, by the server, of the position information (CA and CB) of each camera (10A and 10B) relative to the vehicle (VA and VB) on which it is respectively mounted.
- the computer can estimate 300: the position Pos1 B, on the image IA acquired by the first vehicle VA, of the image sensor 10B of the reference object on the image, c that is to say, for example, the position of the image sensor 10B of the second vehicle VB on the image, and the position Pos1A, on the image acquired by the reference object, of the image sensor 10A of the vehicle VA on the image, that is to say for example the position of the image sensor 10A of the first vehicle VA on the image acquired by the second vehicle VB.
- the computer implements an algorithm to detect the contours of the reference object or of the vehicle in the image.
- Many algorithms known to those skilled in the art are available to perform this function, for example the publication by J. Redmon, S. Divvala, R. Girshick and A. Farhadi “You Only Look Once: Unified, Real-Time Object Detection”, 2015.
- the computer deduces, from the relative position of the image sensor in relation to the reference object or the vehicle, a first estimated position of the image sensor on the image. If the position of the image sensor with respect to one of the first and of the second vehicle is not known, it is possible to consider that this sensor is part of the vehicle and to deduce a range of possible values for the position in X and Y of this sensor on the image.
- the computer can then determine, step 400, the relative orientation between the two image sensors, denoted (RX, RY) in such a way: that a second calculated position Pos2B of the image sensor 10B of the reference object on the image IA acquired by the first vehicle VA from this relative orientation, corresponds to the first position Pos1 B estimated in the previous step, and that a second calculated position Pos2A of the image sensor 10A of the vehicle VA on the image IB acquired by the image sensor 10B of the reference object from of this relative orientation corresponds to the first estimated position Pos1A of the image sensor 10A of the vehicle VA.
- the relative orientation which is calculated in step 400 includes the angles of yaw RX and pitch RY between the image sensor and the reference element, that is to say a rotation relative to an axis X represented in FIG. 5 orthogonal to the plane of the road on which the vehicle is traveling, and a rotation with respect to an axis Y also represented, which is orthogonal to the axis X and orthogonal to the direction of movement of the vehicle Z.
- the orientation determined does not include the roll along the Z axis.
- the relative position along the X and Y axes between the image sensor and the benchmark is also determined.
- This determination of the relative orientation between the two image sensors is implemented by an iterative algorithm aimed at minimizing a cost function formed by the differences between the second calculated position of each image sensor from the relative orientation between the image sensors, and the respective estimated first position.
- the computer can initialize the search for the relative orientation between the image sensors 10A, 10B by an initial relative orientation, for example equal to (co, 0, 0, 0) where the first coordinate corresponds to an angle of yaw (we take co as the initial value in the example of two vehicles each comprising an image sensor since in principle the image sensors of the two vehicles are oriented in opposite directions to take images on which the two vehicles are visible), the second coordinate corresponds to a pitch angle, the third coordinate corresponds to a translation along the X axis and the fourth coordinate corresponds to a translation along the Y axis, these translations are known to the nearest scale factor , the translation in Z is fixed at the value 1.
- an initial relative orientation for example equal to (co, 0, 0, 0) where the first coordinate corresponds to an angle of yaw (we take co as the initial value in the example of two vehicles each comprising an image sensor since in principle the image sensors of the two vehicles are oriented in opposite directions to take images on which the two vehicles are visible), the second coordinate corresponds to a pitch
- the computer determines the position of the image sensor 10B of the reference object in a frame associated with the image sensor 10A of the vehicle VA , by applying a change of reference matrix determined from this initial orientation, then projects this position, from the intrinsic parameters of the image sensor 10A of the vehicle VA, to obtain the coordinates of the image sensor 10B in an image acquired by the image sensor 10A. It thus obtains the second calculated position Pos2B of the image sensor 10B of the reference object in the image IA. The same processing is implemented symmetrically to obtain the second calculated position Pos2A of the image sensor of the vehicle VA in the image IB.
- this calculation is implemented iteratively so as to find the relative orientation matrix (RX, RY, TX, TY), with TX and TY the translations respectively along the X and Y axes, minimizing the difference between the calculated position Pos2B and the estimated position Pos1 B, and between the calculated position Pos2A and the estimated position Pos1 A.
- This can be done using a Levenberg-Marquadt algorithm, described in the publications:
- FIG. 5 there is shown an associated mark (Xc, Yc, Zc) to an image sensor mounted on a vehicle, and a mark (Xv, Yv, Zv) associated with the vehicle.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Image Analysis (AREA)
Abstract
A method for determining the orientation of a vehicle (VA) with respect to a reference object (VB), each comprising an image sensor (10A, 10B), comprising: - receiving an image acquired by each image sensor of the vehicle, in which image the vehicle/reference object is visible, - receiving information on the position of each image sensor with respect to the reference object/vehicle in which it is installed, - based on the received information, estimating a first position of each image sensor in the image acquired by the other image sensor, - determining the relative orientation between the two image sensors, and - deducing, based on the relative orientation between the two image sensors, the relative orientation between the vehicle and the reference object.
Description
Description Description
Titre : Procédé de détermination de l’orientation relative de deux véhiculesTitle: Process for determining the relative orientation of two vehicles
Domaine technique Technical area
[0001] La présente divulgation concerne un procédé de détermination de l’orientation relative de deux véhicules équipés de caméras. Elle trouve des applications avantageuses dans des fonctionnalités d’assistance à la conduite telle que la prévision ou l’estimation de trajectoire de véhicules tiers, la détection de collision, ou le groupement de véhicules par pelotons ou convois. This disclosure relates to a method for determining the relative orientation of two vehicles equipped with cameras. It finds advantageous applications in driving assistance functionalities such as third-party vehicle trajectory forecasting or estimation, collision detection, or the grouping of vehicles into platoons or convoys.
Technique antérieure Prior technique
[0002] De nombreux travaux sont aujourd’hui menés afin de rendre les véhicules autonomes, ce qui suppose de détecter les positions des véhicules environnant un véhicule considéré, de détecter et de prédire la trajectoire de ces véhicules, et donc de déterminer la position et l’orientation des véhicules environnants. [0002] A great deal of work is now carried out in order to make vehicles autonomous, which means detecting the positions of vehicles surrounding a vehicle in question, detecting and predicting the trajectory of these vehicles, and therefore determining the position and orientation of surrounding vehicles.
[0003] Pour cela, il est possible d’utiliser un capteur lidar, qui permet d’obtenir des informations en trois dimensions sur l’environnement du véhicule. Cependant, les capteurs lidar sont chers, présentent une consommation énergétique importante et présentent également un encombrement assez important qui les rend difficiles à intégrer sur un petit véhicule. Par conséquent, tous les véhicules ne sont pas équipés de capteurs lidar. [0003] For this, it is possible to use a lidar sensor, which makes it possible to obtain three-dimensional information on the environment of the vehicle. However, lidar sensors are expensive, have a high energy consumption and also have a fairly large size which makes them difficult to integrate on a small vehicle. Therefore, not all vehicles are equipped with lidar sensors.
[0004] Pour les véhicules dépourvus de capteurs Lidar mais équipés de caméra, la détermination de l’orientation d’un véhicule environnant est plus difficile en l’absence d’informations en trois dimensions. Cette estimation est faite, à partir de la position détectée du véhicule environnant et d’un a priori sur la taille du véhicule. Cependant, l’estimation obtenue n’est pas précise et peut induire des erreurs dans les traitements subséquents. [0004] For vehicles without Lidar sensors but equipped with a camera, determining the orientation of a surrounding vehicle is more difficult in the absence of three-dimensional information. This estimate is made from the detected position of the surrounding vehicle and an a priori on the size of the vehicle. However, the estimate obtained is not precise and may induce errors in subsequent processing.
[0005] Il est aussi possible d’estimer une orientation d’un véhicule environnant en se basant sur une frontière basse de l’objet, qui est obtenue en déterminant une fenêtre englobant l’ensemble du contour du véhicule sur l’image, et en identifiant un point bas de cette fenêtre. Les estimations réalisées sur cette base ne sont pas plus précises, notamment quand la route n’est pas horizontale. [0005] It is also possible to estimate an orientation of a surrounding vehicle based on a lower boundary of the object, which is obtained by determining a window encompassing the entire outline of the vehicle in the image, and by identifying a low point of this window. The estimates made on this basis are not more precise, especially when the road is not horizontal.
Résumé Summary
[0006] La présente divulgation vient améliorer la situation. [0006] This disclosure improves the situation.
[0007] En particulier, un but de l’invention est de proposer un procédé de détermination de l’orientation d’un véhicule par rapport à un autre objet, par exemple un deuxième véhicule,
qui soit plus précis que les solutions de l’art antérieur. Un autre but de l’invention est d’être applicable à des véhicules dépourvus de capteurs Lidar, mais équipés de caméras. [0007] In particular, an object of the invention is to propose a method for determining the orientation of a vehicle with respect to another object, for example a second vehicle, which is more precise than the solutions of the prior art. Another object of the invention is to be applicable to vehicles without Lidar sensors, but equipped with cameras.
[0008] A cet égard, il est proposé un procédé de détermination de l’orientation d’un véhicule par rapport à un objet de référence, le véhicule et l’objet de référence comprenant chacun un capteur d’images, le procédé étant mis en œuvre par un calculateur et comprenant :[0008] In this regard, there is proposed a method for determining the orientation of a vehicle with respect to a reference object, the vehicle and the reference object each comprising an image sensor, the method being implemented by a computer and comprising:
- la réception d’une image acquise par le capteur d’images du véhicule, sur laquelle l’objet de référence est visible, et d’une image acquise par le capteur d’images de l’objet de référence, sur laquelle le véhicule est visible, - the reception of an image acquired by the image sensor of the vehicle, on which the reference object is visible, and of an image acquired by the image sensor of the reference object, on which the vehicle is visible,
- la réception d’informations de position du capteur d’images de l’objet de référence par rapport à celui-ci, et d’information de position du capteur d’images du véhicule par rapport à celui-ci, - the reception of position information from the image sensor of the reference object with respect to the latter, and of position information from the image sensor of the vehicle with respect to the latter,
- à partir des informations reçues, l’estimation d’une première position du capteur d’images de l’objet de référence sur l’image acquise par le capteur d’images du véhicule, et d’une première position du capteur d’images du véhicule sur l’image acquise par le capteur d’images de l’objet de référence, - from the information received, the estimation of a first position of the image sensor of the reference object on the image acquired by the image sensor of the vehicle, and of a first position of the sensor of images of the vehicle on the image acquired by the image sensor of the reference object,
- la détermination de l’orientation relative entre les deux capteurs d’images de sorte que :- the determination of the relative orientation between the two image sensors so that:
* une deuxième position du capteur d’image de l’objet de référence sur l’image acquise par le capteur d’images du véhicule calculée à partir de ladite orientation relative corresponde à la première position estimée du capteur d’image de l’objet de référence, et * a second position of the image sensor of the reference object on the image acquired by the image sensor of the vehicle calculated from said relative orientation corresponds to the first estimated position of the image sensor of the object reference, and
* qu’une deuxième position du capteur d’images du véhicule sur l’image acquise par le capteur d’images de l’objet de référence calculée à partir de ladite orientation relative corresponde à la première position estimée du capteur d’images du véhicule, * that a second position of the vehicle image sensor on the image acquired by the image sensor of the reference object calculated from said relative orientation corresponds to the estimated first position of the vehicle image sensor ,
- la déduction, à partir de l’orientation relative entre les deux capteurs d’images, de l’orientation relative entre le véhicule et l’objet de référence. - the deduction, from the relative orientation between the two image sensors, of the relative orientation between the vehicle and the reference object.
[0009] Dans des modes de réalisation, l’objet de référence est un piéton, un autre véhicule, ou un élément d’infrastructure. [0009] In embodiments, the reference object is a pedestrian, another vehicle, or an element of infrastructure.
[0010] Dans des modes de réalisation, le procédé est mis en œuvre par un calculateur embarqué dans le véhicule, dans l’objet de référence, ou par un calculateur distant. [0010] In some embodiments, the method is implemented by a computer on board the vehicle, in the reference object, or by a remote computer.
[0011] Dans des modes de réalisation, l’objet de référence est un deuxième véhicule, le procédé est mis en œuvre par un calculateur embarqué dans le premier et/ou le deuxième véhicule, et comprend une étape préliminaire d’établissement d’un lien de communication entre le premier et le deuxième véhicule.
[0012] Dans des modes de réalisation, la détermination de l’orientation relative entre les deux capteurs d’images est mise en œuvre par minimisation de la différence entre la première position estimée et la deuxième position calculée d’un même capteur d’images. [0011] In some embodiments, the reference object is a second vehicle, the method is implemented by a computer on board the first and/or the second vehicle, and comprises a preliminary step of establishing a communication link between the first and the second vehicle. [0012] In embodiments, the determination of the relative orientation between the two image sensors is implemented by minimizing the difference between the first estimated position and the second calculated position of the same image sensor. .
[0013] Dans des modes de réalisation, la détermination de l’orientation relative entre les deux capteurs d’images est mise en œuvre par l’algorithme de Levenberg-Marquardt. [0013] In embodiments, the determination of the relative orientation between the two image sensors is implemented by the Levenberg-Marquardt algorithm.
[0014] Dans des modes de réalisation, la détermination de l’orientation relative entre les capteurs d’images comprend la détermination du lacet et du tangage relatifs entre les capteurs d’images, le roulis étant supposé nul. [0014] In embodiments, the determination of the relative orientation between the image sensors comprises the determination of the relative yaw and pitch between the image sensors, the roll being assumed to be zero.
[0015] Selon un autre objet, il est décrit un produit programme d’ordinateur comportant des instructions pour la mise en œuvre du procédé selon la description qui précède lorsqu’il est exécuté par un processeur. According to another object, a computer program product is described comprising instructions for implementing the method according to the preceding description when it is executed by a processor.
[0016] Selon un autre objet, il est décrit un support d’enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré un programme pour la mise en œuvre du procédé selon la description qui précède lorsque ce programme est exécuté par un processeur. According to another object, there is described a non-transitory recording medium readable by a computer on which is recorded a program for the implementation of the method according to the preceding description when this program is executed by a processor.
[0017] Selon un autre objet, il est décrit un véhicule comprenant un capteur d’images, un calculateur, et une interface de connexion à un réseau de télécommunications, caractérisé en ce que le calculateur est configuré pour mettre en œuvre le procédé selon la description qui précède. According to another object, a vehicle is described comprising an image sensor, a computer, and a connection interface to a telecommunications network, characterized in that the computer is configured to implement the method according to foregoing description.
[0018] Le procédé proposé permet de déterminer l’orientation relative entre un véhicule équipé d’un capteur d’images, par exemple une caméra, et un objet de référence, à partir d’une image acquise par le véhicule et la position, par rapport à l’objet de référence, d’un capteur d’images monté sur celui-ci. En particulier, ce procédé est applicable à la détermination de l’orientation relative entre deux véhicules équipés tous deux de caméras. Ce procédé permet de calculer le lacet et le tangage relatifs entre les deux véhicules, y compris lorsque la route n’est pas plane. Il peut être mis en œuvre en l’absence de capteur Lidar sur les véhicules. The proposed method makes it possible to determine the relative orientation between a vehicle equipped with an image sensor, for example a camera, and a reference object, from an image acquired by the vehicle and the position, with respect to the reference object, of an image sensor mounted thereon. In particular, this method is applicable to the determination of the relative orientation between two vehicles both equipped with cameras. This process makes it possible to calculate the relative yaw and pitch between the two vehicles, including when the road is not flat. It can be implemented in the absence of a Lidar sensor on the vehicles.
Brève description des dessins Brief description of the drawings
[0019] D’autres caractéristiques, détails et avantages apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels : [0019] Other characteristics, details and advantages will appear on reading the detailed description below, and on analyzing the appended drawings, in which:
[0020] [Fig. 1] La figure 1 représente schématiquement deux véhicules pouvant mettre en œuvre du procédé. [0020] [Fig. 1] Figure 1 schematically shows two vehicles that can implement the method.
[0021] [Fig. 2] La figure 2 représente schématiquement les principales étapes du procédé de détermination de l’orientation relative entre un véhicule et un objet de référence.
[0022] [Fig. 3] La figure 3 représente schématiquement la mise en œuvre du procédé selon un mode de réalisation. [0021] [Fig. 2] FIG. 2 schematically represents the main steps of the method for determining the relative orientation between a vehicle and a reference object. [0022] [Fig. 3] FIG. 3 schematically represents the implementation of the method according to one embodiment.
[0023] [Fig. 4] La figure 4 représente schématiquement la mise en œuvre du procédé selon un mode de réalisation. [0023] [Fig. 4] FIG. 4 schematically represents the implementation of the method according to one embodiment.
[0024] [Fig. 5] La figure 5 représente un exemple de véhicule comprenant une caméra embarquée et illustre les repères associés respectivement au véhicule et à la caméra.[0024] [Fig. 5] FIG. 5 represents an example of a vehicle comprising an on-board camera and illustrates the references associated respectively with the vehicle and with the camera.
Description des modes de réalisation Description of embodiments
[0025] En référence à la figure 1 , on va maintenant décrire un procédé de détermination de l’orientation d’un véhicule VA comprenant un capteur d’images 10A, par rapport à un objet de référence comportant également un capteur d’images 10B et qui est visible par le capteur d’images 10A du véhicule. Dans la suite on entend par capteur d’images un capteur adapté pour détecter la position d’un objet, il peut s’agir d’une caméra, ou encore d’un capteur radar ou lidar. [0025] With reference to Figure 1, we will now describe a method for determining the orientation of a vehicle VA comprising an image sensor 10A, relative to a reference object also comprising an image sensor 10B and which is visible by the image sensor 10A of the vehicle. In the following, an image sensor is understood to mean a sensor suitable for detecting the position of an object, it may be a camera, or even a radar or lidar sensor.
[0026] Le procédé sera décrit ci-après en considérant un mode de réalisation particulier dans lequel l’objet de référence est un deuxième véhicule VB, notamment un véhicule à quatre roues de type voiture ou camion, circulant sur la même route que le véhicule VA. Dans la suite, les références numériques conformes à cet exemple et associées au premier et au deuxième véhicules comportent respectivement un indice A ou B. Dans d’autre modes de réalisation, l’objet de référence peut être un autre type de véhicule, par exemple un deux- roues. Il peut s’agir également d’un piéton équipé d’un appareil photo ou d’un téléphone portable. Il peut s’agir également d’un élément d’infrastructure, par exemple un péage ou un portique. The method will be described below by considering a particular embodiment in which the reference object is a second vehicle VB, in particular a four-wheeled vehicle of the car or truck type, traveling on the same road as the vehicle. GOES. In the following, the numerical references in accordance with this example and associated with the first and second vehicles respectively comprise an index A or B. In other embodiments, the reference object can be another type of vehicle, for example a two-wheeler. It can also be a pedestrian equipped with a camera or a mobile phone. It can also be an element of infrastructure, for example a toll or a gate.
[0027] Dans le cas où l’objet de référence est un deuxième véhicule, les deux véhicules peuvent se suivre sur une même voie de la route, ou circuler sur des voies différentes. Dans des modes de réalisation, chaque véhicule dispose d’un capteur d’images 10A, 10B qui est monté sur le véhicule respectif avec une position et une orientation connue du capteur d’images par rapport au véhicule sur lequel il est monté. Le capteur d’images peut être orienté vers l’avant vers l’arrière du véhicule de manière à acquérir des images sur lesquelles les véhicules précédant ou suivant le véhicule sont visibles. Le capteur d’images peut également être monté sur un côté du véhicule. Dans des modes de réalisation, un ou chaque véhicule VA, VB, peut être équipé de plusieurs caméras orientées vers l’avant et/ou vers l’arrière et/ou vers les côtés du véhicule. [0027] In the case where the reference object is a second vehicle, the two vehicles can follow each other on the same lane of the road, or travel on different lanes. In embodiments, each vehicle has an image sensor 10A, 10B which is mounted on the respective vehicle with a known position and orientation of the image sensor relative to the vehicle on which it is mounted. The image sensor can be oriented from the front to the rear of the vehicle so as to acquire images on which the vehicles preceding or following the vehicle are visible. The image sensor can also be mounted on one side of the vehicle. In embodiments, one or each vehicle VA, VB, can be equipped with several cameras oriented towards the front and/or towards the rear and/or towards the sides of the vehicle.
[0028] Le véhicule VA, et l’objet de référence VB comprennent en outre une interface d’accès 11 A, 11 B à un réseau de télécommunications, par exemple de type GSM, LTE, 3G, 4G ou 5G, ou un Wi-Fi. Dans un mode de réalisation illustré schématiquement en figure 2,
dans lequel l’objet de référence est un deuxième véhicule VB, les véhicules peuvent communiquer entre eux par une communication de type véhicule à véhicule. Dans ce cas les véhicules comprennent également un calculateur 12A, 12B configuré pour mettre en œuvre le procédé décrit ci-après après avoir établi une communication entre eux, et une mémoire 13A, 13B stockant les instructions de code pour la mise en œuvre de ce procédé, ainsi que les informations concernant la position et l’orientation de la caméra montée sur le véhicule respectif par rapport à celui-ci. The vehicle VA, and the reference object VB further comprise an access interface 11 A, 11 B to a telecommunications network, for example of the GSM, LTE, 3G, 4G or 5G type, or a Wi -Fi. In one embodiment illustrated schematically in Figure 2, in which the reference object is a second vehicle VB, the vehicles can communicate with each other by a vehicle-to-vehicle type communication. In this case, the vehicles also include a computer 12A, 12B configured to implement the method described below after having established communication between them, and a memory 13A, 13B storing the code instructions for the implementation of this method. , as well as information regarding the position and orientation of the camera mounted on the respective vehicle with respect to it.
[0029] Dans un autre mode de réalisation illustré schématiquement en figure 4, le véhicule VA et l’objet de référence sont adaptés pour communiquer avec un serveur distant S. In another embodiment illustrated schematically in Figure 4, the vehicle VA and the reference object are adapted to communicate with a remote server S.
[0030] En référence aux figures 2 à 4, on va maintenant décrire des exemples de mise en œuvre du procédé. Dans la description ci-après, l’objet de référence est un deuxième véhicule VB. Dans le mode de réalisation représenté sur la figure 3, le procédé est mis en œuvre par le calculateur de l’un des véhicules, par convention ci-après, du premier véhicule VA. Dans le mode de réalisation représenté sur la figure 4, le procédé est mis en œuvre par un serveur distant S. With reference to Figures 2 to 4, we will now describe examples of implementation of the method. In the description below, the reference object is a second vehicle VB. In the embodiment shown in Figure 3, the method is implemented by the computer of one of the vehicles, by convention below, of the first vehicle VA. In the embodiment shown in Figure 4, the method is implemented by a remote server S.
[0031] Le procédé comprend une première étape 100 de réception d’au moins une image acquise par le capteur d’images du premier véhicule VA, sur laquelle l’autre véhicule ou objet de référence est visible. Dans la suite, on prend l’exemple où le premier véhicule VA acquiert une image IA où le deuxième véhicule VB est visible. Dans le cas où le procédé est mis en œuvre par le calculateur 12A du premier véhicule, le calculateur est connecté à la caméra et reçoit les images qu’elle acquiert. Cette étape comprend également la réception d’une image IB acquise par la caméra 11 B du deuxième véhicule (ou de l’objet de référence), sur laquelle le premier véhicule VA est visible. Dans le cas où le procédé est mis en œuvre par un calculateur embarqué dans le premier véhicule, celui-ci reçoit l’image IB du premier véhicule par un réseau sans-fil. Dans le cas où le procédé est mis en œuvre par un serveur distant (figure 4), le serveur distant peut recevoir les images IA, IB, acquises par les caméras des deux véhicules, par l’intermédiaire du réseau de télécommunications. The method comprises a first step 100 of receiving at least one image acquired by the image sensor of the first vehicle VA, on which the other vehicle or reference object is visible. In the following, we take the example where the first vehicle VA acquires an image IA where the second vehicle VB is visible. In the case where the method is implemented by the computer 12A of the first vehicle, the computer is connected to the camera and receives the images that it acquires. This step also includes the reception of an image IB acquired by the camera 11 B of the second vehicle (or of the reference object), on which the first vehicle VA is visible. In the case where the method is implemented by a computer on board the first vehicle, the latter receives the image IB of the first vehicle via a wireless network. In the case where the method is implemented by a remote server (FIG. 4), the remote server can receive the images IA, IB, acquired by the cameras of the two vehicles, via the telecommunications network.
[0032] Le procédé comprend ensuite la réception 200 par le calculateur mettant en œuvre le traitement, d’informations de position du capteur d’images 10B de l’objet de référence, par rapport à celui-ci, c’est-à-dire dans l’exemple précédent, d’information de position notées CB du capteur d’images 10B du deuxième véhicule VB par rapport à celui-ci. Ces informations peuvent par exemple comprendre une représentation simplifiée en trois dimensions de l’objet de référence, ainsi que la position de l’élément de repère dans un repère associé à cette représentation simplifiée. Cette étape comprend également la réception d’informations de position du capteur d’images 10A du premier véhicule VA par
rapport à celui-ci. Si le procédé est mis en œuvre par le calculateur du premier véhicule, ces informations sont récupérées dans la mémoire 13A. The method then comprises the reception 200 by the computer implementing the processing, of position information from the image sensor 10B of the reference object, with respect to the latter, that is to say say in the previous example, position information denoted CB of the image sensor 10B of the second vehicle VB relative to the latter. This information can for example comprise a simplified three-dimensional representation of the reference object, as well as the position of the marker element in a marker associated with this simplified representation. This step also includes receiving position information from the image sensor 10A of the first vehicle VA by relation to this one. If the method is implemented by the computer of the first vehicle, this information is retrieved from the memory 13A.
[0033] Dans le mode de réalisation dans lequel un serveur distant S met en œuvre le traitement et reçoit des images acquises par les deux véhicules, cette étape comprend la réception, par le serveur, des informations de position (CA et CB) de chaque caméra (10A et 10B) par rapport au véhicule (VA et VB) sur lequel elle est respectivement montée. In the embodiment in which a remote server S implements the processing and receives images acquired by the two vehicles, this step comprises the reception, by the server, of the position information (CA and CB) of each camera (10A and 10B) relative to the vehicle (VA and VB) on which it is respectively mounted.
[0034] A partir des informations reçues, le calculateur peut estimer 300 : la position Pos1 B, sur l’image IA acquise par le premier véhicule VA, du capteur d’images 10B de l’objet de référence sur l’image, c’est-à-dire par exemple, la position du capteur d’images 10B du deuxième véhicule VB sur l’image, et la position Pos1A, sur l’image acquise par l’objet de référence, du capteur d’images 10A du véhicule VA sur l’image, c’est-à-dire par exemple la position du capteur d’images 10A du premier véhicule VA sur l’image acquise par le second véhicule VB. From the information received, the computer can estimate 300: the position Pos1 B, on the image IA acquired by the first vehicle VA, of the image sensor 10B of the reference object on the image, c that is to say, for example, the position of the image sensor 10B of the second vehicle VB on the image, and the position Pos1A, on the image acquired by the reference object, of the image sensor 10A of the vehicle VA on the image, that is to say for example the position of the image sensor 10A of the first vehicle VA on the image acquired by the second vehicle VB.
[0035] A cet effet, pour l’estimation d’une position, le calculateur met en œuvre un algorithme pour détecter les contours de l’objet de référence ou du véhicule sur l’image. De nombreux algorithmes connus de l’homme du métier sont disponibles pour réaliser cette fonction, on connaît par exemple la publication de J. Redmon, S. Divvala, R. Girshick et A. Farhadi « You Only Look Once : Unified, Real-Time Object Detection », 2015. Puis le calculateur déduit, à partir de la position relative du capteur d’images par rapport à l’objet de référence ou au véhicule, une première position estimée du capteur d’images sur l’image. Si la position du capteur d’images par rapport à l’un du premier et du deuxième véhicule n’est pas connue, il est possible de considérer que ce capteur fait partie du véhicule et en déduire une plage de valeurs possibles pour la position en X et en Y de ce capteur sur l’image. To this end, for estimating a position, the computer implements an algorithm to detect the contours of the reference object or of the vehicle in the image. Many algorithms known to those skilled in the art are available to perform this function, for example the publication by J. Redmon, S. Divvala, R. Girshick and A. Farhadi "You Only Look Once: Unified, Real-Time Object Detection”, 2015. Then the computer deduces, from the relative position of the image sensor in relation to the reference object or the vehicle, a first estimated position of the image sensor on the image. If the position of the image sensor with respect to one of the first and of the second vehicle is not known, it is possible to consider that this sensor is part of the vehicle and to deduce a range of possible values for the position in X and Y of this sensor on the image.
[0036] Le calculateur peut ensuite déterminer, étape 400, l’orientation relative entre les deux capteurs d’images, notée (RX, RY) de telle sorte : qu’une deuxième position Pos2B calculée du capteur d’images 10B de l’objet de référence sur l’image IA acquise par le premier véhicule VA à partir de cette orientation relative, corresponde à la première position Pos1 B estimée à l’étape précédente, et qu’une deuxième position Pos2A calculée du capteur d’images 10A du véhicule VA sur l’image IB acquise par le capteur d’images 10B de l’objet de référence à partir
de cette orientation relative corresponde à la première position Pos1A estimée du capteur d’images 10A du véhicule VA. [0036] The computer can then determine, step 400, the relative orientation between the two image sensors, denoted (RX, RY) in such a way: that a second calculated position Pos2B of the image sensor 10B of the reference object on the image IA acquired by the first vehicle VA from this relative orientation, corresponds to the first position Pos1 B estimated in the previous step, and that a second calculated position Pos2A of the image sensor 10A of the vehicle VA on the image IB acquired by the image sensor 10B of the reference object from of this relative orientation corresponds to the first estimated position Pos1A of the image sensor 10A of the vehicle VA.
[0037] L’orientation relative qui est calculée à l’étape 400 comprend les angles de lacet RX et de tangage RY entre le capteur d’images et l’élément de repère, c’est-à-dire une rotation par rapport à un axe X représenté en figure 5 orthogonal au plan de la route sur laquelle circule le véhicule, et une rotation par rapport à un axe Y également représenté, qui est orthogonal à l’axe X et orthogonal à la direction de déplacement du véhicule Z. L’orientation déterminée ne comprend pas le roulis selon l’axe Z. Dans la mise en œuvre de l’étape 400 décrite ci-après, la position relative selon les axes X et Y entre le capteur d’images et l’élément de repère est également déterminée. [0037] The relative orientation which is calculated in step 400 includes the angles of yaw RX and pitch RY between the image sensor and the reference element, that is to say a rotation relative to an axis X represented in FIG. 5 orthogonal to the plane of the road on which the vehicle is traveling, and a rotation with respect to an axis Y also represented, which is orthogonal to the axis X and orthogonal to the direction of movement of the vehicle Z. The orientation determined does not include the roll along the Z axis. In the implementation of step 400 described below, the relative position along the X and Y axes between the image sensor and the benchmark is also determined.
[0038] Cette détermination de l’orientation relative entre les deux capteurs d’images est mise en œuvre par un algorithme itératif visant à minimiser une fonction de coût formée par les différences entre la deuxième position calculée de chaque capteur d’images à partir de l’orientation relative entre les capteurs d’images, et la première position estimée respective. This determination of the relative orientation between the two image sensors is implemented by an iterative algorithm aimed at minimizing a cost function formed by the differences between the second calculated position of each image sensor from the relative orientation between the image sensors, and the respective estimated first position.
[0039] Dans le repère de chaque capteur d’images, la position de ce capteur se trouve à l’origine du repère. In the mark of each image sensor, the position of this sensor is at the origin of the mark.
[0040] Le calculateur peut initialiser la recherche de l’orientation relative entre les capteurs d’images 10A, 10B par une orientation relative initiale, par exemple égale à (co, 0, 0, 0) où la première coordonnée correspond à un angle de lacet (on prend co comme valeur initiale dans l’exemple de deux véhicules comprenant chacun un capteur d’images puisqu’on principe les capteurs d’images des deux véhicules sont orientés dans des directions opposées pour prendre des images sur lesquelles les deux véhicules sont visibles), la deuxième coordonnée correspond à un angle de tangage, la troisième coordonnée correspond à une translation selon l’axe X et la quatrième coordonnée correspond à une translation selon l’axe Y, ces translations sont connues au facteur d’échelle près, la translation en Z est figée à la valeur 1. A partir de cette orientation relative initiale, le calculateur détermine la position du capteur d’images 10B de l’objet de référence dans un repère associé au capteur d’image 10A du véhicule VA, en appliquant une matrice de changement de repère déterminée à partir de cette orientation initiale, puis projette cette position, à partir des paramètres intrinsèques du capteur d’images 10A du véhicule VA, pour obtenir les coordonnées du capteur d’images 10B dans une image acquise par le capteur d’images 10A. Il obtient ainsi la deuxième position calculée Pos2B du capteur d’images 10B de l’objet de référence dans l’image IA. Le même traitement est mis en œuvre de façon symétrique pour obtenir la deuxième position calculée Pos2A du capteur d’images du véhicule VA dans l’image IB.
[0041] Comme indiqué ci-avant, ce calcul est mis en œuvre itérativement de sorte à trouver la matrice d’orientation relative (RX, RY, TX, TY), avec TX et TY les translations respectivement selon les axes X et Y, minimisant la différence entre la position calculée Pos2B et la position estimée Pos1 B, et entre la position calculée Pos2A et la position estimée Pos1 A. Ceci peut être fait en utilisant un algorithme de Levenberg-Marquadt, décrit dans les publications : The computer can initialize the search for the relative orientation between the image sensors 10A, 10B by an initial relative orientation, for example equal to (co, 0, 0, 0) where the first coordinate corresponds to an angle of yaw (we take co as the initial value in the example of two vehicles each comprising an image sensor since in principle the image sensors of the two vehicles are oriented in opposite directions to take images on which the two vehicles are visible), the second coordinate corresponds to a pitch angle, the third coordinate corresponds to a translation along the X axis and the fourth coordinate corresponds to a translation along the Y axis, these translations are known to the nearest scale factor , the translation in Z is fixed at the value 1. From this initial relative orientation, the computer determines the position of the image sensor 10B of the reference object in a frame associated with the image sensor 10A of the vehicle VA , by applying a change of reference matrix determined from this initial orientation, then projects this position, from the intrinsic parameters of the image sensor 10A of the vehicle VA, to obtain the coordinates of the image sensor 10B in an image acquired by the image sensor 10A. It thus obtains the second calculated position Pos2B of the image sensor 10B of the reference object in the image IA. The same processing is implemented symmetrically to obtain the second calculated position Pos2A of the image sensor of the vehicle VA in the image IB. As indicated above, this calculation is implemented iteratively so as to find the relative orientation matrix (RX, RY, TX, TY), with TX and TY the translations respectively along the X and Y axes, minimizing the difference between the calculated position Pos2B and the estimated position Pos1 B, and between the calculated position Pos2A and the estimated position Pos1 A. This can be done using a Levenberg-Marquadt algorithm, described in the publications:
K. Levenberg, « A Method for the Solution of Certain Problems in Least Squares », dans Quart. Appl. Math. 2, 1944, p. 164-168. K. Levenberg, “A Method for the Solution of Certain Problems in Least Squares”, in Quart. Appl. Math. 2, 1944, p. 164-168.
D. Marquardt, « An Algorithm for Least-Squares Estimation of Nonlinear Parameters », dans SIAM J. Appl. Math. 11 , 1963, p. 431-441. capteur d’images à partir de l’orientation relative des capteurs d’images. D. Marquardt, “An Algorithm for Least-Squares Estimation of Nonlinear Parameters”, in SIAM J. Appl. Math. 11, 1963, p. 431-441. image sensor from the relative orientation of the image sensors.
[0042] Sur la figure 5, on a représenté un repère associé (Xc, Yc, Zc) à un capteur d’images monté sur un véhicule, et un repère (Xv, Yv, Zv) associé au véhicule. En référence à la figure 5, une fois l’orientation relative des capteurs d’images obtenue, l’orientation relative entre les deux véhicules peut être aisément déduite au cours d’une étape 500 à partir de la position et de l’orientation de chaque capteur d’images par rapport au véhicule sur lequel il est monté.
In Figure 5, there is shown an associated mark (Xc, Yc, Zc) to an image sensor mounted on a vehicle, and a mark (Xv, Yv, Zv) associated with the vehicle. With reference to FIG. 5, once the relative orientation of the image sensors has been obtained, the relative orientation between the two vehicles can easily be deduced during a step 500 from the position and the orientation of each image sensor relative to the vehicle on which it is mounted.
Claims
[Revendication 1] Procédé de détermination de l’orientation d’un véhicule (VA) par rapport à un objet de référence, le véhicule et l’objet de référence comprenant chacun un capteur d’images (10A, 10B), le procédé étant mis en œuvre par un calculateur et comprenant :[Claim 1] Method for determining the orientation of a vehicle (VA) with respect to a reference object, the vehicle and the reference object each comprising an image sensor (10A, 10B), the method being implemented by a computer and comprising:
- la réception (100) d’une image (IA) acquise par le capteur d’images (10A) du véhicule, sur laquelle l’objet de référence est visible, et d’une image acquise (IB) par le capteur d’images (10B) de l’objet de référence, sur laquelle le véhicule (VA) est visible, - the reception (100) of an image (IA) acquired by the image sensor (10A) of the vehicle, on which the reference object is visible, and of an image acquired (IB) by the sensor of images (10B) of the reference object, on which the vehicle (VA) is visible,
- la réception (200) d’informations de position (CB) du capteur d’images (10B) de l’objet de référence par rapport à celui-ci, et d’information de position (CA) du capteur d’images (10A) du véhicule (VA) par rapport à celui-ci, - the reception (200) of position information (CB) of the image sensor (10B) of the reference object with respect to the latter, and of position information (CA) of the image sensor ( 10A) of the vehicle (VA) in relation to it,
- à partir des informations reçues, l’estimation (300) d’une première position (Pos1 B) du capteur d’images (10B) de l’objet de référence sur l’image (IA) acquise par le capteur d’images (10A) du véhicule (VA), et d’une première position (Pos1A) du capteur d’images- from the information received, the estimation (300) of a first position (Pos1 B) of the image sensor (10B) of the reference object on the image (IA) acquired by the image sensor (10A) of the vehicle (VA), and of a first position (Pos1A) of the image sensor
(IOA) du véhicule sur l’image acquise (IB) par le capteur d’images (10B) de l’objet de référence, (IOA) of the vehicle on the image acquired (IB) by the image sensor (10B) of the reference object,
- la détermination (400) de l’orientation relative (RX, RY) entre les deux capteurs d’images (10A, 10B) de sorte que : - the determination (400) of the relative orientation (RX, RY) between the two image sensors (10A, 10B) so that:
* une deuxième position (Pos2B) du capteur d’image (10B) de l’objet de référence sur l’image acquise par le capteur d’images (10A) du véhicule calculée à partir de ladite orientation relative corresponde à la première position estimée (Pos1 B) du capteur d’image* a second position (Pos2B) of the image sensor (10B) of the reference object on the image acquired by the image sensor (10A) of the vehicle calculated from said relative orientation corresponds to the first estimated position (Pos1 B) of the image sensor
(IOB) de l’objet de référence, et (IOB) of the reference object, and
* qu’une deuxième position (Pos2A) du capteur d’images (10A) du véhicule sur l’image acquise par le capteur d’images (10B) de l’objet de référence calculée à partir de ladite orientation relative corresponde à la première position estimée (Pos1A) du capteur d’images (10A) du véhicule. * that a second position (Pos2A) of the image sensor (10A) of the vehicle on the image acquired by the image sensor (10B) of the reference object calculated from said relative orientation corresponds to the first estimated position (Pos1A) of the image sensor (10A) of the vehicle.
- la déduction (500), à partir de l’orientation relative entre les deux capteurs d’images (10A, 10B), de l’orientation relative entre le véhicule et l’objet de référence. - the deduction (500), from the relative orientation between the two image sensors (10A, 10B), of the relative orientation between the vehicle and the reference object.
[Revendication 2] Procédé selon la revendication 1 , dans lequel l’objet de référence est un piéton, un autre véhicule, ou un élément d’infrastructure. [Claim 2] A method according to claim 1, wherein the reference object is a pedestrian, another vehicle, or an item of infrastructure.
[Revendication 3] Procédé selon l’une quelconque des revendications précédentes, le procédé étant mis en œuvre par un calculateur (12A) embarqué dans le véhicule, dans l’objet de référence, ou par un calculateur (S) distant.
[Claim 3] Method according to any one of the preceding claims, the method being implemented by a computer (12A) on board the vehicle, in the reference object, or by a remote computer (S).
[Revendication 4] Procédé selon la revendication précédente, dans lequel l’objet de référence est un deuxième véhicule (VB), le procédé étant mis en œuvre par un calculateur (12A) embarqué dans le premier et/ou le deuxième véhicule (VA), et comprenant une étape préliminaire d’établissement d’un lien de communication entre le premier (VA) et le deuxième véhicule (VB). [Claim 4] Method according to the preceding claim, in which the reference object is a second vehicle (VB), the method being implemented by a computer (12A) on board the first and/or the second vehicle (VA) , and comprising a preliminary step of establishing a communication link between the first (VA) and the second vehicle (VB).
[Revendication 5] Procédé selon l’une quelconque des revendications précédentes, dans lequel la détermination (400) de l’orientation relative entre les deux capteurs d’images est mise en œuvre par minimisation de la différence entre la première position estimée et la deuxième position calculée d’un même capteur d’images. [Claim 5] A method according to any preceding claim, wherein the determination (400) of the relative orientation between the two image sensors is implemented by minimizing the difference between the first estimated position and the second calculated position of the same image sensor.
[Revendication 6] Procédé selon l’une quelconque des revendications précédentes, dans lequel la détermination de l’orientation relative (400) entre les deux capteurs d’images est mise en œuvre par l’algorithme de Levenberg-Marquardt. [Claim 6] A method according to any preceding claim, wherein determining the relative orientation (400) between the two image sensors is implemented by the Levenberg-Marquardt algorithm.
[Revendication 7] Procédé selon l’une quelconque des revendications précédentes, dans lequel la détermination de l’orientation relative (400) entre les capteurs d’images comprend la détermination du lacet et du tangage relatifs entre les capteurs d’images, le roulis étant supposé nul. [Claim 7] A method according to any preceding claim, wherein determining the relative orientation (400) between the image sensors includes determining relative yaw and pitch between the image sensors, roll being assumed to be zero.
[Revendication 8] Produit programme d’ordinateur comportant des instructions pour la mise en œuvre du procédé selon l’une quelconque des revendications précédentes lorsqu’il est exécuté par un processeur. [Claim 8] Computer program product comprising instructions for carrying out the method according to any one of the preceding claims when executed by a processor.
[Revendication 9] Support d’enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré un programme pour la mise en œuvre du procédé selon l’une des revendications 1 à 7 lorsque ce programme est exécuté par un processeur. [Claim 9] Non-transitory recording medium readable by a computer on which is recorded a program for implementing the method according to one of Claims 1 to 7 when this program is executed by a processor.
[Revendication 10] Véhicule (VA, VB) comprenant un capteur d’images (10A, 10B), un calculateur (12A, 12B), et une interface de connexion (11 A, 11 B) à un réseau de télécommunications, caractérisé en ce que le calculateur est configuré pour mettre en œuvre le procédé selon l’une des revendications 1 à 7.
[Claim 10] Vehicle (VA, VB) comprising an image sensor (10A, 10B), a computer (12A, 12B), and a connection interface (11 A, 11 B) to a telecommunications network, characterized in that the computer is configured to implement the method according to one of claims 1 to 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202280076723.2A CN118266005A (en) | 2021-11-18 | 2022-11-16 | Method for determining the relative orientation of two vehicles |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2112204A FR3129236B1 (en) | 2021-11-18 | 2021-11-18 | Method for determining the relative orientation of two vehicles |
FRFR2112204 | 2021-11-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023088932A1 true WO2023088932A1 (en) | 2023-05-25 |
Family
ID=80786568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2022/082068 WO2023088932A1 (en) | 2021-11-18 | 2022-11-16 | Title: method for determining the relative orientation of two vehicles |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN118266005A (en) |
FR (1) | FR3129236B1 (en) |
WO (1) | WO2023088932A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080125972A1 (en) * | 2006-11-29 | 2008-05-29 | Neff Ryan A | Vehicle position determination system |
EP2380136A1 (en) * | 2008-12-22 | 2011-10-26 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product |
-
2021
- 2021-11-18 FR FR2112204A patent/FR3129236B1/en active Active
-
2022
- 2022-11-16 WO PCT/EP2022/082068 patent/WO2023088932A1/en active Application Filing
- 2022-11-16 CN CN202280076723.2A patent/CN118266005A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080125972A1 (en) * | 2006-11-29 | 2008-05-29 | Neff Ryan A | Vehicle position determination system |
EP2380136A1 (en) * | 2008-12-22 | 2011-10-26 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | A method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product |
Non-Patent Citations (5)
Title |
---|
D. MARQUARDT: "An Algorithm for Least-Squares Estimation of Nonlinear Parameters", SIAM J. APPL. MATH., vol. 11, 1963, pages 431 - 441, XP000677023, DOI: 10.1137/0111030 |
J. REDMONS. DIVVALAR. GIRSHICK, YOU ONLY LOOK ONCE: UNIFIED, REAL-TIME OBJECT DÉTECTION, 2015 |
JOEL JANAI ET AL: "Computer Vision for Autonomous Vehicles: Problems, Datasets and State-of-the-Art", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 18 April 2017 (2017-04-18), XP080763890 * |
K. LEVENBERG: "A Method for the Solution of Certain Problems in Least Squares", QUART. APPL. MATH., vol. 2, 1944, pages 164 - 168 |
RICHARD MICHAEL WILLIAMS: "Multi-robot collaborative visual navigation with micro aerial vehicles", 1 January 2017 (2017-01-01), XP055673493, Retrieved from the Internet <URL:https://cgi.csc.liv.ac.uk/~frans/CurrentResearch/Thessi/richardWilliams_Apr2017.pdf> * |
Also Published As
Publication number | Publication date |
---|---|
CN118266005A (en) | 2024-06-28 |
FR3129236B1 (en) | 2023-09-29 |
FR3129236A1 (en) | 2023-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10304335B2 (en) | Detecting available parking spaces | |
US10679072B2 (en) | Moving-object position estimating system, information processing apparatus and moving-object position estimating method | |
US20170084038A1 (en) | Systems and methods for non-obstacle area detection | |
FR3096637A1 (en) | Method and device for determining a path for an autonomous vehicle | |
US11482007B2 (en) | Event-based vehicle pose estimation using monochromatic imaging | |
EP3126864B1 (en) | Method for geolocating the environment of a carrier | |
WO2023088932A1 (en) | Title: method for determining the relative orientation of two vehicles | |
TW202340752A (en) | Boundary estimation | |
FR3076045A1 (en) | METHOD FOR MONITORING AN ENVIRONMENT OF A FIRST ELEMENT POSITIONED AT THE LEVEL OF A CIRCULATION PATH, AND ASSOCIATED SYSTEM | |
FR3064073A1 (en) | METHOD AND DEVICE FOR DETERMINING A POSITION | |
FR3123862A1 (en) | Method and device for controlling an autonomous vehicle | |
FR3092545A1 (en) | ASSISTANCE IN DRIVING A VEHICLE, BY DETERMINING THE TRAFFIC LANE IN WHICH AN OBJECT IS LOCATED | |
FR3106108A1 (en) | Method and device for determining the trajectory of a road | |
FR3106553A1 (en) | Method and device for processing vehicle environment data | |
FR3087733A1 (en) | METHOD FOR DETERMINING A CURRENT VALUE OF AN OCCUPANCY PARAMETER RELATING TO A PORTION OF A SPACE LOCATED NEAR A MOTOR VEHICLE | |
FR3097318A1 (en) | Method and system for determining a route that a motor vehicle must complete within a space based on a moving object in front of it | |
WO2024115827A1 (en) | Method and device for controlling a driving assistance system in an environment containing an intersection | |
FR3146523A1 (en) | Method of estimating the speed of a vehicle | |
WO2021260283A1 (en) | Method and device for controlling the movement of a vehicle | |
FR3093054A1 (en) | ASSISTANCE IN DRIVING A VEHICLE, BY RELIABLE DETERMINATION OF OBJECTS IN DEFORMED IMAGES | |
WO2023061915A1 (en) | Method for detecting a boundary of a traffic lane | |
WO2023046776A1 (en) | Method for determining the position of an object with respect to a road marking line of a road | |
EP4439478A1 (en) | Method for tracking multiple objects | |
FR3088039A1 (en) | METHOD FOR DETERMINING A FAVORABLE NAVIGATION AREA NEAR A MOTOR VEHICLE | |
WO2023144470A1 (en) | Method and device for controlling the trajectory of an autonomous vehicle travelling in an environment comprising at least one moving object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22817737 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202280076723.2 Country of ref document: CN |