EP4251485A1 - Method and device for determining a virtual boundary line between two traffic lanes - Google Patents

Method and device for determining a virtual boundary line between two traffic lanes

Info

Publication number
EP4251485A1
EP4251485A1 EP21810655.7A EP21810655A EP4251485A1 EP 4251485 A1 EP4251485 A1 EP 4251485A1 EP 21810655 A EP21810655 A EP 21810655A EP 4251485 A1 EP4251485 A1 EP 4251485A1
Authority
EP
European Patent Office
Prior art keywords
lane
line
information
ego
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP21810655.7A
Other languages
German (de)
French (fr)
Inventor
Badreddine ABOULISSANE
Ismail Abouessire
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stellantis Auto SAS
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Publication of EP4251485A1 publication Critical patent/EP4251485A1/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Definitions

  • the invention is in the field of autonomous vehicle driving assistance systems.
  • the invention relates to a method and a device for determining a virtual boundary line between a traffic lane, called ego-lane, and a traffic lane adjacent to the ego-lane, called adjacent lane, for regulating a position of an autonomous vehicle traveling on the ego-lane.
  • Vehicle means any type of vehicle such as a motor vehicle, moped, motorcycle, warehouse storage robot, etc.
  • Autonomous driving of an “autonomous vehicle” means any process capable of assisting the driving of the vehicle. The method can thus consist in partially or totally directing the vehicle or providing any type of assistance to a natural person driving the vehicle. The process thus covers all autonomous driving, from level 0 to level 5 in the OICA scale, for Organization International des Constructeurs Automobiles.
  • ADAS Advanced Driver Assistance Systems
  • LPA Lane Positioning Assist
  • these systems include on-board cameras capturing images of the vehicle's environment as well as sensors of the RADAR, LIDAR, ultrasound type, etc., capturing data from the vehicle's environment.
  • Processing of the captured images and data detects, first of all, objects (such as, for example, a vehicle, a truck, a cyclist, a pedestrian, an obstacle, etc.) present in the vehicle's environment (in a vicinity of the vehicle). Next, these detected objects are identified. Each object is tracked over time in order to assign it a probability of existence, to classify it (for example, assign a class of vehicle such as car, truck, bus, motorcycle, ... or a class of non-vehicle such as pedestrian, animal , panel, ...), assign a probability of belonging to a given class, determine a state of motion (in particular, determine if the object is stationary/static, rolling in the same direction as the vehicle, driving in the opposite direction of the vehicle).
  • objects such as, for example, a vehicle, a truck, a cyclist, a pedestrian, an obstacle, etc.
  • Each object is tracked over time in order to assign it a probability of existence, to classify it (for example, assign a class of vehicle such as car, truck, bus
  • a determination of the position (in particular relative to the vehicle) of each object is also determined.
  • this determination identifies on which traffic lane the detected objects are circulating.
  • this determination is a function of the lateral deviation of the detected object with respect to the vehicle and also of another processing of the images and of the data captured. In case of doubt, the probability of existence of the object is reduced.
  • This further processing of captured images and data identifies and recognizes lane markings and other lane delineations, and thereby identifies traffic lanes.
  • ground markings are essential. Indeed, the width of traffic lanes generally depends on the country, the roads and their maximum speeds. Regulation of the position of the vehicle then takes place with respect to the center line between the line representing a marking to the left of the traffic lane and a line representing a marking to the right of said traffic lane.
  • ADAS systems regulating the position of an autonomous vehicle are more capable of automatically positioning the vehicle and must abruptly return control of the vehicle's operation to a driver. This situation is partially stressful, the driver being provided only at the last moment. Furthermore, the availability of the ADAS system is reduced, which gives a bad brand image.
  • An object of the present invention is to remedy the aforementioned problem, in particular to virtually reconstruct a dividing line between two tracks. So the operation of ADAS systems capable of regulating a position of an autonomous vehicle is more robust and regular.
  • a first aspect of the invention relates to a method for determining a virtual boundary line between a traffic lane, called ego-lane, and a traffic lane adjacent to the ego-lane, called adjacent lane , to regulate a position of an autonomous vehicle traveling on the ego-lane, said method comprising the steps of:
  • the determination of the virtual line is based on the path traveled by the first objects circulating on the ego-lane and on the path traversed by the second objects circulating on the adjacent lane, thus forming two lines.
  • This virtual line can be a median line between the two lines then naturally representing a separation between the ego-path and the adjacent path.
  • the determination of the virtual line is robust and reliable with respect to measurement uncertainties. This determination takes into account a plurality of geolocation points, about twenty for example, per detected object, and each object is detected reliably thanks to a probability of existence greater than an existence threshold (for example 70% ).
  • the information received for the first and for the second object further comprises a class of membership of the object, a probability of membership of the class, and/or a state of movement, and in which the step of construction of the line for each object is carried out only if the class of membership is a member of a list of predetermined classes, if the probability of membership of the class is greater than a predetermined membership threshold, and/or if the motion state indicates that the object is moving.
  • the determination of the virtual line is even more robust and more reliable with respect to measurement uncertainties.
  • the construction of the line for each object is based on a parametric adjustment of a polynomial, the polynomial modeling the path traveled by the object.
  • the information received is combined with the information of the first object to complete the information of said first object.
  • the information received is combined with the information of the second object to complete the information of said second object.
  • each piece of information received is timestamped, and only the data received over a predetermined time interval are used in the construction of a line for each object from the geolocation points.
  • a global, continuous and periodic processing is carried out determining a virtual line over a given time horizon, for example over 3 seconds.
  • a second aspect of the invention relates to a device comprising a memory associated with at least one processor configured to implement the method according to the first aspect of the invention.
  • the invention also relates to a vehicle comprising the device.
  • the invention also relates to a computer program comprising instructions adapted for the execution of the steps of the method, according to the first aspect of the invention, when said program is executed by at least one processor.
  • FIG. 1 schematically illustrates a device, according to a particular embodiment of the present invention.
  • FIG. 2 schematically illustrates a method for determining a virtual line, according to a particular embodiment of the present invention.
  • the invention is described below in its non-limiting application to the case of an autonomous motor vehicle traveling on a road or on a traffic lane.
  • Other applications such as a robot in a storage warehouse or a motorcycle on a country road are also possible.
  • FIG. 1 represents an example of a device 101 included in the vehicle, in a network (“cloud”) or in a server.
  • This device 101 can be used as a centralized device in charge of at least certain steps of the method described below with reference to FIG. 2. In one embodiment, it corresponds to an autonomous driving computer.
  • the device 101 is included in the vehicle.
  • This device 101 can take the form of a box comprising printed circuits, of any type of computer or else of a mobile telephone (“smartphone”).
  • the device 101 comprises a random access memory 102 for storing instructions for the implementation by a processor 103 of at least one step of the method as described above.
  • the device also comprises a mass memory 104 for storing data intended to be kept after the implementation of the method.
  • the device 101 may also include a digital signal processor (DSP) 105.
  • This DSP 105 receives data to shape, demodulate and amplify, in a manner known per se, this data.
  • Device 101 also includes an input interface 106 for receiving data implemented by the method according to the invention and an output interface 107 for transmitting data implemented by the method according to the invention.
  • FIG. 2 schematically illustrates a method for determining a virtual boundary line between a traffic lane, called ego-lane, and a traffic lane adjacent to the ego-lane, called adjacent lane, to regulate a position of an autonomous vehicle traveling on the ego-lane, according to a particular embodiment of the present invention.
  • Step 201 is a step where the device 101, for example, receives information from at least one first detected object circulating on the ego-path, the information characterizing a probability of existence of the first object and a geolocation point of the first object in the route travelled.
  • processing of images acquired by a camera and processing of data from sensors of the RADAR, LIDAR, ultrasound type, etc. have detected an object present in the ego-path.
  • a geolocation point of the first object in the route traveled is determined and transmitted to the device 101.
  • the geolocation point of a detected object represents for example the projection on the route of the center of gravity image of a detected vehicle.
  • the geolocation point represents the lateral and longitudinal distance from the autonomous vehicle.
  • a probability of existence of the first object is associated with the geolocation point. It represents the plausibility of the first detected object. For example, this probability has a value between 0 and 1 as its value, and is provided by a conventional perception module.
  • the device 101 also receives a class of membership of the first object, a probability of class membership. For example, the detected object is first classified according to a mobile class or not, this class identifying the objects which move. Then, if necessary, the detected object is classified according to a subclass representing the number of wheels (0 wheel,
  • the detected object is classified according to a sub-class representing a personal vehicle, a truck, a bus, etc.
  • This classification is carried out by a module external to the invention conventionally present in a perception module.
  • a class probability is associated with this classification.
  • device 101 receives a motion status that identifies whether the object is currently moving in the direction of autonomous vehicle travel, if the object is currently moving in the opposite direction of vehicle travel standalone, or if the object is currently static.
  • the information received is combined with the information of the first object to complete the information of said first object.
  • the information received is combined with the information of the first object to complete the information of said first object.
  • several objects circulating in the ego-path are detected. The information concerning these other objects completes the data of the first object thus multiplying the number of information received.
  • each item of information received is timestamped. This makes it possible to use data over a predetermined time interval such as 3 to 5 seconds, other values being possible.
  • the data is stored in memory 102.
  • Step 202 is a step where the device 101 for example receives information from at least one second detected object traveling on the adjacent lane, the information characterizing a probability of existence of the second object and a geolocation point of the second object in the traffic lane. This step is similar to step 201, but only concerns objects traveling on the adjacent lane.
  • Step 203 "Test 1?" is a step that tests whether the information received during step 201 meets certain criteria. For example, to take into account the data relating to the geolocation points in a following step 205 described below, the probability of existence of an object must be greater than a predetermined existence threshold.
  • the existence threshold has a value of 0.7 (i.e. 70%), but can take any other value. In an operating mode, the existence threshold varies according to the use case, such as the type of road on which the autonomous vehicle travels.
  • a minimum number of geolocation points must be received. In an operating mode, this number is 20, but it can take any other value and varies according to the use case. For example, if only one first object is detected, the minimum number is 15. If another object circulating in the ego-path is detected, the overall minimum number (first object and other object) is 20.
  • the detected object must belong to a class of vehicle with at least 4 wheels and the probability of belonging to this class must be greater than 70% (or another value that may vary depending on the use case).
  • the motion state of the detected object must indicate that the object is in motion. Indeed, in the next step 205, a line representing the path traveled by the object is constructed. If the object is stationary, the line cannot be constructed. In an operating mode, the state of movement also includes a direction of circulation. For example, objects traveling on the ego-lane must travel in the same direction as the autonomous vehicle.
  • the different examples constitute different criteria for accepting geolocation points. If any combination of these criteria is not met, then there is no not enough data validates to be able to move on to the next step 205. We return to step 201 in order to receive new information.
  • Step 204 "Test2?" is a step that tests whether the information received during step 202 meets certain criteria.
  • the probability of existence of an object must be greater than a predetermined existence threshold.
  • the existence threshold has a value of 0.7 (i.e. 70%), but can take any other value.
  • the existence threshold varies according to the use case, such as the type of road on which the autonomous vehicle travels.
  • a minimum number of geolocation points must be received. In an operating mode, this number is 20, but it can take any other value and varies according to the use case. For example, if only one second object is detected, the minimum number is 10. This number is not necessarily the same as that of step 203 because, in certain cases of use, the vehicles circulating on the lane adjacent travel in the opposite direction with respect to the direction of travel of the autonomous vehicle. If another object traveling in the adjacent lane is detected, the global minimum number (second object and other object traveling in the adjacent lane) is 15. The numbers indicated are examples and can take other values depending on the case. use.
  • the detected object must belong to a class of vehicle with at least 4 wheels and the probability of belonging to this class must be greater than 70% (or another value that may vary depending on the use case).
  • the motion state of the detected object must indicate that the object is in motion. Indeed, in the next step 206, a line representing the path traveled by the object is constructed. If the object is stationary, the line cannot be constructed.
  • the state of movement also includes a sense of traffic. For example, objects traveling on the adjacent lane must all travel in the same direction (direction of the autonomous vehicle, or opposite direction) in order to be taken into consideration. In the latter case, the information of the objects carrying out a prolonged overtaking are not taken into account.
  • the different examples constitute different criteria for accepting geolocation points. If a combination of these criteria is not respected, then there is not enough valid data to be able to move on to the next step 206. We return to step 202 in order to receive new information.
  • Step 205 is a step for constructing a line for the first object from the geolocation points which have been retained after step 203, the line representing the path traveled by the object.
  • the geolocation points also include the geolocation points of another object traveling on the ego-lane.
  • the line thus constructed represents the path traveled by a fictitious vehicle comprising all the geolocation points.
  • step 203 the geolocation points are reliable and are representative of a center line of the ego-path.
  • the construction of the line for each object is based on a parametric fitting of a polynomial, the polynomial modeling the path traveled by the object. For example, in a straight line by a conventional method of linear regression, the best straight line passing through all the geolocation points which have been retained after step 203 is determined.
  • the order of the polynomial is greater than 1, for example 4, in order to take into account the curvature of the road.
  • the order of the polynomial is to be chosen to meet the compromise between precision and speed of calculation.
  • Step 206 is a step for constructing a line for the second object from the geolocation points which have been retained after step 204, the line representing the path traveled by the object.
  • the geolocation points also include the geolocation points of another object traveling on the adjacent lane. Line thus constructed, represents the path traveled by a fictitious vehicle comprising all the geolocation points.
  • step 204 the geolocation points are reliable and are representative of a center line of the ego-path.
  • the construction of the line for each object is based on a parametric fitting of a polynomial, the polynomial modeling the path traveled by the object. For example, in a straight line by a conventional method of linear regression, the best straight line passing through all the geolocation points which have been retained after step 203 is determined.
  • the order of the polynomial is greater than 1, for example 4, in order to take into account the curvature of the road.
  • the order of the polynomial is to be chosen to meet the compromise between precision and speed of calculation.
  • Step 207 "VirtLi” is the step of determining a virtual line delimiting the ego-path of the adjacent path from the line constructed for the first object, line resulting from step 205, and from from the line constructed for the second object, line resulting from step 206.
  • the lines resulting from step 205 and from step 206 respectively represent the path traveled by a fictitious vehicle on the ego-lane and on the adjacent lane.
  • the virtual line is a median line between the line constructed from the first object and the line constructed from the second object, thus clearly indicating the separation between the ego-path and the adjacent path.
  • the method receives information of a width of the ego-path and the construction of the virtual line is based on a half width of the ego-path, and on the line constructed for the first object or on the line constructed for the second object.
  • the constructed virtual line replaces a line representing the detection of the marking on the ground delimiting the ego-lane of the adjacent lane in order to regulate the position of the autonomous vehicle by a driving assistance system.
  • the present invention is not limited to the embodiments described above by way of examples; it extends to other variants.
  • an exemplary embodiment has been described above in which the determination of the virtual line is carried out after a separate processing of the information received concerning the ego-channel and of the information received concerning the adjacent channel.
  • the virtual line is built from all the information received and which respects a combination of the stated criteria (existence, number of points, belonging to a class, state of movement, number of points, etc. ).
  • the virtual line can use techniques of the SVM type (acronyms for “Support Vector Machine”) being capable of solving discrimination problems at the cost of making calculations more complex.
  • the information received comes from a processing of images and data from sensors.
  • all or part of this information comes from a transmission ensured by a radiofrequency link, such as a communication from vehicle to vehicle (V2V) or communication from vehicle to any other communicating object (V2X).
  • a radiofrequency link such as a communication from vehicle to vehicle (V2V) or communication from vehicle to any other communicating object (V2X).

Abstract

The invention relates to a method and a device for determining a virtual boundary line between a traffic lane referred to as the ego-lane, and a traffic lane which is adjacent to the ego-lane and referred to as the adjacent lane, in order to adjust the position of an autonomous vehicle travelling in the ego-lane, the method comprising the steps of: - receiving (201) information from at least a first detected object travelling in the ego-lane; - receiving (202) information from at least a second detected object travelling in the adjacent lane; - for each of the two objects, if the existence probability is above a predetermined existence threshold and if at least a predetermined number of geolocation points is received (203, 204), then - constructing (205, 206) a line for each object on the basis of the gelocation points; and - determining (207) the virtual line.

Description

DESCRIPTION DESCRIPTION
Titre : Procédé et dispositif de détermination d’une ligne virtuelle de délimitation entre deux voies de circulation. Title: Method and device for determining a virtual boundary line between two traffic lanes.
La présente invention revendique la priorité de la demande française 2012108 déposée le 25.11.2020 dont le contenu (texte, dessins et revendications) est ici incorporé par référence The present invention claims the priority of French application 2012108 filed on 25.11.2020, the content of which (text, drawings and claims) is incorporated herein by reference.
L’invention est dans le domaine des systèmes d’aide à la conduite de véhicule autonome. En particulier, l’invention concerne un procédé et un dispositif de détermination d’une ligne virtuelle de délimitation entre une voie de circulation, dite égo-voie, et une voie de circulation adjacente à l’égo-voie, dite voie adjacente, pour réguler une position d’un véhicule autonome circulant sur l’égo-voie. The invention is in the field of autonomous vehicle driving assistance systems. In particular, the invention relates to a method and a device for determining a virtual boundary line between a traffic lane, called ego-lane, and a traffic lane adjacent to the ego-lane, called adjacent lane, for regulating a position of an autonomous vehicle traveling on the ego-lane.
On entend par « véhicule » tout type de véhicule tel qu’un véhicule automobile, un cyclomoteur, une motocyclette, un robot de stockage dans un entrepôt, etc. On entend par « conduite autonome » d’un « véhicule autonome » tout procédé apte à assister la conduite du véhicule. Le procédé peut ainsi consister à diriger partiellement ou totalement le véhicule ou à apporter tout type d’aide à une personne physique conduisant le véhicule. Le procédé couvre ainsi toute conduite autonome, du niveau 0 au niveau 5 dans le barème de l’OICA, pour Organisation International des Constructeurs Automobiles. “Vehicle” means any type of vehicle such as a motor vehicle, moped, motorcycle, warehouse storage robot, etc. “Autonomous driving” of an “autonomous vehicle” means any process capable of assisting the driving of the vehicle. The method can thus consist in partially or totally directing the vehicle or providing any type of assistance to a natural person driving the vehicle. The process thus covers all autonomous driving, from level 0 to level 5 in the OICA scale, for Organization International des Constructeurs Automobiles.
Les procédés aptes à assister la conduite du véhicule sont aussi nommés ADAS (de l’acronyme anglais « Advanced Driver Assistance Systems »), systèmes ADAS ou systèmes d’aide à la conduite. Les systèmes aptes à réguler une position d’un véhicule autonome circulant sur une voie de circulation sont des systèmes ADAS connus, en particulier ceux nommés LPA (de l’acronyme anglais « Lane Positionning Assist »). Classiquement, ces systèmes comportent des caméras embarquées capturant des images de l’environnement du véhicule ainsi que de capteurs de type RADAR, LIDAR, ultrasons ..., capturant des données de l’environnement du véhicule. The processes capable of assisting the driving of the vehicle are also called ADAS (from the English acronym “Advanced Driver Assistance Systems”), ADAS systems or driver assistance systems. The systems capable of regulating a position of an autonomous vehicle traveling on a traffic lane are known ADAS systems, in particular those called LPA (from the acronym “Lane Positioning Assist”). Conventionally, these systems include on-board cameras capturing images of the vehicle's environment as well as sensors of the RADAR, LIDAR, ultrasound type, etc., capturing data from the vehicle's environment.
Un traitement des images et des données capturées détecte, tout d’abord, des objets (comme par exemple, un véhicule, un camion, un cycliste, un piéton, un obstacle ...) présents dans l’environnement du véhicule (dans un voisinage du véhicule). Ensuite, ces objets détectés sont identifiés. Chaque objet est suivi dans le temps afin de lui attribuer une probabilité d’existence, de le classifier (par exemple attribuer une classe de véhicule comme voiture, camion, bus, moto, ... ou une classe de non véhicule comme piéton, animal, panneau, ...), d’attribuer une probabilité d’appartenance à une classe donnée, de déterminer un état de mouvement (en particulier, déterminer si l’objet est immobile/statique, roulant dans la même sens que le véhicule, roulant dans le sens contraire du véhicule). Une détermination de la position (en particulier par rapport au véhicule) de chaque objet est également déterminée. En particulier cette détermination identifie sur quelle voie de circulation circule les objets détectés. Généralement, cette détermination est fonction de l’écart en latérale de l’objet détecté par rapport au véhicule et également d’un autre traitement des images et des données capturées. En cas de doute, la probabilité d’existence de l’objet est diminuée. Processing of the captured images and data detects, first of all, objects (such as, for example, a vehicle, a truck, a cyclist, a pedestrian, an obstacle, etc.) present in the vehicle's environment (in a vicinity of the vehicle). Next, these detected objects are identified. Each object is tracked over time in order to assign it a probability of existence, to classify it (for example, assign a class of vehicle such as car, truck, bus, motorcycle, ... or a class of non-vehicle such as pedestrian, animal , panel, ...), assign a probability of belonging to a given class, determine a state of motion (in particular, determine if the object is stationary/static, rolling in the same direction as the vehicle, driving in the opposite direction of the vehicle). A determination of the position (in particular relative to the vehicle) of each object is also determined. In particular, this determination identifies on which traffic lane the detected objects are circulating. Generally, this determination is a function of the lateral deviation of the detected object with respect to the vehicle and also of another processing of the images and of the data captured. In case of doubt, the probability of existence of the object is reduced.
Cet autre traitement des images et des données capturées identifie et reconnaît les marquages au sol et autres délimitation de voie, et ainsi identifie les voies de circulation. Afin de réguler une position d’un véhicule autonome circulant sur une voie de circulation, les marquages au sol sont essentiels. En effet, la largeur des voies de circulations dépende généralement des pays, des routes et de leurs vitesses maximums. La régulation de la position du véhicule se fait alors par rapport à la ligne médiane entre la ligne représentant un marquage à gauche de la voie de circulation et une ligne représentant un marquage à droite de ladite voie de circulation. This further processing of captured images and data identifies and recognizes lane markings and other lane delineations, and thereby identifies traffic lanes. In order to regulate the position of an autonomous vehicle circulating on a traffic lane, ground markings are essential. Indeed, the width of traffic lanes generally depends on the country, the roads and their maximum speeds. Regulation of the position of the vehicle then takes place with respect to the center line between the line representing a marking to the left of the traffic lane and a line representing a marking to the right of said traffic lane.
Cependant, les marquages au sol sont parfois mal reconnus lors du traitement des images pour des raisons, par exemple, de luminosité (soleil rasant, route mouillée ou enneigée, ...) ou, tout simplement, d’un marquage usé, effacé ou dissimulé. However, road markings are sometimes poorly recognized during image processing for reasons, for example, of luminosity (low sun, wet or snowy road, etc.) or, quite simply, of worn, erased or concealed.
En absence de marquage, les systèmes ADAS régulant la position d’un véhicule autonome sont plus capables de positionner automatiquement le véhicule et doivent rendre brusquement le contrôle de la conduite du véhicule à un conducteur. Cette situation est partiellement stressante, le conducteur n’étant prévu qu’au dernier instant. Par ailleurs, la disponibilité du système ADAS en est réduite ce qui donne une mauvaise image de marque. In the absence of marking, ADAS systems regulating the position of an autonomous vehicle are more capable of automatically positioning the vehicle and must abruptly return control of the vehicle's operation to a driver. This situation is partially stressful, the driver being provided only at the last moment. Furthermore, the availability of the ADAS system is reduced, which gives a bad brand image.
Un objet de la présente invention est de remédier au problème précité, en particulier de reconstruire virtuellement une ligne de séparation entre deux voie. Ainsi, le fonctionnement de systèmes ADAS aptes à réguler une position d’un véhicule autonome est plus robuste et régulier. An object of the present invention is to remedy the aforementioned problem, in particular to virtually reconstruct a dividing line between two tracks. So the operation of ADAS systems capable of regulating a position of an autonomous vehicle is more robust and regular.
A cet effet, un premier aspect de l’invention concerne un procédé de détermination d’une ligne virtuelle de délimitation entre une voie de circulation, dite égo-voie, et une voie de circulation adjacente à l’égo-voie, dite voie adjacente, pour réguler une position d’un véhicule autonome circulant sur l’égo-voie, ledit procédé comportant les étapes de : To this end, a first aspect of the invention relates to a method for determining a virtual boundary line between a traffic lane, called ego-lane, and a traffic lane adjacent to the ego-lane, called adjacent lane , to regulate a position of an autonomous vehicle traveling on the ego-lane, said method comprising the steps of:
• Réception d’informations d’au moins un premier objet détecté circulant sur l’égo-voie, les informations caractérisant une probabilité d’existence du premier objet et un point de géolocalisation du premier objet dans la voie circulée ; • Reception of information from at least a first detected object circulating on the ego-lane, the information characterizing a probability of existence of the first object and a geolocation point of the first object in the circulated lane;
• Réception d’informations d’au moins un deuxième objet détecté circulant sur la voie adjacente, les informations caractérisant une probabilité d’existence du deuxième objet et un point de géolocalisation du deuxième objet dans la voie circulée ; • Reception of information from at least a second detected object traveling on the adjacent lane, the information characterizing a probability of existence of the second object and a geolocation point of the second object in the traffic lane;
• Pour chacun des deux objets, si la probabilité d’existence est supérieure à un seuil d’existence prédéterminé et si au moins un nombre prédéterminé de points de géolocalisation est réceptionné, alors o Construction d’une ligne pour chaque objet à partir des points de géolocalisation, la ligne représentant le chemin parcouru par l’objet ; o Détermination d’une ligne virtuelle délimitant l’égo-voie de la voie adjacente à partir de la ligne construite pour le premier objet et à partir de la ligne construite pour le deuxième objet. • For each of the two objects, if the probability of existence is greater than a predetermined existence threshold and if at least a predetermined number of geolocation points is received, then o Construction of a line for each object from the points geolocation, the line representing the path traveled by the object; o Determination of a virtual line delimiting the ego-path of the adjacent path from the line constructed for the first object and from the line constructed for the second object.
Ainsi, en cas d’usure, de dissimulation ou d’effacement d’un marquage au sol séparant l’égo-voie et la voie adjacente, celle-ci est reconstruite et la régulation de la position du véhicule autonome dans l’égo-voie continue. Le contrôle du véhicule n’est pas rendu à un conducteur dudit véhicule. Le système d’aide à la conduite continue à exécuter son rôle d’aide de manière fiable. Thus, in the event of wear, concealment or erasure of a marking on the ground separating the ego-lane and the adjacent lane, the latter is reconstructed and the regulation of the position of the autonomous vehicle in the ego-lane continuous path. Control of the vehicle is not returned to a driver of said vehicle. The driver assistance system continues to fulfill its role of assisting reliably.
La détermination de la ligne virtuelle se base sur le chemin parcouru par les premiers objets circulant sur l’égo-voie et sur le chemin parcouru par les deuxièmes objets circulant sur la voie adjacente, formant ainsi deux lignes. Cette ligne virtuelle peut être une ligne médiane entre les deux lignes représentant alors naturellement une séparation entre l’égo-voie et la voie adjacente. La détermination de la ligne virtuelle est robuste et fiable vis-à-vis aux incertitudes de mesures. Cette détermination prend en compte une pluralité de points de géolocalisation, une vingtaine par exemple, par d’objet détecté, et chaque objet est détecté de manière fiable grâce à une probabilité d’existence supérieur à un seuil d’existence (par exemple 70%). The determination of the virtual line is based on the path traveled by the first objects circulating on the ego-lane and on the path traversed by the second objects circulating on the adjacent lane, thus forming two lines. This virtual line can be a median line between the two lines then naturally representing a separation between the ego-path and the adjacent path. The determination of the virtual line is robust and reliable with respect to measurement uncertainties. This determination takes into account a plurality of geolocation points, about twenty for example, per detected object, and each object is detected reliably thanks to a probability of existence greater than an existence threshold (for example 70% ).
Avantageusement, les informations reçues pour le premier et pour le deuxième objet comportent en outre une classe d’appartenance de l’objet, une probabilité d’appartenance à la classe, et/ou un état de mouvement, et dans lequel l’étape de construction de la ligne pour chaque objet n’est réalisée que si la classe d’appartenance est membre d’une liste de classes prédéterminées, si la probabilité d’appartenance à la classe est supérieur à un seuil d’appartenance prédéterminé, et/ou si l’état de mouvement indique que l’objet est en mouvement. Advantageously, the information received for the first and for the second object further comprises a class of membership of the object, a probability of membership of the class, and/or a state of movement, and in which the step of construction of the line for each object is carried out only if the class of membership is a member of a list of predetermined classes, if the probability of membership of the class is greater than a predetermined membership threshold, and/or if the motion state indicates that the object is moving.
Ainsi, la détermination de la ligne virtuelle est encore plus robuste et plus fiable vis-à- vis aux incertitudes de mesures. Dans un mode opératoire, seul les objets étant des véhicules en mouvement, dans le sens du véhicule ou venant dans le sens inverse, sont pris en compte. Thus, the determination of the virtual line is even more robust and more reliable with respect to measurement uncertainties. In one operating mode, only objects being vehicles in motion, in the direction of the vehicle or coming in the opposite direction, are taken into account.
Avantageusement, la construction de la ligne pour chaque objet est basée sur un ajustement paramétrique d’un polynôme, le polynôme modélisant le chemin parcouru par l’objet. Advantageously, the construction of the line for each object is based on a parametric adjustment of a polynomial, the polynomial modeling the path traveled by the object.
Ainsi, la reconstruction d’une ligne représentant le chemin parcouru par un objet est plus lisse. En effet, les mesures sont entachés d’incertitudes et les objets ont de léger écarts transversaux. Thus, the reconstruction of a line representing the path traveled by an object is smoother. Indeed, the measurements are marred by uncertainties and the objects have slight transverse deviations.
Avantageusement, lorsqu’un objet supplémentaire circulant sur l’égo-voie est détecté, les informations reçues sont réunies avec les informations du premier objet pour compléter les informations dudit premier objet. Advantageously, when an additional object circulating on the ego-path is detected, the information received is combined with the information of the first object to complete the information of said first object.
Avantageusement, lorsqu’un objet supplémentaire circulant sur la voie adjacente est détecté, les informations reçues sont réunies avec les informations du deuxième objet pour compléter les informations dudit deuxième objet. Advantageously, when an additional object traveling on the adjacent lane is detected, the information received is combined with the information of the second object to complete the information of said second object.
Ainsi, la détermination de la ligne est encore plus robuste et plus fiable vis-à-vis aux incertitudes de mesures. En effet, les véhicules circulant sur une même voie parcourent le même chemin. Avantageusement, dans lequel chaque information reçue est horodatée, et seules les données reçues sur un intervalle de temps prédéterminé sont utilisés dans la construction d’une ligne pour chaque objet à partir des points de géolocalisation. Ainsi, un traitement global, continue et périodique est réalisé déterminant une ligne virtuelle sur un horizon de temps donné, par exemple sur 3 secondes. Thus, the determination of the line is even more robust and more reliable with respect to measurement uncertainties. Indeed, vehicles traveling on the same lane travel the same path. Advantageously, in which each piece of information received is timestamped, and only the data received over a predetermined time interval are used in the construction of a line for each object from the geolocation points. Thus, a global, continuous and periodic processing is carried out determining a virtual line over a given time horizon, for example over 3 seconds.
Un deuxième aspect de l’invention concerne un dispositif comprenant une mémoire associée à au moins un processeur configuré pour mettre en œuvre le procédé selon le premier aspect de l’invention. A second aspect of the invention relates to a device comprising a memory associated with at least one processor configured to implement the method according to the first aspect of the invention.
L’invention concerne aussi un véhicule comportant le dispositif. The invention also relates to a vehicle comprising the device.
L’invention concerne aussi un programme d’ordinateur comprenant des instructions adaptées pour l’exécution des étapes du procédé, selon le premier aspect de l’invention, lorsque ledit programme est exécuté par au moins un processeur. The invention also relates to a computer program comprising instructions adapted for the execution of the steps of the method, according to the first aspect of the invention, when said program is executed by at least one processor.
D’autres caractéristiques et avantages de l’invention ressortiront de la description des modes de réalisation non limitatifs de l’invention ci-après, en référence aux figures annexées, sur lesquelles : Other characteristics and advantages of the invention will emerge from the description of the non-limiting embodiments of the invention below, with reference to the appended figures, in which:
[Fig. 1] illustre schématiquement un dispositif, selon un exemple particulier de réalisation de la présente invention. [Fig. 1] schematically illustrates a device, according to a particular embodiment of the present invention.
[Fig. 2] illustre schématiquement un procédé de détermination d’une ligne virtuelle, selon un exemple particulier de réalisation de la présente invention. [Fig. 2] schematically illustrates a method for determining a virtual line, according to a particular embodiment of the present invention.
L’invention est décrite ci-après dans son application, non limitative, au cas d’un véhicule automobile autonome circulant sur une route ou sur une voie de circulation. D’autres applications telles qu’un robot dans un entrepôt de stockage ou encore une motocyclette sur une route de campagne sont également envisageables. The invention is described below in its non-limiting application to the case of an autonomous motor vehicle traveling on a road or on a traffic lane. Other applications such as a robot in a storage warehouse or a motorcycle on a country road are also possible.
La figure 1 représente un exemple de dispositif 101 compris dans le véhicule, dans un réseau (« cloud ») ou dans un serveur. Ce dispositif 101 peut être utilisé en tant que dispositif centralisé en charge d’au moins certaines étapes du procédé décrit ci- après en référence à la figure 2. Dans un mode de réalisation, il correspond à un calculateur de conduite autonome. FIG. 1 represents an example of a device 101 included in the vehicle, in a network (“cloud”) or in a server. This device 101 can be used as a centralized device in charge of at least certain steps of the method described below with reference to FIG. 2. In one embodiment, it corresponds to an autonomous driving computer.
Dans la présente invention, le dispositif 101 est compris dans le véhicule. Ce dispositif 101 peut prendre la forme d’un boîtier comprenant des circuits imprimés, de tout type d’ordinateur ou encore d’un téléphone mobile (« smartphone »). In the present invention, the device 101 is included in the vehicle. This device 101 can take the form of a box comprising printed circuits, of any type of computer or else of a mobile telephone (“smartphone”).
Le dispositif 101 comprend une mémoire vive 102 pour stocker des instructions pour la mise en œuvre par un processeur 103 d’au moins une étape du procédé tel que décrit ci-avant. Le dispositif comporte aussi une mémoire de masse 104 pour le stockage de données destinées à être conservées après la mise en œuvre du procédé. The device 101 comprises a random access memory 102 for storing instructions for the implementation by a processor 103 of at least one step of the method as described above. The device also comprises a mass memory 104 for storing data intended to be kept after the implementation of the method.
Le dispositif 101 peut en outre comporter un processeur de signal numérique (DSP) 105. Ce DSP 105 reçoit des données pour mettre en forme, démoduler et amplifier, de façon connue en soi ces données. The device 101 may also include a digital signal processor (DSP) 105. This DSP 105 receives data to shape, demodulate and amplify, in a manner known per se, this data.
Le dispositif 101 comporte également une interface d’entrée 106 pour la réception des données mises en œuvre par le procédé selon l’invention et une interface de sortie 107 pour la transmission des données mises en œuvre par le procédé selon l’invention. Device 101 also includes an input interface 106 for receiving data implemented by the method according to the invention and an output interface 107 for transmitting data implemented by the method according to the invention.
La figure 2 illustre schématiquement un procédé de détermination d’une ligne virtuelle de délimitation entre une voie de circulation, dite égo-voie, et une voie de circulation adjacente à l’égo-voie, dite voie adjacente, pour réguler une position d’un véhicule autonome circulant sur l’égo-voie, selon un exemple particulier de réalisation de la présente invention. FIG. 2 schematically illustrates a method for determining a virtual boundary line between a traffic lane, called ego-lane, and a traffic lane adjacent to the ego-lane, called adjacent lane, to regulate a position of an autonomous vehicle traveling on the ego-lane, according to a particular embodiment of the present invention.
L’étape 201 , « Recep 1 », est une étape où le dispositif 101 par exemple, reçoit des informations d’au moins un premier objet détecté circulant sur l’égo-voie, les informations caractérisant une probabilité d’existence du premier objet et un point de géolocalisation du premier objet dans la voie circulée. Step 201, "Recep 1", is a step where the device 101, for example, receives information from at least one first detected object circulating on the ego-path, the information characterizing a probability of existence of the first object and a geolocation point of the first object in the route travelled.
Dans un mode de réalisation, un traitement d’images acquise par une caméra et un traitement de données issues de capteurs de type RADAR, LIDAR, ultrason, ..., ont détecté un objet présent dans l’égo-voie. Par exemple, par une fusion des données traitées, un point de géolocalisation du premier objet dans la voie circulée est déterminé et transmis au dispositif 101. Le point de géolocalisation d’un objet détecté représente par exemple la projection sur la voie du centre de gravité de l’image d’un véhicule détecté. Dans un autre exemple, le point de géolocalisation représente la distance latérale et longitudinale par rapport au véhicule autonome. Une probabilité d’existence du premier objet est associée au point de géolocalisation. Il représente la plausibilité du premier objet détecté. Par exemple, cette probabilité a pour valeur une valeur comprise entre 0 et 1 , et est fournie par un module de perception classique. In one embodiment, processing of images acquired by a camera and processing of data from sensors of the RADAR, LIDAR, ultrasound type, etc., have detected an object present in the ego-path. For example, by merging the processed data, a geolocation point of the first object in the route traveled is determined and transmitted to the device 101. The geolocation point of a detected object represents for example the projection on the route of the center of gravity image of a detected vehicle. In another example, the geolocation point represents the lateral and longitudinal distance from the autonomous vehicle. A probability of existence of the first object is associated with the geolocation point. It represents the plausibility of the first detected object. For example, this probability has a value between 0 and 1 as its value, and is provided by a conventional perception module.
Dans un autre mode de réalisation, le dispositif 101 reçoit en outre une classe d’appartenance du premier objet, une probabilité d’appartenance à la classe. Par exemple, l’objet détecté est classifié tout d’abord selon une classe mobile ou non, cette classe identifiant les objets qui se déplace. Ensuite, si nécessaire, l’objet détecté est classifié selon une sous classe représentant le nombre de roues (0 roue,In another embodiment, the device 101 also receives a class of membership of the first object, a probability of class membership. For example, the detected object is first classified according to a mobile class or not, this class identifying the objects which move. Then, if necessary, the detected object is classified according to a subclass representing the number of wheels (0 wheel,
1 roue, 2 roues 4 roues ou plus). Ensuite, si nécessaire, l’objet détecté est classifié selon une sous sous classe représentant un véhicule personnel, un camion, un bus, ... Cette classification est réalisée par un module externe à l’invention classiquement présent dans un module de perception. Une probabilité de classe est associée à cette classification. 1 wheel, 2 wheels 4 wheels or more). Then, if necessary, the detected object is classified according to a sub-class representing a personal vehicle, a truck, a bus, etc. This classification is carried out by a module external to the invention conventionally present in a perception module. A class probability is associated with this classification.
Dans un autre mode de réalisation, le dispositif 101 reçoit un état de mouvement qui identifie si l’objet est actuellement en déplacement dans le sens de circulation du véhicule autonome, si l’objet est actuellement en déplacement dans le sens opposé de circulation du véhicule autonome, ou si l’objet est actuellement statique. In another embodiment, device 101 receives a motion status that identifies whether the object is currently moving in the direction of autonomous vehicle travel, if the object is currently moving in the opposite direction of vehicle travel standalone, or if the object is currently static.
Dans un autre mode de réalisation, lorsqu’un objet supplémentaire circulant sur l’égo-voie est détecté, les informations reçues sont réunies avec les informations du premier objet pour compléter les informations dudit premier objet. Dans certains cas d’usage, plusieurs objets circulant dans l’égo-voie sont détectés. Les informations concernant ces autres objets complètent les données du premier objet multipliant ainsi le nombre d’informations reçues. In another embodiment, when an additional object circulating on the ego-path is detected, the information received is combined with the information of the first object to complete the information of said first object. In some use cases, several objects circulating in the ego-path are detected. The information concerning these other objects completes the data of the first object thus multiplying the number of information received.
Dans un autre mode de réalisation, chaque information reçue est horodatée. Cela rend possible une utilisation des données sur un intervalle de temps prédéterminé comme par exemple de 3 à 5 secondes, d’autres valeurs étant possibles. Par exemple, les données sont stockées en mémoire 102. In another embodiment, each item of information received is timestamped. This makes it possible to use data over a predetermined time interval such as 3 to 5 seconds, other values being possible. For example, the data is stored in memory 102.
L’étape 202, « Recep 2 », est une étape où le dispositif 101 par exemple, reçoit des informations d’au moins un deuxième objet détecté circulant sur la voie adjacente, les informations caractérisant une probabilité d’existence du deuxième objet et un point de géolocalisation du deuxième objet dans la voie circulée. Cette étape est semblable à l’étape 201 , mais ne concerne que les objets circulant sur la voie adjacente. Step 202, "Recep 2", is a step where the device 101 for example receives information from at least one second detected object traveling on the adjacent lane, the information characterizing a probability of existence of the second object and a geolocation point of the second object in the traffic lane. This step is similar to step 201, but only concerns objects traveling on the adjacent lane.
L’étape 203, « Test 1 ? », est une étape qui teste si les informations reçues lors de l’étape 201 respectent certains critères. Par exemple, pour prendre en compte les données relatives aux points de géolocalisation dans une étape suivante 205 décrite ci-après, la probabilité d’existence d’un objet doit être supérieur à un seuil d’existence prédéterminée. Le seuil d’existence a pour valeur, 0,7 (soit 70%), mais peut prendre toute autre valeur. Dans un mode opératoire, le seuil d’existence varie selon le cas d’usage, comme le type de route sur laquelle circule le véhicule autonome. Step 203, "Test 1?" is a step that tests whether the information received during step 201 meets certain criteria. For example, to take into account the data relating to the geolocation points in a following step 205 described below, the probability of existence of an object must be greater than a predetermined existence threshold. The existence threshold has a value of 0.7 (i.e. 70%), but can take any other value. In an operating mode, the existence threshold varies according to the use case, such as the type of road on which the autonomous vehicle travels.
Par exemple, pour prendre en compte les données relatives aux points de géolocalisation dans l’étape suivante 205, un nombre minimum de points de géolocalisation doit être réceptionné. Dans un mode opératoire, ce nombre est de 20, mais il peut prendre toute autre valeur et varie selon le cas d’usage. Par exemple, si qu’un seul premier objet est détecté le nombre minimum est de 15. Si un autre objet circulant dans l’égo-voie est détecté, le nombre minimum global (premier objet et autre objet) est de 20. For example, to take into account the data relating to the geolocation points in the next step 205, a minimum number of geolocation points must be received. In an operating mode, this number is 20, but it can take any other value and varies according to the use case. For example, if only one first object is detected, the minimum number is 15. If another object circulating in the ego-path is detected, the overall minimum number (first object and other object) is 20.
Par exemple, pour prendre en compte les données relatives aux points de géolocalisation dans l’étape suivante 205, l’objet détecté doit appartenir à une classe de véhicule à au moins 4 roues et la probabilité d’appartenance à cette classe doit être supérieur à 70% (ou une autre valeur qui peut varier selon le cas d’usage).For example, to take into account the data relating to the geolocation points in the next step 205, the detected object must belong to a class of vehicle with at least 4 wheels and the probability of belonging to this class must be greater than 70% (or another value that may vary depending on the use case).
Ainsi, les véhicules de type « 2 roues » ne sont pas pris en comptes. En effet, les deux roues ne circulent pas forcément proche du milieu de la voie de circulation comme le ferait un véhicule plus large. Thus, “2-wheel” type vehicles are not taken into account. Indeed, the two wheels do not necessarily travel close to the middle of the traffic lane as would a wider vehicle.
Par exemple, pour prendre en compte les données relatives aux points de géolocalisation dans l’étape suivante 205, l’état de mouvement de l’objet détecté doit indiquer que l’objet est en mouvement. En effet, dans l’étape suivante 205, une ligne représentant le chemin parcouru par l’objet est construite. Si l’objet est immobile, la ligne ne peut pas être construite. Dans un mode opératoire, l’état de mouvement comprend également un sens de circulation. Par exemple, les objets circulant sur l’égo-voie doivent circuler dans le même sens que le véhicule autonome. For example, to take into account the data relating to the geolocation points in the following step 205, the motion state of the detected object must indicate that the object is in motion. Indeed, in the next step 205, a line representing the path traveled by the object is constructed. If the object is stationary, the line cannot be constructed. In an operating mode, the state of movement also includes a direction of circulation. For example, objects traveling on the ego-lane must travel in the same direction as the autonomous vehicle.
Les différents exemples constituent différents critères d’acceptation des points de géolocalisation. Si une combinaison de ces critères n’est pas respectée, alors il n’y pas assez de données valident pour pouvoir passer à l’étape suivante 205. On retourne à l’étape 201 afin de réceptionner de nouvelles informations. The different examples constitute different criteria for accepting geolocation points. If any combination of these criteria is not met, then there is no not enough data validates to be able to move on to the next step 205. We return to step 201 in order to receive new information.
L’étape 204, « Test2 ? » est une étape qui teste si les informations reçues lors de l’étape 202 respectent certains critères. Step 204, "Test2?" is a step that tests whether the information received during step 202 meets certain criteria.
Par exemple, pour prendre en compte les données relatives aux points de géolocalisation dans une étape suivante 206 décrite ci-après, la probabilité d’existence d’un objet doit être supérieur à un seuil d’existence prédéterminée. Le seuil d’existence a pour valeur, 0,7 (soit 70%), mais peut prendre toute autre valeur. Dans un mode opératoire, le seuil d’existence varie selon le cas d’usage, comme le type de route sur laquelle circule le véhicule autonome. For example, to take into account the data relating to the geolocation points in a following step 206 described below, the probability of existence of an object must be greater than a predetermined existence threshold. The existence threshold has a value of 0.7 (i.e. 70%), but can take any other value. In an operating mode, the existence threshold varies according to the use case, such as the type of road on which the autonomous vehicle travels.
Par exemple, pour prendre en compte les données relatives aux points de géolocalisation dans l’étape suivante 206, un nombre minimum de points de géolocalisation doit être réceptionné. Dans un mode opératoire, ce nombre est de 20, mais il peut prendre toute autre valeur et varie selon le cas d’usage. Par exemple, si qu’un seul deuxième objet est détecté le nombre minimum est de 10. Ce nombre n’est pas forcément le même que celui de l’étape 203 car, dans certains cas d’usage, les véhicules circulant sur la voie adjacente circulent en sens opposé par rapport au sens de circulation du véhicule autonome. Si un autre objet circulant dans la voie adjacente est détecté, le nombre minimum global (deuxième objet et autre objet circulant dans la voie adjacente) est de 15. Les nombres indiqués sont des exemples et peuvent prendre d’autres valeurs selon le cas d’usage. For example, to take into account the data relating to the geolocation points in the next step 206, a minimum number of geolocation points must be received. In an operating mode, this number is 20, but it can take any other value and varies according to the use case. For example, if only one second object is detected, the minimum number is 10. This number is not necessarily the same as that of step 203 because, in certain cases of use, the vehicles circulating on the lane adjacent travel in the opposite direction with respect to the direction of travel of the autonomous vehicle. If another object traveling in the adjacent lane is detected, the global minimum number (second object and other object traveling in the adjacent lane) is 15. The numbers indicated are examples and can take other values depending on the case. use.
Par exemple, pour prendre en compte les données relatives aux points de géolocalisation dans l’étape suivante 206, l’objet détecté doit appartenir à une classe de véhicule à au moins 4 roues et la probabilité d’appartenance à cette classe doit être supérieur à 70% (ou une autre valeur qui peut varier selon le cas d’usage).For example, to take into account the data relating to the geolocation points in the next step 206, the detected object must belong to a class of vehicle with at least 4 wheels and the probability of belonging to this class must be greater than 70% (or another value that may vary depending on the use case).
Ainsi, les véhicules de type « 2 roues » ne sont pas pris en comptes. En effet, les deux roues ne circulent pas forcément proche du milieu de la voie de circulation comme le ferait un véhicule plus large. Thus, “2-wheel” type vehicles are not taken into account. Indeed, the two wheels do not necessarily travel close to the middle of the traffic lane as would a wider vehicle.
Par exemple, pour prendre en compte les données relatives aux points de géolocalisation dans l’étape suivante 206, l’état de mouvement de l’objet détecté doit indiquer que l’objet est en mouvement. En effet, dans l’étape suivante 206, une ligne représentant le chemin parcouru par l’objet est construite. Si l’objet est immobile, la ligne ne peut pas être construite. Dans un mode opératoire, l’état de mouvement comprend également un sens de circulation. Par exemple, les objets circulant sur la voie adjacente doivent tous circuler dans le même sens (sens du véhicule autonome, ou sens opposé) afin d’être pris en considération. Dans ce dernier cas, les informations des objets effectuant un dépassement prolongé ne sont pas pris en comptes. For example, to take into account the data relating to the geolocation points in the following step 206, the motion state of the detected object must indicate that the object is in motion. Indeed, in the next step 206, a line representing the path traveled by the object is constructed. If the object is stationary, the line cannot be constructed. In an operating mode, the state of movement also includes a sense of traffic. For example, objects traveling on the adjacent lane must all travel in the same direction (direction of the autonomous vehicle, or opposite direction) in order to be taken into consideration. In the latter case, the information of the objects carrying out a prolonged overtaking are not taken into account.
Les différents exemples constituent différents critères d’acceptation des points de géolocalisation. Si une combinaison de ces critères n’est pas respectée, alors il n’y pas assez de données valident pour pouvoir passer à l’étape suivante 206. On retourne à l’étape 202 afin de réceptionner de nouvelles informations. The different examples constitute different criteria for accepting geolocation points. If a combination of these criteria is not respected, then there is not enough valid data to be able to move on to the next step 206. We return to step 202 in order to receive new information.
L’étape 205, « Li 1 », est une étape de construction d’une ligne pour le premier objet à partir des points de géolocalisation qui ont été retenus après l’étape 203, la ligne représentant le chemin parcouru par l’objet. Step 205, “Li 1”, is a step for constructing a line for the first object from the geolocation points which have been retained after step 203, the line representing the path traveled by the object.
Dans un mode de réalisation les points de géolocalisation comprennent également les points de géolocalisation d’un autre objet circulant sur l’égo-voie. La ligne ainsi construite, représente le chemin parcouru par un véhicule fictif comprenant l’ensemble des points de géolocalisation. In one embodiment, the geolocation points also include the geolocation points of another object traveling on the ego-lane. The line thus constructed represents the path traveled by a fictitious vehicle comprising all the geolocation points.
Grâce à l’étape 203, les points de géolocalisation sont fiables et sont représentatives d’une ligne médiane de l’égo-voie. Thanks to step 203, the geolocation points are reliable and are representative of a center line of the ego-path.
Dans un mode de réalisation, la construction de la ligne pour chaque objet est basée sur un ajustement paramétrique d’un polynôme, le polynôme modélisant le chemin parcouru par l’objet. Par exemple, en ligne droite par une méthode classique de régression linéaire, on détermine la meilleure droite passant par tous les points de géolocalisation qui ont été retenus après l’étape 203. Dans un mode opératoire préféré, l’ordre du polynôme est supérieur à 1, par exemple 4, afin de prendre en compte la courbure de la route. L’ordre du polynôme est à choisir pour répondre à compromis entre la précision et la rapidité de calcul. In one embodiment, the construction of the line for each object is based on a parametric fitting of a polynomial, the polynomial modeling the path traveled by the object. For example, in a straight line by a conventional method of linear regression, the best straight line passing through all the geolocation points which have been retained after step 203 is determined. In a preferred operating mode, the order of the polynomial is greater than 1, for example 4, in order to take into account the curvature of the road. The order of the polynomial is to be chosen to meet the compromise between precision and speed of calculation.
L’étape 206, « Li 2 », est une étape de construction d’une ligne pour le deuxième objet à partir des points de géolocalisation qui ont été retenus après l’étape 204, la ligne représentant le chemin parcouru par l’objet. Step 206, “Li 2”, is a step for constructing a line for the second object from the geolocation points which have been retained after step 204, the line representing the path traveled by the object.
Dans un mode de réalisation les points de géolocalisation comprennent également les points de géolocalisation d’un autre objet circulant sur la voie adjacente. La ligne ainsi construite, représente le chemin parcouru par un véhicule fictif comprenant l’ensemble des points de géolocalisation. In one embodiment, the geolocation points also include the geolocation points of another object traveling on the adjacent lane. Line thus constructed, represents the path traveled by a fictitious vehicle comprising all the geolocation points.
Grâce à l’étape 204, les points de géolocalisation sont fiables et sont représentatives d’une ligne médiane de l’égo-voie. Thanks to step 204, the geolocation points are reliable and are representative of a center line of the ego-path.
Dans un mode de réalisation, la construction de la ligne pour chaque objet est basée sur un ajustement paramétrique d’un polynôme, le polynôme modélisant le chemin parcouru par l’objet. Par exemple, en ligne droite par une méthode classique de régression linéaire, on détermine la meilleure droite passant par tous les points de géolocalisation qui ont été retenus après l’étape 203. Dans un mode opératoire préféré, l’ordre du polynôme est supérieur à 1 , par exemple 4, afin de prendre en compte la courbure de la route. L’ordre du polynôme est à choisir pour répondre à compromis entre la précision et la rapidité de calcul. In one embodiment, the construction of the line for each object is based on a parametric fitting of a polynomial, the polynomial modeling the path traveled by the object. For example, in a straight line by a conventional method of linear regression, the best straight line passing through all the geolocation points which have been retained after step 203 is determined. In a preferred operating mode, the order of the polynomial is greater than 1, for example 4, in order to take into account the curvature of the road. The order of the polynomial is to be chosen to meet the compromise between precision and speed of calculation.
L’étape 207, « VirtLi » est l’étape de détermination d’une ligne virtuelle délimitant l’égo-voie de la voie adjacente à partir de la ligne construite pour le premier objet, ligne issue de l’étape 205, et à partir de la ligne construite pour le deuxième objet, ligne issue de l’étape 206. Step 207, "VirtLi" is the step of determining a virtual line delimiting the ego-path of the adjacent path from the line constructed for the first object, line resulting from step 205, and from from the line constructed for the second object, line resulting from step 206.
Les lignes issues de l’étape 205 et de l’étape 206 représentent respectivement le chemin parcouru par un véhicule fictif sur l’égo-voie et sur la voie adjacente. Dans un mode de réalisation, la ligne virtuelle est une ligne médiane entre la ligne construite à partir du premier objet et la ligne construite à partir du deuxième objet, indiquant alors clairement la séparation entre l’égo-voie et la voie adjacente. The lines resulting from step 205 and from step 206 respectively represent the path traveled by a fictitious vehicle on the ego-lane and on the adjacent lane. In one embodiment, the virtual line is a median line between the line constructed from the first object and the line constructed from the second object, thus clearly indicating the separation between the ego-path and the adjacent path.
Dans un autre mode opératoire, le procédé réceptionne une information d’une largeur de l’égo-voie et la construction de la ligne virtuelle est fondée sur une demi largeur de l’égo-voie, et sur la ligne construite pour le premier objet ou sur la ligne construite pour le deuxième objet. In another mode of operation, the method receives information of a width of the ego-path and the construction of the virtual line is based on a half width of the ego-path, and on the line constructed for the first object or on the line constructed for the second object.
Dans un mode opératoire, la ligne virtuelle construite remplace une ligne représentant la détection du marquage au sol délimitant l’égo-voie de la voie adjacente afin de réguler la position du véhicule autonome par un système d’aide à la conduite. In one operating mode, the constructed virtual line replaces a line representing the detection of the marking on the ground delimiting the ego-lane of the adjacent lane in order to regulate the position of the autonomous vehicle by a driving assistance system.
La présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d’exemples ; elle s’étend à d’autres variantes. Ainsi, on a décrit ci-avant un exemple de réalisation dans lequel la détermination de la ligne virtuelle est réalisée après un traitement séparé des informations reçues concernant l’égo-voie et des informations reçues concernant la voie adjacente. Dans un mode opératoire, la ligne virtuelle est construite à partir de l’ensemble des informations reçues et qui respectent une combinaison des critères énoncés (existence, nombre de points, appartenance à une classe, état de mouvement, nombre de points, ...). Pour cela la ligne virtuelle peut utiliser des techniques de type SVM (acronymes anglais de « Support Vector Machine ») étant aptes à résoudre des problèmes de discrimination au prix de complexification de calculs. The present invention is not limited to the embodiments described above by way of examples; it extends to other variants. Thus, an exemplary embodiment has been described above in which the determination of the virtual line is carried out after a separate processing of the information received concerning the ego-channel and of the information received concerning the adjacent channel. In an operating mode, the virtual line is built from all the information received and which respects a combination of the stated criteria (existence, number of points, belonging to a class, state of movement, number of points, etc. ). For this, the virtual line can use techniques of the SVM type (acronyms for “Support Vector Machine”) being capable of solving discrimination problems at the cost of making calculations more complex.
Ainsi, on a décrit ci-avant un mode de réalisation dans lequel les informations réceptionnées proviennent d’un traitement d’images et de données issues de capteurs. Dans un mode opératoire, toute ou une partie de ces informations proviennent par une transmission assurée par un lien radiofréquence, comme une communication de véhicule là véhicule (V2V) ou de communication de véhicule à tout autre objet communicant (V2X). Thus, an embodiment has been described above in which the information received comes from a processing of images and data from sensors. In one operating mode, all or part of this information comes from a transmission ensured by a radiofrequency link, such as a communication from vehicle to vehicle (V2V) or communication from vehicle to any other communicating object (V2X).

Claims

REVENDICATIONS
1. Procédé de détermination d’une ligne virtuelle de délimitation entre une voie de circulation, dite égo-voie, et une voie de circulation adjacente à l’égo-voie, dite voie adjacente, pour réguler une position d’un véhicule autonome circulant sur l’égo- voie, ledit procédé comportant les étapes de : 1. Method for determining a virtual boundary line between a traffic lane, called ego-lane, and a traffic lane adjacent to the ego-lane, called adjacent lane, to regulate a position of an autonomous vehicle circulating on the self-track, said method comprising the steps of:
- Réception (201 ) d’informations d’au moins un premier objet détecté circulant sur l’égo-voie, les informations caractérisant une probabilité d’existence du premier objet et un point de géolocalisation du premier objet dans la voie circulée ; - Reception (201) of information from at least a first detected object circulating on the ego-lane, the information characterizing a probability of existence of the first object and a geolocation point of the first object in the circulated lane;
- Réception (202) d’informations d’au moins un deuxième objet détecté circulant sur la voie adjacente, les informations caractérisant une probabilité d’existence du deuxième objet et un point de géolocalisation du deuxième objet dans la voie circulée ; - Reception (202) of information from at least a second detected object circulating on the adjacent lane, the information characterizing a probability of existence of the second object and a geolocation point of the second object in the circulated lane;
- Pour chacun des deux objets, si la probabilité d’existence est supérieure à un seuil d’existence prédéterminé et si au moins un nombre prédéterminé de points de géolocalisation est réceptionné, (203, 204), alors o Construction (205, 206) d’une ligne pour chaque objet à partir des points de géolocalisation, la ligne représentant le chemin parcouru par l’objet ; o Détermination (207) de la ligne virtuelle délimitant l’égo-voie de la voie adjacente à partir de la ligne construite pour le premier objet et à partir de la ligne construite pour le deuxième objet. - For each of the two objects, if the probability of existence is greater than a predetermined existence threshold and if at least a predetermined number of geolocation points is received, (203, 204), then o Construction (205, 206) a line for each object from the geolocation points, the line representing the path traveled by the object; o Determination (207) of the virtual line delimiting the ego-path of the adjacent path from the line constructed for the first object and from the line constructed for the second object.
2. Procédé selon la revendication 1 , dans lequel les informations reçues pour le premier et pour le deuxième objet comportent en outre une classe d’appartenance de l’objet, une probabilité d’appartenance à la classe, et/ou un état de mouvement, et dans lequel l’étape de construction (205, 206) de la ligne pour chaque objet n’est réalisée que si la classe d’appartenance est membre d’une liste de classes prédéterminées, si la probabilité d’appartenance à la classe est supérieur à un seuil d’appartenance prédéterminé, et/ou si l’état de mouvement indique que l’objet est en mouvement. 2. Method according to claim 1, in which the information received for the first and for the second object further comprises a class of membership of the object, a probability of belonging to the class, and/or a state of motion , and in which the step of constructing (205, 206) the line for each object is carried out only if the class to which it belongs is a member of a list of predetermined classes, if the probability of belonging to the class is greater than a predetermined membership threshold, and/or if the motion state indicates that the object is in motion.
3. Procédé selon l’une des revendications précédentes, dans lequel la construction (205, 206) de la ligne pour chaque objet est basée sur un ajustement paramétrique d’un polynôme, le polynôme modélisant le chemin parcouru par l’objet. 3. Method according to one of the preceding claims, in which the construction (205, 206) of the line for each object is based on a parametric adjustment of a polynomial, the polynomial modeling the path traveled by the object.
4. Procédé selon l’une des revendications précédentes, dans lequel, lorsqu’un objet supplémentaire circulant sur l’égo-voie est détecté, les informations reçues sont réunies avec les informations du premier objet pour compléter les informations dudit premier objet. 4. Method according to one of the preceding claims, in which, when an additional object circulating on the ego-path is detected, the information received is combined with the information of the first object to complete the information of said first object.
5. Procédé selon l’une des revendications précédentes, dans lequel, lorsqu’un objet supplémentaire circulant sur la voie adjacente est détecté, les informations reçues sont réunies avec les informations du deuxième objet pour compléter les informations dudit deuxième objet. 5. Method according to one of the preceding claims, in which, when an additional object traveling on the adjacent lane is detected, the information received is combined with the information of the second object to complete the information of said second object.
6. Procédé selon l’une des revendications précédentes, dans lequel chaque information reçue est horodatée, et seules les données reçues sur un intervalle de temps prédéterminé sont utilisés dans la construction d’une ligne pour chaque objet à partir des points de géolocalisation. 6. Method according to one of the preceding claims, in which each item of information received is timestamped, and only the data received over a predetermined time interval are used in the construction of a line for each object from the geolocation points.
7. Dispositif (101 ) comprenant une mémoire (102) associée à au moins un processeur (103) configuré pour mettre en œuvre le procédé selon l’une des revendications précédentes. 7. Device (101) comprising a memory (102) associated with at least one processor (103) configured to implement the method according to one of the preceding claims.
8. Véhicule comportant le dispositif selon la revendication précédente. 8. Vehicle comprising the device according to the preceding claim.
9. Programme d’ordinateur comprenant des instructions adaptées pour l’exécution des étapes du procédé selon l’une des revendications 1 à 6 lorsque ledit programme est exécuté par au moins un processeur (103). 9. Computer program comprising instructions adapted for the execution of the steps of the method according to one of claims 1 to 6 when said program is executed by at least one processor (103).
EP21810655.7A 2020-11-25 2021-10-20 Method and device for determining a virtual boundary line between two traffic lanes Pending EP4251485A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2012108A FR3116501B1 (en) 2020-11-25 2020-11-25 Method and device for determining a virtual boundary line between two traffic lanes.
PCT/FR2021/051825 WO2022112672A1 (en) 2020-11-25 2021-10-20 Method and device for determining a virtual boundary line between two traffic lanes

Publications (1)

Publication Number Publication Date
EP4251485A1 true EP4251485A1 (en) 2023-10-04

Family

ID=75746703

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21810655.7A Pending EP4251485A1 (en) 2020-11-25 2021-10-20 Method and device for determining a virtual boundary line between two traffic lanes

Country Status (3)

Country Link
EP (1) EP4251485A1 (en)
FR (1) FR3116501B1 (en)
WO (1) WO2022112672A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3668127A (en) 1968-07-01 1972-06-06 Ricoh Kk Liquid developer for electrophotography
KR101714185B1 (en) * 2015-08-05 2017-03-22 엘지전자 주식회사 Driver Assistance Apparatus and Vehicle Having The Same
DE102016118497A1 (en) * 2016-09-29 2018-03-29 Valeo Schalter Und Sensoren Gmbh Determining a virtual lane for a road traveled by a motor vehicle
FR3088280A1 (en) * 2018-11-08 2020-05-15 Psa Automobiles Sa CONSTRUCTION BY SEGMENTATION OF VIRTUAL TRACKS ON A PAVEMENT
FR3089925B1 (en) * 2018-12-13 2020-11-20 Psa Automobiles Sa Safe autonomous driving in the event of detection of a target object

Also Published As

Publication number Publication date
FR3116501B1 (en) 2022-10-07
WO2022112672A1 (en) 2022-06-02
FR3116501A1 (en) 2022-05-27

Similar Documents

Publication Publication Date Title
FR3089925A1 (en) Safe autonomous driving in the event of detection of a target object
FR3106918A1 (en) Method and device for reconstruction of tracks
WO2020157407A1 (en) Management via an equivalent speed of autonomous driving with at least two target objects
FR3094318A1 (en) Method for controlling the positioning of a motor vehicle on a traffic lane
EP3894294A1 (en) Consolidation of an indicator of presence of a target object for autonomous driving
EP4251485A1 (en) Method and device for determining a virtual boundary line between two traffic lanes
EP3729404A1 (en) Method for monitoring the area surrounding a first element located on a road, and associated system
EP3924237A1 (en) Autonomous driving based on distance and speed of distinct target objects
WO2021008775A1 (en) On-board driving assistance method and device with plotting of the travelled lane contour
WO2020094940A1 (en) Construction by segmentation of virtual lanes on a carriageway
WO2020025260A1 (en) Method for determining a type of parking space
FR3092305A1 (en) Managing a lane change of a vehicle used as a target for adaptive cruise control
FR3080345A1 (en) IMPROVING DETECTION BY MONITORING A LIGHTING VEHICLE
FR3082044A1 (en) METHOD AND DEVICE FOR DETECTING THE TRACK ON WHICH A VEHICLE IS MOVING, ACCORDING TO THE DETERMINED DETERMINATIONS
FR3092545A1 (en) ASSISTANCE IN DRIVING A VEHICLE, BY DETERMINING THE TRAFFIC LANE IN WHICH AN OBJECT IS LOCATED
FR3075949A1 (en) METHOD FOR DETERMINING ANTICIPATION DISTANCE FROM THE TRACK OF A MOTOR VEHICLE
FR3137780A1 (en) Method and device for determining a rear route of at least one lateral delimitation of a traffic lane
WO2023052692A1 (en) Method and device for detecting merging of a vehicle into a traffic lane
FR3138098A1 (en) Method and device for determining a yaw rotation speed of a vehicle
WO2023233088A1 (en) Method and device for controlling a driver assist system assisting with driving a vehicle on the basis of a speed limit
FR3137781A1 (en) Method and device for determining a width of a side lane adjacent to a traffic lane
EP4308880A1 (en) Method and device for determining the reliability of a low-definition map
FR3135048A1 (en) Method for monitoring at least one lane edge boundary and associated motor vehicle
EP4308881A1 (en) Method and device for determining the reliability of a low-definition map
WO2023214138A1 (en) Method and device for controlling a vehicle driver-assistance system on the basis of the detection of a road sign and a lane change

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230504

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: STELLANTIS AUTO SAS

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)