WO2018115323A1 - Système et procédé de détection d'un contexte d'évolution d'un véhicule - Google Patents

Système et procédé de détection d'un contexte d'évolution d'un véhicule Download PDF

Info

Publication number
WO2018115323A1
WO2018115323A1 PCT/EP2017/084161 EP2017084161W WO2018115323A1 WO 2018115323 A1 WO2018115323 A1 WO 2018115323A1 EP 2017084161 W EP2017084161 W EP 2017084161W WO 2018115323 A1 WO2018115323 A1 WO 2018115323A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
internal registers
prof1
prof2
Prior art date
Application number
PCT/EP2017/084161
Other languages
English (en)
Inventor
Thomas LIENNARD
Brouk WEDAJO
Francine Laisney
Loïc FRADIN
Original Assignee
Valeo Schalter Und Sensoren Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter Und Sensoren Gmbh filed Critical Valeo Schalter Und Sensoren Gmbh
Publication of WO2018115323A1 publication Critical patent/WO2018115323A1/fr

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3896Transmission of map data from central databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Definitions

  • the present invention relates to driving assistance systems and the recognition, in this context, of a context of evolution of a vehicle.
  • It relates more particularly to a system and a method for detecting a context of evolution of a vehicle.
  • the device for geolocation of the vehicle makes it possible to know its current position and consequently to extract from the cartographic database the characteristics of the immediate environment of the vehicle.
  • this solution can not work correctly when the geolocation device fails (for example because of a reception problem, typically in a tunnel) or when the environment is changed without this change being reflected in the base cartographic data, for example in case of modification of the traffic plan or during road works.
  • the present invention proposes a system for detecting a given context of evolution of a vehicle, comprising an assembly designed to determine, for a plurality of characteristics of a vehicle environment, information associated with the characteristic concerned for a plurality of points of a vehicle path; and an automaton comprising internal registers and arranged to successively traverse the points of the path, to update said internal registers according to the information respectively associated with said characteristics for the current point and to produce a given context detection information according to said registers internal.
  • Such an automaton allows to effectively identify a given context, on the basis of different information representative of a vehicle environment, whether this information is extracted from a map database or produced on the basis of data captured by sensors, as explained below. after.
  • said assembly is designed to determine, for at least one of said characteristics, the information associated with this characteristic as a function of data captured by at least one sensor fitted to the vehicle;
  • the system comprises a processing unit designed to identify, by analysis of the captured data, events occurring in a vehicle environment;
  • the system includes a unit for storing said events, each associated with information identifying the event concerned along the path taken by the vehicle;
  • the system comprises a unit for determining said information on the basis of the memorized events
  • said set is designed to determine, for at least one of said given characteristics, the information associated with the characteristic given as a function of map data;
  • the system comprises a locating device designed to provide position information relating to the vehicle;
  • the system comprises a navigation module designed to extract said cartographic data from a cartographic database according to the position information;
  • the controller is designed to deliver a probability (representing a confidence index) associated with said detection information
  • the system includes a driver assistance system designed to activate or deactivate a feature based on the detection information produced;
  • the system comprises a plurality of automata each comprising internal registers, each automaton being arranged to successively traverse the points of the path, to update its internal registers according to the information respectively associated with said characteristics for the current point and to produce, according to said internal registers, a detection information of a given context associated with the concerned automaton;
  • the driver assistance system is designed to activate or deactivate a feature based on the detection information respectively produced by the plurality of controllers;
  • the invention also proposes a method of detecting a given context of evolution of a vehicle, comprising the following steps:
  • an automaton comprising internal registers, update of said internal registers according to the information respectively associated with said characteristics for the current point and production of a given context detection information according to said internal registers.
  • FIG. 1 represents an example of an onboard system according to the teachings of the invention
  • FIG. 2 diagrammatically represents a first type of processing performed within the system of FIG. 1;
  • FIG. 3 schematically shows a second type of treatment performed within the system of Figure 1;
  • FIG. 4 schematically represents a vehicle equipped with an onboard system such as that of FIG. 1.
  • FIG. 1 represents an example of an on-board system, here in a motor vehicle (such as that of FIG. 4), in accordance with the teachings of the invention.
  • This embedded system comprises various sensors, here an image sensor 2 (such as a video camera) and a flight time sensor 4 (such as a Laser rangefinder).
  • image sensor 2 such as a video camera
  • flight time sensor 4 such as a Laser rangefinder
  • the captured data CAPT are representative of the light received by the image sensor 2 at each of its pixels (associated respectively with different directions of the field of view of the image sensor 2 ).
  • the CAPT captured data are representative of the distance of the first object encountered by the transmitted beam, for a plurality of directions of the environment.
  • the onboard system further comprises an odometer 5 which provides a measure of the distance traveled by the vehicle along its path, that is to say the curvilinear abscissa s along the path of the vehicle.
  • the onboard system also comprises a location device 6, for example a GPS device (or GPS for "Global Positioning System").
  • a location device 6 for example a GPS device (or GPS for "Global Positioning System").
  • GPS device or GPS for "Global Positioning System”
  • Such a locating device 6 produces POS positioning information of the vehicle in a given reference frame, here the terrestrial reference.
  • the onboard system includes a cartographic database 7 containing descriptive elements of the environment that the vehicle is likely to borrow. These descriptive elements include in particular descriptive data of the roads present in this environment, in particular for example an identifier of the road, the geographical location of the road, and, for different portions of this road, the number of traffic lanes and the speed authorized limit for the portion concerned.
  • the aforementioned descriptive elements may furthermore include descriptive data of other elements of the environment.
  • the descriptive elements present in the cartographic database 7 describe the environment as it existed during the construction of the database; this environment may, however, have been modified at certain points during the actual passage of the vehicle and the map database 7 therefore does not always perfectly represent the environment traversed by the vehicle.
  • the cartographic database 7 is here stored in the vehicle, for example on a hard disk or an optical disk present on board the vehicle. vehicle.
  • the map database 7 could be stored on a remote and accessible server of the vehicle by means of a telecommunication system equipping the vehicle.
  • the onboard system comprises a navigation module 8 which extracts, from the map database 7, ADAS data relating to the environment close to the vehicle, according to the current position of the vehicle given by the positioning information POS produced by the locating device 6.
  • the location device 6, the map database 7 and the navigation module 8 form a navigation unit 9.
  • the onboard system of FIG. 1 finally comprises a recognition system 10 making it possible to identify at least one context of evolution of the vehicle (here several contexts C1, C2 of evolution of the vehicle) or, more generally, to determine a characteristic of the vehicle. the road environment to be attributed to the route taken by the vehicle, as described below.
  • a recognition system 10 making it possible to identify at least one context of evolution of the vehicle (here several contexts C1, C2 of evolution of the vehicle) or, more generally, to determine a characteristic of the vehicle. the road environment to be attributed to the route taken by the vehicle, as described below.
  • the recognition system 10 is for example built on the basis of a microprocessor architecture: in this case, a memory associated with the microprocessor stores computer program instructions whose execution by the microprocessor allows the implementation of different functional units described now.
  • the recognition system 10 thus comprises a processing unit 12 which analyzes the captured CAPT data (for example by means of shape recognition algorithms), recognizes (by means of this analysis) objects of the environment (for example road signs, traffic lights, fixed or mobile objects, traffic lanes adjacent to the route taken, floor markings, etc.) and deduces certain events E, to be listed as explained below. (Such an event E is, for example, the presence of a speed limitation panel authorized at a given speed.)
  • the recognition system 10 comprises a storage unit
  • the curvilinear abscissa recorded in association with a given event E is not necessarily equal to the current curvilinear abscissa s provided by the odometer 5, but is determined according to the current curvilinear abscissa provided by the odometer and the position of the event E, relative to the vehicle (an event E, such as a traffic sign which can for example be detected by the image sensor 2 at the front of the vehicle, eg 100 m in front of the vehicle).
  • the position of an event E with respect to the vehicle is for example in this case provided by the processing unit 12 as data attached to the event E ,.
  • the information identifying the event concerned along the path taken could be temporal.
  • the storage unit 14 thus constructs a virtual horizon vHor which lists the events E, past or future (in the range of the sensors 2, 4) along the path of the vehicle.
  • the storage unit 14 can keep in memory only the events E, relating to curvilinear abscissa whose distance to the current curvilinear abscissa is less than one predetermined threshold (this threshold being for example equal to 1000 m in practice).
  • the recognition system 10 comprises a pattern matching unit 1 6 (in English "pattern matching") which analyzes the events E, stored in the virtual horizon vHor and deduces, for a plurality of characteristics PROF1, PROF2 of the vehicle environment, information 11, 12, which is possibly associated a probability P1, P2 (which represents a level of confidence associated with the information 11, 12 concerned).
  • pattern matching unit 1 6 in English "pattern matching" which analyzes the events E, stored in the virtual horizon vHor and deduces, for a plurality of characteristics PROF1, PROF2 of the vehicle environment, information 11, 12, which is possibly associated a probability P1, P2 (which represents a level of confidence associated with the information 11, 12 concerned).
  • information 11 is for example an indication of passage from 2 to 3 lanes, or an indication of passage of 3 to 2 lanes of traffic.
  • Each piece of information 11, 12 delivered by the pattern recognition unit 1 6 may be associated with information identifying this information 11, 12 along the path taken by the vehicle (here the curvilinear abscissa s).
  • FIG. 2 schematically shows the operation of the pattern recognition unit 16.
  • the pattern recognition unit 1 6 implements a plurality of algorithms ALG01, ALG02, each algorithm ALG01, ALG02 producing (at each point of the path taken by the vehicle) information 11, 12 of realization of a given characteristic.
  • PROF1, PROF2 associated with this algorithm
  • At least some of these algorithms can also produce a probability P1, P2 (or confidence index) associated with the information 11, 12 produced by the algorithm concerned.
  • each characteristic PROF1, PROF2 thus evaluated because this feature PROF1, PROF2 generally allows to identify a particular road profile.
  • This characteristic PROF1, PROF2, or profile can be for example the number of traffic lanes on the road, a given speed limit, or a particular road context (city, highway, junction, etc.).
  • the algorithms ALG01, ALG02 can be, for example, probabilistic algorithms based on the Dempster-Shafer theory.
  • the pattern recognition unit 1 6 thus makes it possible to determine (and store), for each of the monitored PROF1, PROF2 characteristics, an embodiment information 11, 12 and, optionally, a probability value P1, P2 associated with this information.
  • embodiment 11, 12, and this for each point of the path taken by the vehicle the points of the path thus considered being for example separated by a fixed pitch.
  • the recognition system 10 furthermore comprises a formatting unit 18 designed to construct information 13, 14 relating to characteristics PROF3, PROF4 of the environment, this time on the basis of the ADAS data extracted by the navigation module 8.
  • a formatting unit 18 designed to construct information 13, 14 relating to characteristics PROF3, PROF4 of the environment, this time on the basis of the ADAS data extracted by the navigation module 8.
  • Such features are usually referred to as “electronic horizon” or "eHorizon”.
  • the characteristics PROF3, PROF4 followed by the formatting unit 18 may comprise characteristics (such as the characteristics PROF1, PROF2) also monitored by the pattern recognition unit 1 6 and / or characteristics distinct from those monitored by the unit. pattern recognition unit 1 6.
  • the formatting unit 18 allows to determine (and thus to memorize) for each of the monitored PROF3, PROF4 characteristics, information 13, 14 and, optionally, a probability value P3, P4 associated with each of these information items 13, 14, and this for each point of the journey taken by the vehicle.
  • These probability values may, for example, be determined as a function of the update date of the map database 7 and / or the quality of the signal processed by the location device 6.
  • the recognition system 10 finally comprises a synthesis unit 20 which uses the information 11, 12, 13, 14 (as well as possibly the probability values P1, P2, P3, P4) determined respectively for the different characteristics PROF1, PROF2, PROF3, PROF4 of the environment (either by the pattern recognition unit 1 6, or by the formatting unit 18) to produce different characteristics of road environment to be attributed to the path taken, that is to say here different context detection information C1, C2.
  • the synthesis unit 20 can possibly receive directly ⁇ i.e. without processing by the pattern recognition unit 1 6) the events E, and use them in the same way as the information 11, 12, 13, 14 (as described below).
  • the synthesis unit 20 here comprises a controller (for example a state machine or, more generally, a controller designed to implement a particular processing algorithm) specific for each road environment characteristic (in practice for each context).
  • Figure 3 shows the operation of one of these automata.
  • Such an automaton can be called “visiteui” because, as schematically represented in FIG. 3, this automaton traverses all the points t of the path and takes into account, at each point t of the path, information 11, 12, 13, 14 (as well as optionnally probability values P1, P2, P3, P4) respectively associated with the various characteristics PROF1, PROF2, PROF3, PROF4 as explained above.
  • the context detection information C1, C2 is for example a binary value which indicates whether or not the context concerned is identified.
  • At least some visitors can produce a confidence index associated with the context detection information C1, C2 delivered.
  • Such a context Ci is, for example, the traffic of the vehicle on a multi-lane road, the presence of works, the end of a lane on a multi-lane road, the approach of a road. toll or authorized speed limit.
  • the characteristics (such as PROF1, PROF2, PROF3, PROF4) traversed (and scanned) by a visitor depend on the context that the visitor seeks to identify. For example, a visitor designed to detect a multi-lane road may notably use a lateral distance feature of the traffic signs; a visitor designed to detect the presence of work may use a feature relating to the presence of certain specific signs and a feature relating to the color of the markings on the ground; a visitor designed to detect an end of taxiway may use in particular a characteristic relating to the presence of arrows marked on the ground; a visitor designed to detect the approach of a toll may use a feature relating to the presence of more than 3 traffic lanes and a feature relating to the presence of other vehicles in the vicinity.
  • the detection information delivered (at each moment) by a visitor can be used at the input of another visitor (as a representative value of a characteristic of the environment).
  • the context detection information C1, C2 delivered by a visitor may also possibly be inscribed in the virtual horizon vHor (by the storage unit 14), this visitor playing somehow the role of a virtual sensor.
  • a visitor designed to detect a toll approach may use features based on the virtual horizon (a feature relating to the presence of more than three lanes of traffic and a feature relating to the presence of other nearby vehicles as indicated above) and one or more characteristics based on the electronic horizon (for example a characteristic relating to the presence of the toll).
  • the context detection information (or road environment characteristics) C1, C2 provided by the recognition system 10 can indeed be used by various systems of the vehicle.
  • two distinct context detection information C1, C2 are used by an autonomous driving management system 30 to allow or prohibit (according to the values of the information C1, C2) the implementation of a feature. autonomous driving of the vehicle.
  • the context detection information C1 is for example information indicative of a "highway" type situation and the context detection information C2 is for example information indicative of a "branching" situation.
  • the autonomous driving management system 30 can then authorize a fast autonomous driving mode of the vehicle if the context detection information C1 indicates a "highway” type situation and if the context detection information C2 does not indicate a "branching" situation.
  • the autonomous driving management system 30 disables the fast autonomous driving mode (and can then switch to a stand-alone mode at reduced speed, or to a manual driving mode after the driver's warning and receipt of a confirmation of it, for example).
  • the context detection information (delivered by a visitor) could be information indicative of a given speed limit (or alternatively information indicative of the approach of a toll); such information can then for example be used by a system for controlling the effective speed of the vehicle (for example in the case of a self-driving vehicle, but also in the case of a vehicle with a speed control function) in order to to command a reduction in the speed of the vehicle.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Automobile Manufacture Line, Endless Track Vehicle, Trailer (AREA)
  • Automatic Assembly (AREA)

Abstract

Un système de détection d'un contexte donné d'évolution d'un véhicule, comprend un ensemble conçu pour déterminer, pour une pluralité de caractéristiques (PROF1, PROF2, PROF3, PROF4) d'un environnement du véhicule, une information (I1; I2; I3; I4) associée à la caractéristique concernée (PROF1; PROF2; PROF3; PROF4) pour une pluralité de points d'un trajet du véhicule. Le système de détection comprend également un automate comprenant des registres internes (R) et agencé pour parcourir successivement les points du trajet, pour mettre à jour lesdits registres internes (R) en fonction des informations (I1, I2, I3, I4) respectivement associées auxdites caractéristiques (PROF1, PROF2, PROF3, PROF4) pour le point courant (t) et à produire une information de détection (Ci) du contexte donné en fonction desdits registres internes (R). Un procédé associé est également décrit.

Description

Système et procédé de détection d'un contexte d'évolution d'un véhicule
DOMAINE TECHNIQUE AUQUEL SE RAPPORTE L'INVENTION La présente invention concerne les systèmes d'aide à la conduite et la reconnaissance, dans ce cadre, d'un contexte d'évolution d'un véhicule.
Elle concerne plus particulièrement un système et un procédé de détection d'un contexte d'évolution d'un véhicule.
ARRIERE-PLAN TECHNOLOGIQUE
Afin de connaître un contexte d'évolution d'un véhicule, on utilise fréquemment de nos jours une base de données cartographiques et un dispositif de géolocalisation du véhicule.
En effet, le dispositif de géolocalisation du véhicule permet de connaître sa position courante et d'extraire par conséquent de la base de données cartographiques les caractéristiques de l'environnement immédiat du véhicule.
On peut ainsi notamment construire sur la base de ces données cartographiques un horizon électronique afin d'anticiper les situations qu'est susceptible de rencontrer le véhicule.
Toutefois, cette solution ne peut pas correctement fonctionner lorsque le dispositif de géolocalisation est défaillant (par exemple en raison d'un problème de réception, typiquement dans un tunnel) ou lorsque l'environnement est modifié sans que ce changement ne soit reflété dans la base de données cartographiques, par exemple en cas de modification du plan de circulation ou lors de travaux sur la chaussée.
OBJET DE L'INVENTION
Dans ce contexte, la présente invention propose un système de détection d'un contexte donné d'évolution d'un véhicule, comprenant un ensemble conçu pour déterminer, pour une pluralité de caractéristiques d'un environnement du véhicule, une information associée à la caractéristique concernée pour une pluralité de points d'un trajet du véhicule ; et un automate comprenant des registres internes et agencé pour parcourir successivement les points du trajet, pour mettre à jour lesdits registres internes en fonction des informations respectivement associées auxdites caractéristiques pour le point courant et à produire une information de détection du contexte donné en fonction desdits registres internes.
Un tel automate (étalement dénommé "visiteui" dans la suite) permet d'identifier efficacement un contexte donné, sur la base de différentes informations représentatives d'un environnement du véhicule, que ces informations soient extraites d'une base de données cartographiques ou produites sur la base de données capturées par des capteurs, comme expliqué ci-après.
D'autres caractéristiques envisageables à titre optionnel (et donc non limitatif) sont les suivantes :
- ledit ensemble est conçu pour déterminer, pour au moins une desdites caractéristiques, l'information associée à cette caractéristique en fonction de données capturées par au moins un capteur équipant le véhicule ;
- le système comprend une unité de traitement conçue pour identifier, par analyse des données capturées, des événements survenant dans un environnement du véhicule ;
- le système comprend une unité de mémorisation desdits événements en association chacun avec une information repérant l'événement concerné le long du trajet emprunté par le véhicule ;
- le système comprend une unité de détermination de ladite information sur la base des événements mémorisés ;
- ledit ensemble est conçu pour déterminer, pour au moins une desdites caractéristiques donnée, l'information associée à la caractéristique donnée en fonction de données cartographiques ;
- le système comprend un dispositif de localisation conçu pour fournir une information de position relative au véhicule ;
- le système comprend un module de navigation conçu pour extraire lesdites données cartographiques d'une base de données cartographiques en fonction de l'information de position ;
- l'automate est conçu pour délivrer une probabilité (représentant un indice de confiance) associée à ladite information de détection ;
- le système comprend un système d'aide à la conduite conçu pour activer ou désactiver une fonctionnalité en fonction de l'information de détection produite ;
- le système comprend une pluralité d'automates comprenant chacun des registres internes, chaque automate étant agencé pour parcourir successivement les points du trajet, pour mettre à jour ses registres internes en fonction des informations respectivement associées auxdites caractéristiques pour le point courant et à produire, en fonction desdits registres interne, une information de détection d'un contexte donné associé à l'automate concerné ;
- le système d'aide à la conduite est conçu pour activer ou désactiver une fonctionnalité en fonction des informations de détection respectivement produites par la pluralité d'automates ;
- la fonctionnalité est une fonctionnalité de conduite autonome. L'invention propose également un procédé de détection d'un contexte donné d'évolution d'un véhicule, comprenant les étapes suivantes :
- détermination, pour une pluralité de caractéristiques d'un environnement du véhicule, d'une information associée à la caractéristique concernée pour une pluralité de points d'un trajet du véhicule ;
- lors d'un parcours des points du trajet par un automate comprenant des registres internes, mise à jour desdits registres internes en fonction des informations respectivement associées auxdites caractéristiques pour le point courant et production d'une information de détection du contexte donné en fonction desdits registres internes.
DESCRIPTION DÉTAILLÉE D'UN EXEMPLE DE RÉALISATION La description qui va suivre en regard des dessins annexés, donnés à titre d'exemples non limitatifs, fera bien comprendre en quoi consiste l'invention et comment elle peut être réalisée.
Sur les dessins annexés :
- la figure 1 représente un exemple de système embarqué conforme aux enseignements de l'invention ;
- la figure 2 représente schématiquement un premier type de traitement effectué au sein du système de la figure 1 ;
- la figure 3 représente schématiquement un second type de traitement effectué au sein du système de la figure 1 ; et
- la figure 4 représente schématiquement un véhicule équipé d'un système embarqué tel que celui de la figure 1 .
La figure 1 représente un exemple de système embarqué, ici dans un véhicule automobile (tel que celui de la figure 4), conforme aux enseignements de l'invention.
Ce système embarqué comprend différents capteurs, ici un capteur d'image 2 (tel qu'une caméra vidéo) et un capteur de temps de vol 4 (tel qu'un télémètre laser).
Ces capteurs produisent des données capturées CAPT représentatives de l'environnement du véhicule. Dans le cas du capteur d'image 2, les données capturées CAPT sont représentatives de la lumière reçue par le capteur d'image 2 au niveau de chacun de ses pixels (associés respectivement à différentes directions du champ de vision du capteur d'image 2). Dans le cas du capteur de temps de vol 4, les données capturées CAPT sont représentatives de la distance du premier objet rencontré par le faisceau émis, ce pour une pluralité de directions de l'environnement.
Le système embarqué comprend par ailleurs un odomètre 5 qui fournit une mesure de la distance parcourue par le véhicule le long de son trajet, c'est-à- dire de l'abscisse curviligne instantanée s le long du trajet du véhicule.
Le système embarqué comprend également un dispositif de localisation 6, par exemple un dispositif de géolocalisation (ou GPS pour "Global Positioning System"). Un tel dispositif de localisation 6 produit une information de positionnement POS du véhicule dans un référentiel donné, ici le référentiel terrestre.
Le système embarqué comprend une base de données cartographiques 7 contenant des éléments descriptifs de l'environnement qu'est susceptible d'emprunter le véhicule. Ces éléments descriptifs comprennent notamment des données descriptives des routes présentes dans cet environnement, en particulier par exemple un identifiant de la route, la localisation géographique de la route, et, pour différentes portions de cette route, le nombre de voies de circulation et la vitesse limite autorisée pour la portion concerné.
Les éléments descriptifs précités peuvent éventuellement comprendre en outre des données descriptives d'autres éléments de l'environnement.
On remarque que les éléments descriptifs présents dans la base de données cartographiques 7 décrivent l'environnement tel qu'il existait lors de la construction de la base de données ; cet environnement peut toutefois avoir été modifié en certains points lors du passage effectif du véhicule et la base de données cartographiques 7 ne représente donc pas toujours parfaitement l'environnement traversé par le véhicule.
La base de données cartographiques 7 est ici mémorisée au sein du véhicule, par exemple sur un disque dur ou un disque optique présent à bord du véhicule. En variante, la base de données cartographiques 7 pourrait être mémorisée sur un serveur distant et accessible du véhicule au moyen d'un système de télécommunication équipant le véhicule.
Le système embarqué comprend un module de navigation 8 qui extrait, de la base de données cartographiques 7, des données ADAS relatives à l'environnement proche du véhicule, d'après la position courante du véhicule donnée par l'information de positionnement POS produite par le dispositif de localisation 6.
Le dispositif de localisation 6, la base de données cartographiques 7 et le module de navigation 8 forment un ensemble de navigation 9.
Le système embarqué de la figure 1 comprend enfin un système de reconnaissance 10 permettant d'identifier au moins un contexte d'évolution du véhicule (ici plusieurs contextes C1 , C2 d'évolution du véhicule) ou, plus généralement, de déterminer une caractéristique d'environnement routier à attribuer au trajet emprunté par le véhicule, comme décrit ci-après.
Le système de reconnaissance 10 est par exemple construit sur la base d'une architecture à microprocesseur : dans ce cas, une mémoire associée au microprocesseur mémorise des instructions de programme d'ordinateur dont l'exécution par le microprocesseur permet la mise en œuvre des différentes unités fonctionnelles décrites à présent.
Le système de reconnaissance 10 comprend ainsi une unité de traitement 12 qui analyse les données capturées CAPT (par exemple au moyen d'algorithmes de reconnaissance de forme), reconnaît (au moyen de cette analyse) des objets de l'environnement (par exemple des panneaux de signalisation, des feux de signalisation, des objets fixes ou mobiles, des voies de circulation adjacentes à la voie empruntée, des marquages au sol, etc.) et en déduit certains événements E, à répertorier comme expliqué ci-après. (Un tel événement E, est par exemple la présence d'un panneau de limitation de la vitesse autorisée à une vitesse donnée.)
Le système de reconnaissance 10 comprend une unité de mémorisation
14 qui reçoit d'une part les événements E, produits par l'unité de traitement 12 et d'autre part l'abscisse curviligne s mesurée par l'odomètre 5, et peut ainsi mémoriser chacun des événements E, en association avec une information repérant l'événement concerné le long du trajet emprunté par le véhicule (cette information étant ici l'abscisse curviligne le long du trajet).
On remarque que l'abscisse curviligne enregistrée en association avec un événement E, donné n'est pas nécessairement égale à l'abscisse curviligne courante s fournie par l'odomètre 5, mais est déterminée en fonction de l'abscisse curviligne courante s fournie par l'odomètre et de la position de l'événement E, par rapport au véhicule (un événement E, tel qu'un panneau de signalisation pouvant par exemple être détectée par le capteur d'image 2 à l'avant du véhicule, e.g. à 100 m à l'avant du véhicule). La position d'un événement E, par rapport au véhicule est par exemple dans ce cas fournie par l'unité de traitement 12 en tant que donnée annexée à l'événement E,.
Selon une autre possibilité envisageable, l'information repérant l'événement concerné le long du trajet emprunté pourrait être temporelle.
Quoi qu'il en soit, l'unité de mémorisation 14 construit ainsi un horizon virtuel vHor qui répertorie les événements E, passés ou futurs (dans la portée des capteurs 2, 4) le long du trajet du véhicule.
Afin de limiter la consommation de mémoire due à la mémorisation d'événements passés, l'unité de mémorisation 14 peut ne conserver en mémoire que les événements E, relatifs à des abscisses curvilignes dont la distance à l'abscisse curviligne courante est inférieure à un seuil prédéterminé (ce seuil étant par exemple égal à 1000 m en pratique).
Le système de reconnaissance 10 comprend une unité de reconnaissance de motif 1 6 (en anglais "pattern matching") qui analyse les événements E, stockés dans l'horizon virtuel vHor et en déduit, pour une pluralité de caractéristiques PROF1 , PROF2 de l'environnement du véhicule, une information 11 , 12, à laquelle est éventuellement associée une probabilité P1 , P2 (qui représente un niveau de confiance associé à l'information 11 , 12 concernée).
Pour une caractéristique PROF1 correspondant au nombre de voies de la route empruntée, l'information 11 est par exemple une indication de passage de 2 à 3 voies de circulation, ou une indication de passage de 3 à 2 voies de circulation. Chaque information 11 , 12 délivrée par l'unité de reconnaissance de motif 1 6 peut être associée à une information repérant cette information 11 , 12 le long du trajet emprunté par le véhicule (ici l'abscisse curviligne s).
On a schématiquement représenté en figure 2 le fonctionnement de l'unité de reconnaissance de motif 16. L'unité de reconnaissance de motif 1 6 met en œuvre une pluralité d'algorithmes ALG01 , ALG02, chaque algorithme ALG01 , ALG02 produisant (en chaque point du trajet emprunté par le véhicule) une information 11 , 12 de réalisation d'une caractéristique donnée PROF1 , PROF2 (associée à cette algorithme) sur la base des événements E, mémorisée dans l'horizon virtuel vHor. Certains au moins de ces algorithmes peuvent produire en outre une probabilité P1 , P2 (ou indice de confiance) associée à l'information 11 , 12 produite par l'algorithme concerné.
Dans la suite, on dénommera "profi chaque caractéristique PROF1 , PROF2 ainsi évaluée du fait que cette caractéristique PROF1 , PROF2 permet généralement d'identifier un profil routier particulier. Une telle caractéristique PROF1 , PROF2, ou profil, peut être par exemple le nombre de voies de circulation sur la route, une limitation de vitesse donnée, ou un contexte routier particulier (ville, autoroute, embranchement, etc.).
Les algorithmes ALG01 , ALG02 peuvent être par exemple des algorithmes probabilistes basés sur la théorie de Dempster-Shafer.
L'unité de reconnaissance de motif 1 6 permet ainsi de déterminer (et de mémoriser), pour chacune des caractéristiques PROF1 , PROF2 surveillées, une information de réalisation 11 , 12 et, optionnellement, une valeur de probabilité P1 , P2 associée à cette information de réalisation 11 , 12, et ce pour chaque point du trajet emprunté par le véhicule (les points du trajet ainsi considérés étant par exemple séparés d'un pas fixe).
Le système de reconnaissance 10 comprend par ailleurs une unité de formatage 18 conçu pour construire des informations 13, 14 relatives à des caractéristiques PROF3, PROF4 de l'environnement, cette fois sur la base des données ADAS extraites par le module de navigation 8. De telles fonctionnalités sont généralement mentionnées sous le terme "horizon électronique" ou "eHorizon".
Les caractéristiques PROF3, PROF4 suivies par l'unité de formatage 18 peuvent comprendre des caractéristiques (telles que les caractéristiques PROF1 , PROF2) également surveillées par l'unité de reconnaissance de motif 1 6 et/ou des caractéristiques distinctes de celles surveillées par l'unité de reconnaissance de motif 1 6.
Comme l'unité de reconnaissance de motif 1 6, l'unité de formatage 18 permet de déterminer (et ainsi de mémoriser) pour chacune des caractéristiques PROF3, PROF4 surveillées, des informations 13, 14 et, optionnellement, une valeur de probabilité P3, P4 associée à chacune de ces informations 13, 14, et ce pour chaque point du trajet emprunté par le véhicule. Ces valeurs de probabilité peuvent par exemple être déterminées en fonction de la date de mise à jour de la base de données cartographiques 7 et/ou de la qualité du signal traité par le dispositif de localisation 6.
Le système de reconnaissance 10 comprend enfin une unité de synthèse 20 qui utilise les informations 11 , 12, 13, 14 (ainsi qu'éventuellement les valeurs de probabilité P1 , P2, P3, P4) déterminées respectivement pour les différentes caractéristiques PROF1 , PROF2, PROF3, PROF4 de l'environnement (soit par l'unité de reconnaissance de motif 1 6, soit par l'unité de formatage 18) pour produire différentes caractéristiques d'environnement routier à attribuer au trajet emprunté, c'est-à-dire ici différentes informations de détection de contexte C1 , C2.
Comme schématiquement représenté en figure 1 , l'unité de synthèse 20 peut éventuellement recevoir directement {i.e. sans traitement par l'unité de reconnaissance de motif 1 6) des événements E, et les utiliser de la même manière que les informations 11 , 12, 13, 14 (comme décrit ci-dessous).
L'unité de synthèse 20 comprend ici un automate (par exemple une machine à états ou, plus généralement, un automate conçu pour mettre en œuvre un algorithme de traitement particulier) spécifique pour chaque caractéristique d'environnement routier (en pratique pour chaque contexte) C1 , C2 à surveiller. La figure 3 représente le fonctionnement d'un de ces automates.
Un tel automate peut être dénommé "visiteui" du fait que, comme schématiquement représenté en figure 3, cet automate parcourt l'ensemble des points t du trajet et tient compte, en chaque point t du trajet, des informations 11 , 12, 13, 14 (ainsi qu'optionnellement des valeurs de probabilité P1 , P2, P3, P4) respectivement associées aux différentes caractéristiques PROF1 , PROF2, PROF3, PROF4 comme expliqué ci-dessus.
Précisément, à chaque point t du trajet, l'automate ou visiteur met à jour
[i.e. fait évoluer) ses registres internes R en fonction des informations 11 , 12, 13, 14 (et, le cas échéant, des valeurs de probabilité P1 , P2, P3, P4) respectivement associées aux différentes caractéristiques PROF1 , PROF2, PROF3, PROF4 pour le point t concerné, et détermine une information de détection d'un contexte donné Ci (associé au visiteur) en fonction de l'état de ses registres internes R.
L'information de détection de contexte C1 , C2 est par exemple une valeur binaire qui indique si oui ou non le contexte concerné est identifié.
Par ailleurs, certains visiteurs au moins peuvent produire un indice de confiance associé à l'information de détection de contexte C1 , C2 délivrée.
Un tel contexte Ci (ou caractéristique d'environnement routier) est par exemple la circulation du véhicule sur une route à voies multiples, la présence de travaux, la fin de voie de circulation sur une route à plusieurs voies, l'approche d'un péage ou la limitation de vitesse autorisée.
Les caractéristiques (telles que PROF1 , PROF2, PROF3, PROF4) parcourues (et scrutées) par un visiteur dépendent du contexte que ce visiteur cherche à identifier. Par exemple, un visiteur conçu pour détecter une route à voies multiples peut notamment utiliser une caractéristique de distance latérale des panneaux de signalisation ; un visiteur conçu pour détecter la présence de travaux peut utiliser une caractéristique relative à la présence de certains panneaux de signalisation spécifiques et une caractéristique relative à la couleur des marquages au sol ; un visiteur conçu pour détecter une fin de voie de circulation peut utiliser notamment une caractéristique relative à la présence de flèches marquées au sol ; un visiteur conçu pour détecter l'approche d'un péage peut utiliser notamment une caractéristique relative à la présence de plus de 3 voies de circulation et une caractéristique relative à la présence d'autres véhicules à proximité.
On remarque par ailleurs qu'en pratique, l'information de détection délivrée (à chaque instant) par un visiteur peut être utilisée en entrée d'un autre visiteur (en tant que valeur représentative d'une caractéristique de l'environnement).
L'information de détection de contexte C1 , C2 délivrée par un visiteur peut en outre éventuellement être inscrite dans l'horizon virtuel vHor (par l'unité de mémorisation 14), ce visiteur jouant en quelque sorte le rôle d'un capteur virtuel.
L'utilisation de caractéristiques (ou profils) PROF1 , PROF2 basées sur l'horizon virtuel vHor (et donc sur les détections effectuées en temps réel par les capteurs 2, 4), en plus des caractéristiques PROF3, PROF4 issues de l'horizon électronique, permet d'obtenir (par fusion des informations 11 , 12, 13, 14 associées à ces différentes caractéristiques PROF1 , PROF2, PROF3, PROF4 au moyen du visiteur concerné) des informations de détection de contexte C1 , C2 particulièrement fiables, qui tiennent compte notamment des modifications éventuelles opérées dans l'environnement depuis l'établissement de la base de données cartographiques 7. La production d'une telle information de détection pourra alors provoquer la génération d'une alerte ou une désactivation d'un mode de conduite autonome, comme expliqué ci-après.
Ainsi par exemple, un visiteur conçu pour détecter l'approche d'un péage peut utiliser des caractéristiques basées sur l'horizon virtuel (une caractéristique relative à la présence de plus de 3 voies de circulation et une caractéristique relative à la présence d'autres véhicules à proximité comme indiqué ci-dessus) et une ou plusieurs caractéristiques basées sur l'horizon électronique (par exemple une caractéristique relative à la présence du péage).
Les informations de détection de contexte (ou caractéristiques d'environnement routier) C1 , C2 fournies par le système de reconnaissance 10 (précisément ici par l'unité de synthèse 20) peuvent en effet être utilisées par divers systèmes du véhicule.
Dans l'exemple décrit ici, deux informations de détection de contexte distinctes C1 , C2 sont utilisées par un système de gestion de conduite autonome 30 pour autoriser ou interdire (selon les valeurs des informations C1 , C2) la mise en œuvre d'une fonctionnalité de conduite autonome du véhicule.
L'information de détection de contexte C1 est par exemple une information indicative d'une situation de type "autoroute" et l'information de détection de contexte C2 est par exemple une information indicative d'une situation de type "embranchement'.
Le système de gestion de conduite autonome 30 peut alors autoriser un mode de conduite autonome rapide du véhicule si l'information de détection de contexte C1 indique une situation de type "autoroute" et si l'information de détection de contexte C2 n'indique pas une situation de type "embranchement'.
Par contre, dès lors que l'information de détection de contexte C1 n'indique plus une situation de type "autoroute" ou que l'information de détection de contexte C2 indique une situation de type "embranchement, le système de gestion de conduite autonome 30 désactive le mode de conduite autonome rapide (et peut alors basculer vers un mode de conduite autonome à vitesse réduite, ou vers un mode de conduite manuelle après avertissement du conducteur et réception d'une confirmation de celui-ci, par exemple).
Dans un autre mode de réalisation envisageable, l'information de détection de contexte (délivrée par un visiteur) pourrait être une information indicative d'une limitation de vitesse donnée (ou en variante une information indicative de l'approche d'un péage) ; une telle information peut alors par exemple être utilisée par un système de commande de la vitesse effective du véhicule (par exemple dans le cas d'un véhicule autonome, mais aussi dans le cas d'un véhicule avec une fonction de régulation de vitesse) afin de commander une réduction de la vitesse du véhicule.

Claims

REVENDICATIONS
1 . Système de détection d'un contexte donné d'évolution d'un véhicule, comprenant :
- un ensemble (12, 14, 1 6, 18) conçu pour déterminer, pour une pluralité de caractéristiques (PROF1 , PROF2, PROF3, PROF4) d'un environnement du véhicule, une information (11 ; 12 ; 13 ; 14) associée à la caractéristique concernée (PROF1 ; PROF2 ; PROF3 ; PROF4) pour une pluralité de points d'un trajet du véhicule ; et
- un automate comprenant des registres internes (R) et agencé pour parcourir successivement les points du trajet, pour mettre à jour lesdits registres internes (R) en fonction des informations (11 , 12, 13, 14) respectivement associées auxdites caractéristiques (PROF1 , PROF2, PROF3, PROF4) pour le point courant (t) et à produire une information de détection (C1 ; C2 ; Ci) du contexte donné en fonction desdits registres internes (R).
2. Système selon la revendication 1 , dans lequel ledit ensemble est conçu pour déterminer, pour au moins une desdites caractéristiques (PROF1 ; PROF2), l'information (11 ; 12) associée à cette caractéristique en fonction de données capturées (CAPT) par au moins un capteur (2 ; 4) équipant le véhicule.
3. Système selon la revendication 2, comprenant :
- une unité de traitement (12) conçue pour identifier, par analyse des données capturées (CAPT), des événements (E,) survenant dans un environnement du véhicule ;
- une unité de mémorisation (14) desdits événements (E,) en association chacun avec une information repérant l'événement concerné le long du trajet emprunté par le véhicule.
4. Système selon la revendication 3, comprenant une unité de détermination (16) de ladite information (11 ; 12) sur la base des événements mémorisés (E,).
5. Système selon l'une des revendications 1 à 4, dans lequel ledit ensemble est conçu pour déterminer, pour au moins une desdites caractéristiques donnée (PROF3 ; PROF4), l'information (13 ; 14) associée à la caractéristique donnée en fonction de données cartographiques (ADAS).
6. Système selon la revendication 5, comprenant :
- un dispositif de localisation (6) conçu pour fournir une information de position (POS) relative au véhicule ;
- un module de navigation (8) conçu pour extraire lesdites données cartographiques (ADAS) d'une base de données cartographiques (7) en fonction de l'information de position (POS).
7. Système selon l'une des revendications 1 à 6, dans lequel l'automate est conçu pour délivrer une probabilité associée à ladite information de détection (C1 ; C2 ; Ci).
8. Système selon l'une des revendications 1 à 7, comprenant un système d'aide à la conduite (30) conçu pour activer ou désactiver une fonctionnalité en fonction de l'information de détection (C1 ; C2 ; Ci) produite.
9. Système selon l'une des revendications 1 à 7, comprenant :
- une pluralité d'automates comprenant chacun des registres internes (R), chaque automate étant agencé pour parcourir successivement les points du trajet, pour mettre à jour ses registres internes (R) en fonction des informations (P1 , P2, P3, P4) respectivement associées auxdites caractéristiques (PROF1 , PROF2, PROF3, PROF4) pour le point courant (t) et à produire, en fonction desdits registres internes (R), une information de détection (C1 ; C2) d'un contexte donné associé à l'automate concerné ; et
- un système d'aide à la conduite (30) conçu pour activer ou désactiver une fonctionnalité en fonction des informations de détection (C1 , C2) respectivement produites par la pluralité d'automates
10. Système selon la revendication 8 ou 9, dans lequel la fonctionnalité est une fonctionnalité de conduite autonome.
1 1 . Procédé de détection d'un contexte donné d'évolution d'un véhicule, comprenant les étapes suivantes :
- détermination, pour une pluralité de caractéristiques (PROF1 , PROF2, PROF3, PROF4) d'un environnement du véhicule, d'une information (11 ; 12 ; 13 ; 14) associée à la caractéristique concernée pour une pluralité de points d'un trajet du véhicule ;
- lors d'un parcours des points du trajet par un automate comprenant des registres internes (R), mise à jour desdits registres internes (R) en fonction des informations (11 , 12, 13, 14) respectivement associées auxdites caractéristiques pour le point courant (t) et production d'une information de détection (C1 ; C2 ; Ci) du contexte donné en fonction desdits registres internes (R).
PCT/EP2017/084161 2016-12-21 2017-12-21 Système et procédé de détection d'un contexte d'évolution d'un véhicule WO2018115323A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1662996 2016-12-21
FR1662996A FR3061955B1 (fr) 2016-12-21 2016-12-21 Systeme et procede de detection d'un contexte d'evolution d'un vehicule

Publications (1)

Publication Number Publication Date
WO2018115323A1 true WO2018115323A1 (fr) 2018-06-28

Family

ID=58609529

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/084161 WO2018115323A1 (fr) 2016-12-21 2017-12-21 Système et procédé de détection d'un contexte d'évolution d'un véhicule

Country Status (2)

Country Link
FR (1) FR3061955B1 (fr)
WO (1) WO2018115323A1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1094298A2 (fr) * 1999-10-09 2001-04-25 Volkswagen Aktiengesellschaft Méthode et dispositif pour conduire avec un support de navigation
US6560529B1 (en) * 1998-09-15 2003-05-06 Robert Bosch Gmbh Method and device for traffic sign recognition and navigation
US20150266471A1 (en) * 2012-09-05 2015-09-24 Google Inc. Construction Zone Sign Detection Using Light Detection and Ranging
EP2945138A1 (fr) * 2014-05-15 2015-11-18 Continental Automotive GmbH Procédé et appareil de fourniture de données d'informations sur des entités le long d'un trajet emprunté par un véhicule
EP3021302A1 (fr) * 2014-11-12 2016-05-18 Valeo Schalter und Sensoren GmbH Détermination automatique d'une limitation de vitesse sur une route

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6560529B1 (en) * 1998-09-15 2003-05-06 Robert Bosch Gmbh Method and device for traffic sign recognition and navigation
EP1094298A2 (fr) * 1999-10-09 2001-04-25 Volkswagen Aktiengesellschaft Méthode et dispositif pour conduire avec un support de navigation
US20150266471A1 (en) * 2012-09-05 2015-09-24 Google Inc. Construction Zone Sign Detection Using Light Detection and Ranging
EP2945138A1 (fr) * 2014-05-15 2015-11-18 Continental Automotive GmbH Procédé et appareil de fourniture de données d'informations sur des entités le long d'un trajet emprunté par un véhicule
EP3021302A1 (fr) * 2014-11-12 2016-05-18 Valeo Schalter und Sensoren GmbH Détermination automatique d'une limitation de vitesse sur une route

Also Published As

Publication number Publication date
FR3061955A1 (fr) 2018-07-20
FR3061955B1 (fr) 2020-08-28

Similar Documents

Publication Publication Date Title
US10423841B2 (en) Abnormality detection device and abnormality detection method
US11740093B2 (en) Lane marking localization and fusion
US9863928B1 (en) Road condition detection system
JP2019091412A (ja) 道路の曲率データ無しでの進行レーン識別
CN112074885A (zh) 车道标志定位
JP6398501B2 (ja) 車載カメラ診断装置
EP3105752B1 (fr) Procede de determination d'une limitation de vitesse en vigueur sur une route empruntee par un vehicule automobile
US20180188736A1 (en) System and method for vehicle localization assistance using sensor data
US11526177B2 (en) Method and device for operating a vehicle
GB2528084A (en) Notification system and method
JP2019168432A (ja) 自車位置推定装置
CN114945802A (zh) 用于识别和更新自动驾驶车辆的设计适用域的系统、设备和方法
JP6834914B2 (ja) 物体認識装置
EP3339808B1 (fr) Positionnement d'objets dans un affichage de réalité augmentée
CN114348015A (zh) 车辆控制装置和车辆控制方法
CN108242163B (zh) 驾驶员辅助系统、机动车、输出交通信息的方法和介质
EP3472015B1 (fr) Procédé de détermination d'une classe de conduite de référence
WO2018115323A1 (fr) Système et procédé de détection d'un contexte d'évolution d'un véhicule
WO2018115321A1 (fr) Système et procédé de construction d'unhorizon virtuel
EP3859281B1 (fr) Appareil et procédé de collecte de données pour la génération de carte
WO2018041978A1 (fr) Dispositif de détermination d'une limitation de vitesse, système embarqué comprenant un tel dispositif et procédé de détermination d'une limitation de vitesse.
FR3096469A1 (fr) Procédé et système d’identification d’un objet dans l’environnement d’un véhicule automobile
WO2018069060A1 (fr) Dispositif de localisation et dispositif de production de données d'intégrité
FR3078565A1 (fr) Procede et dispositif d'elaboration d'instructions de guidage routier adaptatives a l'environnement
US20230408264A1 (en) Lane marking localization and fusion

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17821639

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17821639

Country of ref document: EP

Kind code of ref document: A1