FR3111227A1 - Véhicule, procédé, logiciel et dispositif de rassemblement d’informations d’objet concernant un ou des objets dans un environnement de véhicule - Google Patents

Véhicule, procédé, logiciel et dispositif de rassemblement d’informations d’objet concernant un ou des objets dans un environnement de véhicule Download PDF

Info

Publication number
FR3111227A1
FR3111227A1 FR2105899A FR2105899A FR3111227A1 FR 3111227 A1 FR3111227 A1 FR 3111227A1 FR 2105899 A FR2105899 A FR 2105899A FR 2105899 A FR2105899 A FR 2105899A FR 3111227 A1 FR3111227 A1 FR 3111227A1
Authority
FR
France
Prior art keywords
information
object information
vehicle
meta
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2105899A
Other languages
English (en)
Other versions
FR3111227B1 (fr
Inventor
Daniel Reimann
Niklas Puller
Oliver Trauer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Publication of FR3111227A1 publication Critical patent/FR3111227A1/fr
Application granted granted Critical
Publication of FR3111227B1 publication Critical patent/FR3111227B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/048Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

Le procédé (100) comprend une détection (110) d’une première information d’environnement par au moins un capteur disposé sur le véhicule et une réception (120) d’au moins une deuxième information d’environnement par un émetteur séparé du véhicule. Ensuite une détermination (130) d’au moins une première information d’objet conjointement avec une première méta–information renvoyant à la première information d’objet à partir de la première information d’environnement et d’au moins une deuxième information d’objet conjointement avec une deuxième méta–information renvoyant à la deuxième information d’objet à partir de la deuxième information d’environnement et une affectation (140) des première et deuxième méta–informations entre elles sur la base d’une comparaison d’une plage de tolérance avec un écart entre les première et deuxième informations d’objet. (Fig. 1)

Description

Véhicule, procédé, logiciel et dispositif de rassemblement d’informations d’objet concernant un ou des objets dans un environnement de véhicule
La présente invention se rapporte à un véhicule, un procédé, un programme d’ordinateur et un dispositif pour le rassemblement d’informations d’objet concernant un ou plusieurs objets dans un environnement d’un véhicule à partir de différentes sources de données. En particulier, l’invention se rapporte à un véhicule, un procédé, un programme d’ordinateur et un dispositif pour le rassemblement d’informations d’objet à partir d’informations d’environnement fournies par un capteur et un émetteur séparé du véhicule, concernant l’environnement du véhicule.
Des données/informations communiquées entre des véhicules ou entre des véhicules et des émetteurs installés de manière stationnaire sur des objets d’infrastructure peuvent aider des véhicules à percevoir leur environnement le plus possible dans leur globalité. Ces informations peuvent être appelées données véhicule à véhicule (en anglais : vehicle–to–vehicle, V2V, data), ou bien données véhicule à infrastructure (en anglais : vehicle–to–infrastructure, V2I, data) ou en général données véhicule à tout (en anglais : vehicle–to–everything, V2X, data).
Une interface des véhicules vis–à–vis des émetteurs installés de manière stationnaire peut alors être considérée comme autre ensemble de capteurs, qui met à disposition des véhicules, sous forme de données V2I, des informations supplémentaires concernant leur environnement. Les données V2V et V2I communiquées entre des véhicules et les émetteurs stationnaires doivent être combinées rapidement et efficacement avec des données de capteur d’un ou de plusieurs capteurs disposés sur les véhicules pour une reproduction de l’environnement à l’aide des données de capteur et des données V2I.
Les données combinées peuvent être reproduites dans ce que l’on appelle un „modèle d’environnement coopératif“.
Le document US 2015/0166071 A1 décrit un concept pour l’affectation de données de capteur d’un premier et d’un deuxième capteur, qui peuvent être affectées à des objets identiques, sur la base d’une comparaison d’une imprécision des données de capteur respectives. L’imprécision des données de capteur peut varier sur la base d’influences extérieures et ainsi conduire à des affectations défectueuses.
Le document KR20190090604 (A) décrit un concept pour le rassemblement de données de capteur d’un capteur de radar et de données V2V communiquées entre véhicules sur la base d’un certain nombre d’objets, qui sont détectés par les données de capteur et les données V2V. Les données rassemblées peuvent cependant présenter des redondances indésirables.
Le document EP 3 462 754 A1 décrit un procédé pour le transfert d’un message V2X par une installation de communication V2X d’un véhicule. Le procédé comprend une réception d’un message V2X par une installation externe de communication V2X qui fournit des informations de base concernant l’installation externe de communication V2X, une génération d’un message CP (perception collective) pour produire une perception collective d’au moins un objet détecté par l’installation de communication V2X et un envoi du message CP. Le message V2X contient alors des informations ID qui identifient l’installation externe de communication V2X et des informations de position qui indiquent une position de l’installation externe de communication V2X. D’autre part, la génération du message CP sur la base du message V2X comprend une détermination pour savoir si un objet auquel se rapporte l’installation de communication externe V2X est le même objet que l’objet détecté. Ce concept laisse de côté cependant un rassemblement de données de différents capteurs.
D’autres approches connues jusqu’à présent pour la création d’un modèle d’environnement coopératif se basent sur le fait que des données entrant par le biais d’une interface V2X sont fusionnées, directement après réception, avec des données de l’ensemble de capteurs. Cela veut dire qu’il se produit une affectation immédiate entre les données des objets détectées par l’ensemble de capteur et celles qui sont détectées par les données reçues par le biais de l’interface V2X. De telles approches présentent des restrictions en ce qui concerne leur flexibilité quand une affectation entre des données doit être réalisée ou bien supprimée.
Il en résulte donc un besoin pour un concept amélioré pour le rassemblement d’informations issues de sources de données différentes.
Le concept qui est décrit ci-après répond à ce besoin.
L’idée à la base des exemples de mode de réalisation de la présente invention est de conserver dans une banque de données d’information, sans affectation réciproque, des informations (informations d’objet) provenant de différentes sources de données, qui se rapportent aux mêmes objets dans un environnement d’un véhicule et, en se basant sur une affectation des informations, de relier entre elles des méta–informations respectivement associées. Les méta–informations peuvent être conservées dans une banque de données séparée de la banque de données d’information.
Des exemples de ces objets peuvent être tout acteur du trafic, comme par exemple des piétons, des cyclistes ou autres véhicules, tout comme des objets stationnaires, comme par exemple des objets d’infrastructure ou une implantation dans l’environnement du véhicule. Par conséquent, les informations susmentionnées se rapportent par exemple à une position, une accélération ou une grandeur, qui sont fournies à partir de sources de données comme par exemple un capteur et un capteur séparé du véhicule.
L’affectation se rapporte en particulier à une affectation d’informations redondantes réciproquement, qui se rapportent à un même objet dans l’environnement du véhicule. Par affectation des informations, il est possible de combiner des informations affectées les unes aux autres ou de les filtrer, et ainsi de réduire les redondances entre les informations des différentes sources de données. Les informations d’objet combinées ou filtrées peuvent ensuite être utilisées pour la reproduction d’un modèle d’environnement appelé „coopératif“.
L’affectation des méta–informations peut être actualisée constamment sur la base d’informations d’objet nouvellement reçues. Des affectations/relations d’informations d’objet stockées dans la banque de données d’information peuvent être supprimées et re–créées. De cette manière, le modèle d’environnement coopératif peut être actualisé constamment.
Des exemples de mode de réalisation créent un procédé de rassemblement d’informations concernant un ou plusieurs objets dans un environnement d’un véhicule à partir de différentes sources de données. Le procédé comprend une détection d’une première information d’environnement concernant l’environnement par au moins un capteur disposé sur le véhicule et une réception d’au moins une deuxième information d’environnement concernant l’environnement par un émetteur séparé du véhicule. D’autre part, le procédé comprend une détermination d’au moins une première information d’objet conjointement avec une première méta–information renvoyant à la première information d’objet à partir de la première information d’environnement et d’au moins avec une deuxième information d’objet conjointement avec une deuxième méta–information renvoyant à la deuxième information d’objet à partir de la deuxième information d’environnement. De plus, le procédé comprend une affectation de la première et de la deuxième méta–information entre elles sur la base d’une comparaison d’une plage de tolérance avec un écart entre la première et la deuxième information d’objet.
La première et la deuxième information d’environnement comprennent par exemple une quantité d’informations concernant plusieurs des objets se trouvant dans l’environnement. Les objets peuvent être, dans le contexte de la présente divulgation, des acteurs du trafic, comme par exemple des piétons ou des véhicules, tout comme des objets d’une infrastructure se trouvant dans l’environnement du véhicule. Le véhicule peut être notamment un véhicule commandé de manière automatisée.
Par conséquent, la première et la deuxième information d’environnement comprennent par exemple des positions, des vitesses, des grandeurs, des grandeurs de rotation (par exemple une vitesse angulaire et/ou une accélération angulaire) et des accélérations d’autres véhicules se trouvant dans l’environnement.
Le au moins un capteur est par exemple un capteur LiDAR, un capteur radar, un capteur à ultrasons ou une caméra. Les positions, vitesses, accélérations et/ou grandeurs des objets/véhicules se trouvant dans l’environnement comprises par la première information d’environnement résultent par exemple d’un ou de plusieurs dits „nuages de points“, qui sont générés par exemple lors de la surveillance de l’environnement avec le capteur LiDAR et reproduisent en trois dimensions l’environnement. En variante ou en plus, la première information d’environnement peut résulter d’un ou de plusieurs clichés de la caméra.
L’émetteur séparé du véhicule correspond par exemple à un émetteur installé sur un autre véhicule ou un émetteur stationnaire. L’émetteur peut être couplé avec un ensemble de capteurs ou un autre ou plusieurs autres émetteurs pour la détection de la deuxième information d’environnement.
L’émetteur installé sur le deuxième véhicule est par exemple couplé à l’ensemble de capteurs de l’autre véhicule.
L’émetteur peut transmettre au véhicule la deuxième information d’environnement dans un ou plusieurs messages. Ces messages peuvent être, comme cela a été expliqué plus en détail plus haut, ce que l’on appelle des messages de perception collective (en anglais : collective perception, CP) et/ou des messages de conscience coopérative (en anglais : cooperative awareness, CA). La deuxième information d’environnement peut comprendre de manière analogue à la première information d’environnement des positions, des vitesses, des grandeurs et des accélérations des autres véhicules se trouvant dans l’environnement.
La première information d’objet et la deuxième information d’objet peuvent être contenues dans la première et/ou dans la deuxième information d’environnement et indiquer par exemple une position, une vitesse, une accélération et/ou une grandeur d’un ou de plusieurs des objets. Par conséquent, la détermination de la première et de la deuxième information d’objet peut comprendre une sélection de la première et de la deuxième information d’objet à partir de la première et/ou deuxième information d’environnement.
De plus, la première et la deuxième méta–information reliées à la première et la deuxième information d’objet peuvent tout autant être contenues dans la première et/ou deuxième information d’environnement. Par conséquent, la détermination de la première et de la deuxième méta–information peut comprendre une sélection de la première et de la deuxième information d’objet à partir de la première et/ou de la deuxième information d’environnement.
Les méta–informations peuvent contenir un renvoi, un indicateur ou „pointeur“, qui référencent la première et/ou la deuxième information d’objet. L’indicateur comprend par exemple un signe d’identification de véhicule (caractérisation d’objet) rapporté à la première et/ou la deuxième information d’objet, un horodatage et/ou un signe de référence pour référencer l’information d’objet associée.
Par affectation de la première et de la deuxième méta–information sur la base de la comparaison de la plage de tolérance avec l’écart entre la première et la deuxième information d’objet, des méta–informations d’informations d’objet redondantes de mêmes objets sont par exemple rassemblées. La première et la deuxième méta–information sont par exemple affectées entre elles si un écart entre les informations d’objets reliées à la première et la deuxième méta–information est inférieur ou égal à la plage de tolérance.
Inversement, une affectation de la première et de la deuxième méta–information peut être refusée, si cet écart est supérieur à la plage de tolérance. La plage de tolérance peut être sélectionnée de telle sorte qu’il est plausible que des informations d’objets avec des écarts qui sont inférieurs à la plage de tolérance se rapportent au même objet. La plage de tolérance atteint par exemple un mètre ou la moitié d’un mètre.
Il faut rappeler que, bien que précédemment il ne soit fait référence qu’à l’affectation des méta–informations de deux informations d’objet, le procédé expliqué précédemment peut permettre d’affecter plusieurs informations d’objet qui se rapportent à un même objet.
Des méta–informations affectées entre elles peuvent être utilisées pour rassembler l’information d’objet redondante, donc des informations d’objet du même objet, pour au moins réduire ou idéalement éliminer des redondances qui augmentent une charge de calcul nécessaire pour l’élaboration ou l’actualisation d’un modèle d’environnement coopératif. C’est ainsi par exemple que la charge de calcul globalement nécessaire pour la commande automatisée du véhicule est par exemple réduite.
Les informations d’objet et les méta–informations peuvent être conservées dans des banques de données séparées l’une de l’autre. L’affectation des méta–informations peut être déterminée par un tri ou une relation correspondant/e des méta–informations dans la banque de données, alors que les informations d’objet peuvent être triées de manière quelconque à l’intérieur de la banque de données et „non liées“ les unes aux autres.
L’affectation des informations d’objets peut donc pour ainsi dire être fixée uniquement par l’affectation des méta–informations et non par un tri ou une disposition correspondant/e des informations d’objet dans leur banque de données.
De ce fait, pour actualiser l’affection des informations d’objet, il n’est pas obligatoirement nécessaire de trier nouvellement ou lier nouvellement les informations d’objet à l’intérieur de leur banque de données. C’est ainsi que la charge de calcul nécessaire pour cela peut être économisée.
L’affectation des informations d’objet concernant les méta–informations affectées entre elles peut donc en outre être plus efficace qu’une affectation directe des informations d’objet, par exemple par le biais de relations correspondantes des informations d’objet à l’intérieur de la banque de données.
Dans quelques exemples de mode de réalisation, le procédé comprend un rassemblement de la première et de la deuxième information d’objet en une troisième information d’objet sur la base d’une affectation de la première et de la deuxième méta–information, la troisième information d’objet contenant la première information d’objet, la deuxième information d’objet ou une combinaison de la première et la deuxième information d’objet.
La troisième information d’objet correspond par exemple à la première information d’objet, à la deuxième information d’objet ou par exemple à une moyenne de la première et de la deuxième information d’objet.
Dans le cas de plusieurs informations d’objet affectées entre elles, la troisième information d’objet comprend par exemple une liste d’informations d’objet rassemblées.
La troisième information d’objet contient donc, pour le moins, moins de redondances que la quantité de la première et de la deuxième information d’objet et nécessite donc une charge de calcul plus faible lors de son retraitement que la quantité de la première et de la deuxième information d’objet.
Dans quelques exemples de mode de réalisation, le procédé est exécuté dans le véhicule et la deuxième information d’environnement est reçue par le biais d’un message communiqué entre des acteurs du trafic.
Le procédé est exécuté par exemple par le biais d’un module de commande installé dans le véhicule. Le message est par exemple un message CA.
Grâce à l’exécution du procédé dans le véhicule, un temps de latence des données de capteur peut être plus faible que si le procédé était exécuté en dehors du véhicule, par exemple par le biais d’un processeur séparé du véhicule.
Dans quelques exemples de mode de réalisation, l’affectation de la première et la deuxième méta–information entre elles comprend une reproduction de la première et de la deuxième information d’objet à un moment commun et une affectation de la première et de la deuxième méta–information entre elles sur la base d’une comparaison de la plage de tolérance avec un écart entre les reproductions de la première et de la deuxième information d’objet au moment commun.
Pour reproduire la première et la deuxième information d’objet au moment commun, une interpolation ou une extrapolation peut être réalisée sur la base de la première, et/ou de la deuxième information d’objet.
Pour augmenter une confiance des reproductions respectives de la première et de la deuxième information d’objet, une ou plusieurs informations d’objet déterminées auparavant et affectées aux mêmes objets que la première et la deuxième information d’objet peuvent être notamment prises en compte lors de l’interpolation ou l’extrapolation. Pour l’interpolation, des positions mesurées auparavant, par exemple, d’un véhicule se trouvant dans l’environnement, auquel se rapporte la première information d’objet, sont intégrées dans l’interpolation ou l’extrapolation pour reproduire la première information d’objet au moment commun. Lors de la reproduction de la deuxième information d’objet au moment commun, il peut être procédé de manière analogue.
Lors de l’interpolation ou de l’extrapolation, des temps de mesure, ce que l’on appelle des „horodatages“, de la première et de la deuxième information d’objet peuvent être notamment intégrés. En général, le moment commun peut correspondre à un horodatage affecté à la première et la deuxième information d’objet avant ou après lesdits horodatages. La première information d’objet peut donc être reproduite à l’horodatage de la deuxième information d’objet ou inversement.
La reproduction de la première et de la deuxième information d’objet au moment commun peut aussi être comprise comme synchronisation de la première et de la deuxième information d’objet. Une reproduction à un moment ultérieur après les horodatages de la première et de la deuxième information d’objet peut être appelée „prédiction“.
En particulier, si la première et la deuxième information d’objet se rapportent à différents moments de mesure, et/ou sont affectées à différents horodatages, leur comparabilité pour une affectation valide de la première et de la deuxième information d’objet peut être insuffisante. Grâce à la synchronisation décrite précédemment, des valeurs comparables, à savoir les reproductions de la première et de la deuxième information d’objet, peuvent être créées pour une affectation valide de la première et de la deuxième information d’objet.
Dans quelques exemples de réalisation, la reproduction de la première information d’objet et de la deuxième information d’objet au moment commun comprend un filtre de Kalman basé sur la première et/ou la deuxième information d’objet, d’un premier horodatage affecté à la première information d’objet et/ou d’un deuxième horodatage affecté à la deuxième information d’objet.
Le filtre de Kalman basé sur la première et/ou la deuxième information d’objet et/ou leur horodatage désigne dans le contexte de la présente divulgation une application d’un filtre de Kalman sur la première et/ou la deuxième information d’objet et leur horodatage. En particulier, des informations d’objet déterminées de nouveau auparavant peuvent être intégrées pour le filtre de Kalman.
Les horodatages correspondants sont par exemple contenus dans les méta–informations associées des informations d’objet.
Il va sans dire que la divulgation de plusieurs étapes, processus, opérations ou fonctions, exposés dans la description ou dans les revendications ne doit pas être interprétée comme se trouvant dans l’ordre déterminé, dans la mesure où celui–ci n’est pas indiqué explicitement ou implicitement par une autre voie, par exemple pour des raisons techniques. Par conséquent, celles–ci ne sont pas limitées à un ordre déterminé du fait de la divulgation de plusieurs étapes ou fonctions, à moins que ces étapes ou fonctions ne puissent être interverties pour des raisons techniques. De plus, dans quelques exemples, une seule étape, fonction, opération ou un seul processus peut inclure plusieurs étapes, fonctions, processus ou opérations partiels/partielles et/ou être divisé en celles–ci/ceux–ci. De telles étapes partielles peuvent être incluses et faire partie de la divulgation de cette étape individuelle, dans la mesure où celles–ci ne sont pas explicitement exclues.
Des exemples de mode de réalisation peuvent en outre être un programme d’ordinateur avec un code de programme pour exécuter un ou plusieurs des procédés ci–dessus ou s’y rapporter, quand le programme d’ordinateur est exécuté sur un ordinateur ou un processeur. Des étapes, des opérations ou des processus de différents procédés décrits ci–dessus peuvent être exécutés par des ordinateurs ou processeurs programmés. Des exemples peuvent aussi couvrir des dispositifs de stockage de programme, par exemple des supports de stockage de données numériques, qui peuvent être lus par des machines, des processeurs ou des ordinateurs, et coder des programmes d’instructions exécutables par machine, processeur ou ordinateur. Les instructions exécutent quelques–unes ou toutes les étapes des procédés décrits ci–dessus ou provoquent leur exécution. Les dispositifs de stockage de programme peuvent comprendre ou être par exemple des mémoires numériques, des supports de stockage magnétique, comme par exemple des disques magnétiques et des bandes magnétiques, des lecteurs de disque dur ou des supports de stockage de données numériques lisibles optiquement. D’autres exemples peuvent aussi couvrir des ordinateurs, des processeurs ou des unités de commande qui sont programmés pour exécuter les étapes des procédés décrits ci–dessus, ou des réseaux (prédiffusés) logiques programmables ((F)PLAs = (Field) Programmable Logic Arrays) ou des réseaux (prédiffusés) de portes programmables par l’utilisateur ((F)PGA = (Field) Programmable Gate Arrays), qui sont programmés pour exécuter les étapes des procédés décrits ci–dessus.
Des exemples de mode de réalisation de la présente invention se rapportent à un dispositif pour le rassemblement des informations d’objet concernant un ou plusieurs objets dans un environnement d’un véhicule à partir de différentes sources de données. Le dispositif comprend une ou plusieurs interfaces pour la communication avec un capteur disposé sur le véhicule et un émetteur séparé du véhicule et un module de commande pour la réalisation d’un des procédés décrits précédemment.
Les une ou plusieurs interfaces du dispositif peuvent être conçues dans des exemples de mode de réalisation sous forme de contacts du module de commande. Elles peuvent être exécutées dans des exemples de mode de réalisation également sous forme de composant matériel séparé. Elles peuvent comprendre des mémoires qui stockent au moins transitoirement la première et/ou la deuxième information d’objet. Les une ou plusieurs interfaces peuvent être conçues pour réceptionner des signaux électriques, par exemple en tant qu’interface bus, ou en tant qu’interface optique. Elles peuvent en outre être conçues pour la radio–transmission dans des exemples de mode de réalisation et comprendre un frontal radio et des antennes associées. De plus, la au moins une interface peut comprendre par exemple pour le bus CAN (CAN : =Controller Area Network), des mécanismes de synchronisation pour la synchronisation avec le support de transmission respectif. Dans des exemples de mode de réalisation, les une ou plusieurs interfaces peuvent être conçues dans le but de communiquer dans le véhicule et/ou d’autres véhicules ou instances, par exemple par le biais d’un réseau.
Le module de commande peut être dans des exemples de mode de réalisation un composant matériel, qui est conçu pour la réalisation d’un des procédés décrits ici. Cela peut être des cœurs de processeur quelconques, comme des cœurs de processeur de signaux numériques (DSP) ou d’autres processeurs. Des exemples de mode de réalisation ne sont alors pas limités à un type déterminé de cœurs de processeur. Des cœurs de processeurs quelconques ou également plusieurs cœurs de processeurs ou microcommandeurs pour l’implémentation du module de commande sont concevables. Des implémentations sous forme intégrée avec d’autres dispositifs sont concevables, par exemple dans une unité de commande pour un véhicule qui comprend en plus encore une ou plusieurs fonctions. Dans des exemples de mode de réalisation, le module de commande peut être réalisé par un cœur de processeur, un cœur de processeur informatique (CPU = Central Processing Unit), un cœur de processeur graphique (GPU = Graphics Processing Unit), un circuit intégré spécifique à une application (ASIC = Application–Specific Integrated Circuit), un circuit intégré (IC = Integrated Circuit), un cœur système sur puce (SOC = System on Chip), un élément logique programmable ou un réseau prédiffusé de portes programmables par l’utilisateur avec un microprocesseur (FPGA = Field Programmable Gate Array) en tant que cœur du composant susmentionné ou des composants. Le module de commande peut par conséquent correspondre à tout composant qui peut affecter entre elles les informations d’objet de différentes sources de données sur la base d’une comparaison de la plage de tolérance avec l’écart entre les informations d’objet.
D’autres exemples de mode de réalisation avantageux sont décrits plus en détails dans ce qui suit à l’aide des exemples de réalisation représentés sur les dessins, auxquels les exemples de mode de réalisation ne sont en général cependant pas globalement limités. Ils montrent :
un diagramme de flux pour la représentation schématique d’un procédé pour le rassemblement d’informations d’objet concernant un ou plusieurs objets dans un environnement d’un véhicule à partir de différentes sources de données ;
un schéma bloc pour la représentation schématique d’un dispositif pour l’exécution du procédé ;
un schéma bloc pour la représentation schématique d’un exemple de mode de réalisation du procédé ;
un schéma bloc pour la représentation schématique de l’enregistrement d’informations d’environnement et d’informations d’objet à partir des différentes sources de données pour un autre exemple de mode de réalisation du procédé ;
une représentation schématique d’une procédure pour l’affectation des informations d’objet ; et
une représentation schématique d’une procédure pour le rassemblement des informations d’objet affectées.
Différents exemples de mode de réalisation sont à présent décrits de manière plus détaillée en faisant référence aux dessins ci–joints, sur lesquels quelques exemples de mode de réalisation sont représentés. Des caractéristiques ou composants optionnels sont alors représentés en lignes en pointillés.
Bien que des exemples de mode de réalisation puissent être modifiés et altérés de différentes manières, des exemples de mode de réalisation sont représentés sur les figures à titre d’exemples et y sont décrits de manière détaillée. Il est cependant clair qu’il n’est pas prévu de restreindre les exemples de mode de réalisation aux formes respectivement divulguées mais que les exemples de mode de réalisation doivent plutôt couvrir la totalité des modifications, équivalents et alternatives fonctionnels et/ou structurels qui se trouvent dans le domaine de l’invention.
Il faut noter qu’un élément qui est dit „relié“ ou „couplé“ à un autre élément peut être relié ou couplé directement à l’autre élément ou que des éléments intermédiaires peuvent être présents. Si un élément est dit en revanche „relié directement“ ou „couplé directement“ à un autre élément, il n’y a aucun élément intermédiaire présent. Les autres termes qui sont utilisés pour décrire la relation entre des éléments doivent être interprétés de manière similaire (par exemple „entre“ par rapport à „directement entre“, „adjacent“ par rapport à „directement adjacent“, etc.).
La terminologie utilisée ici sert seulement à décrire certains exemples de mode de réalisation et ne doit pas limiter les exemples de mode de réalisation. Telles qu’elles sont utilisées ici, les formes au singulier „un“, „une“ et „le“, „la“ doivent contenir également les formes au pluriel pour autant que le contexte n’indique pas sans équivoque quelque chose d’autre. De plus, il est clair également que les expressions comme par exemple „contient“, „contenant“, „présente“, „comprend“, „comprenant“, et/ou „présentant“, telles qu’utilisées ici, indiquent la présence des caractéristiques, nombres entiers, étapes, procédures, éléments et/ou composants cités, mais n’excluent pas la présence ou l’addition d’un et/ou d’une ou de plusieurs caractéristiques, nombres entiers, étapes, procédures, éléments, composants et/ou groupes de ceux–ci.
Un schéma bloc peut par exemple représenter un schéma grossier qui met en œuvre les fondements de la divulgation. De manière similaire, un diagramme de flux, un schéma fléché, un diagramme de transition d’état, un pseudo–code et similaire peuvent représenter différents processus, opérations ou étapes qui sont représentés par exemple pour l’essentiel sur support lisible par ordinateur et ainsi être exécutés par un ordinateur ou un processeur peu importe si un tel ordinateur ou processeur est indiqué explicitement. Des procédés exposés dans la description ou dans les revendications peuvent être implémentés par un composant qui présente un moyen pour exécuter chacune des étapes respectives dudit procédé.
La montre un schéma fléché pour la représentation schématique d’un procédé 100 pour le rassemblement d’informations d’objet concernant un ou plusieurs objets dans un environnement d’un véhicule à partir de différentes sources de données.
Le procédé 100 comprend une détection 110 d’une première information d’environnement concernant un environnement par au moins un capteur disposé sur le véhicule et une réception 120 d’au moins une deuxième information d’environnement concernant l’environnement par un émetteur séparé du véhicule. D’autre part, le procédé 100 comprend une détermination 130 d’au moins une première information d’objet conjointement avec une première méta–information renvoyant à la première information d’objet à partir de la première information d’environnement et d’au moins une deuxième information d’objet conjointement avec une deuxième méta–information renvoyant à la deuxième information d’objet à partir de la deuxième information d’environnement. De plus, le procédé 100 prévoit une affectation de la première et de la deuxième méta–information entre elles sur la base d’une comparaison d’une plage de tolérance avec un écart entre la première et la deuxième information d’objet.
Par rapport aux procédés connus, une affectation des informations d’objet à partir de différentes sources de données ne s’effectue par conséquent par exemple pas immédiatement après la réception des informations d’environnement, mais par le biais de l’affectation de méta–informations.
Pour l’actualisation (constante) des affectations de première et deuxième informations d’objet mesurées successivement à l’aide de l’affectation des méta–informations, le procédé 100 peut être exécuté de manière itérative.
Le procédé 100 peut être exécuté par un dispositif 210, tel que montré sur la , qui est installé par exemple dans un véhicule 200. Le dispositif 200 comprend une ou plusieurs interfaces 214 et un module de commande 212. Les une ou plusieurs interfaces 214 comprennent par exemple au moins une interface pour le capteur (non montré), pour la détection 110 de la première information d’environnement. En outre, les une ou plusieurs interfaces 214 comprennent au moins une interface pour le capteur (non montré) pour la réception 120 de la deuxième information d’environnement.
Le module de commande 212 comprend par exemple un processeur ou ordinateur pour la détermination 130 de la première et de la deuxième information d’objet à partir de la première et/ou de la deuxième information d’environnement. De plus, le module de commande 212 est conçu pour l’affectation 140 de la première et de la deuxième information d’objet.
Par conséquent, les différentes sources de données comprennent le capteur du véhicule 200 et au moins un émetteur séparé du véhicule 200, qui sert par exemple à la communication avec d’autres acteurs du trafic. De la manière précédemment décrite, ce que l’on appelle un „modèle d’environnement coopératif“ peut donc être créé „en coopération“ avec d’autres acteurs.
La montre schématiquement un exemple de mode de réalisation du procédé 100. Des données d’entrée pour le modèle d’environnement coopératif forment la première et la deuxième information d’environnement qui peuvent être vues comme des listes d’objets avec des informations d’objets concernant plusieurs objets se trouvant dans l’environnement. Celles–ci proviennent de trois sources de données différentes dans l’exemple de mode de réalisation exécuté ici à titre d’exemple.
Dans l’exemple de mode de réalisation montré, la première information d’environnement comprend un „modèle d’environnement de véhicule local“ 310 qui est produit à partir de données de capteur d’un capteur installé sur le véhicule et la deuxième information d’environnement comprend un message de perception collective 330 (anglais : collective perception message, CPM) et un message de conscience coopérative 320 (anglais : cooperative awareness message, CAM).
Le CAM 320 est un message envoyé par un autre véhicule se trouvant par exemple dans l’environnement, qui contient des informations en ce qui concerne des situations de risque détectées par l’autre véhicule (par exemple un bouchon en prévision ou un autre véhicule arrêté). Le CPM 330 est par exemple un message envoyé par un émetteur installé de manière stationnaire ou un autre véhicule, qui contient des informations qui sont basées sur des données de capteur d’un ensemble de capteurs qui est relié au capteur ou à l’autre véhicule.
Les données d’entrées sont conservées lors de la réception dans une mémoire (non montrée) du modèle d’environnement coopératif (non modifiées, non triées, non reliées). Les données reçues du modèle d’environnement de véhicule local 310 écrasent les données préalablement reçues de cette source. Les informations d’objet à partir des messages reçus auparavant (CAM et CPM) concernant des objets déjà détectés sont actualisées avec les informations d’objet du CAM 320 et du CPM 330. Les informations d’objet du CAM 320 et du CPM 330 d’objets non détectés auparavant sont enregistrées dans une nouvelle mémoire.
Le modèle d’environnement de véhicule local 310 comprend une première information d’objet 31. Le CAM 320 et le CPM 330 comprennent respectivement l’une des deuxièmes informations d’objet 32 et 33. La première et la deuxième informations d’objet 31, 32 et 33 désignent par exemple respectivement une position de véhicule détectée d’objets se trouvant dans l’environnement. Les positions de véhicule 31, 32 et 33 peuvent se rapporter fondamentalement à des objets identiques ou différents (véhicules, obstacles ou personnes).
Des premières méta–informations 31p peuvent être affectées à la position de véhicule 31 et des deuxièmes méta–informations 32p et/ou 33p peuvent être affectées aux positions de véhicule 32 et 33, et peuvent être stockées séparément des positions de véhicule 31, 32 et 33 dans ce que l’on appelle une „banque de données d’affectation“ („mapping database“). Les méta–informations enregistrées dans la banque de données d’affectation concernant les objets déjà détectés peuvent être actualisées et des méta–informations concernant les objets nouvellement détectés peuvent être ajoutées à la banque de données d’affectation.
Les méta–informations 31p, 32p et 33p peuvent être comprises comme étant un renvoi, un indicateur ou „pointeur“‘, qui référencent les positions de véhicule 31, 32 et 33, et contiennent par exemple un signe d’identification de véhicule, horodatage et/ou signe de référence rapporté aux positions de véhicule 31, 32, et 33. Les horodatages peuvent indiquer un moment lors de la mesure des positions de véhicule 31, 32 et 33. Les signes d’identification de véhicule sont par exemple des codes univoques pour les véhicules se trouvant dans l’environnement, auxquels sont affectés les positions de véhicule 31, 32, et 33. Des méta–informations „anciennes“ peuvent par exemple être actualisées avec des méta–informations „nouvelles/plus récentes“ de même signe d’identification.
Les signes d’identification de véhicule qui sont affectés aux positions de véhicule 31, 32 et 33 peuvent être différents même si les positions de véhicule 31, 32 et 33 se rapportent à un véhicule identique, puisque le capteur et l’émetteur déterminent indépendamment l’un de l’autre les signes d’identification de véhicule. Les signes de référence renvoient par exemple aux positions de véhicule 31, 32 ou 33 correspondantes.
Une étape consécutive 34 comprend une reproduction des positions de véhicule 31, 32 et 33 à un moment commun par interpolation ou extrapolation sur la base des positions de véhicule 31, 32 et 33 et des horodatages respectivement associés.
À une autre étape 35, il est vérifié au moyen d’un algorithme de comparaison („matching“) quels objets des différentes sources de données peuvent être affectés au même objet réel. À l’étape 35, cela peut se produire sur la base d’une comparaison d’un écart des positions de véhicule 31, 32 et 33 reproduites au moment commun. En cas d’écart à l’intérieur d’une plage de tolérance, les méta–informations des positions de véhicule reproduites au moment commun (les reproductions des positions de véhicule au moment commun) peuvent être affectées entre elles. La plage de tolérance peut être vue dans le cas présent par exemple comme une plage de valeurs prédéfinie pour une distance entre les reproductions des positions de véhicule.
Dans l’exemple de mode de réalisation présent, les méta–informations 31p et 33p sont par exemple affectées entre elles. En cas d’écarts en dehors de la plage de tolérance, on fait abstraction d’une affectation entre les méta–informations liées aux reproductions considérées des positions de véhicule, comme dans le cas présent pour les méta–informations 32p.
Sur la base de l’affectation des méta–informations 31p et 33p, les positions de véhicule associées 31 et 33 peuvent être affectées entre elles et être rassemblées dans une étape consécutive 36 en une troisième information d’objet 38. La troisième information d’objet 38 peut elle–même correspondre à une combinaison, comme par exemple à une moyenne des positions de véhicules 31 et 33 ou à l’une des positions de véhicules 31 et 33.
Pour affecter entre elles des informations d’objet (comme ici des positions de véhicule) à des mêmes véhicules ou des véhicules identiques de la manière décrite précédemment et les rassembler, la plage de tolérance peut être choisie de sorte que des reproductions des positions de véhicules soient affectées entre elles avec une distance inférieure à 0,5 mètre. Il est ainsi plausible que des positions de véhicule avec des écarts à l’intérieur de cette plage de tolérance soient affectées au même véhicule. En fonction du cas d’application, cette distance peut être choisie pour être plus grande ou plus petite.
Dans l’exemple présent, les positions de véhicule 31 et 33 se rapportent au même véhicule et doivent donc être considérées comme „redondantes“.
La position de véhicule moyenne par exemple 38 est éditée dans le cas présent conjointement avec la position de véhicule 32 dans une liste commune 39. En général, la liste 39 des informations d’objet rassemblées (comme la troisième information d’objet 38) et d’autres informations d’objet qui n’ont pas été affectées à une autre information d’objet peut être générée. La liste 39 peut notamment être générée en cas d’exécution itérative du procédé décrit précédemment par actualisation d’une liste générée auparavant avec des informations d’objet rassemblées.
Du fait du rassemblement des positions de véhicule 31 et 33 (redondantes), la liste commune 39 présente moins de redondances que celles existant entre le modèle d’environnement de véhicule local 310, le CAM 320 et/ou le CPM 330.
La liste 39 peut ensuite être considérée aux fins d’une élaboration ou actualisation du modèle d’environnement coopératif et donc pour la commande automatisée d’un véhicule. Une charge de calcul nécessaire pour cela lors d’un traitement de données de la liste 39 pour l’actualisation ou l’élaboration du modèle d’environnement coopératif peut être plus faible, compte tenu des redondances réduites, que pour un traitement des données séparé du modèle d’environnement de véhicule local 310, du CAM 320 et du CPM 330.
Grâce à la conservation des positions de véhicule 31, 32 et 33, il est possible de nouveau de recourir à celles–ci lors d’une nouvelle affectation éventuellement ultérieurement voulue des méta–informations pour l’élaboration d’un modèle d’environnement coopératif actualisé.
Pour l’homme du métier, il est visible que le procédé ci–dessus 100 peut être appliqué dans des adaptations correspondantes connues de l’homme du métier à des première et deuxième informations d’objet de tout type. Des exemples pour des informations d’objet d’autre type peuvent comprendre une grandeur, une forme, une vitesse, une accélération ou d’autres paramètres de mouvement des véhicules/ personnes/ obstacles se trouvant dans l’environnement.
Les figures 4a à 4c montrent un autre exemple de mode de réalisation du procédé 100.
Sur la , le modèle d’environnement de véhicule local 310 dérivé de données de capteur comprend des premières informations d’objet. Dans l’exemple présenté, ce sont des positions de véhicule mesurées 312 d’un premier véhicule et 314 d’un deuxième véhicule qui se trouvent dans l’environnement.
Le CAM 320 et le CPM 330 comprennent des deuxièmes informations d’objet. Dans l’exemple montré, le CAM 320 comprend une autre position de véhicule mesurée 322 du premier véhicule et le CPM 330 comprend une autre position de véhicule mesurée 334 du deuxième véhicule.
Comme on peut le voir sur la , les positions de véhicule mesurées 312, 314, 322 et 334 sont stockées dans des listes séparées 341, 342, et/ou 343 d’une banque de données d’objet 340. Des informations d’objet (c’est–à–dire en particulier les positions de véhicule 312 et 314) du modèle d’environnement de véhicule local 310 remplacent par exemple des informations d’objet plus anciennes stockées dans la liste 341. Des informations d’objets du CAM 320 et du CPM 330, c’est–à–dire notamment les positions de véhicule 322 et 334, sont ajoutées aux listes respectives 342 et 343 qui contiennent déjà des informations d’objet plus anciennes 323 et 335 d’un CAM ou CPM antérieur.
Une fonction 350 de la banque de données d’objet pour la gestion des données (entretien ou „housekeeping“ en anglais) peut trier des informations d’objet/ positions de véhicules enregistrées dans les listes 342 et 343 d’un CAM et/ou CPM reçu auparavant. Pour cela, une certaine durée de validité peut être affectée aux positions de véhicule. La fonction 350 peut trier les informations d’objet correspondantes si un temps depuis lequel les positions de véhicule sont enregistrées sans être actualisées dans les listes 242 et 243 dépasse la durée de validité, afin de libérer de la place de stockage pour des informations d’objet plus récentes. En particulier, des informations d’objets qui ne sont plus perçues par le capteur sont par exemple éliminées pour contrer de possibles détections erronées.
Les méta–informations 312p, 314p, 322p, 323p, 334p et 335p affectées respectivement aux positions de véhicule 312, 314, 322, 323, 334 et 335 sont stockées dans une banque de données d’affectation 360 dans des listes de méta–informations correspondantes 341p, 342p et 343p. Comme cela est expliqué pour l’exemple de mode de réalisation précédent, les méta–informations 312p, 314p, 322p, 323p, 334p et 335p comprennent respectivement un signe d’identification (un „ID“), un horodatage („Timestamp“) et un signe de référence („Ref“). Les horodatages indiquent un moment auquel les positions de véhicule 312, 314, 322, 323, 334 et 335 ont été mesurées et/ou quand les méta–informations 312p, 314p, 322p, 323p, 334p et 335p ont été enregistrées dans la banque de données d’affectation 360. La liste 343p des méta–informations associées au CPM 330 comprend plusieurs entrées des méta–informations 334p qui se rapportent au même objet puisque le CPM 330 se base par exemple sur des modèles d’environnement de véhicule ou mesures d’environnement de plusieurs véhicules.
Les signes d’identification indiquent une relation des méta–informations à un objet ou véhicule. Les méta–informations de la même source de données qui font partie du même objet/véhicule ont donc par exemple les mêmes signes d’identification. En prenant en compte les signes d’identification, notamment en cas d’exécution itérative du procédé 100, des méta–informations des mêmes sources de données (par exemple CAM ou CPM), stockées auparavant dans la banque de données d’affectation 360, peuvent être remplacées par des méta–informations actualisées des mêmes objets/véhicules. Des méta–informations qui sont stockées sans actualisation ou confirmation par d’autres méta–informations plus longtemps que leur durée de validité dans la banque de données d’affectation 360 peuvent être triées pour libérer de la place de stockage.
Comme l’illustre l’exemple d’une confrontation 362 des listes de méta–informations 341p et 342p, les méta–informations 312p, 314p, 322p et 323p ne sont pas affectées, reliées les unes aux autres ou triées de manière correspondante au départ.
En général, les positions de véhicule 312, 314, 322, 323, 334 et 335 peuvent être mesurées/déterminées à différents moments. Par conséquent, les horodatages contenus dans les méta–informations associées peuvent être différents.
Comme le représente la , les positions de véhicule peuvent être reproduites à un moment commun. Sur la , ceci est représenté à titre d’exemple pour les positions de véhicule 312 et 322.
Dans un premier diagramme 371 de la , un horodatage 312t associé à la position de véhicule 312 et un horodatage 322t associé à la position de véhicule 322 sont reportés sur un axe temporel 371t. Comme on peut le voir, le temps de mesure des positions de véhicule 312 et 322 est différent.
Pour pouvoir juger si les positions de véhicule 312 et 322 se rapportent au même véhicule, les positions de véhicule 312 et 322 peuvent être reproduites à un moment commun (futur) temporellement après les horodatage 312t et 322t, comme cela est représenté schématiquement sur le diagramme 371. Une telle reproduction peut donc être comprise comme une „prévision“ ou „prédiction“.
Les reproductions ainsi produites 312a et 322a sont représentées sur un deuxième diagramme 372 en coordonnées locales 372x et 372y pour illustrer une manière de procéder consécutive pour l’affectation de métadonnées des positions de véhicule 312 et 322 respectives.
Les reproductions 312a et 322a peuvent être produites par une extrapolation sur la base des positions de véhicule 312 et 322 ainsi que de leurs horodatages associés 312t et 322t. Pour l’extrapolation, on peut utiliser un filtre de Kalman qui peut générer les reproductions 312a et 322a sur la base des positions de véhicule 312 et 322, des horodatages 312t et 322t et par exemple des vitesses, accélérations et/ou positions de véhicule mesurées antérieurement, affectées aux positions de véhicule, en tant que grandeurs d’entrée.
L’extrapolation décrite ci–dessus peut se faire sur ce que l’on appelle un module de prédiction en exécutant un algorithme de comparaison correspondant.
Pour l’homme du métier, il est clair que, hormis le filtre de Kalman, d’autres procédés d’extrapolation ou procédés d’interpolation peuvent être envisagés pour la reproduction des positions de véhicules 312 et 322 au moment commun 302t.
Comme cela est représenté schématiquement sur le diagramme 372, un écart entre reproductions 312a et 322a des positions de véhicule 312 et 322 peut être pris en compte pour juger si les positions de véhicule 312 et 322 sont affectées au même véhicule et sont donc redondantes. Pour vérifier si l’écart entre reproductions 312a et 322a réside à l’intérieur de la plage de tolérance, on peut déterminer si les reproductions 312a et 322a des positions de véhicule sont respectivement à l’intérieur d’une plage de tolérance de rayon 312r, et/ou 322r autour de l’autre reproduction respective 312a et 322a de la position de véhicule.
Dans l’exemple montré, les reproductions 312a et 322a résident par exemple à l’intérieur de la plage de tolérance. Pour ce motif, il est plausible que les reproductions 312a et 322a se rapportent au même (premier) véhicule dans l’environnement. Par conséquent, les méta–informations 312p et 322p, comme le montre la , et donc les positions de véhicule 312 et 322, liées aux méta–informations 312p et 322p affectées entre elles, du modèle d’environnement de véhicule local 310 et du CAM 320 et/ou des listes 341 et 342 de la banque de données d’objet 340 peuvent être affectées entre elles.
De manière analogue, on peut procéder à la vérification de la redondance pour les positions de véhicule restantes. C’est ainsi par exemple qu’il peut être démontré que les méta–informations 314p et 344p et les positions de véhicules associées 314 et 344 peuvent être affectées au même (deuxième) véhicule et donc affectées entre elles.
En cas d’exécution itérative du procédé 100, on peut réaliser un traçage des positions de véhicule progressif et incrémentiel à partir des différentes sources de données (modèle d’environnement de véhicule local 310, CAM 320 et CPM 330) et leurs écarts. De cette manière, les affectations déterminées alors peuvent être vérifiées en continu et être éventuellement actualisées; Par rapport aux autres procédés d’extrapolation, on peut atteindre un lissage avantageux avec le filtre de Kalman. Par exemple, avec le filtre Kalman, on peut atteindre un lissage d’une courbe de reproductions déterminées successivement de positions de véhicules et donc une confiance plus élevée du traçage.
L’affectation des méta–informations 312p et 322p, et des méta–informations 314p et 344p est illustrée dans la comparaison 362 sur la .
Comme le montre en outre la , on peut produire la troisième information d’objet 382 et/ou 384 à l’aide des positions de véhicule 312 et 322 et 314 et 334 affectées entre elles, laquelle correspond soit à une valeur combinée des positions de véhicule 312 et 322, et/ou 314 et 334 ou à l’une des positions de véhicule 312 et 322, et/ou 314 et 334. Pour cela, les positions de véhicule correspondantes 312, 322, 314 et/ou 334 sont pour ainsi dire „extraites“ des listes 341, 342 et/ou 343 et éventuellement combinées ou insérées dans la liste d’édition 380. Les troisièmes informations d’objet 382 et 384 sont fournies et stockées dans une liste d’édition 380 conjointement avec les positions de véhicule 323 et 335 qui ont pu être affectées à aucune autre position de véhicule mesurée.
Dans quelques cas, des affectations déterminées auparavant des méta–informations peuvent être de nouveau supprimées ou confirmées à partir des opérations précédentes du procédé 100 en prenant en compte les affectations actualisées/dernièrement déterminées des positions de véhicule 312, 322, 314 et 334. Par rapport aux relations ou affectations „directes“, une actualisation (suppression ou confirmation) de l’affectation des positions de véhicule 312, 322, 314 et 334 peut être plus efficace sur la base de l’affectation des méta–informations associées.
En particulier en cas d’exécution itérative du procédé 100, la liste d’édition 380 peut donc être déterminée par actualisation d’une liste d’édition déterminée au préalable sur la base des affectations actualisées des positions de véhicule.
Les redondances, comme par exemple entre les positions de véhicule 312 et 322 ou 314 et 334 ne sont plus contenues dans la liste d’édition 380 grâce à l’affectation de celles–ci ou au moins réduites par rapport à la quantité de positions de véhicules à partir du modèle d’environnement de véhicule local 310, de CAM 30 et de CPM et ne contribuent donc plus à une hausse indésirable d’une charge de calcul pour un traitement de la liste d’édition 380. Cela peut avoir des répercussions avantageuses sur un comportement de conduite et un temps de réaction du véhicule 200 commandé automatiquement.

Claims (10)

  1. Procédé (100) pour le rassemblement d’informations d’objet (31, 32, 33, 312, 314, 322, 323, 334, 335) concernant un ou plusieurs objets dans un environnement d’un véhicule (200) à partir de différentes sources de données, ledit procédé (100) comprenant :
    la détection (110) d’une première information d’environnement (310) concernant l’environnement d’au moins un capteur disposé sur le véhicule (200) ;
    la réception (120) d’au moins une deuxième information d’environnement (320, 330) concernant l’environnement d’un émetteur séparé du véhicule (200) ;
    la détermination d’au moins une première information d’objet (31, 312, 314) conjointement avec une première méta–information (31p, 312p, 314p) renvoyant à la première information d’objet (31, 312, 314) à partir de la première information d’environnement (310) et d’au moins une deuxième information d’objet (32, 33, 322, 323, 334, 335) conjointement avec une deuxième méta–information (32p, 33p, 322p, 323p, 334p, 335p) renvoyant à la deuxième information d’objet (32, 33, 322, 323, 334, 335) à partir de la deuxième information d’environnement ; et
    l’affectation (140) de la première méta–information (31p, 312p, 314p) et de la deuxième méta–information (32p, 33p, 322p, 323p, 334p, 335p) entre elles sur la base d’une comparaison d’une plage de tolérance avec un écart entre la première information d’objet (31, 312, 314) et la deuxième information d’objet (32, 33, 322, 323, 334, 335).
  2. Procédé (100) selon la revendication 1, comprenant un rassemblement de la première information d’objet (31, 312, 314) et de la deuxième information d’objet (32, 33, 322, 323, 334, 335) en une troisième information d’objet (38, 382, 384) sur la base d’une affectation de la première méta–information (31p, 312p, 314p) et de la deuxième méta–information (32p, 33p, 322p, 323p, 334p, 335p), la troisième information d’objet (38, 382, 384) contenant la première information d’objet (31, 312, 314), la deuxième information d’objet (32, 33, 322, 323, 334, 335) ou une combinaison de la première et de la deuxième information d’objet.
  3. Procédé (100) selon l’une des revendications précédentes, dans lequel la première méta–information (31p, 312p, 314p) comprend une caractérisation d’objet d’un objet associé à la première information d’objet (31, 312, 314) et un renvoi à la première information d’objet (31, 312, 314) et la deuxième méta–information (32p, 33p, 322p, 323p, 334p, 335p) comprend une caractérisation d’objet d’un objet associé à la deuxième information d’objet (32, 33, 322, 323, 334, 335) et un renvoi à la deuxième information d’objet (32, 33, 322, 323, 334, 335).
  4. Procédé (100) selon l’une des revendications précédentes, dans lequel la première information d’objet (31, 312, 314) et la deuxième information d’objet (32, 33, 322, 323, 334, 335) comprennent respectivement une position, une vitesse, une accélération, une grandeur de rotation et/ou une grandeur d’au moins l’un des un ou plusieurs objets.
  5. Procédé (100) selon l’une des revendications précédentes, dans lequel l’affectation (140) de la première et de la deuxième information d’objet entre elles comprend :
    la reproduction de la première information d’objet (31, 312, 314) et de la deuxième information d’objet (32, 33, 322, 323, 334, 335) à un moment commun (302t) ;
    l’affectation de la première information d’objet (31, 312, 314) et de la deuxième information d’objet (32, 33, 322, 323, 334, 335) entre elles sur la base d’une comparaison de la plage de tolérance avec un écart entre les reproductions (312a, 322a) de la première information d’objet (31, 312, 314) et de la deuxième information d’objet (32, 33, 322, 323, 334, 335) au moment commun (302t).
  6. Procédé (100) selon la revendication 5, dans lequel la reproduction de la première information d’objet (31, 312, 314) et de la deuxième information d’objet (32, 33, 322, 323, 334, 335) au moment commun (302t) comprend une extrapolation ou une interpolation sur la base de la première information d’objet (31, 312, 314) et/ou de la deuxième information d’objet (32, 33, 322, 323, 334, 335), d’un premier horodatage (312t) affecté à la première information d’objet (31, 312, 314) et/ou d’un deuxième horodatage (322t) affecté à la deuxième information d’objet (32, 33, 322, 323, 334, 335).
  7. Procédé (100) selon l’une des revendications précédentes, dans lequel le capteur comprend au moins un capteur radar, un capteur LiDAR, un capteur à ultrasons ou une caméra.
  8. Programme d’ordinateur comportant un code de programme pour la mise en oeuvre d’un des procédés (100) selon l’une des revendications précédentes, quand le code de programme est exécuté sur un ordinateur, un processeur, un module de commande ou un composant matériel programmable.
  9. Dispositif (210) pour le rassemblement d’informations d’objet (31, 32, 33, 312, 314, 322, 323, 334, 335) concernant un ou plusieurs objets dans un environnement d’un véhicule (200) à partir de différentes sources de données, ledit dispositif (210) comprenant :
    une ou plusieurs interfaces (214) pour la communication avec un capteur disposé sur le véhicule (200) et un émetteur séparé du véhicule ; et
    un module de commande (212) pour la réalisation d’un des procédés (100) selon l’une des revendications 1 à 7.
  10. Véhicule (200) doté d’un dispositif (210) selon la revendication 9 pour le rassemblement d’informations d’objet (31, 32, 33, 312, 314, 322, 323, 334, 335) concernant un ou plusieurs objets dans un environnement du véhicule (200) à partir de différentes sources de données.
FR2105899A 2020-06-05 2021-06-04 Véhicule, procédé, logiciel et dispositif de rassemblement d’informations d’objet concernant un ou des objets dans un environnement de véhicule Active FR3111227B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020207065.2A DE102020207065B3 (de) 2020-06-05 2020-06-05 Fahrzeug, Verfahren, Computerprogramm und Vorrichtung zum Zusammenführen von Objektinformationen über ein oder mehrere Objekte in einem Umfeld eines Fahrzeugs
DE102020207065.2 2020-06-05

Publications (2)

Publication Number Publication Date
FR3111227A1 true FR3111227A1 (fr) 2021-12-10
FR3111227B1 FR3111227B1 (fr) 2023-04-14

Family

ID=74188607

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2105899A Active FR3111227B1 (fr) 2020-06-05 2021-06-04 Véhicule, procédé, logiciel et dispositif de rassemblement d’informations d’objet concernant un ou des objets dans un environnement de véhicule

Country Status (7)

Country Link
US (1) US20210383689A1 (fr)
JP (1) JP7150938B2 (fr)
KR (1) KR102554686B1 (fr)
CN (1) CN113781838B (fr)
DE (1) DE102020207065B3 (fr)
FR (1) FR3111227B1 (fr)
GB (1) GB2596219B (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021207860A1 (de) 2021-07-22 2023-01-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bestimmen einer Position für ein Ego-Fahrzeug und Fahrzeug

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4716294B2 (ja) * 2008-02-19 2011-07-06 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
JP2010128637A (ja) * 2008-11-26 2010-06-10 Pioneer Electronic Corp 制動準備促進装置
KR101123737B1 (ko) * 2010-08-31 2012-03-16 서울대학교산학협력단 통신을 이용한 이동체의 탐지영역 확장 방법 및 시스템
WO2013037855A1 (fr) * 2011-09-12 2013-03-21 Continental Teves Ag & Co. Ohg Système capteur comportant une unité de modèle de véhicule
DE102012211391A1 (de) * 2012-07-02 2014-01-02 Continental Teves Ag & Co. Ohg Verfahren und System zur Informationsnutzung
CN104217615B (zh) * 2014-09-16 2016-08-24 武汉理工大学 一种基于车路协同的行人防碰撞系统和方法
EP3156878A1 (fr) * 2015-10-14 2017-04-19 Ecole Nationale de l'Aviation Civile Panoramique intelligent pour la représentation d'espace physique
CN105513391A (zh) * 2016-01-19 2016-04-20 吉林大学 一种基于车路协同技术的车载虚拟道路状态显示系统
CN105741546B (zh) * 2016-03-18 2018-06-29 重庆邮电大学 路侧设备与车传感器融合的智能车辆目标跟踪系统及方法
EP3300047A1 (fr) * 2016-09-26 2018-03-28 Alcatel Lucent Guide de trafic dynamique basé sur un procédé de partage de capteur v2v
EP3462754B1 (fr) * 2017-09-28 2021-12-15 Lg Electronics Inc. Appareil et procédé de communication v2x
US10635109B2 (en) * 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10901428B2 (en) * 2017-12-29 2021-01-26 Intel IP Corporation Working condition classification for sensor fusion
KR102075831B1 (ko) * 2018-01-25 2020-02-10 부산대학교 산학협력단 V2v 통신과 레이다 센서 객체 번호 일치 방법 및 장치
CN108284838A (zh) * 2018-03-27 2018-07-17 杭州欧镭激光技术有限公司 一种用于检测车辆外部环境信息的检测系统及检测方法
JP7111159B2 (ja) * 2018-06-04 2022-08-02 日本電気株式会社 情報共有装置、情報共有方法および情報共有プログラム
US11479262B2 (en) * 2018-06-06 2022-10-25 Metawave Corporation Geographically disparate sensor fusion for enhanced target detection and identification in autonomous vehicles
US11113971B2 (en) * 2018-06-12 2021-09-07 Baidu Usa Llc V2X communication-based vehicle lane system for autonomous vehicles
DE102018005869A1 (de) * 2018-07-25 2020-01-30 Zf Active Safety Gmbh System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
CN109920246B (zh) * 2019-02-22 2022-02-11 重庆邮电大学 一种基于v2x通信与双目视觉的协同局部路径规划方法
JP2020154913A (ja) * 2019-03-22 2020-09-24 住友電気工業株式会社 物体検出装置及び方法、交通支援サーバ、コンピュータプログラム及びセンサ装置
KR20190091419A (ko) * 2019-07-17 2019-08-06 엘지전자 주식회사 자율주행 차량의 제어방법 및 이를 위한 제어장치
US11410471B2 (en) * 2019-08-22 2022-08-09 Honda Motor Co., Ltd. Systems and methods for providing a data flow for sensor sharing
CN114286925A (zh) * 2019-08-26 2022-04-05 移动眼视觉科技有限公司 用于识别潜在通信障碍的系统和方法
US11910279B2 (en) * 2019-11-15 2024-02-20 Qualcomm Incorporated V2X communication with sensor assistance
RU2764708C1 (ru) * 2020-01-20 2022-01-19 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и системы для обработки данных лидарных датчиков
US11250685B2 (en) * 2020-01-21 2022-02-15 Aptiv Technologies Limited Intra-vehicle situational awareness featuring child presence
US11663726B2 (en) * 2020-01-31 2023-05-30 Zoox, Inc. Object velocity and/or yaw rate detection and tracking
US11625041B2 (en) * 2020-02-21 2023-04-11 Zoox, Inc. Combined track confidence and classification model
US20210300356A1 (en) * 2020-03-25 2021-09-30 Ford Global Technologies, Llc Vehicle uncertainty sharing

Also Published As

Publication number Publication date
CN113781838B (zh) 2023-06-27
US20210383689A1 (en) 2021-12-09
JP2021193562A (ja) 2021-12-23
GB2596219B (en) 2023-09-27
FR3111227B1 (fr) 2023-04-14
KR20210152394A (ko) 2021-12-15
GB2596219A (en) 2021-12-22
JP7150938B2 (ja) 2022-10-11
DE102020207065B3 (de) 2021-02-11
KR102554686B1 (ko) 2023-07-12
CN113781838A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
EP2612325B1 (fr) Consolidation de metadonées concernant des duplicats d'images.
US11247695B2 (en) Autonomous vehicle detection
EP2862091B1 (fr) Dispositif et procede d'extraction de donnees sur un bus de communication d'un vehicule automobile
US20200042657A1 (en) Multi-dimensional event model generation
CN112287566A (zh) 一种自动化驾驶场景库生成方法、系统及电子设备
US20200279489A1 (en) Vehicle location detection
CN110632626A (zh) 一种基于车联网的定位方法及系统
FR3111227A1 (fr) Véhicule, procédé, logiciel et dispositif de rassemblement d’informations d’objet concernant un ou des objets dans un environnement de véhicule
EP2105760A1 (fr) Procédé et système de pistage et de suivi d'emetteurs
CN110838955B (zh) 用于调试etc在线申请功能的方法及装置
EP3203445B1 (fr) Systeme et procede d'identification automatique d'un modele de vehicule
WO2020201243A1 (fr) Procédé de mise à jour d'une carte routière à partir d'un réseau de contributeurs
US10916132B2 (en) Vehicle dash cam sign reading
US10802947B2 (en) Filter trace based on function level
CN114077622A (zh) 处理车辆事件数据以用于行程分析的系统和方法
CN116109495A (zh) 使用激光雷达点云用以超声波传感器增强的系统和方法
CN109284833B (zh) 为机器学习模型获取特征数据的方法、设备和存储介质
EP2810223B1 (fr) Procédé de traitement d'informations incertaines issues d'une pluralité de sources hétérogènes et procédé d'aide automatique à la décision associé
FR2766642A1 (fr) Procede et dispositif de reception de messages numeriques assurant un pretraitement de ces messages configurable dynamiquement
CN114118440A (zh) 模型迭代方法、装置、电子设备和计算机可读存储介质
EP3881515B1 (fr) Système de supervision formelle de communications
US20200363799A1 (en) Event validation using multiple sources
CN113094048A (zh) 数据显示规则确定方法、显示方法、装置、设备及介质
US10642675B2 (en) Dynamically controlling runtime system logging based on end-user reviews
EP3598315B1 (fr) Accès direct en mémoire

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220715

PLFP Fee payment

Year of fee payment: 3