FR3141549A1 - Procede de detection de vehicules longs ou articules - Google Patents

Procede de detection de vehicules longs ou articules Download PDF

Info

Publication number
FR3141549A1
FR3141549A1 FR2211162A FR2211162A FR3141549A1 FR 3141549 A1 FR3141549 A1 FR 3141549A1 FR 2211162 A FR2211162 A FR 2211162A FR 2211162 A FR2211162 A FR 2211162A FR 3141549 A1 FR3141549 A1 FR 3141549A1
Authority
FR
France
Prior art keywords
objects
chain
zone
tracked
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2211162A
Other languages
English (en)
Inventor
Léon RAPHALEN
Hamza BAKKARI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Priority to FR2211162A priority Critical patent/FR3141549A1/fr
Publication of FR3141549A1 publication Critical patent/FR3141549A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Il est décrit un procédé d’observation de l’environnement d’un véhicule principal, le procédé étant mis en œuvre par un dispositif comportant un capteur de présence d’objets de type radar ou lidar monté sur le véhicule, et une unité de traitement en communication avec le capteur de présence d’objets, comprenant : l’acquisition de données relatives à l’environnement du véhicule par le capteur de présence d’objets,la détection d’une pluralité d’objets (O1, O2, O3) à partir des données acquises, chaque objet étant associé à un ensemble de caractéristiques,le suivi d’une pluralité d’objets détectés pour prédire un état futur des objets suivis,la création d’une chaîne comprenant une succession d’objets suivis associés les uns aux autres, comprenant :l’association d’un ensemble d’objets suivis formant la chaîne, etla détermination de caractéristiques associées à la chaîne d’objets, à partir de caractéristiques des objets formant ladite chaîne. Figure de l’abrégé : Figure 6a

Description

PROCEDE DE DETECTION DE VEHICULES LONGS OU ARTICULES
La présente divulgation concerne l’observation de l’environnement des véhicules pour la mise en œuvre de fonctions d’assistance à la conduite. Elle s’applique notamment à la détection et au suivi de véhicules longs ou articulés.
Il est connu d’équiper un véhicule d’un capteur de présence d’objets de type lidar ou radar pour obtenir des informations concernant l’environnement du véhicule. En particulier les capteurs lidar ou radar mettent classiquement en œuvre des procédés d’observation de l’environnement d’un véhicule comprenant l’acquisition d’un nuage de points par le capteur, l’identification d’un ensemble d’objets, par exemple d’autres véhicules, à partir d’un traitement de ce nuage de points, et le suivi des objets identifiés, pour pouvoir suivre et anticiper la trajectoire des objets environnant le véhicule sur lequel le capteur est embarqué.
S’agissant de la représentation et du suivi de véhicules longs, tels que des camions, des bus, dont notamment des bus articulés, des véhicules comprenant un tracteur et une remorque, ou encore des tramways, etc., deux approches ont été proposées.
Une première approche consiste à créer un objet unique décrivant l’ensemble du véhicule long, et à réaliser un suivi de cet objet unique. Cependant cette approche souffre d’inconvénients notables, comprenant d’une part un défaut de précision, car les nuages de points obtenus par des capteurs de type radar ou lidar sont souvent distribués de façon hétérogène, ce qui aboutit à une géométrie de l’objet détecté qui est approximative, cette approximation étant d’autant plus importante que l’objet est de grande taille. De plus, le suivi cinématique d’un tel objet dépend de manière importante de la position de son centre de rotation. Or, comme représenté sur les figures 1a et 1b, qui représentent des trajectoires T1, T2, T3possibles d’un même objet O, pour des conditions cinématiques initiales identiques mais avec une position du centre de rotation différente, l’approximation mentionnée ci-avant est également applicable à la position du centre de rotation de l’objet, ce qui peut résulter en une marge d’erreur très importante pour des véhicules longs, et donc une grande imprécision dans la prédiction des trajectoires (résultant dans la en trois positions hypothétiques O1, O2et O3pour l’objet).
L’autre approche consiste à créer un ensemble de petits objets qui sont suivis indépendamment les uns des autres. Cette approche résout les problèmes d’imprécision décrits ci-avant, mais le fait de devoir suivre une pluralité d’objets correspondant à un véhicule unique représente un coût important en termes de mémoire et de capacités de traitement pour ce véhicule. De plus, les données concernant les objets détectés et suivis par des capteurs de type lidar ou radar sont habituellement exploitées par des applications d’aide à la conduite, et le fait de représenter un objet unique par un ensemble de petits objets peut d’une part mener à une saturation des capacités de traitement de l’application, et d’autre part générer un risque de confusion pour les utilisateurs.
Résumé
La présente divulgation vient améliorer la situation.
Il est proposé un procédé d’observation de l’environnement d’un véhicule principal, le procédé étant mis en œuvre par un dispositif comportant un capteur de présence d’objets de type radar ou lidar monté sur le véhicule principal, et une unité de traitement en communication avec le capteur de présence d’objets, le procédé comprenant :
  • l’acquisition, de données relatives à l’environnement du véhicule principal par le capteur de présence d’objets,
  • la détection d’une pluralité d’objets à partir des données acquises, chaque objet étant associé à un ensemble de caractéristiques,
  • le suivi d’une pluralité d’objets détectés pour prédire un état futur des objets suivis,
  • la création d’une chaîne comprenant une succession d’objets suivis associés les uns aux autres, comprenant :
    • l’association d’un ensemble d’objets suivis formant la chaîne, et
    • la détermination de caractéristiques associées à la chaîne d’objets, à partir de caractéristiques des objets formant ladite chaîne.
Dans des modes de réalisation, le procédé comprend en outre l’utilisation des caractéristiques de la chaîne d’objets dans la mise en œuvre d’au moins une application d’aide à la conduite du véhicule principal.
Dans des modes de réalisation, chaque objet d’une chaîne est associé par une extrémité avant, respectivement arrière, avec l’extrémité arrière, respectivement avant, d’un autre objet de la chaîne.
Dans des modes de réalisation, l’association d’un ensemble d’objets suivis formant une chaîne comprend :
  • l’identification d’au moins un premier objet suivi dont au moins une extrémité, dite libre, n’est pas associée à un autre objet,
  • l’association d’un deuxième objet suivi au premier, si la paire formée par le premier et le deuxième objets suivis vérifie au moins les conditions suivantes :
    • le deuxième objet suivi présente une extrémité libre pouvant être associée à l’extrémité libre du premier objet,
    • les deux objets sont spatialement voisins, et
    • les deux objets présentent des caractéristiques cinématiques égales moyennant une tolérance déterminée.
Dans des modes de réalisation, l’association d’un deuxième objet suivi au premier est mise en œuvre si la paire formée par le premier et le deuxième objet vérifie en outre une condition sur la trajectoire des objets de la paire, telle que le deuxième objet est situé dans une région d’intérêt située à l’extrémité libre du premier objet et dont la position est déterminée en fonction de la vitesse angulaire de lacet du premier objet.
Dans des modes de réalisation, la région d’intérêt est une forme géométrique dont le centre est situé sur le cercle de courbure défini par la vitesse angulaire de lacet du premier objet.
Dans des modes de réalisation, l’identification d’au moins un premier objet suivi comprenant une extrémité libre comprend une étape préliminaire de sélection d’un ensemble d’objets candidats parmi l’ensemble des objets suivis, les objets candidats sélectionnés étant des objets suivis en mouvement.
Dans des modes de réalisation, la détermination des caractéristiques associées à la chaîne comprend la détermination de caractéristiques cinématiques et de dimensions de la chaîne.
Dans des modes de réalisation, le procédé comprend l’identification d’un objet principal parmi l’ensemble des objets de la chaîne, et les caractéristiques cinématiques de la chaîne sont celles de l’objet principal.
Dans des modes de réalisation, l’objet principal est l’objet de la chaîne le plus proche du capteur de présence d’objets.
Dans des modes de réalisation, la détermination des dimensions de la chaîne comprenant la détermination d’une zone de l’espace englobant l’ensemble des objets regroupés, les dimensions de la chaîne correspondant aux dimensions de ladite zone.
Dans des modes de réalisation, la détermination de la zone de l’espace englobant l’ensemble des objets regroupés comprend :
  • le calcul d’une première zone rectangulaire de l’espace regroupant l’ensemble des objets regroupés, ladite première zone présentant une dimension principale selon une direction parallèle à la direction de l’objet le plus proche du capteur parmi les objets regroupés,
  • le calcul d’au moins une deuxième zone rectangulaire de l’espace regroupant l’ensemble des objets regroupés, ladite deuxième zone présentant une dimension principale selon une direction différente de la première zone,
  • l’attribution d’un score à chaque zone en fonction d’un critère de confiance et d’un critère de superficie de la zone et,
  • la sélection de la zone de l’espace parmi la première et ladite au moins deuxième zone en fonction du score attribuée à chaque zone.
Dans des modes de réalisation, le procédé comprend :
  • le calcul d’une deuxième zone rectangulaire de l’espace regroupant l’ensemble des objets regroupés, ladite deuxième zone présentant une dimension principale parallèle à un axe reliant une extrémité avant du premier objet de la chaîne à une extrémité arrière du dernier objet de la chaîne,
  • le calcul d’une troisième zone rectangulaire de l’espace regroupant l’ensemble des objets regroupés, ladite troisième zone présentant une dimension principale parallèle à une orientation estimée du véhicule principal s’il se trouvait à l’emplacement de l’objet de la chaîne le plus proche du capteur.
Il est également décrit un dispositif comprenant un capteur de présence d’objets de type radar ou lidar et une unité de traitement en communication avec le capteur de présence d’objets, le dispositif étant configuré pour la mise en œuvre du procédé selon la description qui précède.
Selon un autre objet, il est décrit un véhicule, comprenant un dispositif selon la description qui précède, le capteur de présence d’objets étant embarqué dans le véhicule et orienté de sorte à acquérir des données de présence d’objets dans l’environnement du véhicule.
Il est également proposé d’observation de l’environnement d’un véhicule principal, le procédé étant mis en œuvre par un dispositif comportant un capteur de présence d’objets de type radar ou lidar monté sur le véhicule principal, et une unité de traitement en communication avec le capteur de présence d’objets, le procédé comprenant :
  • l’acquisition, de données relatives à l’environnement du véhicule principal par le capteur de présence d’objets,
  • la détection d’une pluralité d’objets à partir des données acquises, chaque objet étant associé à un ensemble de caractéristiques,
  • le suivi d’une pluralité d’objets détectés pour prédire un état futur des objets suivis,
  • la création d’une chaîne comprenant une succession d’objets suivis associés les uns aux autres, comprenant l’association d’un ensemble d’objets suivis formant la chaîne, dans lequel l’association d’un deuxième objet suivi au premier est mise en œuvre si la paire formée par le premier et le deuxième objet vérifie une condition sur la trajectoire des objets de la paire, telle que le deuxième objet est situé dans une région d’intérêt située à l’extrémité libre du premier objet et dont la position est déterminée en fonction de la vitesse angulaire de lacet du premier objet.
Dans des modes de réalisation, la région d’intérêt est une forme géométrique dont le centre est situé sur le cercle de courbure défini par la vitesse angulaire de lacet du premier objet.
Dans des modes de réalisation, le procédé comprend en outre la détermination de caractéristiques associées à la chaîne d’objets, à partir de caractéristiques des objets formant ladite chaîne, et l’utilisation des caractéristiques de la chaîne d’objets dans la mise en œuvre d’au moins une application d’aide à la conduite du véhicule principal.
Dans des modes de réalisation, chaque objet d’une chaîne est associé par une extrémité avant, respectivement arrière, avec l’extrémité arrière, respectivement avant, d’un autre objet de la chaîne.
Dans des modes de réalisation, l’association d’un ensemble d’objets suivis formant la chaîne comprend en outre : l’identification d’au moins un premier objet suivi dont au moins une extrémité, dite libre, n’est pas associée à un autre objet,
  • l’association d’un deuxième objet suivi au premier, si la paire formée par le premier et le deuxième objets suivis vérifie au moins les conditions suivantes :
    • le deuxième objet suivi présente une extrémité libre pouvant être associée à l’extrémité libre du premier objet,
    • les deux objets sont spatialement voisins, et
  • les deux objets présentent des caractéristiques cinématiques égales moyennant une tolérance déterminée
Le procédé d’observation de l’environnement proposé permet de détecter des véhicules longs ou articulés et de tenir compte de ces véhicules dans des applications d’aide à la conduite de façon précise, tout en diminuant la quantité de mémoire ou de ressources de calcul nécessaires. En effet, les véhicules longs ou articulés sont représentés comme une chaîne d’objets, chaque objet étant faisant l’objet d’un suivi, ce qui permet, par la taille réduite de chaque objet, d’assurer la précision du suivi. En outre, la chaîne d’objets est également associée à des caractéristiques propres, déterminées à partir des objets suivis qui la composent, pour pouvoir être exploitée comme un objet unique, notamment pour des applications d’aides à la conduite exploitant les acquisitions d’un capteur de type radar ou lidar.
D’autres caractéristiques, détails et avantages apparaîtront à la lecture de la description détaillée ci-après, et à l’analyse des dessins annexés, sur lesquels :
La illustre l’incertitude de la position d’un centre de rotation d’un véhicule long.
La illustre l’impact de l’incertitude de la position du centre de rotation d’un véhicule long sur la prédiction d’une trajectoire de ce véhicule.
La représente les principales étapes d’un procédé d’observation de l’environnement d’un véhicule selon un mode de réalisation.
La représente les principales étapes d’un procédé d’association d’objets suivis pour former une chaine.
La représente les principales étapes d’un procédé de caractérisation d’une chaîne d’objets.
La représente un exemple de région d’intérêt située à l’extrémité d’un objet dont l’angle de lacet est négatif.
La représente un deuxième exemple de région d’intérêt située à l’extrémité d’un objet dont l’angle de lacet est négatif et supérieur à celui de la .
La représente un troisième exemple de région d’intérêt située à l’extrémité d’un objet dont l’angle de lacet est positif.
La représente un premier exemple de zone regroupant un ensemble d’objets formant une chaîne d’objets.
La représente un deuxième exemple de zone regroupant un ensemble d’objets formant une chaîne d’objets.
La représente un troisième exemple de zone regroupant un ensemble d’objets formant une chaîne d’objets.
La représente un exemple de véhicule embarquant un dispositif d’observation adapté pour mettre en œuvre le procédé.
On va maintenant décrire un procédé d’observation de l’environnement d’un véhicule principal V. En référence à la , ce procédé est mis en œuvre par un dispositif 1 comprenant un capteur 10 de présence d’objets O de type radar ou lidar, et une unité de traitement 11. L’unité de traitement peut comprendre un ou plusieurs calculateur(s) 12, par exemple de type processeur, microprocesseur, microcontrôleur, FPGA, etc., et une ou plusieurs mémoire(s) 13, stockant notamment des instructions de code pouvant être exécutées par le calculateur pour la mise en œuvre du procédé décrit ci-après. La mémoire 13 peut notamment être une mémoire morte, par exemple ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory) ; la mémoire peut également comprendre des moyens de stockage optique, électronique ou magnétique.
Le capteur d’objets 10 peut être un capteur radar. Dans ce cas, le capteur est adapté pour détecter un nuage de points comprenant pour chaque point au moins trois données : vitesse, éloignement par rapport au capteur et azimuth, l’éloignement et l’azimuth pouvant être convertis en localisation en deux-dimensions (X,Y) dans un repère associé au véhicule principal. Certains capteurs radars peuvent également acquérir une donnée supplémentaire d’élévation. Dans ce cas, les données d’éloignement, azimuth et élévation peuvent être converties en localisation en trois dimensions (X,Y,Z) dans un repère associé au véhicule principal. Dans le cas d’un radar, le capteur d’objet acquiert également pour chaque point une donnée de surface équivalent radar SER, également connue sous l’acronyme anglais de RCS pour Radar Cross Section.
En variante, le capteur d’objets 10 peut être un capteur lidar. Dans ce cas, le capteur est adapté pour détecter un nuage de points comprenant pour chaque point une position en trois-dimensions (x,y,z) où x et y sont les positions d’un pixel p dans une matrice de récepteurs du capteur Lidar, et z est une coordonnée de profondeur, c’est-à-dire de distance par rapport au lidar. Ces coordonnées peuvent être converties en coordonnées en trois dimensions (X, Y, Z) dans un repère associé au véhicule principal. Les données acquises par le capteur lidar comprennent également pour chaque point du nuage de points, une donnée d’intensité lumineuse I réfléchie par le point.
Le capteur de présence d’objets 10, radar ou lidar, est embarqué sur le véhicule principal V, en étant positionné de manière à pouvoir acquérir un nuage de points représentatif de l’environnement du véhicule principal. Par exemple, le capteur radar ou lidar peut être monté sur le véhicule à proximité d’une extrémité avant ou arrière du véhicule principal, en étant orienté respectivement vers l’avant ou l’arrière du véhicule.
L’unité de traitement 11 peut être colocalisée, c‘est-à-dire être également embarquée dans le véhicule principal, pour procéder localement au traitement des données acquises par le capteur 10. Dans des modes de réalisation, l’unité de traitement 11 peut être intégrée au capteur de présence d’objets 10. En variante, l’unité de traitement 11 peut être située à distance et le capteur 10 peut comprendre une interface de communication à distance permettant de transmettre des données acquises pour la mise en œuvre du traitement à distance par l’unité de traitement. Par exemple, certaines étapes d’acquisition de nuage de points, de détection et de suivi d’objets peuvent être mises en œuvre par une unité de traitement intégrée au capteur 10, et d’autres étapes, comme par exemple l’étape de création de chaîne, peuvent être mise en œuvre par une unité de traitement distante. Selon un autre exemple, tout le traitement décrit ci-après peut être réalisé par le capteur 10.
En référence à la , le procédé d’observation de l’environnement du véhicule principal comprend une étape 100 d’acquisition de données relatives à l’environnement du véhicule principal par le capteur de présence d’objets. Cette étape est mise en œuvre par exemple par acquisition d’un nuage de points par le capteur radar ou lidar. Cette étape est avantageusement répétée à une fréquence d’acquisition donnée, pour pouvoir effectuer un suivi des objets détectés grâce au capteur.
Au cours d’une étape 200, une pluralité d’objets est détectée à partir des données acquises, par exemple par groupement de points du nuage de points. Les objets détectés sont des objets présents dans l’environnement du véhicule. Il peut donc s’agir d’autres véhicules, mobiles ou en stationnement, des piétons, des éléments de mobilier urbain, etc. Chaque objet détecté est associé à des caractéristiques, comprenant par exemple des caractéristiques cinématiques : position relativement au véhicule principal, vitesse, accélération, et des caractéristiques de dimension. Les caractéristiques de dimension peuvent être celles d’une zone de l’espace entourant l’objet détecté. Au moins certaines données de SER des points composant un objet, dans le cas d’un capteur radar, ou les données d’intensité, dans le cas d’un capteur lidar, sont également conservées en étant associées à l’objet détecté. Par exemple, un objet peut être associée à une valeur de SER ou d’intensité correspondant à la valeur maximale observée parmi l’ensemble de points appartenant à l’objet. L’étape 200 de détection d’objets à partir d’un nuage de points radar ou lidar est connue de l’Homme du Métier. Elle peut par exemple être mise en œuvre par un algorithme de type DBSCAN (acronyme anglais pour Density-Based Spatial Clustering of Applications with Noise) ou par regroupement de points sur la base de distances statistiques comme la distance de Mahalanobis.
Une fois ces objets détectés, ils font l’objet d’un suivi 300 permettant de prédire leur trajectoire par rapport au véhicule. Ce suivi peut par exemple être mis en œuvre par un filtre de Kalman (ou EKF pour extended Kalman Filter) qui permet de prédire les caractéristiques cinématiques futures de chaque objet à partir de ses caractéristiques cinématiques actuelles. Le suivi d’un objet comprend l’enregistrement dans la mémoire 13 d’un identifiant de l’objet suivi, de ses dimensions, et de ses caractéristiques cinématiques. Dans le cas où le suivi est mis en œuvre par un filtre de Kalman, les caractéristiques cinématiques enregistrées sont celles qui sont mises à jour à l’issue de la prédiction du filtre à chaque itération de celui-ci.
Le procédé comprend également une étape 400 de création d’au moins une chaîne à partir des objets suivis, la chaîne, comprenant une succession d’objets suivis associés les uns aux autres par leurs extrémités. Une chaîne créée lors de cette étape comprend donc une succession d’objets suivis, chaque objet comprenant une extrémité avant et une extrémité arrière (préalablement déterminées et identifiées comme telles à partir des coordonnées des points formant des coins de l’objet et des propriétés cinématiques de l’objet), et chaque objet de la chaîne étant relié à un autre objet par son extrémité avant et/ou par son extrémité arrière, chaque objet ne pouvant être relié à une extrémité donnée qu’à un seul autre objet. La chaîne créée lors de cette étape permet ainsi de représenter un objet long, par exemple un véhicule long et/ou articulé, comme une succession de plusieurs objets. Un véhicule long ou articulé peut être un camion, par exemple un semi-remorque, un bus, notamment articulé, un tramway, un véhicule tractant une remoque, etc.
En effet, les véhicules longs et/ou articulés ne sont pas détectés comme un objet unique par un capteur radar ou lidar, mais ils font l’objet de plusieurs détections indépendantes. En général, les dimensions maximales d’un objet détecté sont contraintes à environ 4 à 5m, ce qui est suffisant pour représenter une voiture individuelle mais pas un véhicule plus long ou articulé. La construction d’une chaîne permet d’associer ces objets pour créer un objet unique pour des applications aval 500 d’assistance à la conduite, tandis que les objets constitutifs de la chaîne sont suivis individuellement (par exemple par le filtre de Kalmann) pour une meilleure précision.
Le procédé 400 de création d’une chaîne d’objets comprend une étape 410 d’association d’un ensemble d’objets suivis formant la chaîne, et une étape 420 de détermination d’un ensemble de caractéristiques propres à la chaîne, à partir des caractéristiques des objets constitutifs de la chaîne.
En référence à la on a représenté plus en détails un procédé d’association 410 d’un ensemble d’objets suivis pour former une chaîne.
Dans des modes de réalisation, l’étape 410 d’association d’un ensemble d’objets peut comporter une étape préliminaire 411 de présélection d’un ensemble d’objets candidats au chaînage, c’est-à-dire d’objets éligibles pour appartenir à une chaîne d’objets.
Cette étape peut comprendre la sélection, parmi l’ensemble des objets suivis, d’un sous-ensemble d’objets satisfaisant une ou plusieurs conditions. Selon une première condition, les objets sélectionnés sont des objets mobiles. Dans un mode de réalisation, cette sélection est réalisée en vérifiant que la vitesse d’un objet n’est pas nulle.
Une deuxième condition peut porter sur la valeur d’intensité ou de SER associée aux objets suivis, pour assurer que l’objet sélectionné peut être un véhicule. Dans un mode de réalisation, les objets sélectionnés sont des objets dont la valeur d’intensité ou de SER est supérieure à un seuil prédéterminé. Par exemple, les objets sélectionnés peuvent être les objets dont la valeur de SER est supérieure à un seuil compris entre -10dB et 10dB, par exemple -5dB.
Une fois qu’un sous-ensemble d’objets suivis a été sélectionné, le cas échéant, l’association d’un ensemble d’objets comprend une étape 412 d’identification d’au moins un objet dont au moins une extrémité n’a pas déjà été associée à un autre objet. Pour cet objet, le procédé comprend ensuite l’identification 413 d’un deuxième objet pouvant être associé au premier.
Le deuxième objet à associer au premier est déterminé de façon à satisfaire un ensemble de conditions. En premier lieu, le deuxième objet doit comprendre au moins une extrémité libre, c’est-à-dire qui n’a pas déjà été associée à un autre objet.
Dans des modes de réalisation, l’ensemble des conditions comprend en outre au moins une condition de similarité sur les propriétés cinématiques des deux objets. Dans un mode de réalisation, la condition de similarité sur les propriétés cinématiques est respectée si les deux objets présentent une vitesse égale moyennant une tolérance de vitesse prédéterminée, et une accélération égale moyennant une tolérance d’accélération prédéterminée. Dans des modes de réalisation, une condition de similarité sur les propriétés cinématiques peut également comprendre une condition de similarité sur les orientations des deux objets. Cette condition peut par exemple être vérifiée en déterminant un angle formé entre l’orientation du premier objet, l’orientation étant fournie par la direction de l’objet selon sa dimension principale, et l’orientation du deuxième objet, et en vérifiant que cet angle est égal moyennant une tolérance prédéterminée. Compte-tenu du fait que la chaîne permet de représenter des objets articulés, et pour tenir compte de l’orientation éventuellement variable entre deux objets successifs de la chaîne, la tolérance sur les orientations relatives des deux objets peut être assez élevée ; par exemple comprise, en valeur absolue, entre 10 et 45°, par exemple entre 15 et 30°. Une tolérance égale à 30° signifie que la condition de similarité sur les orientations des deux objets est respectée si l’orientation du deuxième objet est égale à celle du premier objet ± 30°.
Dans des modes de réalisation, l’ensemble de conditions comprend également une condition de proximité des deux objets, c’est-à-dire de similarité de positions des deux objets. Cette condition peut être vérifiée en établissant une zone centrée sur chaque objet, par exemple circulaire, et de dimensions prédéterminées, et en déterminant si les zones centrées sur les deux objets présentent au moins un point d’intersection.
Dans des modes de réalisation, l’ensemble des conditions que le deuxième objet doit vérifier pour pouvoir être associer au premier objet comprend en outre une condition relative à la compatibilité entre les positions relatives des deux objets et leur chaînage potentiel. Comme indiqué précédemment, l’identification d’un deuxième objet pouvant être associé au premier comprend une sélection d’un objet dont au moins une extrémité est libre, tout comme le premier objet. La compatibilité des deux objets compte-tenu de leur chaînage potentiel correspond donc à la possibilité d’associer les deux objets compte-tenu d’une part de leurs extrémités libres, et d’autre part de leur position relative. Si les deux objets présentent tous les deux la même extrémité libre, que ce soit l’extrémité avant ou arrière, ces deux objets ne peuvent pas être associés. De plus, deux objets présentant chacun au moins une extrémité libre respectivement différente ne peuvent être associés que si ces extrémités libres sont suffisamment proches l’une de l’autre, c’est-à-dire que l’extrémité avant du premier objet est située à une distance de l’extrémité arrière du deuxième objet inférieure à un seuil de distance déterminé, ou inversement avec l’extrémité arrière du premier objet et l’extrémité avant du deuxième objet.
Dans des modes de réalisation, l’identification 413 du deuxième objet à associer au premier comprend la vérification de plusieurs des conditions présentées ci-avant, à savoir au moins les conditions suivantes :
  • Le deuxième objet présente une extrémité libre, par exemple l’extrémité avant, qui peut être associée à l’extrémité libre du premier objet, par exemple l’extrémité arrière,
  • Le deuxième objet présente des propriétés cinématiques similaires à celles du premier objet, moyennant une tolérance prédéterminée, et
  • Le deuxième objet est spatialement voisin du premier objet.
En outre, l’ensemble des conditions que le deuxième objet doit vérifier peut comprendre une condition de similarité de trajectoire avec le premier véhicule. Comme indiqué ci-avant, le chaînage doit permettre de représenter des objets articulés, qui n’ont pas nécessairement la même orientation en tout point. Pour vérifier qu’un objet suit un autre objet, et peut donc lui être chaîné, même s’il ne présente pas la même orientation, on détermine si le deuxième objet se situe dans une zone d’intérêt située à l’extrémité libre du premier objet, la position de la zone d’intérêt étant déterminée en fonction de la vitesse angulaire de lacet du premier objet.
Plus précisément, en référence aux figures 5a à 5c, la zone d’intérêt ZI est positionnée de sorte que son centre CI soit situé sur un cercle C formé par la vitesse angulaire de lacet instantanée de l’objet. Ce cercle C représente le prolongement de la trajectoire instantanée du premier objet O1, et le fait de centrer la zone d’intérêt ZI sur le cercle C permet de rechercher le deuxième objet dans le prolongement de la trajectoire du premier objet O1. En effet, si les deux objets appartiennent à un véhicule articulé, les différentes parties de ce véhicule articulé peuvent former entre elles un angle, de sorte que le deuxième objet ne se situe pas sur un axe rectiligne correspondant à la direction instantanée du véhicule de tête. En revanche, les différents objets présentent la même trajectoire, et on peut donc trouver un objet associé au premier objet en propageant sa trajectoire vers l’avant ou vers l’arrière.
A titre d’illustration, la représente un premier exemple de zone d’intérêt ZI avec une vitesse angulaire de lacet relativement faible (par rapport à la ) et négatif. La représente un deuxième exemple de zone d’intérêt ZI avec une vitesse angulaire de lacet relativement élevé et négatif. La représente un troisième exemple de zone d’intérêt ZI avec une vitesse angulaire relativement faible et positive. On remarque sur ces trois figures que la zone d’intérêt ZI, en l’occurrence de forme elliptique, suit la trajectoire du premier objet.
La forme d’intérêt peut être de forme quelconque mais elle présente de préférence une dimension principale ; il peut s’agir par exemple d’un rectangle ou d’une ellipse.
La détermination d’un deuxième objet 413 pouvant être associé au premier objet peut être mise en œuvre de façon systématique en vérifiant, pour chaque objet suivi autre que le premier objet, l’ensemble des conditions décrit ci-avant. Lorsque toutes les conditions sont remplies, l’objet vérifiant toutes les conditions est associé au premier objet. En variante, ces conditions peuvent être vérifiées de manière à sélectionner progressivement des sous-ensembles d’objets remplissant les conditions successives. Par exemple, on peut identifier d’abord un sous-ensemble d’objets spatialement voisins du premier objet, puis vérifier, parmi les objets de ce sous-ensemble, ceux qui présentent des propriétés cinématiques proches du premier objet, etc.
Une fois qu’un deuxième véhicule a été identifié pour être associé au premier objet, l’association des deux objets est enregistrée 414 dans la mémoire 13. Pour ce faire, la mémoire stocke en outre une liste de chaînes d’objets avec un identifiant associé à chaque chaîne, et les informations enregistrées concernant un objet suivi sont mises à jour pour ajouter :
  • L’identifiant de la chaîne à laquelle il appartient,
  • Un identifiant de l’objet auquel il est associé,
  • Une indication de l’extrémité de l’objet par laquelle il est associé à un autre objet.
Selon une condition supplémentaire, chaque chaîne ne peut excéder une longueur déterminée. Par conséquent, dans le cas où le premier objet qui a été associé à un deuxième objet à l’étape 410 appartenait déjà à une chaîne d’objets, en étant associé à un autre objet par une extrémité, une condition supplémentaire peut être vérifiée lors de l’étape 412, c’est-à-dire avant de déterminer un deuxième objet à lui associer, selon laquelle la chaîne à laquelle appartient l’objet doit présenter une longueur inférieure à un seuil déterminé. Pour cela, on calcule la longueur de la chaîne comme la somme des longueurs des objets qui la composent, à laquelle on ajoute la longueur de l’objet à ajouter. Si la longueur obtenue est inférieure à la longueur déterminée, l’étape 413 de détermination d’un deuxième objet à associer au premier est mise en œuvre.
En référence à la , on a représenté schématiquement l’étape 420 de détermination des caractéristiques associées à la chaîne formée par association des objets les uns à la suite des autres. Dans un mode de réalisation, cette étape peut comprendre une étape préliminaire de détermination d’un objet principal 421 de la chaine. L’objet principal de la chaîne peut être l’objet de la chaîne le plus proche du capteur 10 de présence d’objets. Alternativement, l’objet principal de la chaîne est l’objet pour lequel la trajectoire prédite pour l’objet présente un niveau de confiance maximal parmi tous les objets de la chaîne. Par exemple, dans le cas où un filtre de Kalman est utilisé, le filtre de Kalman génère une métrique de confiance – par exemple une matrice de covariance complétant le vecteur d’état - pour tous les signaux cinématiques estimés. Cette métrique de confiance peut être utilisée en tant que niveau de confiance pour sélectionner l’objet principal de la chaîne.
L’étape de détermination des caractéristiques de la chaîne peut en outre comprendre la détermination de caractéristiques cinématiques 422 de la chaîne, et de caractéristiques de dimensions 423 de la chaîne.
Concernant les caractéristiques cinématiques, elles peuvent être celles de l’un des objets composant la chaîne. Dans un mode de réalisation, les caractéristiques cinématiques sont celles de l’objet principal de la chaîne.
La détermination des caractéristiques de dimensions 423 de la chaîne comprend la détermination d’une zone de l’espace englobant l’ensemble des objets de la chaîne, les dimensions de la chaîne correspondant aux dimensions de ladite zone.
Dans un mode de réalisation, représenté schématiquement en , la zone Z de l’espace englobant l’ensemble des objets O1, O2, O3 de la chaîne est une zone parallélépipédique, par exemple rectangulaire, dont la dimension principale s’étend selon l’orientation de l’objet principal de la chaîne, par exemple l’objet de la chaîne le plus proche du capteur d’objets (ici O1).
Dans un mode de réalisation, représenté schématiquement en , la zone Z de l’espace englobant l’ensemble des objets O1, O2, O3 de la chaîne est une zone parallélépipédique, par exemple rectangulaire, dont la dimension principale s’étend parallèlement à un axe A reliant l’extrémité avant de l’objet situé en tête de la chaîne à l’extrémité arrière de l’objet situé en queue de la chaîne. Par « tête de la chaîne » on désigne le premier objet de la chaîne, dont l’extrémité avant est libre et l’extrémité arrière est connectée à un autre objet (par exemple ici l’objet O1), et par « queue de la chaîne », on désigne le dernier objet de la chaîne, dont l’extrémité arrière est libre et l’extrémité avant est liée à un autre objet (par exemple ici l’objet O3). Dans un exemple, l’axe peut relier un point situé à mi-largeur de l’extrémité avant de l’objet en tête de la chaîne à un point situé à mi-largeur de l’extrémité arrière de l’objet en queue de la chaîne.
Dans un autre mode de réalisation, représenté schématiquement en , la zone Z de l’espace englobant l’ensemble des objets O1, O2, O3 de la chaîne est une zone parallélépipédique, par exemple rectangulaire, dont la dimension principale est parallèle à une orientation estimée B du véhicule principal V s’il se trouvait à l’emplacement de l’objet principal de la chaîne. L’orientation estimée B du véhicule principal V est déterminée en calculant un écart de temps t entre la position actuelle du véhicule principal V et la position de l’objet de la chaîne, cet écart de temps étant égal à la vitesse du véhicule principal multiplié par la distance entre le véhicule principal et l’objet principal de la chaîne. Cet écart de temps est ensuite multiplié à la vitesse angulaire de lacet pour obtenir l’orientation estimée du véhicule principal.
Dans un mode de réalisation, la zone de l’espace englobant l’ensemble des objets de la chaîne est déterminée en calculant la surface d’au moins deux zones parmi les trois exemples de zones décrites ci-avant, en attribuant un score à chaque zone en fonction de la surface de chaque zone, et en retenant la zone présentant le meilleur score. Dans un mode de réalisation, le score attribué à chaque zone peut également dépendre d’un critère de confiance sur la zone. Par exemple, une zone définie à partir de l’orientation de l’objet le plus proche du capteur peut présenter une confiance supérieure aux autres zones car l’objet le plus proche du capteur est généralement détecté et suivi avec une meilleure précision.
En outre, les caractéristiques associées à la chaîne peuvent comprendre un identifiant du premier objet de la chaîne, c’est-à-dire de l’objet situé en tête de la chaîne, dans la direction du déplacement des objets constituant la chaîne. Les caractéristiques associées à la chaîne peuvent également comprendre d’autres caractéristiques dérivées des caractéristiques des objets qui constituent la chaîne, comme par exemple :
  • une valeur de SER ou d’intensité associée à la chaîne,
  • un nombre de points détectés par le capteur et associés à la chaîne, correspondant à la somme du nombre de points associés à chaque objet de la chaîne,
  • les coordonnées des centroïdes de l’ensemble des objets de la chaîne, ou une moyenne de ces coordonnées,
  • une probabilité d’existence, pouvant être égale à la probabilité maximale observée parmi tous les objets de la chaîne,
  • pour chaque objet de la chaîne, la source de la détection de l’objet, s’il s’agit du capteur 10 ou éventuellement d’un autre composant,
  • un horodatage des objets de la chaîne, correspondant au moment le plus récent où un objet a été détecté par le capteur. Pour l’ensemble de la chaîne, on peut sélectionner l’horodatage le plus récent parmi tous les objets de la chaîne.
On observe qu’en fonction de la nature des données, les caractéristiques de la chaîne peuvent être celles de l’objet principal de la chaîne, ou être une moyenne, un minimum ou un maximum des valeurs des caractéristiques des objets de la chaîne.
Les caractéristiques peuvent également comprendre une indication de la durée d’existence de la chaîne, c’est-à-dire du nombre d’itérations du procédé depuis lesquelles la chaîne existe.
A l’issue de l’étape 420, la chaîne formée par association d’objets constitue donc un objet distinct des objets qui la constituent, cet objet présentant un ensemble de caractéristiques propres. L’objet « chaîne » et ses caractéristiques peuvent être utilisés ensuite dans d’autres algorithmes, et notamment dans des traitements mis en œuvre pour des fonctionnalités d’assistance 500 à la conduite. Ainsi, un algorithme d’assistance à la conduite dont des données d’entrées sont un ensemble d’objets détectés dans l’environnement du véhicule principal, chaque objet détecté étant associé à des caractéristiques comprenant notamment des caractéristiques cinématiques et des dimensions, peut recevoir en entrée une chaîne d’objets représentative d’un véhicule long, dont chaque objet fait par ailleurs l’objet d’un suivi, par exemple par un filtre de Kalman, ce qui permet une bonne précision sur la détermination des dimensions et des positions cinématiques de la chaine.
Dans des modes de réalisation, le procédé ci-avant est itéré à une fréquence donnée qui est la fréquence d’exécution des algorithmes de détection d’objets par le capteur de présence d’objets 10. Lors des itérations successives, les chaînes formées à une itération précédente sont conservées et l’étape 400 de création d’une chaîne peut comprendre une étape préliminaire de vérification que les objets composant les chaînes précédemment créées vérifient toujours tout ou partie des différentes conditions pour le chaînage, mentionnées à l’étape 410. Les vérifications peuvent être menées pour chaque chaînage de deux objets consécutifs, et comprendre par exemple :
  • Une vérification d’un même état de stationnarité ou de mobilité de deux objets chaînés, c’est-à-dire que la conservation du chaînage nécessite que deux objets consécutifs soient soit tous les deux mobiles, soit tous les deux stationnaires,
  • Une ou plusieurs condition(s) de similarité sur les propriétés cinématiques de deux objets chaînés, en particulier vitesse et accélération,
  • La condition de proximité sur les positions de deux objets chaînés,
  • La condition de similarité de trajectoire de deux objets consécutifs chaînés.
Si ces conditions ne sont pas respectées pour deux objets consécutifs, le chaînage de ces objets est supprimé. Dans le cas où une chaîne est formée uniquement de ces deux objets, alors la chaîne est supprimée. Dans le cas où les deux objets appartiennent à une chaîne plus longue, si ces deux objets sont situés à une extrémité de la chaîne, les deux objets sont séparés et l’extrémité de la chaîne restante est mise à jour. Si les deux objets ne sont situés à aucune extrémité d’une chaîne, le fait de supprimer le chaînage des objets revient à diviser la chaîne en deux chaînes. Les propriétés des objets et des chaînes sont mis à jour. En particulier, les objets dont le chaîne est supprimé ne sont plus associés, pour les extrémités concernées, à un autre objet et ces extrémités deviennent libres.
Dans un mode de réalisation, le chaînage entre deux objets n’est pas directement supprimé si les conditions mentionnées ci-avant ne sont pas remplies, mais chaque chaînage entre deux objets peut être associé à un score. Ce score peut être initialisé à une première valeur lors du chaînage des objets, et être augmenté si, lors de la vérification, les conditions sont remplies, ou être diminué si elles ne le sont pas, ou pas toutes. La suppression du chaînage entre deux objets a lieu lorsque le score atteint un niveau trop bas préalablement déterminé. Les paramètres tels que la valeur initiale, le niveau d’incrément ou de décrément, et le seuil bas pour supprimer le chaînage peuvent être déterminés en fonction du niveau de robustesse ou de flexibilité que l’on souhaite donner au chaînage.

Claims (15)

  1. Procédé d’observation de l’environnement d’un véhicule principal, le procédé étant mis en œuvre par un dispositif (1) comportant un capteur de présence d’objets (10) de type radar ou lidar monté sur le véhicule principal (V), et une unité de traitement (11) en communication avec le capteur de présence d’objets, le procédé comprenant :
    • l’acquisition (100), de données relatives à l’environnement du véhicule principal par le capteur de présence d’objets,
    • la détection (200) d’une pluralité d’objets à partir des données acquises, chaque objet étant associé à un ensemble de caractéristiques,
    • le suivi (300) d’une pluralité d’objets détectés pour prédire un état futur des objets suivis,
    • la création (400) d’une chaîne comprenant une succession d’objets suivis associés les uns aux autres, comprenant :
      • l’association (410) d’un ensemble d’objets suivis formant la chaîne, et
      • la détermination (420) de caractéristiques associées à la chaîne d’objets, à partir de caractéristiques des objets formant ladite chaîne.
  2. Procédé selon la revendication 1, comprenant en outre l’utilisation des caractéristiques de la chaîne d’objets dans la mise en œuvre d’au moins une application (500) d’aide à la conduite du véhicule principal.
  3. Procédé selon la revendication 1 ou 2, dans lequel chaque objet d’une chaîne est associé par une extrémité avant, respectivement arrière, avec l’extrémité arrière, respectivement avant, d’un autre objet de la chaîne.
  4. Procédé selon l’une quelconque des revendications précédentes, dans lequel l’association (410) d’un ensemble d’objets suivis formant une chaîne comprend :
    • l’identification (412) d’au moins un premier objet suivi dont au moins une extrémité, dite libre, n’est pas associée à un autre objet,
    • l’association (413) d’un deuxième objet suivi au premier, si la paire formée par le premier et le deuxième objets suivis vérifie au moins les conditions suivantes :
      • le deuxième objet suivi présente une extrémité libre pouvant être associée à l’extrémité libre du premier objet,
      • les deux objets sont spatialement voisins, et
      • les deux objets présentent des caractéristiques cinématiques égales moyennant une tolérance déterminée.
  5. Procédé selon la revendication précédente, dans lequel l’association (413) d’un deuxième objet suivi au premier est mise en œuvre si la paire formée par le premier et le deuxième objet vérifie en outre une condition sur la trajectoire des objets de la paire, telle que le deuxième objet est situé dans une région d’intérêt située à l’extrémité libre du premier objet et dont la position est déterminée en fonction de la vitesse angulaire de lacet du premier objet.
  6. Procédé selon la revendication précédente, dans lequel une région d’intérêt est une forme géométrique dont le centre est situé sur le cercle de courbure défini par la vitesse angulaire de lacet du premier objet.
  7. Procédé selon l’une quelconque des revendications 4 à 6, dans lequel l’identification (412) d’au moins un premier objet suivi comprenant une extrémité libre comprend une étape préliminaire de sélection (411) d’un ensemble d’objets candidats parmi l’ensemble des objets suivis, les objets candidats sélectionnés étant des objets suivis en mouvement.
  8. Procédé selon l’une quelconque des revendications précédentes, dans lequel la détermination des caractéristiques (420) associées à la chaîne comprend la détermination de caractéristiques cinématiques (422) et de dimensions (423) de la chaîne.
  9. Procédé selon la revendication précédente, comprenant l’identification (421) d’un objet principal parmi l’ensemble des objets de la chaîne, et les caractéristiques cinématiques de la chaîne sont celles de l’objet principal.
  10. Procédé selon la revendication 9, dans lequel l’objet principal est l’objet de la chaîne le plus proche du capteur de présence d’objets (10).
  11. Procédé selon l’une quelconque des revendications 8 à 10, dans lequel la détermination des dimensions de la chaîne (423) comprenant la détermination d’une zone de l’espace englobant l’ensemble des objets regroupés, les dimensions de la chaîne correspondant aux dimensions de ladite zone.
  12. Procédé selon la revendication précédente, dans lequel la détermination de la zone de l’espace englobant l’ensemble des objets regroupés comprend :
    • le calcul d’une première zone rectangulaire de l’espace regroupant l’ensemble des objets regroupés, ladite première zone présentant une dimension principale selon une direction parallèle à la direction de l’objet le plus proche du capteur parmi les objets regroupés,
    • le calcul d’au moins une deuxième zone rectangulaire de l’espace regroupant l’ensemble des objets regroupés, ladite deuxième zone présentant une dimension principale selon une direction différente de la première zone,
    • l’attribution d’un score à chaque zone en fonction d’un critère de confiance et d’un critère de superficie de la zone et,
    • la sélection de la zone de l’espace parmi la première et ladite au moins deuxième zone en fonction du score attribuée à chaque zone.
  13. Procédé selon la revendication 12, comprenant :
    • le calcul d’une deuxième zone rectangulaire de l’espace regroupant l’ensemble des objets regroupés, ladite deuxième zone présentant une dimension principale parallèle à un axe reliant une extrémité avant du premier objet de la chaîne à une extrémité arrière du dernier objet de la chaîne,
    • le calcul d’une troisième zone rectangulaire de l’espace regroupant l’ensemble des objets regroupés, ladite troisième zone présentant une dimension principale parallèle à une orientation estimée du véhicule principal s’il se trouvait à l’emplacement de l’objet de la chaîne le plus proche du capteur.
  14. Dispositif (1) comprenant un capteur de présence d’objets (10) de type radar ou lidar et une unité de traitement (11) en communication avec le capteur de présence d’objets, le dispositif étant configuré pour la mise en œuvre du procédé selon l’une quelconque des revendications qui précèdent.
  15. Véhicule (V), comprenant un dispositif (1) selon la revendication précédente, le capteur de présence d’objets (10) étant embarqué dans le véhicule (V) et orienté de sorte à acquérir des données de présence d’objets dans l’environnement du véhicule (V).
FR2211162A 2022-10-26 2022-10-26 Procede de detection de vehicules longs ou articules Pending FR3141549A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2211162A FR3141549A1 (fr) 2022-10-26 2022-10-26 Procede de detection de vehicules longs ou articules

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2211162 2022-10-26
FR2211162A FR3141549A1 (fr) 2022-10-26 2022-10-26 Procede de detection de vehicules longs ou articules

Publications (1)

Publication Number Publication Date
FR3141549A1 true FR3141549A1 (fr) 2024-05-03

Family

ID=85381427

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2211162A Pending FR3141549A1 (fr) 2022-10-26 2022-10-26 Procede de detection de vehicules longs ou articules

Country Status (1)

Country Link
FR (1) FR3141549A1 (fr)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220299626A1 (en) * 2021-03-17 2022-09-22 Aptiv Technologies Limited Tracking Different Sections of Articulated Vehicles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220299626A1 (en) * 2021-03-17 2022-09-22 Aptiv Technologies Limited Tracking Different Sections of Articulated Vehicles

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DULAU MARIUS ET AL: "Obstacle Detection Using a Facet-Based Representation from 3-D LiDAR Measurements", SENSORS, vol. 21, no. 6861, 15 October 2021 (2021-10-15), pages 1 - 21, XP093030859, DOI: 10.3390/s21206861 *

Similar Documents

Publication Publication Date Title
CN110458854B (zh) 一种道路边缘检测方法和装置
EP3137355B1 (fr) Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif
EP3635612B1 (fr) Procédé et système d'identification d'au moins un objet en déplacement
US9110163B2 (en) Lidar-based classification of object movement
EP2473867B1 (fr) Traitement de donnees multi-cibles pour radars passifs multi-recepteurs en mode sfn ou mfn
WO2020243962A1 (fr) Procédé de détection d'objet, dispositif électronique et plateforme mobile
CN114080625A (zh) 绝对位姿确定方法、电子设备及可移动平台
US20210033706A1 (en) Methods and systems for automatically labeling point cloud data
EP2282293A1 (fr) Procédé de détermination d'une région d'intérêt dans une image
CN116547562A (zh) 点云滤噪方法、系统和可移动平台
FR3141549A1 (fr) Procede de detection de vehicules longs ou articules
FR3054672B1 (fr) Procede et systeme d'association de donnees de detection et de suivi d'objets mobile pour vehicule automobile
EP0604252B1 (fr) Procédé d'aide au pilotage d'un aéronef volant à basse altitude
KR20220128787A (ko) 라이다 센서를 이용한 객체 추적 방법 및 장치와, 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
CN112906519A (zh) 一种车辆类型识别方法及装置
EP3757943B1 (fr) Procédé et dispositif de télémétrie passive par traitement d'image et utilisation de modeles en trois dimensions
FR3106108A1 (fr) Procédé et dispositif de détermination de trajectoire d’une route
WO2022189389A1 (fr) Procede et dispositif de calibration d'un capteur de profondeur d'environnement
EP3740417B1 (fr) Procédé d'assistance au stationnement pour un véhicule à moteur
WO2021099395A1 (fr) Procédé de détection de pics d'intensité de faisceau lumineux réfléchi de manière spéculaire
WO2023067130A1 (fr) Procédé de mise en œuvre d'un dispositif lidar avec descripteurs à évaluation de distances
FR3105961A1 (fr) Procédé et dispositif de détermination d’un indicateur de changement de voie pour véhicule
WO2023061915A1 (fr) Procédé de détection d'une limite d'une voie de circulation
EP3757942A1 (fr) Procédé et dispositif de télémétrie passive par traitement d'image
EP3008664B1 (fr) Procédé et système de suivi d'objets en mouvement

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240503