FR3054673B1 - Fusion de donnees de detection et de suivi d'objets pour vehicule automobile - Google Patents

Fusion de donnees de detection et de suivi d'objets pour vehicule automobile Download PDF

Info

Publication number
FR3054673B1
FR3054673B1 FR1657410A FR1657410A FR3054673B1 FR 3054673 B1 FR3054673 B1 FR 3054673B1 FR 1657410 A FR1657410 A FR 1657410A FR 1657410 A FR1657410 A FR 1657410A FR 3054673 B1 FR3054673 B1 FR 3054673B1
Authority
FR
France
Prior art keywords
bounding box
detector
objects
bounding
detectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
FR1657410A
Other languages
English (en)
Other versions
FR3054673A1 (fr
Inventor
Hala Lamdouar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to FR1657410A priority Critical patent/FR3054673B1/fr
Priority to PCT/EP2017/069253 priority patent/WO2018020045A1/fr
Publication of FR3054673A1 publication Critical patent/FR3054673A1/fr
Application granted granted Critical
Publication of FR3054673B1 publication Critical patent/FR3054673B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

L'invention concerne un procédé de fusion de données issues d'au moins deux détecteurs (S1, S2) d'objets équipant un véhicule automobile (1), chaque détecteur étant apte à délivrer une boîte englobante (OS1, OS2) représentative d'un objet détecté par ledit détecteur (S1, S2) dans l'environnement immédiat dudit véhicule automobile (1), ledit procédé comportant une étape d'association des boîtes englobantes (OS1, OS2) délivrées par chacun desdits au moins deux détecteurs (S1, S2) d'objets représentatives d'un même objet détecté en fonction de leur position relative, et une étape de fusion des boîtes englobantes (OS1, OS2) associées en une seule boîte englobante résultante, caractérisé en ce que l'étape d'association comporte, pour chaque boîte englobante, une étape de détermination de côtés (C1, C2) de la boîte englobante qui sont directement visibles par le détecteur (S1, S2) d'objets ayant délivré ladite boîte englobante.

Description

FUSION DE DONNEES DE DETECTION ET DE SUIVI D’OBJETS POUR VEHI CULE AUTOMOBI LE
La présente invention concerne de manière générale le domaine des véhicules automobiles, et plus précisément un procédé et un système de fusion de données de détection et de suivi d’objets, embarqué sur un véhicule automobile.
Il est connu d’équiper certains véhicules automobiles avec des systèmes d’aide à la conduite utilisant différents capteurs pour détecter différents objets situés dans l’environnement du véhicule en vue de permettre aux conducteurs et/ou aux systèmes d’aide à la conduite d’adapter la conduite à la situation.
Les objets à détecter peuvent être, selon les applications recherchées, des obstacles sur la route, tels que des piétons ou d’autres véhicules, ou toute information relative à la route empruntée, telle que les lignes de marquage routier, la reconnaissance des panneaux de signalisation ou des feux tricolores. On s’intéresse dans la suite plus particulièrement à la détection d’objets mobiles (piétons ou véhicule de tout type).
Tout système de détection utilisé pour l’assistance à la conduite comporte classiquement au moins un capteur apte à détecter des objets dans l’environnement du véhicule, typiquement à l’avant, à l’arrière ou sur un côté du véhicule dans une zone d’observation donnée, ainsi qu’un module de traitement associé à ce capteur. Le module de traitement est apte à délivrer au moins une information relative à chaque objet détecté, typiquement la position (coordonnées cartésiennes ou distance associée à un angle) de cet objet par rapport au véhicule. Certains modules de traitement permettent en outre, à partir de traitements d’images capturées par une caméra, une classification de l’objet détecté, par exemple pour identifier la présence d’un piéton, ou de véhicules susceptibles de présenter un danger. Dans la suite, on appelle « détecteur d’objets » l’ensemble formé par un capteur d’une technologie donnée et de son module de traitement associé.
Différentes technologies de capteurs (caméra, radar, lidar, capteur laser, capteur à ultrasons) peuvent être utilisées en fonction des besoins.
Les détecteurs d’objets précités présentent néanmoins l’inconvénient d’être peu précis dans certains types de mesures. Ainsi, un système de détection utilisant une caméra ne permet pas des mesures très précises en distance, contrairement au radar. A l’inverse, le radar est moins précis en angle qu’une caméra. Par ailleurs, les capteurs actifs (radar, lidar, laser) sont précis en position mais pas en classification. En particulier pour le lidar et le laser, l’imprécision en classification est due au fait qu’ils essayent de reconstituer un objet à partir de la distribution géométrique des faisceaux réfléchis.
Pour garantir une perception fiable de l’environnement du véhicule, il est ainsi connu d’utiliser plusieurs détecteurs d’objets de technologie différentes, et de fusionner les données issues de ces différents détecteurs.
Cette fusion multi-capteurs dite de « haut niveau », décrite par exemple dans l’article intitulé « A multi-sensor fusion System for moving object détection and tracking in urban driving environments » (Cho et al., 2014 IEEE International Conférence on robotics & automation (ICRA) Hong Kong Convention and exhibition Center - May 31-June 7, 2014), comprend essentiellement les trois étapes classiques suivantes: - une étape d’association consistant à déterminer si deux objets détectés par deux détecteurs différents correspondent ou non à un même objet ; - une étape de fusion/reconstruction de l’objet en combinant les objets associés à l’étape précédente. - une étape de suivi (ou tracking) des différents objets.
Pour illustrer la problématique de la fusion dite de haut niveau, la figure 1 représente une situation routière réelle avec un véhicule automobile 1 équipé de plusieurs détecteurs d’objets de technologie différente, ici d’un premier détecteur Si, par exemple utilisant une caméra placée à l’avant du véhicule automobile 1, et d’un second détecteur S2, utilisant par exemple un capteur lidar placé sur le rétroviseur droit du véhicule automobile 1. Un obstacle 2, typiquement un autre véhicule automobile est présent sur l’avant droite du véhicule automobile 1. La figure 1b représente schématiquement, pour cette situation routière réelle, les objets Ος et Ος détectés respectivement par les détecteurs Si et S2. Comme on le voit sur la figure 1b, les objets détectés, tels qu’issus des différents détecteurs, se présentent sous la forme de boites englobantes, ici des rectangles. Chaque boîte englobante correspond à un objet tel qu’il a été détecté par le détecteur considéré, avec notamment des informations estimées concernant sa position relative par rapport au véhicule automobile 1, ses dimensions, et éventuellement, selon le type de détecteur utilisé, d’autres attributs comme sa classe (type d’objet), sa vitesse et son accélération relatives.
Le but de l’étape précitée d’association est de déterminer que les objets Ος et Ος correspondent en fait à un seul et même objet (le véhicule tiers 2), de sorte que les données de ces deux objets pourront être fusionnées pour reconstruire un objet plus proche de la réalité.
Les algorithmes actuels se basent tous sur la position des centres des boîtes englobantes pour décider si deux boîtes peuvent être ou non associées. Typiquement, les objets issus de deux détecteurs seront associés à un seul et même objet si les distances séparant les centres des boîtes englobantes représentatives de ces objets sont inférieures à un certain seuil prédéterminé. En d’autres termes, pour les algorithmes actuels, le centre de la boîte englobante constitue le point de référence de l’objet et cette représentation de la position de l’objet est adoptée tout au long des étapes de la fusion (association, estimation d’état et suivi).
Or, les centres des boîtes englobantes sont généralement estimés en déterminant le milieu du segment formé par les milieux de deux côtés opposés de chaque boîte englobante. Néanmoins, comme cela a été indiqué précédemment, selon les types de capteurs utilisés, les boîtes englobantes obtenues peuvent souffrir d’imprécisions au niveau de leur taille, de sorte que la détermination de leur centre reste assez imprécise.
La présente invention a pour but de pallier les inconvénients des algorithmes de fusion de haut niveau jusqu’ici utilisés.
Pour ce faire, l’invention a pour objet un procédé de fusion de données issues d’au moins deux détecteurs d’objets équipant un véhicule automobile, chaque détecteur étant apte à délivrer une boîte englobante représentative d’un objet détecté par ledit détecteur dans l’environnement immédiat dudit véhicule automobile, ledit procédé comportant une étape d’association des boîtes englobantes délivrées par chacun desdits au moins deux détecteurs d’objets représentatives d’un même objet détecté en fonction de leur position relative, et une étape de fusion des boîtes englobantes associées en une seule boîte englobante résultante, caractérisé en ce que l’étape d’association comporte, pour chaque boîte englobante, une étape de détermination de côtés de la boîte englobante qui sont directement visibles par le détecteur d’objets ayant délivré ladite boîte englobante.
Selon d’autres particularités possibles : - chaque boîte englobante étant définie par une représentation en deux dimensions sous la forme d’un quadrilatère à angles droits, à quatre sommets et quatre segments reliant les sommets, l’étape de détermination de côtés de la boîte englobante qui sont visibles comporte une étape d’identification des sommets du quadrilatère qui sont directement visibles par le détecteur d’objets ayant délivré ladite boîte englobante ; - l’étape de détermination comporte en outre une étape de détermination des segments directement visibles du quadrilatère, dont les extrémités sont des sommets identifiés comme directement visibles ; - l’étape d’association est alors basée de préférence sur une estimation d’une distance séparant des milieux de segments directement visibles pour au moins deux boîtes englobantes susceptibles d’être représentatives d’un même objet détecté. L’invention a également pour objet un système de fusion de données issues d’au moins deux détecteurs d’objets équipant un véhicule automobile, chaque détecteur étant apte à délivrer une boîte englobante représentative d’un objet détecté par ledit détecteur dans l’environnement immédiat dudit véhicule automobile, ledit système comportant des moyens d’association des boîtes englobantes délivrées par chacun desdits au moins deux détecteurs d’objets représentatives d’un même objet détecté en fonction de leur position relative, et des moyens de fusion des boîtes englobantes associées en une seule boîte englobante résultante, caractérisé en ce que les moyens d’association comportent des moyens de détermination, pour chaque boîte englobante, de côtés de la boîte englobante qui sont directement visibles par le détecteur d’objets ayant délivré ladite boîte englobante.
Lesdits au moins deux détecteurs peuvent être de technologies différentes, chacun desdits détecteurs utilise un capteur choisi dans le groupe comprenant un capteur de vision, un radar, un lidar. L’invention et les différents avantages qu’elle procure seront mieux compris au vu de la description suivante, faite en référence aux figures annexées, dans lesquelles : - les figures 1a et 1b déjà décrites ci-avant, représentent schématiquement respectivement une situation routière réelle et les résultats de détection d’obstacle obtenus avec un véhicule automobile équipé de deux détecteurs de technologies différentes. - la figure 2, illustre schématiquement le principe de l’invention pour la situation routière de la figure 1a; - la figure 3 donne une représentation géométrique pour illustrer la détermination d’un côté visible d’un objet détecté par un détecteur d’objet, conformément à l’invention ; - la figure 4 illustre, sous forme de synoptique simplifié, un exemple de système de fusion de données conforme à l’invention.
La présente invention est fondée sur le fait que, quelle que soit la nature du détecteur utilisé, la mesure la plus précise liée à ce détecteur correspond toujours à la partie d’un objet qui a été vue par le détecteur.
Ainsi : - pour les détecteurs dont le capteur associé est placé à l’avant du véhicule automobile 1, les parties visibles d’un obstacle potentiel sont généralement la partie arrière de l’obstacle (s’il s’agit d’un obstacle que l’on suit), voire une partie latérale ; - pour les détecteurs dont le capteur associé est placé sur un côté du véhicule automobile, les parties visibles d’un obstacle potentiel sont généralement la partie latérale de l’obstacle, voire éventuellement la partie arrière ou la partie avant de l’obstacle (selon la position relative de l’obstacle par rapport au véhicule 1). A titre d’exemple illustratif, la figure 2 montre, pour la situation routière réelle donnée en figure 1a, que le seul côté de l’objet Ος détecté par le détecteur Si qui est visible par ce détecteur Si est le côté latéral gauche Ci, et que le seul côté de l’objet et Ος détecté par le détecteur S2 qui est visible par ce détecteur S2 est le côté latéral gauche C2.
Ainsi, au lieu de déterminer le centre des boîtes englobantes issues de chaque détecteur, l’invention consiste à déterminer les côtés des boîtes qui sont visibles par les détecteurs qui les ont générées.
La figure 3 montre que cette détermination relève d’un simple calcul géométrique.
Sur cette figure, le véhicule automobile 1 est équipé, à des fins de simplification pour la démonstration, d’un unique détecteur d’objet représenté ici par le point S situé par exemple sur le rétroviseur droit du véhicule automobile. Deux quadrilatères ABCD d’une part, et EFGH d’autre part, représentent les limites de deux boîtes englobantes correspondant à deux objets distincts qui ont été détectés par le détecteur d’objet S.
Comme on peut le déduire instinctivement sur la figure 3 : - seul le segment AD correspond à un côté visible de l’objet considéré pour le détecteur S ; - les segments EF et EH correspondent tous deux à des côtés visibles pour le détecteur S.
Pour déterminer par le calcul les segments visibles, il suffit de tracer les droites qui relient chaque sommet de l’objet détecté au détecteur qui l’a détecté. Un sommet est visible si et seulement si la droite ne rencontre aucun point appartenant au quadrilatère entre le détecteur et le sommet. Un segment de l’objet est visible si les deux sommets qui le délimitent sont visibles.
Pour le quadrilatère ABCD de la figure 3, on a :
A et D sont des sommets visibles. B et C sont des sommets cachés.
Donc [Aü] est le côté visible par le détecteur de l’objet ABCD.
Un raisonnement similaire sur le quadrilatère EFGH permet de déterminer que les sommets E, F et H sont des sommets visibles, et que par conséquent, les côtés visibles sont les segments [EF]et [EH],
Une fois que l’on a déterminé les différents segments visibles, l’étape d’association s’effectue en comparant les positions relatives de ces segments. Pour simplifier au maximum les calculs, on peut se limiter avantageusement à déterminer les milieux des segments visibles, de façon à fonder une décision d’association de deux boites englobantes sur une estimation de la distance séparant deux milieux de segments visibles pour ces deux boîtes. Les milieux des segments visibles serviront ensuite à l’estimation du milieu du segment visible de l’objet fusionné et sa boîte englobante déduite à partir de ce point.
Le procédé tel qu’il vient d’être décrit est particulièrement avantageux dans le cadre de la fusion multi-capteurs utilisant des capteurs de technologies différentes. Néanmoins, il peut également être appliqué dans les cas où les capteurs sont de même nature.
La figure 4 résume sous forme de synoptique simplifiée différentes composantes possibles d’un système 3 de fusion multi capteurs équipant un véhicule automobile, selon l’invention. Le système 3 reçoit dans l’exemple pris les objets détectés d’une part par un premier détecteur d’objets Si (objets Ο ί ), et d’autre part par un second détecteur d’objets S2 (objets ). Les détecteurs peuvent être, comme représenté sur la figure 4, des composantes externes au système 3, utilisées par exemple pour d’autres fonctionnalités d’assistance à la conduite. En variante, les détecteurs d’objets font partie intégrante du système de fusion.
Les références 4, 5 et 6 sur la figure 4 illustrent les modules de traitement de données associés à chaque étape d’un processus classique de fusion de données à haut niveau. Ainsi, le système 3 comporte des moyens 4 chargés de l’association des boîtes englobantes délivrées par les différents détecteurs, des moyens 5 chargés de la fusion des boîtes englobantes qui ont été associées (ou estimation d’état), et des moyens 6 aptes à assurer le suivi des boîtes englobantes.
Conformément aux principes de l’invention, l’association de deux boîtes englobantes issues de chacun des deux détecteurs repose sur la détermination préalable, par des moyens référencés 40, des côtés de chaque boîte englobante qui sont directement visibles par le détecteur d’objets ayant délivré ladite boîte englobante.
Une fois que les côtés visibles des boîtes englobantes ont été déterminés, un module 41 effectue ou non les associations, de préférence en estimant les distances séparant deux milieux de côtés visibles de deux boîtes englobantes issues de chaque détecteur.

Claims (4)

  1. REVENDICATIONS
    1, Procédé de fusion de données issues d'au moins deux détecteurs (Si, S2; S) d'objets équipant un véhicule automobile (1), chaque détecteur étant apte à délivrer une boîte englobante (Oq , CL ) représentative s2 d'un objet détecté par ledit détecteur (Si, S2) dans l'environnement Immédiat dudit véhicule automobile (1), ledit procédé comportant une étape d'association des boîtes englobantes (Oc , Oc ) délivrées par *1 &2 chacun desdits au moins deux détecteurs (Si, S2; Sj d'objets représentatives d'un même objet détecté en fonction de leur position relative, et une étape de fusion des boîtes englobantes (CL , Oc ) ^2 associées en une seule boîte englobante résultante, l'étape d'association comportant, pour chaque boîte englobante, une étape de détermination de côtés (Ci, C2) de la boîte englobante qui sont directement visibles. par le détecteur (Si, S2; S) d'objets ayant délivré ladite boîte englobante, chaque boîte englobante étant définie par une représentation en deux dimensions sous la forme d'un quadrilatère à angles droits, à quatre sommets et quatre segments reliant les sommets, l'étape de détermination de côtés (Ci, C2) de la boîte englobante qui sont visibles comportant une étape d'identification des sommets du quadrilatère qui sont directement visibles par le détecteur (Si, S2; S) d'objets ayant délivré ladite boîte englobante, l'étape de détermination comportant en outre une étape de détermination des segments directement visibles du quadrilatère, dont les extrémités sont des sommets identifiés comme directement visibles caractérisé en ce que l'étape d'association est basée sur une estimation d'une distance séparant des milieux de segments directement visibles pour aü moins deux boîtes englobantes (Oc , Oo ) susceptibles d'être si ü2 représentatives d'un même objet détecté.
  2. 2, Système (3) dé fusion de données issues d'au moins deux détecteurs (Si, S2; S) d'objets équipant un véhicule automobile (1), chaque détecteur étant apte à délivrer une boîte englobante (Oc , Oc ) bi b2 représentative d'un objet détecté par ledit détecteur (Si, S2) dans l'environnement Immédiat dudit véhicule automobile (1), ledit système comportant des moyens (4) d'association des boîtes englobantes (Oc , Oq ) délivrées par chacun desdits'au moins deux détecteurs (Si, S2; S) d'objets représentatives d'un même objet détecté en fonction de leur position relative, et des moyens (5) de fusion des boîtes englobantes (Oq , Oq ) associées en une seule boîte englobante résultante, les moyens (4) d'association comportant des moyens (40) de détermination, pour chaque boîte englobante, de côtés (Ci, C2) de la boîte englobante qui sont directement visibles par le détecteur (Si, S2; S) d'objets ayant délivré ladite boîte englobante, chaque boîte englobante étant définie par une représentation en deux dimensions sous la forme d'un quadrilatère à angles droits, à quatre sommets et quatre segments reliant les sommets, lesdits moyens de détermination de côtés (Ci, C2) de la boîte englobante qui sont visibles comportant des moyens d'identification des sommets du quadrilatère qui sont directement visibles par le détecteur (Si, S2 ; S) d'objets ayant délivré ladite boîte englobante, lesdits moyens de détermination comportant en outre des moyens de détermination des segments directement visibles du quadrilatère, dont les extrémités sont des sommets identifiés comme directement visibles caractérisé en ce qu'il comporte des moyens d'association basée sur une estimation d'une distance séparant des milieux de segments directement visibles, pour au moins deux boîtes englobantes (Oc , Oc ) susceptibles d'être représentatives d'un bi b2 même objet détecté .
  3. 3. Système selon la revendication 2, caractérisé en ce que lesdits au moins deux détecteurs sont de technologies différentes.
  4. 4, Système selon Tune quelconque des revendications 2 ou 3, caractérisé en ce que chacun desdits détecteurs utilise un capteur choisi dans le groupe comprenant un capteur de vision, un radar, un lidar.
FR1657410A 2016-07-29 2016-07-29 Fusion de donnees de detection et de suivi d'objets pour vehicule automobile Active FR3054673B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1657410A FR3054673B1 (fr) 2016-07-29 2016-07-29 Fusion de donnees de detection et de suivi d'objets pour vehicule automobile
PCT/EP2017/069253 WO2018020045A1 (fr) 2016-07-29 2017-07-28 Fusion de donnees de detection et de suivi d'objets pour vehicule automobile

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1657410 2016-07-29
FR1657410A FR3054673B1 (fr) 2016-07-29 2016-07-29 Fusion de donnees de detection et de suivi d'objets pour vehicule automobile

Publications (2)

Publication Number Publication Date
FR3054673A1 FR3054673A1 (fr) 2018-02-02
FR3054673B1 true FR3054673B1 (fr) 2019-06-14

Family

ID=57539356

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1657410A Active FR3054673B1 (fr) 2016-07-29 2016-07-29 Fusion de donnees de detection et de suivi d'objets pour vehicule automobile

Country Status (2)

Country Link
FR (1) FR3054673B1 (fr)
WO (1) WO2018020045A1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3077550A1 (fr) * 2018-02-05 2019-08-09 Psa Automobiles Sa Procede et dispositif d’analyse de l’environnement d’un vehicule par discrimination d’objets differents detectes par plusieurs moyens d’acquisition.
EP3567880A1 (fr) 2018-05-08 2019-11-13 Volkswagen AG Véhicule, composant de réseau et appareil pour un émetteur-récepteur mobile, procédés et programmes informatiques pour un échantillonnage multi-clients
US20230230255A1 (en) * 2022-01-20 2023-07-20 Aptiv Technologies Limited Generating a Fused Object Bounding Box Based on Uncertainty

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8482486B2 (en) * 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display

Also Published As

Publication number Publication date
FR3054673A1 (fr) 2018-02-02
WO2018020045A1 (fr) 2018-02-01

Similar Documents

Publication Publication Date Title
EP2036796B1 (fr) Dispositif d'aide à la conduite pour véhicule automobile comportant un système de capture d'images stéréoscopique
FR3054673B1 (fr) Fusion de donnees de detection et de suivi d'objets pour vehicule automobile
EP1785966B1 (fr) Procédé d'évaluation, par un véhicule automobile, des caractéristiques d'un élément frontal
FR3039812A1 (fr) Dispositif et procede de detection de place de stationnement libre pour un vehicule automobile.
WO2022002531A1 (fr) Système et procédé de détection d'un obstacle dans un environnement d'un véhicule
FR3056531B1 (fr) Detection d'obstacles pour vehicule automobile
FR3056530B1 (fr) Detection d'obstacles par fusion d'objets pour vehicule automobile
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
FR3054672B1 (fr) Procede et systeme d'association de donnees de detection et de suivi d'objets mobile pour vehicule automobile
FR3052581B1 (fr) Procede de realisation d'une carte de profondeurs a partir d'images successives d'une camera unique (mono) embarquee dans un vehicule automobile
FR2938228A1 (fr) Procede de mesure de distance au moyen d'une camera embarquee dans un vehicule automobile
FR3078667A1 (fr) Procede et systeme d'assistance au stationnement par vision active a lumiere structuree
EP4165601A1 (fr) Procede de calibration d'une camera et dispositif associe
EP3008664B1 (fr) Procédé et système de suivi d'objets en mouvement
WO2021099395A1 (fr) Procédé de détection de pics d'intensité de faisceau lumineux réfléchi de manière spéculaire
FR3036204A1 (fr) Procede et systeme de compensation d'erreurs pour un systeme de detection d'objets embarque sur un vehicule automobile
FR3113330A1 (fr) Procédé d’alignement d’au moins deux images formées de points tridimensionnels
FR3120711A1 (fr) Procede et dispositif de calibration d'un capteur de profondeur d'environnement
FR3082485A1 (fr) Dispositif d'affichage pour l'aide a la conduite d'un conducteur d'un vehicule
FR3054355A1 (fr) Procede et systeme de determination d'un espace libre situe dans une zone d'environnement d'un vehicule automobile
EP3931741A1 (fr) Assistance à la conduite d'un véhicule, par détermination fiable d'objets dans des images déformées
FR3078183A1 (fr) Procede de detection d'un objet a partir d'une camera embarquee dans un vehicule automobile
FR3118746A1 (fr) Procédé et dispositif d’aide à la conduite d’un véhicule circulant sur une chaussée comprenant plusieurs voies de circulation
FR3118253A1 (fr) Système et procédé de calcul d’une image finale d’un environnement d’un véhicule
FR3105143A1 (fr) Procédé de détection d’un état local de la route sur laquelle circule un véhicule automobile

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180202

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8