FR3062836A1 - Procede et systeme de determination d'un indice de confiance associe a un objet d'un environnement d'un vehicule - Google Patents

Procede et systeme de determination d'un indice de confiance associe a un objet d'un environnement d'un vehicule Download PDF

Info

Publication number
FR3062836A1
FR3062836A1 FR1751107A FR1751107A FR3062836A1 FR 3062836 A1 FR3062836 A1 FR 3062836A1 FR 1751107 A FR1751107 A FR 1751107A FR 1751107 A FR1751107 A FR 1751107A FR 3062836 A1 FR3062836 A1 FR 3062836A1
Authority
FR
France
Prior art keywords
sensor
pos
function
sensors
confidence index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1751107A
Other languages
English (en)
Other versions
FR3062836B1 (fr
Inventor
Sonia Durand
Hala Lamdouar
Rachid Benmokhtar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to FR1751107A priority Critical patent/FR3062836B1/fr
Publication of FR3062836A1 publication Critical patent/FR3062836A1/fr
Application granted granted Critical
Publication of FR3062836B1 publication Critical patent/FR3062836B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/257Belief theory, e.g. Dempster-Shafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

Un module de traitement (10) détermine, pour chaque capteur d'une pluralité de capteurs (4, 5, 6, 7), une valeur (POSi1 ; POSi2 ; POSi3 ; POSi4) d'un paramètre lié à l'objet en fonction de données acquises par le capteur concerné. Une unité d'association (22) associe les valeurs (POSiA, POSjB ; POSkc) déterminées respectivement pour un ensemble de capteurs en cas de proximité desdites valeurs. Une unité d'estimation d'état (24) détermine une valeur estimée (POSe ; POSkC) du paramètre par fusion des valeurs associées. Une unité de suivi (26) établit un historique de valeurs associé à l'objet depuis sa première détection par au moins un capteur et pour prendre en compte la valeur estimée (POSe ; POSkC) en tant que nouvelle valeur dans ledit historique. Un tel système comprend en outre un module de détermination (50) de l'indice de confiance (IO) associé à l'objet en fonction du temps écoulé (tO) depuis ladite première détection. Un procédé associé est également proposé.

Description

Titulaire(s) : VALEO SCHALTER UND SENSOREN GMBH Société par actions simplifiée.
Demande(s) d’extension
Mandataire(s) : VALEO COMFORT AND DRIVING ASSISTANCE.
PROCEDE ET SYSTEME DE DETERMINATION D'UN INDICE DE CONFIANCE ASSOCIE A UN OBJET D'UN ENVIRONNEMENT D'UN VEHICULE.
FR 3 062 836 - A1
Un module de traitement (10) détermine, pour chaque capteur d'une pluralité de capteurs (4, 5, 6, 7), une valeur (POSj ; POS2; POS8; POS4) d'un paramètre lié à l'objet en fonction de données acquises par le capteur concerné^ Une unité d'association (22) associe les valeurs (POSj, POSj ; POSk c) déterminées respectivement pour un ensemble de capteurs en cas de proximité desdites valeurs. Une unité d'estimation d'état (24) détermine une valeur estimée (POSe; POSk) du paramètre par fusion des valeurs associées.
Une unité de suivi (26) établit un historique de valeurs associé à l'objet depuis sa première détection par au moins un capteur et pour prendre en compte la valeur estimée (POS®; POSk c) en tant que nouvelle valeur dans ledit historique.
Un tel système comprend en outre un module de détermination (50) de l'indice de confiance (Iq) associé à l'objet en fonction du temps écoulé (t0) depuis ladite première détection.
Un procédé associé est également proposé.
Figure FR3062836A1_D0001
Figure FR3062836A1_D0002
Procédé et système de détermination d’un indice de confiance associé à un objet d’un environnement d’un véhicule
Domaine technique auquel se rapporte l'invention
La présente invention concerne la conduite des véhicules sur la base de données acquises par des capteurs.
Elle concerne plus particulièrement un procédé et un système de détermination d’un indice de confiance associé à un objet d’un environnement d’un véhicule.
L’invention s’applique particulièrement avantageusement dans le cas où le véhicule est un véhicule autonome.
ARRIERE-PLAN TECHNOLOGIQUE
Les véhicules (et notamment les véhicules automobiles) comprennent de plus en plus de systèmes visant à aider, voire à remplacer, l’utilisateur dans la conduite du véhicule.
Afin d’assurer de telles fonctionnalités d’aide à la conduite ou de conduite autonome du véhicule, on équipe les véhicules de différents capteurs afin d’appréhender l’environnement du véhicule et de tenir compte de l’environnement ainsi détecté dans la commande des organes de conduite du véhicule.
Afin de profiter de la présence de plusieurs capteurs dans ce contexte, il a été proposé de combiner les données fournies par les différents capteurs au moyen d’un algorithme de fusion et de commander les organes de conduite sur la base des données issues de cette fusion.
Objet de l’invention
Dans ce contexte, la présente invention propose un procédé de détermination d’un indice de confiance associé à un objet d’un environnement d’un véhicule, comprenant les étapes suivantes :
- pour chaque capteur d’une pluralité de capteurs, détermination d’une valeur d’un paramètre lié à l’objet en fonction de données acquises par le capteur concerné ;
- association des valeurs déterminées respectivement pour un ensemble de capteurs en cas de proximité desdites valeurs ;
- détermination d’une valeur estimée du paramètre par fusion des valeurs associées ;
- prise en compte de la valeur estimée en tant que nouvelle valeur d’un historique de valeurs associé à l’objet depuis sa première détection par au moins un capteur ;
caractérisé par une étape de détermination de l’indice de confiance associé à l’objet en fonction du temps écoulé depuis ladite première détection.
On détermine ainsi un indice de confiance qui permet de quantifier le degré de certitude qu’une détection de l’objet concerné soit correcte.
La pluralité de capteurs susmentionnée comprend par exemple au moins trois capteurs, ce qui peut permettre de détecter un fonctionnement erroné d’un capteur par comparaison de données obtenues à l’aide de ce capteur aux données obtenues à l’aide des autres capteurs de la pluralité.
Selon d’autres caractéristiques envisageables à titre optionnel (et donc non limitatif) :
- ce procédé de détermination comprend en outre une étape de commande d’un organe de conduite du véhicule en fonction de la valeur estimée si l’indice de confiance déterminé vérifie un critère prédéfini (la valeur estimée, et donc la détection de l’objet concerné, n’étant en revanche pas utilisée si l’indice de confiance ne vérifie pas ce critère) ;
- l’indice de confiance vérifie le critère si cet indice de confiance est supérieur à un seuil prédéterminé ;
- l’indice de confiance est en outre déterminé en fonction de données descriptives de l’environnement ;
- les données descriptives de l’environnement sont produites par un système de navigation ;
- l’indice de confiance est en outre déterminé en fonction d’une zone prédéfinie couverte par ladite pluralité de capteurs ;
- l’indice de confiance est en outre déterminé en fonction d’un niveau de confiance associé à un capteur dudit ensemble ;
- l’indice de confiance est en outre déterminé en fonction d’un historique de détections erronées antérieures réalisées par au moins un capteur dudit ensemble, ces détections erronées étant déterminées par exemple par comparaison des valeurs produites par ce capteur aux valeurs produites par les autres capteurs ;
- le paramètre susmentionné est relatif à la position de l’objet par rapport au véhicule ou à la vitesse relative de l’objet par rapport au véhicule ;
- l’indice de confiance est déterminé en fonction d’une valeur de croyance augmentant avec le nombre de capteurs dans ledit ensemble (l’indice de confiance étant croissant avec cette valeur de croyance).
L’invention propose également un système de détermination d’un indice de confiance associé à un objet d’un environnement d’un véhicule, comprenant :
- un module de traitement conçu pour déterminer, pour chaque capteur d’une pluralité de capteurs, une valeur d’un paramètre lié à l’objet en fonction de données acquises par le capteur concerné ;
- une unité d’association conçue pour associer les valeurs déterminées respectivement pour un ensemble de capteurs en cas de proximité desdites valeurs ;
- une unité d’estimation d’état conçue pour déterminer une valeur estimée du paramètre par fusion des valeurs associées ;
- une unité de suivi conçue pour établir un historique de valeurs associé à l’objet depuis sa première détection par au moins un capteur et pour prendre en compte la valeur estimée en tant que nouvelle valeur dans ledit historique ;
caractérisé par un module de détermination de l’indice de confiance associé à l’objet en fonction du temps écoulé depuis ladite première détection.
Ce système de commande peut comprendre en outre un module de commande conçu pour commander un organe de conduite du véhicule en fonction de la valeur estimée si l’indice de confiance déterminé vérifie un critère prédéfini.
Par ailleurs, les caractéristiques présentées ci-dessus en termes de procédé peuvent éventuellement s’appliquer à un tel système.
Description detaillee d’un exemple de réalisation
La description qui va suivre en regard des dessins annexés, donnés à titre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention et comment elle peut être réalisée.
Sur les dessins annexés :
- la figure 1 représente schématiquement un véhicule mettant en œuvre l’invention ;
- la figure 2 représente différentes zones de détection autour du véhicule de la figure 1 ; et
- la figure 3 représente des éléments d’un système embarqué à bord du véhicule de la figure 1.
La figure 1 représente schématiquement un véhicule 1 équipé d’un système embarqué 2 comprenant une unité électronique de commande 3, un système de navigation 8 et une pluralité de capteurs 4, 5, 6, 7.
Cette pluralité de capteurs comprend au moins un capteur d’images (tel qu’une caméra vidéo), ici une caméra frontale 4 et une caméra grand angle 5, et/ou au moins un capteur de temps de vol, ici un lidar 6 et au moins un radar 7 (en pratique une pluralité de radars 7).
Comme bien visible sur la figure 2, le champ de vision ou d’observation de chacun des capteurs 4, 5, 6, 7 couvre une région spécifique de l’environnement du véhicule et cet environnement peut par conséquent être découpé en zones caractérisées chacune par le ou les capteur(s) couvrant la zone concernée. Ainsi, dans l’exemple décrit ici :
- une zone Z0 située à l’avant immédiat du véhicule 1 est couverte par tous les capteurs précités, soit ici quatre capteurs (caméra frontale 4, caméra grand angle 5, lidar 6, radar 7) ;
- des zones Z1 situées latéralement à proximité du véhicule 1 sont couvertes par trois capteurs (caméra grand angle 5, lidar 6, radar 7) ;
- une zone Z2 située à l’arrière à proximité est couverte par deux capteurs (caméra grand angle 5, radar 7)
- une zone Z3 située à l’avant proche du véhicule (ici moins de 100 m) est couverte par trois capteurs (caméra frontale 4, lidar 6, radar 7) ;
- des zones Z4 situées latéralement et devant le véhicule, à proximité de celui-ci, sont couvertes par deux capteurs (lidar 6, radar 7) ;
- une zone Z5 située à l’avant à distance moyenne (par exemple entre 100 m et 150 m) est couverte par deux capteurs (caméra frontale 4, lidar 6) ;
- une zone Z6 située latéralement et devant le véhicule, à distance moyenne de celui-ci est couverte par un seul capteur (lidar 6) ;
- une zone Z7 située à l’arrière est couverte par un seul capteur (radar Ό;
- une zone Z8 située à l’avant à plus grande distance (par exemple entre 150 m et 250 m) est couverte par un seul capteur (caméra frontale 4).
L’unité électronique de commande 3 est par exemple basée sur une architecture à processeur et comprend alors un processeur (typiquement un microprocesseur) et une mémoire mémorisant des instructions de programme d’ordinateur. Ces instructions de programme d’ordinateur permettent, lorsqu’elles sont exécutées par le processeur, la mise en œuvre par l’unité électronique 3 de certaines fonctionnalités, notamment celles décrites ci-dessous en référence à la figure 3.
On décrit en effet à présent de manière fonctionnelle l’unité électronique de commande 3 en référence à la figure 3.
Les éléments fonctionnels représentés sur la figure 3 peuvent en pratique être mis en œuvre par une même entité physique, ici le processeur de l’unité électronique 3, sur lequel s’exécutent des instructions de programme mémorisées dans la mémoire associé au processeur comme déjà indiqué cidessus (chaque élément fonctionnel étant alors dans ce cas mis en œuvre par l’exécution d’un jeu particulier d’instructions mémorisées dans cette mémoire).
L’unité électronique de commande 3 comprend ainsi un module de traitement 10 qui reçoit les données produites par les différents capteurs 4, 5, 6, 7 (éventuellement après prétraitement) et effectue pour chaque capteur 4, 5, 6, 7 :
- une détection d’éventuels objets présents dans l’environnement sur la base des données produites par le capteur A concerné ; et
- pour chaque objet ainsi détecté, une détermination de la position POSA (et éventuellement de la vitesse relative) de l’objet concerné.
Le module de traitement 10 génère ainsi, pour chaque capteur 4, 5, 6, 7, une liste d’objets détectés définis chacun par une position POSjA (et éventuellement en outre par une vitesse relative).
L’unité électronique de commande 3 comprend également un module de fusion 20 qui reçoit les listes d’objets générées par les différents capteurs 4, 5, 6, 7 et traite ces listes comme décrit à présent.
Le module de fusion 20 comprend une unité d’association 22, une unité d’estimation d’état 24 et une unité de suivi 26.
L’unité d’association 22 associe les objets détectés par différents capteurs et dont les positions respectives POSjA, POSjB sont proches (et, éventuellement, dont les vitesses relatives respectives sont cohérentes). Ces différents objets associés correspondent en pratique à un seul et même objet de l’environnement, détecté par différents capteurs.
On considère par exemple ici que deux objets sont proches si leurs positions diffèrent de moins d’un seuil de distance variable avec la distance de ces objets (le seuil de distance étant d’autant plus faible que les objets sont proches du véhicule 1). De même, on considère par exemple que les vitesses relatives respectives de deux objets sont cohérentes si ces vitesses relatives diffèrent de moins d’un seuil de vitesse variable avec la distance de ces objets.
À l’issue de l’association effectuée par l’unité d’association 22, d’autres objets OBJ’ détectés par un capteur C (à la position POSkC) ne pourront en revanche être associés à aucun autre objet : il s’agit d’objets OBJ’ de l’environnement qui n’ont été détectés que par ce seul capteur C.
L’unité d’association 22 produit donc deux listes d’objets :
- une liste d’objets OBJ provenant chacun d’une association de plusieurs objets détectés respectivement par des capteurs distincts A, B (chacun de ces objets OBJ étant ainsi associé à une pluralité de positions POSA , POSB ainsi qu’éventuellement à une pluralité correspondante de vitesses relatives) ;
- une liste d’objets OBJ’ détectés chacun par un seul capteur et associés par conséquent chacun à une seule position POSkC (et éventuellement à une seule vitesse relative) déterminée (par le module de traitement 10) sur la base des données fournies par le capteur concerné C.
L’unité d’estimation d’état 24 reçoit en entrée les listes d’objets OBJ, OBJ’ produites par l’unité d’association 22 et détermine pour chaque objet OBJ, OBJ’ la position estimée (et éventuellement la vitesse relative estimée) de cet objet OBJ, OBJ’.
Pour les objets OBJ provenant d’une association de plusieurs détections, la position estimée POS® est déterminée par fusion des différentes positions POS,A , POS,B associées à cet objet OBJ comme indiqué ci-dessus. De même, la vitesse relative d’un tel objet OBJ peut être déterminée par fusion des vitesses relatives associées à cet objet OBJ.
Pour les objets OBJ’ détectés par un seul capteur C, on utilise par exemple la position POSkC déterminée sur la base des données produites par ce capteur C en tant que position estimée.
Les positions estimées POS®, POSkC de chaque objet OBJ, OBJ’ (ainsi qu’éventuellement leur vitesse relative) produites par l’unité d’estimation d’état 24 sont transmises d’une part à l’unité de suivi 26 et d’autre part à un module de confirmation 30 décrit plus bas.
L’unité de suivi 26 mémorise, pour chaque objet précédemment détecté, un historique de la position estimée (et ici de la vitesse relative estimée) pour cet objet.
Pour chacun des objets OBJ, OBJ’ listés en sortie de l’unité d’estimation d’état 24, l’unité de suivi 26 détermine si un objet correspondant est présent dans l’historique (du fait de sa détection préalable), par exemple en déterminant si la position prédite d’un objet présent dans l’historique correspond (avec une certaine tolérance) à la position de l’objet OBJ, OBJ’ listé concerné.
Dans l’affirmative, la position estimée POS®, POSkC produite par l’unité d’estimation d’état 24 est mémorisée en tant que nouvelle valeur de position dans l’historique relatif à cet objet.
Dans la négative, l’unité de suivi 26 crée une nouvelle entrée pour l’objet OBJ, OBJ’ dans l’historique.
Pour chaque objet OBJ, OBJ’ listé en sortie de l’unité d’estimation d’état 24, l’unité de suivi 26 est ainsi apte à déterminer sa durée de vie to (en anglais lifetime), c’est-à-dire le temps écoulé depuis sa première détection.
L’unité électronique de commande 3 comprend un module de gestion d’erreur 60 capable de détecter un fonctionnement erroné d’un capteur par comparaison des données reçues des différents capteurs 4, 5, 6, 7.
Par exemple, dans une zone de l’environnement du véhicule couverte par au moins trois capteurs (telle que les zones Z0, Z1 et Z3 mentionnées cidessus) :
- on considère les données produites par un capteur erronées (faux négatif') si ce capteur ne détecte pas un objet détecté par deux autres capteurs ;
- on considère les données produites par un capteur erronées (faux positif') si ce capteur détecte un objet qui n’est pas détecté par deux autres capteurs.
Le module de gestion d’erreur 60 gère, pour chaque capteur 4, 5, 6, 7, un indicateur ER de détections erronées antérieures. Un tel indicateur ER est par exemple mémorisé par le module de gestion d’erreur 60 et modifié en fonction de la présence ou de l’absence d’erreurs détectés par le module de gestion d’erreur 60 (comme indiqué ci-dessus) pour le capteur concerné (typiquement sur un laps de temps donné).
L’unité électronique de commande 3 comprend un module de détermination 50 d’un indice de confiance lo pour chaque objet OBJ, OBJ’.
Ce module de détermination 50 reçoit différentes informations en provenance d’autres parties du système embarqué 2 ; le module de détermination 50 peut ainsi recevoir une ou plusieurs des informations suivantes :
- la durée de vie to associée à chaque objet OBJ, OBJ’ en provenance de l’unité de suivi 26 ;
- pour chaque objet OBJ, OBJ’, le nombre no de position(s) associée(s) à cet objet OBJ, OBJ’ par l’unité d’association 22 (c’est-à-dire le nombre no de capteurs qui ont détecté l’objet concerné), information reçue en provenance de l’unité d’association 22 ;
- pour chaque objet OBJ, OBJ’, la zone Zo de détection de l’objet (par exemple parmi les zones Z0 à Z8 décrites plus haut), information reçue en provenance de l’unité d’estimation d’état 24 ;
- un niveau de confiance L associé à un capteur et reçu en provenance de ce capteur (ceci pouvant s’appliquer à un ou plusieurs des capteurs 4, 5, 6, 7), ainsi qu’éventuellement un niveau de confiance d’objet attribué par ce capteur à chaque objet détecté par ce capteur ;
- l’indicateur ER de détections erronées antérieures réalisées par un capteur (ceci pouvant s’appliquer à un ou plusieurs des capteurs 4, 5, 6, 7), information reçue en provenance du module de gestion d’erreur 60 ;
- des données E descriptives de l’environnement dans lequel évolue le véhicule.
Le niveau de confiance L associé au capteur concerné peut par exemple être déterminé au sein du capteur par un processus d’autodiagnostic.
Les données E descriptives de l’environnement sont ici reçues par le module de détermination 50 en provenance du système de navigation 8. Ces données E peuvent par exemple être indicatives de la présence d’un tunnel.
En variante, les données E descriptives de l’environnement peuvent être produites par un autre système embarqué du véhicule. Il peut s’agir par exemple de données indicatives d’une situation de pluie, produites par un détecteur de pluie (tel qu’utilisé pour la commande automatique d’un essuie-glace).
Le module de détermination 50 est conçu pour déterminer l’indice de confiance lo associé à chaque objet OBJ, OBJ’ listé en sortie de l’unité d’estimation d’état 24 en fonction d’une partie au moins des différentes informations susmentionnées.
Dans l’exemple décrit ici, l’indice de confiance lo est déterminé pour chaque objet O sur la base d’un modèle de Verhulst comme suit :
Io =--1 + β(ί0 ) exp(-a * X ) où :
- K peut dépendre par exemple des données E descriptives de l’environnement (de mauvaises conditions telles que celles rencontrées dans un tunnel ou en situation de pluie entraînant une baisse du coefficient K et donc de l’indice de confiance lo) ;
- β dépend de la durée de vie to de l’objet O concerné, β étant par exemple décroissant avec la durée de vie to et supérieur à -1 tant que to < 1 s, et égal à -1 pour to > 1 s ;
- a est un paramètre qui est fixe dans l’exemple décrit ici mais qui pourrait en variante être variable, par exemple en fonction de la durée de vie to ;
- X peut dépendre d’au moins une valeur de croyance augmentant avec le nombre de capteurs ayant détecté l’objet O concerné et/ou des valeurs de niveau de confiance L et d’indicateur de détections erronées antérieures ER éventuellement disponibles pour les capteurs qui ont détecté l’objet O concerné (l’identification des capteurs qui ont détecté l’objet O concerné pouvant également être communiquée par l’unité d’association 22 au module de détermination 50 en sus du nombre no de capteurs ayant détecté l’objet O).
Dans l’exemple décrit ici, on prend par exemple :
X = BelFP(POSe, Do, Z0)* BelFN(POSe,Do,Zo) avec
BelFP(POSe,Do,Zo) = -FI [1 - Do (s) * coverage(POSe, Zs ) * y/(-FPRs (Zo ))]
BelFN(POSe ,DO,ZO) = -FJ [1 + (1 - Do (s)) * coverage(PO$e ,ZS)* yA~FNRs (Zo ))] nfp
N FP + N TP
FNRS(ZO)
Nfn
M _i_ M _i_ M 1 y FP — 2 ’ TP — 2 ’ FN où :
- Do est un vecteur d’éléments binaires dont chaque élément Do(s) vaut respectivement 1 ou 0 si le capteur référencé s a détecté ou non l’objet O,
- N est le nombre total de capteurs,
- coverage(POSe,Zs) vaut 1 si la position estimée POS® est située dans la zone Zs de couverture du capteur référencé s et vaut 0 sinon,
- ψ est une fonction (ici croissante et dont les valeurs sont comprises entre 0 et 1) choisie (selon l’application considérée) afin de déterminer l’influence du taux FPRS, FNRS sur la valeur de croyance BelFp, BelFN associée,
- FPRs(Zo) et FNRs(Zo) sont respectivement le taux de faux positifs et le taux de faux négatifs pour le capteur référencé s sur la zone Zo ;
- pour ce capteur référencé s et sur cette zone Zo, NFp est le nombre de faux positifs, NTF est le nombre de vrais positifs (i.e. de détections non erronées) et Nfn est le nombre de faux négatifs (ces nombres NFF, NTF, Nfn pouvant être déterminés par comparaison des détections effectuées par les différents capteurs, comme expliqué ci-dessus à propos du module de gestion d’erreur 60).
Les valeurs BelFF, BelFN sont ainsi des valeurs de croyance qui dépendent respectivement des taux de faux positifs FPRS pour les capteurs ayant détectés l’objet O et des taux de faux négatifs FNRS pour les capteurs n’ayant pas détecté l’objet O (en considérant ici seulement les capteurs actifs dans la zone concernée grâce à la fonction coverage mentionnée plus haut).
On remarque que la valeur de croyance BelFP augmente avec le nombre de capteurs ayant détecté l’objet O (puisque, pour chaque capteur référencé s ayant détecté l’objet O, l’expression [1 - Do (s) * coverage(POSs ,Zs)* y/(-FPRs (Zo ))] est comprise entre 0 et 1 ).
D’autres modèles pourraient toutefois être utilisés en variante pour déterminer l’indice de confiance lo sur la base des paramètres susmentionnés.
L’unité électronique de commande 3 comprend un module de confirmation 30 qui reçoit :
- la liste des objets OBJ, OBJ’ produite par l’unité d’estimation d’état 24 (avec, pour chaque objet OBJ, OBJ’, la position estimée POS®, POSkC de cet objet, ainsi qu’éventuellement la vitesse relative de cet objet) ; et
- l’indice de confiance lo associé à chacun de ces objets OBJ, OBJ’ (déterminé par l’unité de détermination 50 comme indiqué ci-dessus).
Le module de confirmation 30 délivre en sortie une liste des objets OBJ, OBJ’ pour lesquels l’indice de confiance lo vérifie un critère prédéfini, par exemple pour lesquels l’indice de confiance lo est supérieur à un seuil prédéterminé.
Le module de confirmation 30 transmet également, pour chacun de ces objets OBJ, OBJ’, la position estimée POS®, POSkC de cet objet et (éventuellement) la vitesse relative de cet objet reçues en entrée.
L’unité électronique de commande 3 comprend un module de commande 10 40 qui reçoit en entrée la liste des objets (validés ou confirmés) OBJ, OBJ’ produite par le module de confirmation 30 avec, pour chacun de ces objets OBJ, OBJ’, la position estimée POS®, POSkC (et éventuellement la vitesse relative) de l’objet concerné.
Le module de commande 40 peut ainsi commander un organe de 15 conduite du véhicule (tel que par exemple un groupe motopropulseur et/ou un système de freinage et/ou un système de commande de direction) en tenant compte de la présence des objets confirmés OBJ, OBJ’ et de leur position estimée
POS®, POSk c (et éventuellement de leur vitesse relative).
Grâce à l’utilisation de l’indice de confiance lo, le module de commande 20 40 ne tient pas compte en revanche des objets OBJ, OBJ’ pour lesquels l’indice de confiance lo est inférieur au seuil prédéterminé de sorte que la conduite autonome du véhicule n’est pas perturbée par des détections incertaines.

Claims (12)

  1. REVENDICATIONS
    1. Procédé de détermination d’un indice de confiance (lo) associé à un objet d’un environnement d’un véhicule (1), comprenant les étapes suivantes :
    - pour chaque capteur d’une pluralité de capteurs (4, 5, 6, 7), détermination d’une valeur (POSj1 ; POSj2 ; POSj3 ; POSj4) d’un paramètre lié à l’objet en fonction de données acquises par le capteur concerné ;
    - association des valeurs (ΡΟδ,Α, POSjB ; POSkC) déterminées respectivement pour un ensemble de capteurs en cas de proximité desdites valeurs ;
    - détermination d’une valeur estimée (POSe) du paramètre par fusion des valeurs associées ;
    - prise en compte de la valeur estimée (POS® ; POSkC) en tant que nouvelle valeur d’un historique de valeurs associé à l’objet depuis sa première détection par au moins un capteur (4 ; 5 ; 6 ; 7) ;
    caractérisé par une étape de détermination de l’indice de confiance (lo) associé à l’objet en fonction du temps écoulé (to) depuis ladite première détection.
  2. 2. Procédé de détermination selon la revendication 1, comprenant en outre une étape de commande d’un organe de conduite du véhicule en fonction de la valeur estimée (POS® ; POSkC) si l’indice de confiance déterminé vérifie un critère prédéfini.
  3. 3. Procédé selon la revendication 1 ou 2, dans lequel l’indice de confiance (lo) est en outre déterminé en fonction de données (D) descriptives de l’environnement.
  4. 4. Procédé selon la revendication 3, dans lequel les données (D) descriptives de l’environnement sont produites par un système de navigation (8).
  5. 5. Procédé selon l’une des revendications 1 à 4, dans lequel l’indice de confiance (lo) est en outre déterminé en fonction d’une zone de détection (Zo) de l’objet.
  6. 6. Procédé selon l’une des revendications 1 à 5, dans lequel l’indice de confiance (lo) est en outre déterminé en fonction d’un niveau de confiance (L) associé à un capteur dudit ensemble.
  7. 7. Procédé selon l’une des revendications 1 à 6, dans lequel l’indice de confiance (lo) est en outre déterminé en fonction d’une valeur (E) variant en fonction de détections erronées antérieures réalisées par au moins un capteur dudit ensemble.
  8. 8. Procédé selon l’une des revendications 1 à 7, dans lequel ledit paramètre est relatif à la position de l’objet par rapport au véhicule.
  9. 9. Procédé selon l’une des revendications 1 à 7, dans lequel ledit paramètre est relatif à la vitesse relative de l’objet par rapport au véhicule.
  10. 10. Procédé selon l’une des revendications 1 à 9, dans lequel l’indice de confiance (lo) est déterminé en fonction d’une valeur de croyance augmentant avec le nombre de capteurs dans ledit ensemble.
  11. 11. Système de détermination d’un indice de confiance (lo) associé à un objet d’un environnement d’un véhicule (1), comprenant :
    - un module de traitement (10) conçu pour déterminer, pour chaque capteur d’une pluralité de capteurs (4, 5, 6, 7), une valeur (POS,1 ; POS2 ; POS3 ; POSi4) d’un paramètre lié à l’objet en fonction de données acquises par le capteur concerné ;
    - une unité d’association (22) conçue pour associer les valeurs (POSjA, POSjB ; POSkC) déterminées respectivement pour un ensemble de capteurs en cas de proximité desdites valeurs ;
    - une unité d’estimation d’état (24) conçue pour déterminer une valeur estimée (POS® ; POSk c) du paramètre par fusion des valeurs associées ;
    - une unité de suivi (26) conçue pour établir un historique de valeurs associé à l’objet depuis sa première détection par au moins un capteur et pour prendre en compte la valeur estimée (POS® ; POSk c) en tant que nouvelle valeur dans ledit historique ;
    caractérisé par un module de détermination (50) de l’indice de confiance (lo) associé à l’objet en fonction du temps écoulé (to) depuis ladite première détection.
    5
  12. 12. Système de détermination selon la revendication 11, comprenant un module de commande (40) conçu pour commander un organe de conduite du véhicule en fonction de la valeur estimée (POS® ; POSkC) si l’indice de confiance (lo) déterminé vérifie un critère prédéfini.
    1/2
    Z8
    Z6
    2/2
FR1751107A 2017-02-10 2017-02-10 Procede et systeme de determination d'un indice de confiance associe a un objet d'un environnement d'un vehicule Active FR3062836B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1751107A FR3062836B1 (fr) 2017-02-10 2017-02-10 Procede et systeme de determination d'un indice de confiance associe a un objet d'un environnement d'un vehicule

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1751107 2017-02-10
FR1751107A FR3062836B1 (fr) 2017-02-10 2017-02-10 Procede et systeme de determination d'un indice de confiance associe a un objet d'un environnement d'un vehicule

Publications (2)

Publication Number Publication Date
FR3062836A1 true FR3062836A1 (fr) 2018-08-17
FR3062836B1 FR3062836B1 (fr) 2019-04-26

Family

ID=58707749

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1751107A Active FR3062836B1 (fr) 2017-02-10 2017-02-10 Procede et systeme de determination d'un indice de confiance associe a un objet d'un environnement d'un vehicule

Country Status (1)

Country Link
FR (1) FR3062836B1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200130704A1 (en) * 2018-10-29 2020-04-30 Here Global B.V. Method and apparatus for comparing relevant information between sensor measurements
CN112912767A (zh) * 2018-10-25 2021-06-04 标致雪铁龙汽车股份有限公司 与位于陆地机动车辆附近的空间的一部分相关的占据参数的当前值的确定方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009006113A1 (de) * 2008-03-03 2009-09-10 Volkswagen Ag Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
US20120300077A1 (en) * 2010-02-24 2012-11-29 Aisin Seiki Kabushiki Kaisha Vehicle surroundings monitoring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009006113A1 (de) * 2008-03-03 2009-09-10 Volkswagen Ag Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
US20120300077A1 (en) * 2010-02-24 2012-11-29 Aisin Seiki Kabushiki Kaisha Vehicle surroundings monitoring device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
COUE C ET AL: "Multi-sensor data fusion using bayesian programming - an automotive application", PROCEEDINGS OF THE 2002 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS. (IROS 2002). LAUSANNE, SWITZERLAND, SEPT. 30 - OCT. 4, 2002; [IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS], NEW YORK, NY : IEEE, US, vol. 1, 30 September 2002 (2002-09-30), pages 141 - 146, XP010609242, ISBN: 978-0-7803-7398-3, DOI: 10.1109/IRDS.2002.1041379 *
ISABELLE BLOCH ED - BLOCH I (ED): "Fusion d'informations en traitement du signal et des images (Traité IC2, série Traitement du signal et de l'image)", 1 January 2003, 20030101, PAGE(S) 119 - 148, ISBN: 978-2-7462-0628-1, XP002587074 *
WILFRIED ELMENREICH: "An Introduction to Sensor Fusion", 19 November 2002 (2002-11-19), XP055409800, Retrieved from the Internet <URL:https://www.researchgate.net/profile/Wilfried_Elmenreich/publication/267771481_An_Introduction_to_Sensor_Fusion/links/55d2e45908ae0a3417222dd9/An-Introduction-to-Sensor-Fusion.pdf> [retrieved on 20170925] *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112912767A (zh) * 2018-10-25 2021-06-04 标致雪铁龙汽车股份有限公司 与位于陆地机动车辆附近的空间的一部分相关的占据参数的当前值的确定方法
CN112912767B (zh) * 2018-10-25 2024-05-17 标致雪铁龙汽车股份有限公司 与位于陆地机动车辆附近的空间的一部分相关的占据参数的当前值的确定方法
US20200130704A1 (en) * 2018-10-29 2020-04-30 Here Global B.V. Method and apparatus for comparing relevant information between sensor measurements
US10928819B2 (en) * 2018-10-29 2021-02-23 Here Global B.V. Method and apparatus for comparing relevant information between sensor measurements

Also Published As

Publication number Publication date
FR3062836B1 (fr) 2019-04-26

Similar Documents

Publication Publication Date Title
FR2988191B1 (fr) Procede de filtrage et dispositif de filtre pour des donnees de capteur
FR2939900A1 (fr) Dispositif d&#39;hybridation en boucle fermee integre par construction.
FR3059615A1 (fr) Procede et dispositif de verification d&#39;un systeme de capteurs de vehicule
FR3104520A1 (fr) Procédé de détermination d’un profil de vitesse d’un véhicule automobile à accélération non prédéterminée
FR3062836A1 (fr) Procede et systeme de determination d&#39;un indice de confiance associe a un objet d&#39;un environnement d&#39;un vehicule
EP3661827A1 (fr) Procede d&#39;elaboration d&#39;une consigne de pilotage d&#39;un organe de conduite d&#39;un vehicule automobile
WO2019197781A1 (fr) Apprentissage automatique prédictif pour la prédiction d&#39;une vitesse future d&#39;un véhicule automobile en mouvement sur une route
EP2804016B1 (fr) Procédé amélioré de détermination de la position et/ou de la vitesse d&#39;un véhicule guidé ; système associé
WO2017036927A1 (fr) Système de vision pour un véhicule à moteur et procédé de commande d&#39;un système de vision
WO2013169185A1 (fr) Système et procédé de vision pour véhicule à moteur
EP3805947A1 (fr) Procédé de gestion d&#39;une base de données partagée par un groupe d&#39;applications, produit programme d&#39;ordinateur et système embarqué associés
WO2018041978A1 (fr) Dispositif de détermination d&#39;une limitation de vitesse, système embarqué comprenant un tel dispositif et procédé de détermination d&#39;une limitation de vitesse.
FR3084628A1 (fr) Procede de determination d&#39;un type d&#39;emplacement de stationnement
FR3082936A1 (fr) Traitement stereoscopique de donnees de vehicules connectes
FR3062835A1 (fr) Procede et systeme de determination d&#39;un indice de confiance associe a une caracteristique d&#39;une voie de circulation
FR3047217B1 (fr) Dispositif de determination de l&#39;etat d&#39;un feu de signalisation, systeme embatque comprenant un tel dispositif, vehicule comprenant un tel systeme et procede de determination associe
EP3704625A1 (fr) Procédé de traitement de données pour système d&#39;aide à la conduite d&#39;un véhicule et système d&#39;aide à la conduite associé
FR3087732A1 (fr) Procede et dispositif de determination d’un changement de voie d’un vehicule
FR3086385A1 (fr) Procede et systeme de calibration de capteurs embarques dans un vehicule automobile en mouvement
EP4348179A1 (fr) Procédé de localisation pour véhicule autonome
WO2024052561A1 (fr) Procédé de détection d&#39;une collision prochaine, procédé d&#39;étalonnage d&#39;un système de détection de collision et véhicule automobile associé
FR3063359B1 (fr) Methode de determination d&#39;une performance temporelle d&#39;une unite de traitement electronique executant un algorithme
WO2022112672A1 (fr) Procédé et dispositif de détermination d&#39;une ligne virtuelle de délimitation entre deux voies de circulation
WO2023222961A1 (fr) Procédé de gestion de la trajectoire d&#39;un véhicule automobile dans sa voie de circulation
WO2023170349A1 (fr) Procédé de sélection d&#39;un objet mobile pour la mise en œuvre d&#39;une fonction de régulation de vitesse adaptative pour un véhicule automobile

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180817

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8