FR3109662A1 - Procédé et système informatique de suivi de trafic routier - Google Patents

Procédé et système informatique de suivi de trafic routier Download PDF

Info

Publication number
FR3109662A1
FR3109662A1 FR2004005A FR2004005A FR3109662A1 FR 3109662 A1 FR3109662 A1 FR 3109662A1 FR 2004005 A FR2004005 A FR 2004005A FR 2004005 A FR2004005 A FR 2004005A FR 3109662 A1 FR3109662 A1 FR 3109662A1
Authority
FR
France
Prior art keywords
road environment
road
traffic
time
datum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2004005A
Other languages
English (en)
Other versions
FR3109662B1 (fr
Inventor
Xavier Chevalier
Benjamin Delattre
Quentin DEROO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR2004005A priority Critical patent/FR3109662B1/fr
Publication of FR3109662A1 publication Critical patent/FR3109662A1/fr
Application granted granted Critical
Publication of FR3109662B1 publication Critical patent/FR3109662B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/042Detecting movement of traffic to be counted or controlled using inductive or magnetic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/091Traffic information broadcasting
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

La présente invention concerne un procédé de suivi de trafic routier comprenant une réception (S1) d’au moins une donnée d’environnement routier contenant au moins une information représentative d’un environnement routier (1000), un traitement (S2) de ladite au moins une donnée d’environnement pour détecter au moins un objet (11, 12) dudit environnement routier, une première génération (S3) d’au moins un vecteur caractéristique comprenant un ensemble de valeurs caractéristiques dudit objet (11, 12) et une première transmission (S4) dudit au moins un vecteur caractéristique et de ladite au moins une donnée d’environnement à un dispositif distant pour le suivi dudit trafic. La présente invention concerne également un programme d’ordinateur comprenant des instructions adaptées pour l’exécution dudit procédé, un support d’enregistrement lisible par un ordinateur sur lequel est enregistré ledit programme et un système informatique comprenant des moyens informatiques configurés pour la mise en œuvre dudit procédé.

Description

Procédé et système informatique de suivi de trafic routier
La présente invention concerne le domaine des procédés et systèmes d’analyse d’environnement routier.
La présente invention concerne plus particulièrement un procédé et un système pour le suivi de trafic routier permettant la détection et la caractérisation d’objets dans un environnement routier.
Par « objet » au sens de la présente, on entend dans toute la description qui suit tout élément mobile ou immobile pouvant être rencontré dans un environnement routier.
A titre d’exemple, il peut s’agir d’un véhicule, notamment de type automobile ou plus généralement un véhicule à moteur terrestre, d’un bicycle, d’un piéton, d’un élément de signalisation ou encore d’un obstacle sur la chaussée.
La présente invention trouvera ainsi de nombreuses applications avantageuses dans le domaine de la sécurité routière, et notamment dans le suivi en continu de la circulation sur des distances importantes.
Etat de la technique
Le Demandeur observe que la sécurité routière fait partie des enjeux importants de nos sociétés. Avec l’augmentation du nombre d’usagers, que ce soient les véhicules, les piétons ou encore les cyclistes, sur les réseaux routiers du monde entier, les risques d’accidents et d’incidents provoqués par ces mêmes usagers n’ont jamais été aussi importants.
Pour améliorer la sécurité sur les routes, de nouvelles technologies voient le jour ; celles-ci permettent de faciliter les échanges d’informations entre les véhicules et l’infrastructure qui les entoure ou encore au sein de l’infrastructure elle-même.
Le développement en parallèle des technologies d’apprentissage automatique (en anglais « machine learning », littéralement « apprentissage machine ») augmente les capacités de l’intelligence artificielle, aussi bien pour améliorer le temps de traitement d’une grande quantité de données que pour permettre d’analyser des données complexes, notamment des images, à partir d’exemples connus.
Cependant, les procédés et dispositifs mettant en œuvre de telles technologies dans le but de protéger les usagers de la route restent largement perfectibles.
Le Demandeur soumet par conséquent qu’il n’existe à ce jour aucune solution alternative satisfaisante visant à retranscrire un ensemble variable et complexe de données d’environnement routier sous la forme d’informations représentatives concises de ce même environnement routier.
Résumé de la présente invention
La présente invention vise à améliorer la situation actuelle décrite ci-dessus.
La présente invention vise plus particulièrement à améliorer le suivi de trafic routier en proposant un procédé et un dispositif capables d’analyser l’environnement routier.
A cet effet, l’objet de la présente invention concerne dans un premier aspect un procédé de suivi de trafic routier à un instant déterminé t, le procédé étant mis en œuvre par des moyens informatiques.
On comprendra ici que l’instant déterminé t se définit comme le moment où le procédé ou une étape spécifique du procédé s’effectue. En complément de cette notion est l’instant antérieur t-1, qui représente un moment ou une période précédente où au moins une itération du procédé ou d’une étape spécifique du procédé s’est effectuée et a produit des résultats exploitables à l’instant t.
Avantageusement, le procédé selon la présente invention comporte une réception d’au moins une donnée d’environnement routier contenant au moins une information représentative d’un environnement routier à partir d’au moins un capteur associé à l’environnement routier.
Avantageusement, le procédé selon la présente invention comporte un traitement de l’au moins une donnée d’environnement pour détecter au moins un objet de l’environnement routier.
Avantageusement, le procédé selon la présente invention comporte une première génération d’au moins un vecteur caractéristique comprenant un ensemble de valeurs caractéristiques de l’objet.
Autrement dit, le procédé assigne une valeur, par exemple une valeur numérique, à une pluralité de caractéristiques déterminées de l’objet, l’ensemble des valeurs générées pouvant être regroupées sous un vecteur caractéristique servant alors de description de l’objet.
On comprend bien entendu que le vecteur caractéristique défini ici est une méthode mathématique parmi d’autres de représenter et de traiter l’ensemble des valeurs caractéristiques générées au cours de cette première génération.
Avantageusement, le procédé selon la présente invention comporte une première transmission de l’au moins un vecteur caractéristique et de l’au moins une donnée d’environnement à un dispositif distant pour le suivi du trafic.
On comprend ici que le vecteur caractéristique peut inclure les informations relatives à l’au moins une donnée d’environnement, ou que le vecteur et l’au moins une donnée d’environnement sont transmis de manière séparée. Le dispositif distant peut être un serveur du « cloud » (en français « nuage ») appartenant au demandeur, à un gestionnaire de route, à un service de navigation, ou encore une base de données communautaire. Le dispositif distant peut encore être un véhicule connecté ou un véhicule autonome apte à communiquer avec l’infrastructure, ou faire partie de l’infrastructure routière elle-même.
Ce procédé permet d’analyser un environnement routier de manière à suivre au moins un objet associé à cet environnement en minimisant les ressources employées.
Grâce à la présente invention, les informations obtenues par les capteurs associés à l’environnement routier peuvent être retranscrites sous une forme compacte et utilisable par des moyens informatiques.
Dans un mode de réalisation avantageux de l’invention, l’au moins une information représentative de l’environnement routier appartient à un ensemble d’informations comprenant :
- une information représentative de coordonnées spatiales de l’objet ; et/ou
- une information représentative d’une vitesse de l’objet ; et/ou
- une information représentative d’une représentation visuelle de l’environnement routier.
On comprend ici que les coordonnées spatiales et/ou la vitesse de l’objet sont des données pouvant être retranscrites telles quelles à l’intérieur du vecteur caractéristique ou combinées à la représentation visuelle pour des opérations supplémentaires.
Dans un mode de réalisation particulier, l’étape de traitement comporte une première comparaison de l’au moins une donnée d’environnement routier à l’instant t avec au moins une précédente donnée d’environnement routier reçue à un instant antérieur t-1 pour isoler l’objet.
Cette étape permet d’améliorer la qualité des données d’environnement reçues au cours du temps et par conséquent d’obtenir des informations plus fiables tout en limitant le nombre d’opérations effectuées.
Dans un autre mode de réalisation particulier qui peut être combiné avec le précédent mode, l’étape de traitement comporte une détermination de l’angle de capture de l’objet en fonction de l’au moins une donnée d’environnement routier.
On comprend ici que l’angle de capture représente l’angle de vision sous lequel le capteur perçoit l’objet. Dans le cadre d’un véhicule, il peut s’agir par exemple de l’avant ou de l’arrière du véhicule. Les informations extraites varient par conséquent de l’angle de capture de l’objet.
De préférence, le procédé comporte une première étape de fusion d’une pluralité de données d’environnement selon une pluralité d’angles de capture de l’objet.
Une telle étape permet d’obtenir des données additionnelles sur un même objet tout en évitant d’identifier le même objet sous plusieurs angles comme différents objets.
De préférence, on prévoit un mode dans lequel l’étape de traitement comporte une deuxième fusion de la donnée d’environnement à un instant déterminé t avec au moins une précédente donnée d’environnement reçue à un instant antérieur t-1 pour améliorer la qualité de la donnée d’environnement.
Cette deuxième fusion permet par exemple d’améliorer la qualité de la représentation visuelle pour obtenir un résultat plus fiable et plus simple à traiter.
Dans un mode de réalisation spécifique, l’ensemble de valeurs caractéristiques du vecteur comprend :
- une valeur représentative du type dudit objet ; et/ou
- une valeur représentative d’une couleur de l’objet ; et/ou
- une valeur représentative d’une taille de l’objet ; et/ou
- une valeur représentative des proportions de l’objet ; et/ou
- une valeur représentative d’un indicateur lumineux de l’objet.
Ces valeurs représentatives permettent de différencier l’objet par des mesures simples de caractéristiques particulières et d’obtenir des informations sur son comportement. L’indicateur lumineux de l’objet peut être un feu clignotant ou encore l’état d’un feu de circulation. Bien évidemment, ces valeurs représentatives peuvent être combinées à d’autres valeurs représentatives additionnelles.
Dans un mode de mise en œuvre, le procédé comporte une étape de calcul d’un indice de certitude relatif à l’objet pour quantifier :
- la robustesse de la détection de l’objet ; et/ou
- la robustesse du vecteur caractéristique généré.
De préférence, la première étape de transmission consiste à transmettre l’au moins un vecteur caractéristique et l’au moins une donnée d’environnement en fonction des indices de certitude.
On comprend ici que la transmission dans ce mode de mise en œuvre permet de compenser les limitations des capteurs et/ou des moyens informatiques, soit en transmettant en priorité les données les plus fiables, soit en permettant à des moyens informatiques plus développés et/ou plus énergivores d’effectuer des opérations supplémentaires sur les données d’environnement les plus difficiles à analyser, c’est-à-dire les données pour lesquelles l’indice de certitude évalué est le plus faible.
Dans un mode de réalisation additionnel, l’étape de traitement et/ou l’étape de génération sont effectuées par un réseau de neurones de type CNN (« Convolutional Neural Network » ou en français « Réseau de neurones convolutifs ») et/ou RNN (« Recurrent Neural Network » ou en français « Réseau de neurones récurrents »). Les CNN sont très efficaces dans la détection d’objets sur une image donnée tandis que les RNN prennent en compte le flou de mouvement et la multiplicité d’images. L’homme du métier comprend que le type de réseau de neurones sélectionné varie selon leurs performances et leurs besoins respectifs.
Dans un mode de réalisation avantageux de l’invention, l’étape de génération du vecteur caractéristique à l’instant t est obtenue à partir d’au moins un précédent vecteur caractéristique généré à un instant antérieur t-1 pour compléter ce même vecteur caractéristique.
On comprend ici que pour un même objet détecté au cours du temps, le vecteur caractéristique peut être incomplet ou les ressources peuvent avoir été concentrées sur la détection de l’objet. Ce mode de réalisation permet d’améliorer la caractérisation du véhicule en mettant l’emphase sur les valeurs représentatives non encore déterminées.
Dans un autre mode de réalisation, le procédé comporte une étape d’identification indirecte d’une perturbation de circulation à un instant déterminé t à partir d’une pluralité de vecteurs caractéristiques générés et de données d’environnement antérieurs reçues à un instant t-1.
Par identification indirecte, on entend ici l’identification d’une perturbation non détectée à partir des données d’environnement, en repérant un comportement anormal des objets détectés suggérant une perturbation.
De préférence, l’étape d’identification comprend les étapes suivantes :
- un traçage d’une trajectoire de l’objet ;
- une deuxième comparaison de la trajectoire tracée à un instant déterminé t avec au moins une précédente trajectoire tracée à un instant antérieur t-1 pour détecter les coordonnées spatiales d’anomalie ;
- une seconde génération de la perturbation de circulation associées aux coordonnées spatiales d’anomalie.
On comprend ici que si l’ensemble des trajectoires tracées présentent un offset ou un ralentissement par rapport à des coordonnées spatiales données, le procédé déduit par inférence la présence d’une perturbation de circulation au niveau de ces coordonnées spatiales.
Dans un mode de mise en œuvre supplémentaire, le procédé comporte une étape d’estimation de position future de l’objet à partir d’au moins une donnée de trafic routier pour prédire la probabilité qu’un objet se trouve à une position à un instant futur t+1.
L’instant futur t+1 est compris ici comme un moment ultérieur non survenu pour lequel l’étape d’estimation à l’instant t tente de définir la position de l’objet.
De préférence, l’au moins une donnée de trafic routier contient un ensemble d’informations comprenant :
- une information représentative des coordonnées spatiales de l’objet ; et/ou
- une information représentative d’une vitesse de l’objet ; et/ou
- le vecteur caractéristique de l’objet ; et/ou
- au moins une information représentative des coordonnées spatiales d’autres objets, reçue à un instant t-1 ; et/ou
- au moins une information représentative de vitesse d’autres objets, reçue à un instant t-1 ; et/ou
- une donnée de communication provenant d’au moins un autre objet.
L’estimation de position future comporte l’association d’une probabilité de présence à au moins une coordonnée spatiale. Cette estimation peut prendre la forme d’une grille ou d’un nuage de probabilité sur l’ensemble des positions où l’objet est susceptible de se trouver.
On comprend ici que l’estimation de position s’effectue sur des objets en mouvement et peut prendre en compte la présence dans l’environnement d’autres objets en mouvement, mais aussi d’obstacles et/ou d’éléments de signalisation identifiés.
La donnée de communication peut provenir notamment d’un véhicule autonome, d’un service de navigation ou encore d’un gestionnaire de routes, pour compléter les informations précédentes.
De préférence, lors de l’étape de traitement à l’instant t, la détection de l’objet est réalisée en fonction d’au moins une précédente estimation de position effectuée à un instant antérieur t-1, pour faciliter le suivi du trafic routier en minimisant l’énergie consommée.
On comprend que si un premier objet est détecté à un instant t à une position probable d’un deuxième objet selon l’étape d’estimation, il est permis de conclure que le premier et le deuxième objet sont la même entité.
De préférence, le procédé comporte une étape d’évaluation de risque de collision à l’instant t à partir d’au moins une précédente estimation de position effectuée à un instant antérieur t-1.
On comprend que si plusieurs estimations de position assignent une certaine probabilité que deux objets différents se trouvent à des coordonnées spatiales proches ou identiques, le procédé associe une probabilité de collision entre les deux objets.
Dans un autre mode de mise en œuvre particulier qui peut être combiné avec le précédent mode, le procédé comporte une étape de rendu d’un signal d’alerte pour améliorer la sécurité de l’environnement routier.
On comprend que le signal d’alerte peut être modulé en fonction de l’indice de danger propre à un objet donné ou peut servir d’alerte visuelle complémentaire selon les intersections ou la signalisation.
Dans un mode de mise en œuvre additionnel, le procédé comporte une troisième étape de comparaison des vecteurs à un instant antérieur t-1 pour évaluer un niveau de trafic à l’instant t.
On comprend ici que les vecteurs caractéristiques associés à différents objets mobiles sont comptabilisés pour évaluer le niveau de fréquentation de l’environnement routier sur un instant ou une période donnée.
De préférence, le procédé comporte une deuxième étape de transmission du niveau de trafic au dispositif distant pour améliorer la gestion du trafic.
Un deuxième aspect de la présente invention concerne un programme d’ordinateur qui comporte des instructions adaptées pour l’exécution des étapes du procédé selon le premier aspect de l’invention, ceci notamment lorsque le programme d’ordinateur est exécuté par au moins un processeur.
Un tel programme d’ordinateur peut utiliser n’importe quel langage de programmation, et être sous la forme d’un code source, d’un code objet, ou d’un code intermédiaire entre un code source et un code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
Un troisième aspect de la présente invention concerne un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon le premier aspect de l’invention.
D’une part, le support d’enregistrement peut être n’importe quel entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu’une mémoire ROM, un CD-ROM ou une mémoire ROM de type circuit microélectronique, ou encore un moyen d’enregistrement magnétique ou un disque dur.
D’autre part, ce support d’enregistrement peut également être un support transmissible tel qu’un signal électrique ou optique, un tel signal pouvant être acheminé via un câble électrique ou optique, par radio classique ou hertzienne ou par faisceau laser autodirigé ou par d’autres moyens. Le programme d’ordinateur selon l’invention peut être en particulier téléchargé sur un réseau de type Internet.
Alternativement, le support d’enregistrement peut être un circuit intégré dans lequel le programme d’ordinateur est incorporé, le circuit intégré étant adapté pour exécuter ou pour être utilisé dans l’exécution du procédé en question.
Un quatrième aspect de l’invention concerne un système informatique de suivi de trafic routier à un instant déterminé t.
Avantageusement, le système comporte une unité de balise, intégrée dans un environnement routier, configurée pour recevoir au moins une donnée d’environnement routier contenant au moins une information représentative d’un environnement routier à partir d’au moins un capteur associé à l’environnement routier.
Avantageusement, le système comporte une unité de traitement de l’au moins une donnée d’environnement configurée pour détecter au moins un objet de l’environnement routier.
Avantageusement, le système comporte un circuit de génération configuré pour générer au moins un vecteur caractéristique comprenant un ensemble de valeurs caractéristiques de l’objet.
Avantageusement, le système comporte des premiers moyens de transmission du au moins un vecteur caractéristique et de l’au moins une donnée d’environnement à un dispositif distant pour le suivi du trafic.
De préférence, le système comprend des moyens informatiques configurés pour la mise en œuvre des étapes du procédé selon le premier aspect de l’invention.
Dans un mode de réalisation spécifique, le système comporte au moins un coprocesseur d’inférence et/ou d’apprentissage. Le coprocesseur d’inférence et/ou d’apprentissage peut être un TPU (« Tensor Processing Unit » ou en français « Unité de traitement de tenseur »), un TPU embarqué, un GPU (« Graphics Processing Unit » ou en français « Processeur graphique »), un VPU (« Vision Processing Unit » ou en français « Unité de traitement de vision »), un NPU (« Neural Processing unit » ou en français « Accélérateur d’intelligence artificielle ») ou encore toute nouvelle forme de coprocesseur. L’homme du métier comprend que par exemple le TPU permet de traiter directement les données reçues du capteur pour un coût énergétique réduit, et le GPU permet d’effectuer une grande quantité d’opérations en parallèle, notamment pour accélérer les étapes d’apprentissage.
Dans un mode de réalisation particulier, le au moins un capteur comprend :
- au moins une caméra ; et/ou
- au moins un capteur infrarouge ; et/ou
- un capteur à ultrason ; et/ou
- un lidar (de l’anglais « Light Detection And Ranging » ou en français « Détection et estimation de la distance par lumière ») ; et/ou
- un capteur magnétique ; et/ou
- un capteur sonore ; et/ou
- un capteur de vibration ; et/ou
- un accéléromètre ; et/ou
- un radar.
On comprend ici que, par exemple, l’au moins une caméra permet de fournir au moins une information représentative d’une représentation visuelle de l’environnement routier, et que l’au moins un capteur infrarouge permet de fournir au moins une information représentative de vitesse et au moins une information représentative de coordonnées spatiales d’un objet.
L’homme du métier comprendra que les éléments constitutifs du au moins un capteur peuvent être sélectionnés selon leurs performances individuelles ou selon leurs synergies respectives.
Par exemple, la lumière infrarouge émise par l’au moins un capteur infrarouge permet d’améliorer la qualité des données relevées par l’au moins une caméra dans des conditions de faible illumination.
Ainsi, par les différentes caractéristiques techniques fonctionnelles et structurelles ci-dessus le Demandeur propose un procédé et un système permettant un suivi simplifié et aussi complet que possible du trafic routier en minimisant la consommation énergétique et la quantité de données à stocker et transférer.
Brève description des figures annexées
D’autres caractéristiques et avantages de la présente invention ressortiront de la description ci-dessous en référence aux figures 1 à 3 annexées illustrant un exemple de réalisation qui est dépourvu de tout caractère limitatif et sur lesquelles :
La figure 1 représente de façon schématique un environnement routier dans lequel évoluent au moins un objet et un système informatique de suivi de trafic routier, selon un exemple de réalisation de la présente invention.
La figure 2 représente schématiquement un dispositif configuré pour suivre le trafic routier conforme à la figure 1, selon un exemple de réalisation de la présente invention.
La figure 3 représente un organigramme des différentes étapes d’un procédé de suivi de trafic routier, le procédé étant par exemple mis en œuvre dans un dispositif conforme à la figure 2, selon un exemple de réalisation de la présente invention.
Description détaillée selon un exemple de réalisation avantageux
La présente invention va maintenant être décrite dans ce qui va suivre en référence conjointement aux figures 1 à 3 annexées à la description.
Comme rappelé en préambule, l’infrastructure routière et le développement de véhicules connectés permettent de faciliter grandement la collecte de données sur l’environnement routier. L’exploitation de ces données reste une problématique pour laquelle il existe peu de solutions efficaces, ceci autant à cause de limitations de moyens informatiques que de considérations énergétiques et/ou financières, tandis que la sécurité routière reste une préoccupation majeure.
Un des objectifs de la présente invention consiste à récupérer les données d’environnement routier et à les traiter pour obtenir un ensemble d’informations exploitables, en prenant en considération les moyens informatiques et les considérations énergétiques ci-dessus.
Un des autres objectifs de la présente consiste à proposer des moyens d’amélioration de la sécurité routière.
Ceci est rendu possible dans l’exemple décrit ci-après.
Le concept sous-jacent à la présente invention est d’exploiter les technologies d’apprentissage automatique, notamment l’apprentissage profond (de l’anglais « deep learning ») pour traiter efficacement les données d’environnement.
Le Demandeur observe que les technologies d’apprentissage automatique sont classiquement utilisées pour la reconnaissance d’images.
En revanche, aucune solution ne permet actuellement l’emploi de cette technologie à grande échelle, au sein de l’infrastructure routière, dans le domaine de la sécurité routière.
Dans l’exemple décrit dans la figure 1, le dispositif 100 inclut des moyens informatiques configurés pour l’emploi d’algorithmes d’apprentissage automatique, par exemple des algorithmes spécialisés dans le traitement d’images. Ces algorithmes peuvent être des CNN ou des réseaux à mémoire de type RNN tels que des LSTM (de l’anglais « Long Short-Term Memory », littéralement « Longue mémoire à court-terme »), des ConvLSTM (de l’anglais « Convolutional Long Short-Term Memory », littéralement « Longue mémoire à court-terme convolutive »), des Flow-Guided Networks (en français « Réseaux à flux guidé ») ou encore des Memory-Guided Networks (en français « Réseaux à mémoire guidée »).
On sait que les algorithmes d’apprentissage automatique sont capables d’améliorer leurs performances à résoudre des tâches spécifiques sans être explicitement programmés pour chacune.
En substitution de programmation explicite, ces algorithmes reposent sur une phase d’apprentissage S0, dans laquelle une variété d’exemples est employée pour amener l’algorithme à un résultat particulier, en le laissant indépendamment modifier ses propres paramètres. Les exemples peuvent être des données « étiquetées » pour lesquelles le résultat attendu est connu en avance, ou des données brutes à partir desquelles l’apprentissage se fait en fonction de la précision du résultat obtenu.
Dans cet exemple, une unité de balise 20 du dispositif 100 reçoit dans une étape de réception S1 une pluralité de données d’environnement, par exemple en provenance d’un capteur 10 associé à un environnement routier 1000. Dans cet exemple, le capteur 10 comprend une caméra associée à un capteur infrarouge.
Les données d’environnement comprennent par exemple une représentation visuelle de l’environnement routier 1000, les coordonnées spatiales et la vitesse de deux véhicules 11 et 12 circulant dans l’environnement routier 1000.
L’homme du métier comprendra que les données d’environnement peuvent comprendre des informations représentatives d’autres éléments de l’environnement routier 1000 que les véhicules 11 et 12, par exemple des piétons ou encore des panneaux de signalisation. Le procédé a pour concept sous-jacent de s’appliquer à tout élément pouvant être rencontré sur l’environnement routier 1000.
Dans l’exemple décrit ici, une unité de traitement 21 incluse dans le dispositif 100 effectue une série d’opérations de détection d’un objet, par exemple du véhicule 11, lors d’une étape de détection S2, dans le but de séparer les informations représentatives du véhicule 11 du reste de l’environnement routier.
Cette unité de traitement 21 peut comporter un processeur et au moins un coprocesseur d’inférence et/ou d’apprentissage configurés pour la réalisation de l’étape S2. L’unité de traitement 21 peut aussi comporter de la mémoire intégrée, par exemple une mémoire flash pour enregistrer les calculs internes de l’étape S2, une interface d’entrée/sortie, par exemple un bus de communication rapide pour faciliter les échanges entre le processeur et l’au moins un coprocesseur, et différents circuits connus de l’homme du métier.
L’unité de traitement 21 met par exemple en œuvre un algorithme de pré-traitement d’image.
L’étape S2 commence notamment par une première comparaison S2_1 à un instant déterminé t des données d’environnement reçues avec des données d’environnement d’un instant antérieur t-1 pour isoler le véhicule 11.
Le résultat de l’étape S2_1 est par exemple une représentation visuelle du véhicule 11 combinée à ses coordonnées spatiales et sa vitesse.
Les données associées à un instant antérieur t-1 et le résultat des étapes effectuées à un instant t sont par exemple stockées dans une mémoire 24 du dispositif 100, par exemple une mémoire volatile et/ou non volatile ou un dispositif de stockage mémoire qui peut comprendre de la mémoire volatile et/ou non volatile, telle que EEPROM, ROM, PROM, RAM, DRAM, SRAM, flash, disque magnétique ou optique.
Une fois le véhicule 11 isolé sur une ou plusieurs données d’environnement, l’étape S2_2 vise à déterminer l’angle sous lequel le véhicule 11 est représenté. L’étape S2_2 détermine par exemple que les données d’environnement sont représentatives de l’avant ou de l’arrière du véhicule 11.
En fonction du nombre d’angles de capture déterminés ou du nombre de données d’environnement, une première et/ou une deuxième étape de fusion peuvent être ajoutées pour augmenter la quantité ou la qualité des informations sur le véhicule 11.
La première étape de fusion S2_3 permet d’associer au même véhicule 11 des données d’environnement venant par exemple d’une pluralité de capteurs intégrés à différentes positions dans l’environnement routier 1000.
La deuxième étape de fusion S2_4 vise à regrouper toutes les données d’environnement d’un angle donné du véhicule 11 pour en améliorer la qualité, par exemple à combiner plusieurs représentations visuelles du véhicule 11 reçues aux instants t et t-1.
Il résulte de l’étape S2 l’identification d’un véhicule 11 auquel est associé au moins une représentation visuelle selon un ou plusieurs angles de capture clairement déterminés et au moins une estimation de coordonnées spatiales et de vitesse. La qualité de l’ensemble de ces données a été maximisée pour faciliter et améliorer la précision des étapes subséquentes, notamment de l’étape S3.
Le circuit de génération 22 emploie donc les données représentatives du véhicule 11 obtenues à la suite de l’étape S2 pour en retirer les informations essentielles dans une première étape de génération S3. Le circuit 22 attribue à chaque information recherchée une valeur, par exemple une valeur numérique. Les valeurs peuvent être regroupées sous un ou plusieurs vecteurs, ces vecteurs pouvant donc à eux seuls caractériser le véhicule.
Le circuit de génération 22 comporte par exemple un processeur échangeant des informations avec au moins un coprocesseur d’inférence et/ou d’apprentissage et une mémoire intégrée à l’aide d’un bus de communication.
Les moyens employés par le circuit de génération 22 et l’unité de traitement 21 sont par exemple similaires, partiellement confondus ou encore intégralement confondus.
Les valeurs ou les vecteurs générés et l’algorithme de génération employé par le circuit de génération 22 peuvent varier selon l’objet identifié ou les angles de capture déterminés.
L’analyse des données issues de l’étape S2 à l’aide d’un algorithme d’apprentissage profond permet par exemple de déterminer les dimensions du véhicule 11, sa couleur, l’écartement de ses phares, ses proportions ou encore l’activation de ses feux clignotants, chacune de ces données étant représentée par une ou plusieurs valeurs. Il est possible d’établir alors un vecteur caractéristique de l’avant et/ou de l’arrière du véhicule 11.
Le circuit de génération 22 produit donc dans l’étape S3, pour chaque objet isolé dans l’étape S2, un vecteur pouvant servir à différencier ou à reconnaître précisément l’objet, par exemple en calculant la similarité cosinus (aussi appelée distance cosinus ou mesure cosinus) entre le vecteur caractéristique de l’objet isolé et un ensemble de vecteurs « type », par exemple des vecteurs représentatifs de chaque objet, et en associant à l’objet isolé celui dont le résultat est le plus proche de 1. Dans un tel exemple, le vecteur caractéristique n’inclut que des valeurs pertinentes à la différenciation de l’objet.
Le ou les vecteurs caractéristiques du véhicule 11 représentent ainsi une quantité d’informations suffisante pour identifier précisément le véhicule 11 en question, sous une forme considérablement plus compacte et simple à traiter qu’une représentation visuelle.
L’exécution en succession des étapes S1 à S3 permet par conséquent de suivre au cours du temps tout objet présent dans l’environnement routier, tout en fournissant la capacité d’identifier et de différencier chaque objet par un ensemble restreint de données limitant grandement les moyens nécessaires pour leur traitement, leur stockage et leur transmission.
Optionnellement, une étape de calcul S5 d’un indice de certitude permet d’estimer la qualité d’exécution des étapes précédentes S2 et/ou S3. Cet indice de certitude est par exemple lié à la proximité entre la distance cosinus et 1, à la qualité de la représentation visuelle du véhicule 11, à des valeurs caractéristiques inattendues ou encore à une dispersion élevée des mesures de coordonnées spatiale et de vitesse.
Les indices de certitude peuvent être employés pour identifier les scénarios et les images pour lesquelles l’apprentissage des algorithmes ou les moyens du dispositif 100 ne sont pas suffisants. Par exemple, des données d’environnement et vecteurs caractéristiques générés à un instant t-1 peuvent être employés en tant que données d’entrée étiquetées pour un apprentissage réalisé à un instant t, en sélectionnant de préférence des données pour lesquelles l’indice de certitude est insuffisant.
Les indices de certitude peuvent aussi servir à moduler l’importance ou l’exécution des étapes ultérieures, pour économiser les ressources dédiées à des données potentiellement erronées ou au contraire pour alerter sur la présence d’éléments indéterminés dans l’environnement routier 1000.
Additionnellement, on peut prévoir une étape S6 d’identification indirecte de perturbation pour améliorer la sécurité sur les routes.
Dans l’exemple de la figure 1, plusieurs itérations des étapes S1 à S3 permettent d’identifier tout obstacle sur la route, par exemple un cône de chantier, une inondation ou encore une déformation de la chaussée.
Dans cet exemple, le dispositif 100 peut combiner les informations sur les coordonnées spatiales et la vitesse du véhicule 11 aux instants t et t-1 dans une étape de traçage de trajectoire S6_1 et effectuer une deuxième comparaison S6_2 entre la trajectoire du véhicule 11 et celle du véhicule 12 par rapport à l’environnement routier 1000.
Dans cet exemple, si les deux trajectoires des véhicules 11 et 12 comprennent aux mêmes coordonnées spatiales une déviation par rapport à l’environnement routier 1000 ou par rapport à d’autres véhicules précédents, le dispositif 100 peut procéder à une deuxième génération S6_3 d’informations représentatives d’une perturbation de circulation associée à ces coordonnées spatiales.
Cette identification indirecte S6 permet par conséquent de compléter d’éventuelles insuffisances liées aux algorithmes employés ou aux données d’environnement reçues et de détecter tout type de perturbation, même inconnue, sans restriction.
On note donc que le procédé mis en œuvre par le dispositif 100 permet de caractériser l’ensemble des objets présents dans l’environnement routier 1000 à un instant t et d’employer les informations obtenues pour inférer la présence d’éléments supplémentaires hors de ses capacités de détections et/ou d’analyse.
Le procédé permet donc de suivre le trafic routier immédiat et les incidents passés.
Il est souhaitable pour compléter ce suivi de prévoir une étape S7 de prédiction de position et de collision pour améliorer la sécurité avant le déclenchement d’incidents.
Dans l’exemple de la figure 1, le dispositif 100 reçoit, génère et stocke un ensemble d’informations sur la position, la vitesse, la trajectoire et les indicateurs lumineux des véhicules 11 et 12 ainsi que sur l’environnement routier 1000. Cet ensemble d’informations peut par exemple être complété par des informations reçues en communication V2I (de l’anglais « Vehicle-to-Infrastructure » ou en français « Véhicule vers infrastructure ») avec les véhicules 11 et 12 ou encore par une communication sans fil avec le reste de l’infrastructure.
On prévoit dans une étape d’estimation de position S7_1 la mise en œuvre par le dispositif 100 d’un algorithme prenant en compte l’ensemble des informations à disposition pour établir un nuage de probabilité de présence du véhicule 11 dans un instant futur, par exemple 10 secondes après l’instant t.
Les trajectoires tracées dans l’étape S6_1 peuvent par exemple améliorer l’apprentissage de l’algorithme employé, notamment en combinaison des données reçues et générées pour chaque véhicule.
On prévoit aussi d’effectuer une évaluation d’un risque de collision dans une étape S7_2 à partir d’une ou plusieurs estimations obtenues à l’étape S7_1.
Dans l’exemple de la figure 1, les estimations de l’étape S7_1 effectuées sur les véhicules 11 et 12 indiquent par exemple une probabilité non nulle pour chaque véhicule 11 et 12 de présence aux mêmes coordonnées spatiales. Le produit de ces deux probabilités indique par conséquent un pourcentage de chance estimé d’une collision future entre les deux véhicules.
L’unité de traitement 21 et/ou le circuit de génération 22 peuvent aussi recevoir les estimations de position d’étapes S7_1 effectuées à un instant t-1 pour simplifier l’exécution des étapes S2 et/ou S3 effectuées à l’instant t, par combinaison des coordonnées spatiales reçues à l’étape S1 avec les coordonnées spatiales prévues par l’étape S7_1.
Dans l’exemple de la figure 1, une fois le véhicule 11 détecté et caractérisé et les informations enregistrées dans la mémoire 24, le dispositif 100 peut par exemple réutiliser à l’instant t les résultats générés à l’instant t-1 pour une pluralité d’itérations ou encore tant que l’indice de certitude est supérieur à une valeur seuil.
Il devient donc possible d’allouer plus de moyens à l’étape S7 qu’aux étapes S2 et S3 pour effectuer le procédé le plus avancé possible avec un minimum de temps et d’énergie.
Les étapes optionnelles S6 et S7 permettent ainsi d’augmenter le nombre d’éléments détectés et la quantité d’informations associées.
Dans l’exemple de la figure 1, le dispositif 100 effectue alors une première transmission S4 des informations générées à destination d’un dispositif distant à l’aide de premiers moyens de transmission 23.
Les premiers moyens de transmission 23 comprennent par exemple une ou plusieurs des interfaces suivantes :
- interface radiofréquence RF, par exemple de type Bluetooth® ou Wi-Fi®, LTE (de l’anglais « Long-Term Evolution » ou en français « Evolution à Long Terme »), LTE-Advanced (ou en français « LTE-avancé ») ;
- interface USB (de l’anglais « Universal Serial Bus » ou « Bus Universel en Série » en français) ;
- interface HDMI (de l’anglais « High Definition Multimedia Interface », ou « Interface Multimédia Haute Définition » en français).
Selon un autre exemple, les premiers moyens de transmission 23 correspondent à un transmetteur configuré pour transmettre des informations et/ou données via un canal de communication, par exemple un réseau filaire de type CAN (de l’anglais « Controller Area Network » ou en français « Réseau de Contrôleurs ») ou CAN FD (de l’anglais « Controller Area Network Flexible Data-Rate » ou en français « Réseau de contrôleurs à débit de données flexible »).
Via les premiers moyens de transmission 23, le dispositif 100 transmet par exemple le vecteur caractéristique du véhicule 11 à destination d’un serveur distant, par exemple un serveur du cloud 110 appartenant à un gestionnaire de route ou un service de navigation, pour centraliser les informations caractéristiques du véhicule et faciliter son suivi le long d’une portion de route.
Dans un exemple supplémentaire, l’indice de certitude calculé à l’étape S5 est faible et le dispositif 100 transmet le vecteur caractéristique du véhicule 11 et la donnée d’environnement reçue du capteur 10 à destination d’un autre dispositif incluant des moyens informatiques plus performants pour tenter une nouvelle itération du procédé.
Le dispositif 100 peut en outre procéder dans une étape S8 au rendu d’une alerte de sécurité. Cette alerte de sécurité correspond par exemple à un ou plusieurs messages d’alerte visuels, sonores, et/ou haptiques, indiquant le risque de collision évalué à l’étape S7_2 et/ou les instructions à mettre en œuvre. Cette alerte peut être effectuée par exemple sur une variété de moyens associés au dispositif 100, par exemple sur des éléments de rendu externes, ou sur un dispositif associé au véhicule 11, par exemple sur le tableau de bord du véhicule 11.
Les éléments de rendu externes du dispositif 100 sont par exemple des hauts parleurs, ou au moins un moyen d’affichage tel qu’une pluralité de LED (de l’anglais « Light-Emitting Diode » ou en français « Diode électroluminescente »), un écran de type LCD (de l’anglais « Liquid Crystal Display » ou en français « Affichage à cristaux liquides »), OLED (de l’anglais « Organic Light-Emitting Diode » ou en français « Diode électroluminescente organique ») ou encore un affichage de type E-ink (de l’anglais « Electronic ink » ou en français « encre électronique ») arrangés ou intégrés dans la structure du dispositif 100, pour avertir le véhicule 11.
Dans l’exemple de la figure 1, le contenu de l’alerte est modulé par le risque de collision évalué à l’étape S7_2, et le dispositif 100 émet des signaux lumineux de couleurs différentes selon la probabilité de collision.
En complément des informations sur les objets et les événements individuels, on prévoit aussi une étape S9 d’évaluation globale du niveau de trafic.
Dans l’exemple de la figure 1, le dispositif 100 effectue une troisième comparaison S9_1 des objets identifiés et des vecteurs caractéristiques générés sur une période donnée pour identifier tous les objets mobiles distincts dans l’environnement routier 1000.
A la suite de cette étape, le dispositif 100 transmet des informations représentatives du niveau de trafic évalué, par exemple à destination d’un serveur d’une application de navigation, dans une deuxième étape de transmission S9_2. Les informations représentatives comprennent par exemple le nombre d’objets distincts identifiés sur une période donnée ou encore les vecteurs caractéristiques de chaque véhicule distinct ainsi que leur information représentative de vitesse.
La comptabilisation en temps réel du niveau de trafic à un endroit donné et la centralisation des informations associées permet aux acteurs de mieux anticiper les niveaux de trafic futurs. Ce niveau de trafic peut en plus être combiné à des informations additionnelles, par exemple la présence de travaux, de perturbations de circulation ou d’événements locaux spécifiques, pour pondérer les données transmises.
Le dispositif 100 peut individuellement effectuer cette anticipation du niveau de trafic futur à partir des niveaux de trafic évalués sur une période précédente et stockés dans la mémoire 24, en combinaison par exemple aux informations additionnelles décrites ci-dessus et reçues par communication avec l’infrastructure.
Le dispositif 100 emploie par exemple un algorithme d’apprentissage automatique, dont l’apprentissage est supervisé par comparaison du niveau de trafic anticipé pour une heure et un jour donné selon les données récoltées avec le niveau de trafic évalué à cette même heure.
L’anticipation du niveau de trafic au niveau du dispositif 100 permet d’une part d’exploiter ses moyens informatiques même en absence de données d’environnement, d’autre part de fournir des données additionnelles pour paramétrer son propre fonctionnement.
On peut en effet prévoir une étape supplémentaire de gestion énergétique dans le but d’assurer un maximum de fonctionnalités le plus souvent possible sans manquer de temps ou d’énergie pour effectuer les étapes du procédé les plus importantes.
Le dispositif 100 peut par exemple être partiellement ou complètement alimenté par panneaux solaires dans une conception respectueuse de l’environnement et disposer de moyens d’alimentation variables selon les conditions environnementales.
Le dispositif 100 reçoit par exemple des informations de la part de capteurs externes, par exemple de capteurs de luminosité, et par communication avec le reste de l’infrastructure, par exemple sur les conditions météorologiques attendues, une éventuelle modification de la vitesse maximale associée à l’environnement routier ou encore un évènement exceptionnel de type évènement sportif, grève, etc.
Le dispositif 100 emploie par conséquent un algorithme d’apprentissage automatique prenant pour paramètres une information de niveau de batterie, au moins une information de conditions externes comprenant par exemple l’heure ou encore les conditions météorologiques et le niveau de trafic anticipé, pour déterminer les moyens informatiques, et/ou les étapes du procédé et/ou le nombre d’itérations du procédé à employer sur une période donnée tout en cherchant à maximiser le niveau de batterie ou encore à conserver le niveau de batterie au-dessus d’une valeur seuil.
Cette étape permet ainsi d’assurer autant que possible un fonctionnement en continu du dispositif 100 pour conserver ses bénéfices de sécurité en employant au maximum ses moyens informatiques pour transmettre des informations de trafic les plus détaillées possibles.
Ainsi, on comprendra que la présente invention prévoit la mise en œuvre de technologies de communication et d’apprentissage automatique pour le suivi du trafic routier. Un tel suivi est obtenu par la détection d’objets dans l’environnement routier et la génération de vecteurs caractéristiques de ces objets permettant de les représenter sous une forme compacte et distincte. En mettant en œuvre des réseaux de neurones et des algorithmes d’apprentissage automatique, il est possible d’extraire un maximum d’informations de l’environnement routier et d’adapter le procédé aux conditions du terrain.
Une fois chaque objet de l’environnement routier suivi et représenté, il devient possible de comparer leur vecteur caractéristique dans une base de données pour les identifier précisément et retranscrire à tout moment l’état de la route, la signalisation, les véhicules de type automobile ou autre en circulation sur cette route ou encore la présence d’obstacles ou de danger.
On comprendra que ce procédé de suivi peut s’appliquer à une variété de situations autres que le domaine routier, pour lesquels un suivi et une analyse de l’environnement peuvent être nécessaires.
Il devra être observé que cette description détaillée porte sur un exemple de réalisation particulier de la présente invention, mais qu’en aucun cas cette description ne revêt un quelconque caractère limitatif à l’objet de l’invention ; bien au contraire, elle a pour objectif d’ôter toute éventuelle imprécision ou toute mauvaise interprétation des revendications qui suivent.
Il devra également être observé que les signes de références mis entre parenthèses dans les revendications qui suivent ne présentent en aucun cas un caractère limitatif ; ces signes ont pour seul but d’améliorer l’intelligibilité et la compréhension des revendications qui suivent ainsi que la portée de la protection recherchée.

Claims (26)

  1. Procédé de suivi de trafic routier à un instant déterminé t, ledit procédé mis en œuvre par des moyens informatiques comportant les étapes suivantes :
    - une réception (S1) d’au moins une donnée d’environnement routier contenant au moins une information représentative d’un environnement routier (1000) à partir d’au moins un capteur (10) associé audit environnement routier (1000) ;
    - un traitement (S2) de ladite au moins une donnée d’environnement pour détecter au moins un objet (11, 12) dudit environnement routier ;
    - une première génération (S3) d’au moins un vecteur caractéristique comprenant un ensemble de valeurs caractéristiques dudit objet (11, 12) ; et
    - une première transmission (S4) dudit au moins un vecteur caractéristique et de ladite au moins une donnée d’environnement à un dispositif distant pour le suivi dudit trafic.
  2. Procédé selon la revendication 1, dans lequel ladite au moins une information représentative dudit environnement routier (1000) appartient à un ensemble d’informations comprenant :
    - une information représentative de coordonnées spatiales dudit objet (11, 12) ; et/ou
    - une information représentative d’une vitesse dudit objet (11, 12) ; et/ou
    - une information représentative d’une représentation visuelle dudit environnement routier (1000).
  3. Procédé selon la revendication 2, dans lequel l’étape de traitement (S2) comporte une première comparaison (S2_1) de ladite au moins une donnée d’environnement routier à l’instant t avec au moins une précédente donnée d’environnement routier reçue à un instant antérieur t-1 pour isoler ledit objet (11, 12).
  4. Procédé selon la revendication 2 ou 3, dans lequel l’étape de traitement (S2) comporte une détermination (S2_2) de l’angle de capture dudit objet (11, 12) en fonction de ladite au moins une donnée d’environnement routier.
  5. Procédé selon la revendication 4, lequel comporte une première étape de fusion (S2_3) d’une pluralité de données d’environnement selon une pluralité d’angles de capture dudit objet (11, 12).
  6. Procédé selon l’une quelconque des revendications 2 à 5, dans lequel l’étape de traitement (S2) comporte une deuxième fusion (S2_4) de ladite donnée d’environnement à un instant déterminé t avec au moins une précédente donnée d’environnement reçue à un instant antérieur t-1 pour améliorer la qualité de ladite donnée d’environnement.
  7. Procédé selon l’une quelconque des revendications 1 à 6, dans lequel ledit ensemble de valeurs caractéristiques dudit vecteur comprend :
    - une valeur représentative du type dudit objet (11, 12) ; et/ou
    - une valeur représentative d’une couleur dudit objet (11, 12) ; et/ou
    - une valeur représentative d’une taille dudit objet (11, 12) ; et/ou
    - une valeur représentative des proportions dudit objet (11, 12) ; et/ou
    - une valeur représentative d’un indicateur lumineux dudit objet (11, 12).
  8. Procédé selon l’une quelconque des revendications précédentes, lequel comporte une étape de calcul (S5) d’un indice de certitude relatif audit objet (11, 12) pour quantifier :
    - la robustesse de ladite détection dudit objet ; et/ou
    - la robustesse dudit vecteur caractéristique généré.
  9. Procédé selon la revendication 8, dans lequel la première étape de transmission (S4) consiste à transmettre ledit au moins un vecteur caractéristique et ladite au moins une donnée d’environnement en fonction des indices de certitude.
  10. Procédé selon l’une quelconque des revendications précédentes, dans lequel l’étape de traitement (S2) et/ou l’étape de génération (S3) sont effectuées par un réseau de neurones de type CNN et/ou RNN.
  11. Procédé selon l’une quelconque des revendications précédentes, dans lequel l’étape de génération (S3) dudit vecteur caractéristique à l’instant t est obtenue à partir d’au moins un précédent vecteur caractéristique généré à un instant antérieur t-1.
  12. Procédé selon l’une quelconque des revendications précédentes, lequel comporte une étape d’identification indirecte (S6) d’une perturbation de circulation à un instant déterminé t à partir d’une pluralité de vecteurs caractéristiques générés et de données d’environnement antérieurs reçues à un instant t-1.
  13. Procédé selon la revendication 12, dans lequel l’étape d’identification comprend les étapes suivantes :
    - un traçage (S6_1) d’une trajectoire dudit objet (11, 12) ;
    - une deuxième comparaison (S6_2) de ladite trajectoire tracée à un instant déterminé t avec au moins une précédente trajectoire tracée à un instant antérieur t-1 pour détecter les coordonnées spatiales d’anomalie ;
    - une seconde génération (S6_3) de ladite perturbation de circulation associées auxdites coordonnées spatiales d’anomalie.
  14. Procédé selon l’une quelconque des revendications précédentes, lequel comporte une étape d’estimation (S7_1) de position future dudit objet (11, 12) à partir d’au moins une donnée de trafic routier.
  15. Procédé selon la revendication 14, dans lequel ladite au moins une donnée de trafic routier contient un ensemble d’informations comprenant :
    - une information représentative des coordonnées spatiales dudit objet (11, 12) ; et/ou
    - une information représentative d’une vitesse dudit objet (11, 12) ; et/ou
    - ledit vecteur caractéristique dudit objet (11, 12) ; et/ou
    - au moins une information représentative des coordonnées spatiales d’autres objets, reçue à un instant t-1 ; et/ou
    - au moins une information représentative de vitesse d’autres objets, reçue à un instant t-1 ; et/ou
    - une donnée de communication provenant d’au moins un autre objet (11).
  16. Procédé selon la revendication 14 ou 15, dans lequel, lors de l’étape de traitement à l’instant t, la détection dudit objet (11, 12) est réalisée en fonction d’au moins une précédente estimation de position effectuée à un instant antérieur t-1.
  17. Procédé selon l’une quelconque des revendication 14 à 16, lequel comporte une étape d’évaluation (S7_2) de risque de collision à l’instant t à partir d’au moins une précédente estimation de position effectuée à un instant antérieur t-1.
  18. Procédé selon l’une quelconque des revendications précédentes, lequel comporte une étape (S8) de rendu d’un signal d’alerte.
  19. Procédé selon l’une quelconque des revendications précédentes, lequel comporte une troisième étape de comparaison (S9_1) desdits vecteurs à un instant antérieur t-1 pour évaluer un niveau de trafic à l’instant t.
  20. Procédé selon la revendication 19, lequel comporte une deuxième étape de transmission (S9_2) dudit niveau de trafic audit dispositif distant.
  21. Programme d’ordinateur de suivi de trafic routier à un instant déterminé t, ledit programme comprenant des instructions adaptées pour l’exécution des étapes du procédé selon l’une quelconque des revendications 1 à 20 lorsque ledit programme d’ordinateur est exécuté par au moins un processeur.
  22. Support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur selon la revendication 21.
  23. Système informatique (100) de suivi de trafic routier à un instant déterminé t, ledit système comportant :
    - une unité de balise (20), intégrée dans un environnement routier (1000), configurée pour recevoir au moins une donnée d’environnement routier contenant au moins une information représentative d’un environnement routier (1000) à partir d’au moins un capteur (10) associé audit environnement routier (1000) ;
    - une unité de traitement (21) de ladite au moins une donnée d’environnement configurée pour détecter au moins un objet (11, 12) dudit environnement routier (1000) ;
    - un circuit de génération (22) configuré pour générer au moins un vecteur caractéristique comprenant un ensemble de valeurs caractéristiques dudit objet (11, 12) ; et
    - des premiers moyens de transmission (23) dudit au moins un vecteur caractéristique et de ladite au moins une donnée d’environnement à un dispositif distant pour le suivi dudit trafic.
  24. Système selon la revendication 23 comprenant des moyens informatiques configurés pour la mise en œuvre de l’une quelconque des revendications 2 à 20.
  25. Système selon la revendication 23 ou 24, lequel comporte au moins un coprocesseur d’inférence et/ou d’apprentissage.
  26. Système selon l’une quelconque des revendications 23 à 25, pour lequel ledit au moins un capteur (10) comprend :
    - au moins une caméra ; et/ou
    - au moins un capteur infrarouge ; et/ou
    - un capteur à ultrason ; et/ou
    - un lidar ; et/ou
    - un capteur magnétique ; et/ou
    - un capteur sonore ; et/ou
    - un capteur de vibration ; et/ou
    - un accéléromètre ; et/ou
    - un radar.
FR2004005A 2020-04-22 2020-04-22 Procédé et système informatique de suivi de trafic routier Active FR3109662B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2004005A FR3109662B1 (fr) 2020-04-22 2020-04-22 Procédé et système informatique de suivi de trafic routier

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2004005 2020-04-22
FR2004005A FR3109662B1 (fr) 2020-04-22 2020-04-22 Procédé et système informatique de suivi de trafic routier

Publications (2)

Publication Number Publication Date
FR3109662A1 true FR3109662A1 (fr) 2021-10-29
FR3109662B1 FR3109662B1 (fr) 2022-07-22

Family

ID=71452481

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2004005A Active FR3109662B1 (fr) 2020-04-22 2020-04-22 Procédé et système informatique de suivi de trafic routier

Country Status (1)

Country Link
FR (1) FR3109662B1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019068042A1 (fr) * 2017-09-29 2019-04-04 Netradyne Inc. Détermination d'événement d'exposition multiple
WO2019145018A1 (fr) * 2018-01-23 2019-08-01 Siemens Aktiengesellschaft Système, dispositif et procédé de détection d'événements de trafic anormal dans un emplacement géographique
US20190318550A1 (en) * 2017-04-17 2019-10-17 Intel Corporation Autonomous vehicle advanced sensing and response
US20190325754A1 (en) * 2018-03-19 2019-10-24 Derq Inc. Early warning and collision avoidance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190318550A1 (en) * 2017-04-17 2019-10-17 Intel Corporation Autonomous vehicle advanced sensing and response
WO2019068042A1 (fr) * 2017-09-29 2019-04-04 Netradyne Inc. Détermination d'événement d'exposition multiple
WO2019145018A1 (fr) * 2018-01-23 2019-08-01 Siemens Aktiengesellschaft Système, dispositif et procédé de détection d'événements de trafic anormal dans un emplacement géographique
US20190325754A1 (en) * 2018-03-19 2019-10-24 Derq Inc. Early warning and collision avoidance

Also Published As

Publication number Publication date
FR3109662B1 (fr) 2022-07-22

Similar Documents

Publication Publication Date Title
US11625856B2 (en) Localization systems and methods
US20220244063A1 (en) Data processing system communicating with a map data processing system to determine or alter a navigation path based on one or more road segments
CN107918311B (zh) 多传感器降水分级设备和方法
EP3511863B1 (fr) Apprentissage par représentation distribuable permettant d'associer des observations de plusieurs véhicules
FR2890774A1 (fr) Procede d'assitance a la conduite d'un vehicule et dispositif associe ameliore
Sun et al. Time series anomaly detection based on GAN
JP6605176B1 (ja) 交通情報生成システム
KR102657921B1 (ko) 융합된 이미지를 사용한 엔드 투 엔드 시스템 트레이닝
WO2022002531A1 (fr) Système et procédé de détection d'un obstacle dans un environnement d'un véhicule
FR3109662A1 (fr) Procédé et système informatique de suivi de trafic routier
EP3353031A1 (fr) Dispositif d'aide a la conduite pour estimation du danger d'une situation
EP3729404A1 (fr) Procédé de surveillance d'un environnement d'un premier élément positionné au niveau d'une voie de circulation, et système associé
Das et al. Why slammed the brakes on? auto-annotating driving behaviors from adaptive causal modeling
WO2023086170A1 (fr) Adaptation de domaine non supervisé pour une segmentation lidar via des techniques de pseudo-marquage améliorées
EP3903158B1 (fr) Procédé et système d'assistance d'un véhicule automobile autonome
SB et al. Real-time pothole detection using YOLOv5 algorithm: a feasible approach for intelligent transportation systems
FR3103305A1 (fr) Procédé et dispositif de prédiction d’au moins une caractéristique dynamique d’un véhicule en un point d’un segment routier.
FR3106553A1 (fr) Procédé et dispositif de traitement de données d’environnement de véhicule
FR3092546A1 (fr) Identification de zones roulables avec prise en compte de l’incertitude par une méthode d’apprentissage profond
Chen et al. Self-supervised sun glare detection CNN for self-aware autonomous driving
EP4138039A2 (fr) Système et procédé de segmentation lidar hybride avec détection de valeurs aberrantes
US20230077516A1 (en) Systems and methods for utilizing machine learning for vehicle detection of adverse conditions
US20230152465A1 (en) UNSUPERVISED DOMAIN ADAPTATION FOR LiDAR SEGMENTATION VIA ENHANCED PSEUDO-LABELING TECHNIQUES
FR3128178A1 (fr) Procédé de prédiction d’une condition de surface d’un segment routier
EP3676148B1 (fr) Procédé d'analyse du comportement de conduite d'un utilisateur d'un véhicule automobile

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20211029

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4