FR3133098A1 - Procédé d’analyse d’images dans un véhicule automobile, dispositif et véhicule associés - Google Patents

Procédé d’analyse d’images dans un véhicule automobile, dispositif et véhicule associés Download PDF

Info

Publication number
FR3133098A1
FR3133098A1 FR2201731A FR2201731A FR3133098A1 FR 3133098 A1 FR3133098 A1 FR 3133098A1 FR 2201731 A FR2201731 A FR 2201731A FR 2201731 A FR2201731 A FR 2201731A FR 3133098 A1 FR3133098 A1 FR 3133098A1
Authority
FR
France
Prior art keywords
layer
output layer
image
vehicle
last
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2201731A
Other languages
English (en)
Inventor
Thomas Hannagan
Thibault Fouqueray
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR2201731A priority Critical patent/FR3133098A1/fr
Publication of FR3133098A1 publication Critical patent/FR3133098A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Procédé d’analyse d’une première image dans un ego véhicule automobile (100) par un premier réseau de neurones (111), le premier réseau de neurones comprenant une couche d’entrée et une couche de sortie, une dernière couche connectée directement à la couche de sortie, caractérisé en ce qu’il comprend les étapes suivantes : Réception d’une première image par la couche d’entrée,Détermination de la couche de sortie à partir de la couche d’entrée par le premier réseau de neurones, et d’une incertitude sur la couche de sortie,Amélioration de la couche de sortie comprenant les étapes suivantes :Modification de la dernière couche de manière à réduire l’incertitude, à partir de la couche de sortie,Calcul de la couche de sortie à partir de la dernière couche modifiée. Figure pour l’abrégé : figure 1

Description

Procédé d’analyse d’images dans un véhicule automobile, dispositif et véhicule associés
L’invention concerne l’aide à la conduite d’un véhicule automobile.
Aujourd’hui, Il existe un certain nombre de dispositifs électroniques d’aides à la conduite (ou d’automatismes de conduite) permettant une adaptation automatique (ou semi-automatique) de la trajectoire d’un véhicule en fonction de l’environnement du véhicule.
Ces aides à la conduite nécessitent des analyses d’images complexes faisant appel à des réseaux de neurones. L’analyse d’image détermine ainsi la trajectoire (c’est-à-dire la direction et la vitesse du véhicule) donnée au véhicule par le dispositif d’aide à la conduite, ou des signaux délivrés dans l’habitacle (signaux d’avertissement, par exemple visuels ou sonores).
Notamment, ces analyses d’images utilisent des réseaux de neurones pour réaliser une analyse sémantique de ces images. Or, il existe un besoin pour améliorer la qualité de l’analyse sémantique produite par ces réseaux de neurones.
Dans ce but, l’invention concerne un procédé d’analyse d’une première image dans un ego véhicule automobile par un premier réseau de neurones (de l’égo véhicule), le premier réseau de neurones comprenant une couche d’entrée et une couche de sortie, une dernière couche connectée directement à la couche de sortie (la dernière couche étant située entre la couche d’entrée et la couche de sortie), caractérisé en ce qu’il comprend les étapes suivantes :
  • Réception d’une première image par la couche d’entrée,
  • Détermination de la couche de sortie à partir de la couche d’entrée par le premier réseau de neurones, et d’une incertitude sur la couche de sortie,
  • Amélioration de la couche de sortie comprenant les (deux) étapes suivantes :
  • Modification de la dernière couche de manière à réduire l’incertitude, à partir de la (i.e. : du contenu de la) couche de sortie, (puis)
  • Calcul de la couche de sortie à partir de la (i.e. : du contenu de la) dernière couche modifiée.
Ainsi, l’invention permet d’améliorer l’analyse de la première image par une modification de la dernière couche du réseau de neurone à partir de la couche de sortie.
Le premier réseau de neurones est un réseau de neurone électronique, c’est-à-dire mis en œuvre par un circuit électronique, par exemple un microcircuit, comprenant par exemple un processeur avec une mémoire ou un circuit électronique dédié.
L’incertitude sur la couche de sortie peut être obtenue de plusieurs manières. Préférentiellement, par une méthode d’abandon de monté-carlo ( en Anglais « Monté-Carlo dropout ») introduite dans l’article :
  • Y. Gal and Z. Ghahramani. Dropout as a Bayesian approximation: Representing model uncertainty in deep learning. In ICML, 2016.
En variante, le premier réseau de neurones peut être un réseau de neurones bayésien.
Par exemple, la dernière couche peut être modifiée par une méthode de descente en gradient.
Par exemple, la modification de la dernière couche s’écrit :
où :
  • xtest (i.e. : un vecteur représentant) la valeur de la dernière couche, xt+1est (i.e. : un vecteur représentant) la valeur de la dernière couche modifiée,
  • M est une matrice tel que xt.M ou xt+1.M est la couche de sortie,
  • La matrice M est modifiée aléatoirement n fois en une matrice Mi, i variant de 1 à n, en mettant à zéro un élément de cette matrice. Mi Test la transposée de la matrice Mi.
  • α est une constante représentant un pas de descente en gradient de xtde manière à réduire l’incertitude,
  • yiest la valeur du neurone numéro i dans la couche de sortie,est la moyenne des yi.
Cette modification de la dernière couche est particulièrement adaptée lorsque l’incertitude est obtenue par une méthode d’abandon de Monté-carlo (en Anglais « Monté-Carlo dropout »).
D’autres modifications de la dernière couche sont possibles, notamment en fonction de la méthode d’évaluation de l’incertitude.
Selon un mode de réalisation, la première image est une image d’un conducteur de l’égo véhicule lorsqu’il conduit l’égo véhicule et le réseau de neurones produit comme résultat (i.e : la couche de sortie) une information selon laquelle le conducteur est distrait ou pas.
Le premier réseau de neurones est dans ce cas par exemple un réseau de neurones classifieur, par exemple tel qu’enseigné dans l’article suivant :
  • He, Zhang, Ren, Sun (2016) Deep Residual Learning for Image Recognition. Computer Vision and Pattern Recognition (CVPR).
Selon un mode de réalisation, l’égo véhicule est situé dans un environnement comprenant un élément (immobile, ou circulant selon une deuxième trajectoire), le procédé étant caractérisé en ce qu’il comporte les étapes suivantes :
  • Réception d’une information d’environnement (relative à l’environnement),
  • Détermination d’une durée avant collision jusqu’à une collision anticipée entre l’égo véhicule (s’il poursuit la première trajectoire) et l’élément (s’il demeure immobile, ou poursuit la deuxième trajectoire), à partir de l’information d’environnement,
  • Détermination d’une durée d’analyse disponible pour l’analyse de la première image à partir de la durée avant collision,
L’amélioration de la couche de sortie n’étant mise en œuvre que si la durée d’analyse est supérieure à un seuil temporel.
En variante, l’amélioration est mise en œuvre dans tous les cas.
Selon un mode de réalisation, l’étape d’amélioration peut être répétée jusqu’à la durée d’analyse soit expirée. En variante, l’étape d’amélioration peut être répétées un nombre prédéterminé de fois (par exemple, le nombre prédéterminé peut être déterminé à partir de la durée d’analyse).
Ainsi, selon l’invention, l’analyse de l’image peut être améliorée lorsque le temps disponible pour réaliser cette analyse le permet, ce qui permet d’améliorer la qualité des aides à la conduite.
Le procédé peut comprendre une étape de réception de la première image. En variante, le première image est déjà en mémoire.
La première image peut être obtenue par une première caméra du véhicule égo.
En variante, la première image est reçue par exemple par une caméra d’autres véhicules situés dans l’environnement du l’égo véhicule (non représenté).
Selon un mode de réalisation, l’information d’environnement est reçue de la part d’une deuxième caméra. L’information comprend par exemple des images vidéo, dans ce cas. L’information d’environnement peut être reçue de la part d’un deuxième radar de l’égo véhicule. L’information comprend par exemple des images radar, dans ce cas.
En variante, l’information d’environnement est reçue par exemple par un radar ou une caméra d’autres véhicules situés dans l’environnement du l’égo véhicule.
Selon un mode de réalisation, le procédé d’analyse comprend :
  • Une étape de détermination d’une distance entre l’ego véhicule et l’élément à partir de l’information d’environnement,
  • Une étape de détermination d’une vitesse relative entre l’ego véhicule et l’élément à partir de l’information d’environnement.
La durée avant collision étant déterminée à partir de la distance et de la vitesse.
En variante, la durée avant collision peut être obtenue par un troisième réseau de neurones, à partir de l’information d’environnement.
La durée avant collision peut aussi prendre en compte l’accélération de l’égo véhicule ou de l’élément.
Selon un mode de réalisation, le procédé comprend une étape de réception d’une deuxième image de l’environnement (obtenue par exemple de la part d’une troisième caméra (de l’égo véhicule) et l’élément est une surface représentée par un pixel de la deuxième image.
En variante, l’élément est un véhicule, un piéton, ou objet fixe représentée par un ensemble de pixels (et le procédé peut comprendre une étape de reconnaissance de l’élément).
Lorsque l’environnement comprend une pluralité d’éléments, l’élément est préférentiellement celui pour lequel la durée avant collision est minimum parmi la pluralité d’éléments.
En variante, un risque encouru, par exemple en cas de choc entre l’égo véhicule et l’élément, peut être pris en compte pour déterminer l’élément.
Selon un mode de réalisation, La pluralité d’élément peut être représentée par tous les pixels de la deuxième image, et l’élément peut être représenté par un de ces pixels.
La durée avant collision est par exemple obtenue à partir de la vitesse relative entre l’égo véhicule et l’élément divisée par la distance.
Selon un mode de réalisation, la durée d’analyse est égale à la durée avant collision moins un temps de sécurité.
Le temps de sécurité est par exemple le temps nécessaire à la mise en œuvre d’une mesure d’urgence. Il est par exemple de 2s.
L’incertitude peut être obtenue de plusieurs manières, préférentiellement, par une méthode d’abandon de monté-carlo ( en Anglais « Monté-Carlo dropout ») introduite dans l’article :
  • Y. Gal and Z. Ghahramani. Dropout as a Bayesian approximation: Representing model uncertainty in deep learning. In ICML, 2016.
L’invention concerne également un programme d’ordinateur comprenant des instructions, exécutables par un microprocesseur ou un microcontrôleur, pour la mise en œuvre du procédé selon l’invention.
Le procédé selon l’invention est par exemple mis en œuvre par un dispositif électronique d’aide à la conduite. L’invention concerne donc aussi un dispositif électronique configuré pour mettre en œuvre les étapes du procédé selon l’invention, et un véhicule automobile comprenant le dispositif électronique. Le dispositif électronique peut comprendre le premier réseau de neurones.
Les caractéristiques et avantages du dispositif électronique, du véhicule automobile et du programme d’ordinateur sont identiques à ceux du procédé, c’est pourquoi, ils ne sont pas repris ici.
On entend qu’un élément tel que le dispositif électronique, ou un autre élément est « configuré pour » réaliser une étape ou une opération, par le fait que l’élément comporte des moyens pour (autrement dit « est conformé pour » ou « est adapté pour ») réaliser l’étape ou l’opération. Il s’agit préférentiellement de moyens électroniques, par exemple d’un programme d’ordinateur, de données en mémoire et/ou de circuits électroniques spécialisés.
Lorsqu’une étape ou une opération est réalisée par un tel élément, cela implique généralement que l’élément comporte des moyens pour (autrement dit « est conformé pour » ou « est adapté pour » ou « est configuré pour ») réaliser l’étape ou l’opération. Il s’agit également par exemple de moyens électroniques, par exemple un programme d’ordinateur, des données en mémoire et/ou des circuits électroniques spécialisés, et/ou éventuellement de moyens mécaniques.
D’autres caractéristiques et avantages de la présente invention apparaitront plus clairement à la lecture de la description détaillée qui suit comprenant des modes de réalisation de l’invention donnés à titre d’exemples nullement limitatifs et illustrés par les dessins annexés, dans lesquels.
représente un dispositif électronique d’un véhicule automobile et un véhicule selon un mode de réalisation de l’invention.
représente une image traitée selon un mode de réalisation de l’invention
représente le procédé de l’invention, selon un exemple de réalisation, mis en œuvre notamment par le dispositif électronique et le véhicule de la .
Description détaillée d’un exemple de réalisation de l’invention
En référence à la et 3 à l’étape S10, un véhicule égo 100 circule sur une route 300 selon une trajectoire (autrement dit : direction et sens) T1. Le véhicule égo 100 comporte une caméra 120 et un radar 130 et un dispositif électronique d’aide à la conduite 110 comprenant un premier réseau de neurones 111.
La route 300 comporte une séparation centrale 310 (terre-plein ou autre), deux glissières de sécurité 330 et 320. Sur la route 300, les véhicules 220 et 210 circulent également selon une trajectoire (autrement dit : direction et sens) T2 et T3 respectivement. Un arbre 400 est également présent sur le côté de la route.
A l’étape S20, le dispositif d’aide à la conduite 110 réceptionne l’image 4000, , de l’environnement obtenue par exemple par la caméra 120.
A l’étape S30, le dispositif 110 reçoit des images radars (successives) de la part du radar 130
A l’étape S40, le dispositif 110 détermine, à partir des images radars, pour chaque pixel de l’image 4000, une durée avant une collision avec l’ego véhicule. Le pixel PX représentant surface PP (situé à une distance D1 du véhicule égo 100) du véhicule 220 est celui pour lequel la durée avant collision est minimum parmi tous les pixels de l’image 4000.
La durée avant collision est par exemple obtenue à partir de la vitesse relative entre l’égo véhicule et l’élément de l’environnement représenté par le pixel divisé par la distance entre l’élément de l’environnement représenté par le pixel et l’égo véhicule.
A l’étape S50, une durée d’analyse égale à la durée avant collision moins un temps de sécurité, par exemple égal à 2 secondes est déterminée. Par exemple, la durée d’analyse est de 1,1 seconde, et la durée avant collision de 3,1 secondes.
A l’’étape S60, le premier réseau de neurones est mis en œuvre avec pour entrée (c’est-à-dire, en couche d’entrée) une image d’un conducteur de l’égo véhicule 100 lorsqu’il conduit l’égo véhicule 100 et produit comme résultat (i.e. : le contenu de la couche de sortie) une information selon laquelle le conducteur est distrait ou pas.
Par exemple, le premier réseau de neurones 111 comprend une couche d’entrée et une couche de sortie comprenant le premier résultat, une dernière couche connectée directement à la couche de sortie.
Le premier réseau de neurones en même temps que la détermination (du contenu) de la couche de sortie, réalise une l’estimation d’une incertitude (du contenu) de la couche de sortie, par exemple, par une méthode d’abandon de monté-carlo ( en Anglais « Monté-Carlo dropout ») introduite dans l’article :
  • Y. Gal and Z. Ghahramani. Dropout as a Bayesian approximation: Representing model uncertainty in deep learning. In ICML, 2016.
Cette estimation peut être réalisée systématiquement ou uniquement si la durée d’analyse est supérieure au seuil ci-après.
Les étapes suivantes sont ensuite mises en œuvre :
  • A l’étape S70, modification de la dernière couche de manière à réduire l’incertitude,
  • A l’étape S80, calcul de la couche de sortie (c’est-à-dire le deuxième résultat) à partir de la dernière couche modifiée
Ces deux étapes peuvent être réalisées tant que la durée d’analyse n’est pas expirée.
Par exemple, la modification de la dernière couche, à l’étape S70, s’écrit :
  • xtest (i.e. : un vecteur réprésentant) la valeur de la dernière couche, xt+1est .(i.e. : un vecteur réprésentant) la valeur de la dernière couche modifiée,
  • M est une matrice tel que xt.M ou xt +1.M est la couche de sortie,
  • La matrice M est modifiée aléatoirement n fois en une matrice Mi, i variant de 1 à n, en mettant à zéro un élément de cette matrice. Mi Test la transposée de la matrice Mi.
  • α est une constante représentant un pas de descente en gradient de xtde manière à réduire l’incertitude,
  • yiest la valeur du neurone numéro i dans la couche de sortie,est la moyenne des yi.
Le premier réseau de neurones est dans ce cas par exemple un réseau de neurones classifieur, par exemple tel qu’enseigné dans l’article suivant :
  • He, Zhang, Ren, Sun (2016) Deep Residual Learning for Image Recognition. Computer Vision and Pattern Recognition (CVPR).
A l’étape S90, à partir (du contenu) de la couche de sortie, une mise en œuvre d’une trajectoire de l’égo véhicule est commandée par le dispositif électronique ou une restitution d’un signal (sonore ou visuel) dans l’habitacle est commandée par le dispositif électronique.

Claims (9)

  1. Procédé d’analyse d’une première image dans un ego véhicule automobile (100) par un premier réseau de neurones (111), le premier réseau de neurones comprenant une couche d’entrée et une couche de sortie, une dernière couche connectée directement à la couche de sortie, caractérisé en ce qu’il comprend les étapes suivantes :
    • Réception d’une première image (4000) par la couche d’entrée,
    • Détermination (S60) de la couche de sortie à partir de la couche d’entrée par le premier réseau de neurones, et d’une incertitude sur la couche de sortie,
    • Amélioration de la couche de sortie comprenant les étapes suivantes :
    • Modification (S70) de la dernière couche de manière à réduire l’incertitude, à partir de la couche de sortie,
    • Calcul (S80) de la couche de sortie à partir de la dernière couche modifiée.
  2. Procédé d’analyse selon la revendication précédente dans lequel la dernière couche est modifiée par une méthode de descente en gradient.
  3. Procédé d’analyse selon la revendication précédente dans lequel la modification de la dernière couche s’écrit :
    • xtest la valeur de la dernière couche, xt+1est la valeur de la dernière couche modifiée,
    • M est une matrice tel que xt.M ou xt +1.M est la couche de sortie,
    • La matrice M est modifiée aléatoirement n fois en une matrice Mi, i variant de 1 à n, en mettant à zéro un élément de cette matrice. Mi Test la transposée de la matrice Mi.
    • α est une constante représentant un pas de descente en gradient de xtde manière à réduire l’incertitude,
    • yiest la valeur du neurone numéro i dans la couche de sortie,est la moyenne des yi.
  4. Procédé d’analyse d’une première image dans un ego véhicule automobile (100) selon l’une quelconque des revendications précédentes, l’égo véhicule (100) étant situé dans un environnement comprenant un élément (PX), le procédé étant caractérisé en ce qu’il comporte les étapes suivantes :
    • Réception (S30) d’une information d’environnement,
    • Détermination (S40) d’une durée avant collision jusqu’à une collision anticipée entre l’égo véhicule et l’élément (PP), à partir de l’information d’environnement,
    • Détermination (S50) d’une durée d’analyse disponible pour l’analyse de la première image à partir de la durée avant collision,
    L’amélioration de la couche de sortie n’étant mise en œuvre que si la durée d’analyse est supérieure à un seuil temporel.
  5. Procédé d’analyse selon la revendication précédente comprenant en outre les étapes suivantes:
    • Détermination d’une distance (D1) entre l’ego véhicule (100) et l’élément (PP) à partir de l’information d’environnement
    • Détermination d’une vitesse relative entre l’ego véhicule (100) et l’élément (PP) à partir de l’information d’environnement.
    La durée avant collision étant déterminée à partir de la distance et de la vitesse.
  6. Procédé d’analyse selon l’une quelconque des revendications 4 ou 5 dans lequel le procédé comprend une étape de réception (S20) d’une deuxième image (4000) de l’environnement et l’élément est une surface (PP) représentée par un pixel (PX) de la deuxième image (4000).
  7. Programme d’ordinateur comprenant des instructions, exécutables par un microprocesseur ou un microcontrôleur, pour la mise en œuvre du procédé selon l’une quelconque des revendications 1 à 6, lorsque le programme est exécuté par un microprocesseur ou un microcontrôleur.
  8. Dispositif électronique (110) configuré pour mettre en œuvre les étapes du procédé selon l’une quelconque des revendications 1 à 6.
  9. Véhicule automobile (100) comprenant le dispositif électronique (110) selon la revendication précédente.
FR2201731A 2022-02-28 2022-02-28 Procédé d’analyse d’images dans un véhicule automobile, dispositif et véhicule associés Pending FR3133098A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2201731A FR3133098A1 (fr) 2022-02-28 2022-02-28 Procédé d’analyse d’images dans un véhicule automobile, dispositif et véhicule associés

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2201731 2022-02-28
FR2201731A FR3133098A1 (fr) 2022-02-28 2022-02-28 Procédé d’analyse d’images dans un véhicule automobile, dispositif et véhicule associés

Publications (1)

Publication Number Publication Date
FR3133098A1 true FR3133098A1 (fr) 2023-09-01

Family

ID=81648356

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2201731A Pending FR3133098A1 (fr) 2022-02-28 2022-02-28 Procédé d’analyse d’images dans un véhicule automobile, dispositif et véhicule associés

Country Status (1)

Country Link
FR (1) FR3133098A1 (fr)

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ALEX KENDALL ET AL: "Bayesian SegNet: Model Uncertainty in Deep Convolutional Encoder-Decoder Architectures for Scene Understanding", 10 October 2016 (2016-10-10), XP055719206, Retrieved from the Internet <URL:https://arxiv.org/pdf/1511.02680v2.pdf> [retrieved on 20200730], DOI: 10.5244/C.31.57 *
DAVID BENCE ET AL: "Highway Situation Analysis with Scenario Classification and Neural Network based Risk Estimation for Autonomous Vehicles", 2019 IEEE 17TH WORLD SYMPOSIUM ON APPLIED MACHINE INTELLIGENCE AND INFORMATICS (SAMI), IEEE, 24 January 2019 (2019-01-24), pages 375 - 380, XP033587758, DOI: 10.1109/SAMI.2019.8782729 *
LU JIALIN ET AL: "A Review on Object Detection Based on Deep Convolutional Neural Networks for Autonomous Driving", 2019 CHINESE CONTROL AND DECISION CONFERENCE (CCDC), IEEE, 3 June 2019 (2019-06-03), pages 5301 - 5308, XP033614379, DOI: 10.1109/CCDC.2019.8832398 *
SUN YUXIANG ET AL: "FuseSeg: Semantic Segmentation of Urban Scenes Based on RGB and Thermal Data Fusion", IEEE TRANSACTIONS ON AUTOMATION SCIENCE AND ENGINEERING, IEEE SERVICE CENTER, NEW YORK, NY, US, vol. 18, no. 3, 4 June 2020 (2020-06-04), pages 1000 - 1011, XP011864366, ISSN: 1545-5955, [retrieved on 20210701], DOI: 10.1109/TASE.2020.2993143 *
SUN YUXIANG ET AL: "See the Future: A Semantic Segmentation Network Predicting Ego-Vehicle Trajectory With a Single Monocular Camera", IEEE ROBOTICS AND AUTOMATION LETTERS, IEEE, vol. 5, no. 2, 20 February 2020 (2020-02-20), pages 3066 - 3073, XP011776205, DOI: 10.1109/LRA.2020.2975414 *
YARIN GAL ET AL: "Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning", 4 October 2016 (2016-10-04), XP055467519, Retrieved from the Internet <URL:https://arxiv.org/pdf/1506.02142.pdf> [retrieved on 20180416] *

Similar Documents

Publication Publication Date Title
FR3074123A1 (fr) Evaluation d&#39;un style de conduite d&#39;un conducteur d&#39;un vehicule routier en mouvement par apprentissage automatique
EP3233602A1 (fr) Procédé de prédiction de la vitesse d&#39;un conducteur au volant d&#39;un véhicule
FR2861021A1 (fr) Systeme d&#39;assistance de conduite
US20190071073A1 (en) Vehicle control apparatus, vehicle, processing method of vehicle control apparatus, and storage medium
FR3133098A1 (fr) Procédé d’analyse d’images dans un véhicule automobile, dispositif et véhicule associés
US20230120976A1 (en) Distracted driving detection using a multi-task training process
FR3133097A1 (fr) Procédé d’analyse d’images amélioré, en fonction du temps disponible, dans un véhicule automobile, dispositif et véhicule associés
US11494674B2 (en) Driving action evaluating device, driving action evaluating method, and recording medium storing driving action evaluating program
FR3079954A1 (fr) Apprentissage automatique predictif pour la prediction d&#39;une vitesse future d&#39;un vehicule automobile en mouvement sur une route
FR3133096A1 (fr) Procédé d’analyse d’images par masquage et complétion en fonction de l’incertitude, dispositif et véhicule associés
FR3133475A1 (fr) Procédé d’analyse d’images dans un véhicule automobile par génération de texte, dispositif et véhicule associés
FR3103438A1 (fr) Procédé de sélection d’un véhicule cible pour la mise en œuvre d’une fonction de régulation longitudinale adaptative pour un véhicule automobile
EP3155446B1 (fr) Procédé et système d&#39;estimation d&#39;un paramètre dans un véhicule automobile et véhicule automobile équipé d&#39;un tel système
FR3106108A1 (fr) Procédé et dispositif de détermination de trajectoire d’une route
FR3097674A1 (fr) Véhicule équipé d’un système de détection de véhicule d’urgence.
FR3133693A1 (fr) Procédé d’analyse d’images amélioré en fonction du temps disponible, par un réseau de neurones auto-encodeur, dispositif et véhicule associés
EP2489548B1 (fr) Procédé et dispositif de commande de commutation du système d&#39;éclairage avant adaptatif d&#39;un véhicule automobile
FR3113272A1 (fr) Compression par régularisation sélective de réseaux de neurones pour la conduite autonome
FR3100016A1 (fr) Procédé et système pour gérer un déplacement d’un véhicule automobile
EP3931741A1 (fr) Assistance à la conduite d&#39;un véhicule, par détermination fiable d&#39;objets dans des images déformées
FR3129905A1 (fr) Procédé d’aide à la conduite pour véhicule automobile en présence de piétons.
WO2023233088A1 (fr) Procédé et dispositif de contrôle de système d&#39;aide à la conduite d&#39;un véhicule basé sur une limite de vitesse
FR3114420A1 (fr) Compression par régularisation sélective de réseaux de neurones pour la conduite autonome
WO2022258892A1 (fr) Procédé et dispositif de régulation de vitesse d&#39;un véhicule à partir d&#39;un véhicule cible
FR3119480A1 (fr) Procédé et dispositif de contrôle d’un véhicule à partir d’une prédiction de l’intention d’un piéton de traverser une chaussée sur laquelle circule ledit véhicule.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230901

PLFP Fee payment

Year of fee payment: 3