FR3133096A1 - Procédé d’analyse d’images par masquage et complétion en fonction de l’incertitude, dispositif et véhicule associés - Google Patents

Procédé d’analyse d’images par masquage et complétion en fonction de l’incertitude, dispositif et véhicule associés Download PDF

Info

Publication number
FR3133096A1
FR3133096A1 FR2201728A FR2201728A FR3133096A1 FR 3133096 A1 FR3133096 A1 FR 3133096A1 FR 2201728 A FR2201728 A FR 2201728A FR 2201728 A FR2201728 A FR 2201728A FR 3133096 A1 FR3133096 A1 FR 3133096A1
Authority
FR
France
Prior art keywords
image
uncertainty
neural network
vehicle
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2201728A
Other languages
English (en)
Inventor
Thomas Hannagan
Thibault Fouqueray
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stellantis Auto Sas Fr
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to FR2201728A priority Critical patent/FR3133096A1/fr
Publication of FR3133096A1 publication Critical patent/FR3133096A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Procédé d’analyse d’une première image dans un ego véhicule automobile (100), le procédé étant caractérisé en ce qu’il comporte les étapes suivantes : Classification sémantique de la première image par un premier réseau de neurones (111) ayant pour résultat une quatrième image, Estimation par le premier réseau de neurones (111) de l’incertitude de la classification au travers de la quatrième image,Masquage de parties de la quatrième image pour lesquelles l’incertitude dépasse un seuil d’incertitude, Complétion de la classification sémantique dans les parties de la quatrième image par un deuxième réseau de neurones (112). Figure pour l’abrégé : figure 1

Description

Procédé d’analyse d’images par masquage et complétion en fonction de l’incertitude, dispositif et véhicule associés
L’invention concerne l’aide à la conduite d’un véhicule automobile.
Aujourd’hui, Il existe un certain nombre de dispositifs électroniques d’aides à la conduite (ou d’automatismes de conduite) permettant une adaptation automatique (ou semi-automatique) de la trajectoire d’un véhicule en fonction de l’environnement du véhicule.
Ces aides à la conduite nécessitent des analyses d’images complexes faisant appel à des réseaux de neurones. L’analyse d’image détermine ainsi la trajectoire (c’est-à-dire la direction et la vitesse du véhicule) donnée au véhicule par le dispositif d’aide à la conduite, ou des signaux délivrés dans l’habitacle (signaux d’avertissement).
Notamment, ces analyses d’images utilisent des réseaux de neurones pour réaliser une analyse sémantique de ces images. Or, il existe un besoin pour améliorer la qualité de l’analyse sémantique produite par ces réseaux de neurones.
Dans ce but, l’invention concerne un procédé d’analyse d’une première image dans un ego véhicule automobile (100) (circulant selon une première trajectoire), le procédé étant caractérisé en ce qu’il comporte les étapes suivantes :
  • Classification sémantique (S60) de la première image (4000) par un premier réseau de neurones (111) (de l’égo véhicule automobile) ayant pour résultat une quatrième image (5000),
  • Estimation par le premier réseau de neurones (111) d’une incertitude de la classification au travers de la quatrième image (5000),
  • Masquage (S80) de parties de la quatrième image (5000) pour lesquelles l’incertitude dépasse un seuil d’incertitude,
  • Complétion (S90) de la classification sémantique dans les parties de la quatrième image (5000) par un deuxième réseau de neurones (112) (de l’égo véhicule automobile).
Ainsi, l’analyse de sémantique de l’image peut être améliorée en utilisant l’algorithme de complétion dans les parties de l’image où l’incertitude est la plus élevée.
Le premier réseau de neurones et/ou le deuxième réseau de neurones est un réseau de neurone électronique, c’est-à-dire mis en œuvre par un circuit électronique, par exemple un microcircuit, comprenant par exemple un processeur avec une mémoire ou un circuit électronique dédié.
Durant l’étape de classification, le premier réseau de neurones peut ajouter, à chaque pixel de la quatrième image, une étiquette indiquant une classe à laquelle appartient le pixel et (et durant le l’étape l’estimation qui peut être concomitante à l’étape de classification) l’incertitude de la classification associée à ce pixel.
Par exemple, durant l’étape de masquage, chaque pixel de la quatrième image pour lesquel l’incertitude dépasse le seuil d’incertitude est masqué (autrement dit : supprimé ou masqué comme masqué).
Par exemple, durant l’étape de complétion, chaque pixel masqué durant l’étape de masquage est étiqueté, par le deuxième réseau de neurones, par une étiquette indiquant une classe à laquelle appartient ce pixel.
Ainsi donc, selon un mode de réalisation :
  • Durant l’étape de classification, le premier réseau de neurones étiquette chaque pixel de la quatrième image (5000) avec une étiquette de classe et une incertitude, et/ou
  • Durant l’étape de masquage, chaque pixel de la quatrième image (5000) pour lesquel l’incertitude dépasse le seuil d’incertitude est masqué, et/ou
  • Durant l’étape de complétion, le deuxième réseau de neurones (112) étiquette chaque pixel masqué durant l’étape de masquage par une étiquette indiquant une classe à laquelle appartient ce pixel.
Par exemple, le premier réseau de neurones est celui enseigné dans l’article suivant :
  • Paszke, Chaurasia, Kim, Culurciello (2016), Enet: A deep neural network architecture for real-time semantic segmentation,” arXiv preprint arXiv:1606.02147.
Selon un mode de réalisation, le deuxième réseau de neurones est un réseau de neurones convolutif et/ou contextuel, par exemple celui enseigné dans l’article :
  • Shin, Sagong, Yeo, Kim, Ko (2019). PEPSI++: Fast and lightweight network for image inpainting. IEEE Transactions on Neural Networks and Learning Systems 32 (1), 252-265.
Selon un mode de réalisation, l’égo véhicule est situé dans un environnement comprenant un élément (immobile, ou circulant selon une deuxième trajectoire), le procédé étant caractérisé en ce qu’il comporte les étapes suivantes :
  • Réception d’une information d’environnement (relative à l’environnement),
  • Détermination d’une durée avant collision jusqu’à une collision anticipée entre l’égo véhicule (s’il poursuit la première trajectoire) et l’élément (s’il demeure immobile, ou poursuit la deuxième trajectoire), à partir de l’information d’environnement,
  • Détermination d’une durée d’analyse disponible pour l’analyse de la première image à partir de la durée avant collision,
La complétion n’étant mise en œuvre que si la durée d’analyse est supérieure à un seuil temporel.
En variante, la complétion est mise en œuvre dans tous les cas ou en fonction d’autres critères.
Ainsi, selon l’invention, l’analyse de l’image peut être améliorée lorsque le temps disponible pour réaliser cette analyse le permet, ce qui permet d’améliorer la qualité des aides à la conduite.
Le procédé peut comprendre une étape de réception de la première image. En variante, le première image est déjà en mémoire.
La première image peut être obtenue par une première caméra du véhicule égo.
En variante, la première image est reçue par exemple par une caméra d’autres véhicules situés dans l’environnement du l’égo véhicule (non représenté).
Selon un mode de réalisation, l’information d’environnement est reçue de la part d’une deuxième caméra. L’information comprend par exemple des images vidéo, dans ce cas. L’information d’environnement peut être reçue de la part d’un deuxième radar de l’égo véhicule. L’information comprend par exemple des images radar, dans ce cas.
En variante, l’information d’environnement est reçue par exemple par un radar ou une caméra d’autres véhicules situés dans l’environnement du l’égo véhicule.
Selon un mode de réalisation, le procédé d’analyse comprend :
  • Une étape de détermination d’une distance entre l’ego véhicule et l’élément à partir de l’information d’environnement,
  • Une étape de détermination d’une vitesse relative entre l’ego véhicule et l’élément à partir de l’information d’environnement.
La durée avant collision étant déterminée à partir de la distance et de la vitesse.
En variante, la durée avant collision peut être obtenue par un troisième réseau de neurones, à partir de l’information d’environnement.
La durée avant collision peut aussi prendre en compte l’accélération de l’égo véhicule ou de l’élément.
Selon un mode de réalisation, le procédé comprend une étape de réception d’une deuxième image de l’environnement (obtenue par exemple de la part d’une troisième caméra de l’égo véhicule) et l’élément est une surface représentée par un pixel de la deuxième image.
En variante, l’élément est un véhicule, un piéton, ou objet fixe représentée par un ensemble de pixels (et le procédé peut comprendre une étape de reconnaissance de l’élément).
Lorsque l’environnement comprend une pluralité d’éléments, l’élément est préférentiellement celui pour lequel la durée avant collision est minimum parmi la pluralité d’éléments.
En variante, un risque encouru, par exemple en cas de choc entre l’égo véhicule et l’élément, peut être pris en compte pour déterminer l’élément.
Selon un mode de réalisation, La pluralité d’élément peut être représentée par tous les pixels de la deuxième image, et l’élément peut être représenté par un de ces pixels.
La durée avant collision est par exemple obtenue à partir de la vitesse relative entre l’égo véhicule et l’élément divisée par la distance.
Selon un mode de réalisation, la durée d’analyse est égale à la durée avant collision moins un temps de sécurité.
Le temps de sécurité est par exemple le temps nécessaire à la mise en œuvre d’une mesure d’urgence. Il est par exemple de 2s.
Par exemple, si la durée d’analyse est inférieure au seuil temporel, le procédé selon l’invention comprend en outre une étape de commande de la trajectoire de l’égo véhicule (ou la restitution d’un signal à l’intérieur du véhicule) à partir de la quatrième image. Si la durée d’analyse est supérieure au seuil temporel, le procédé selon l’invention peut comprendre une étape de commande de la trajectoire de l’égo véhicule (ou la restitution d’un signal à l’intérieur du véhicule) à partir du résultat de la complétion.
L’incertitude de la classification peut être obtenue de plusieurs manières, préférentiellement, par une méthode d’abandon de monté-carlo ( en Anglais « Monté-Carlo dropout ») introduite dans l’article :
  • Y. Gal and Z. Ghahramani. Dropout as a Bayesian approximation: Representing model uncertainty in deep learning. In ICML, 2016.
L’invention concerne également un programme d’ordinateur comprenant des instructions, exécutables par un microprocesseur ou un microcontroller, pour la mise en œuvre du procédé selon l’invention.
Le procédé selon l’invention est par exemple mis en œuvre par un dispositif électronique d’aide à la conduite. L’invention concerne donc aussi un dispositif électronique configuré pour mettre en œuvre les étapes du procédé selon l’invention, et un véhicule automobile comprenant le dispositif électronique. Le dispositif électronique peut comprendre le premier et/ou le deuxième réseau de neurones.
Les caractéristiques et avantages du dispositif électronique, du véhicule automobile et du programme d’ordinateur sont identiques à ceux du procédé, c’est pourquoi, ils ne sont pas repris ici.
On entend qu’un élément tel que le dispositif électronique, ou un autre élément est « configuré pour » réaliser une étape ou une opération, par le fait que l’élément comporte des moyens pour (autrement dit « est conformé pour » ou « est adapté pour ») réaliser l’étape ou l’opération. Il s’agit préférentiellement de moyens électroniques, par exemple d’un programme d’ordinateur, de données en mémoire et/ou de circuits électroniques spécialisés.
Lorsqu’une étape ou une opération est réalisée par un tel élément, cela implique généralement que l’élément comporte des moyens pour (autrement dit « est conformé pour » ou « est adapté pour » ou « est configuré pour ») réaliser l’étape ou l’opération. Il s’agit également par exemple de moyens électroniques, par exemple un programme d’ordinateur, des données en mémoire et/ou des circuits électroniques spécialisés, et/ou éventuellement de moyens mécaniques.
D’autres caractéristiques et avantages de la présente invention apparaitront plus clairement à la lecture de la description détaillée qui suit comprenant des modes de réalisation de l’invention donnés à titre d’exemples nullement limitatifs et illustrés par les dessins annexés, dans lesquels.
représentent un dispositif électronique d’un véhicule automobile et un véhicule selon un mode de réalisation de l’invention.
, et représentent des images traitées selon un mode de réalisation de l’invention
représente le procédé de l’invention, selon un exemple de réalisation, mis en œuvre notamment par le dispositif électronique et le véhicule de la .
Description détaillée d’un exemple de réalisation de l’invention
En référence à la et 6, à l’étape S10, un véhicule égo 100 circule sur une route 300 selon une trajectoire (autrement dit : direction et sens) T1. Le véhicule égo 100 comporte une caméra 120 et un radar 130 et un dispositif électronique d’aide à la conduite 110 comprenant un premier réseau de neurones 111 et un deuxième réseau de neurones 112.
La route 300 comporte une séparation centrale 310 (terre-plein ou autre), deux glissières de sécurité 330 et 320. Sur la route 300, les véhicules 220 et 210 circulent également selon une trajectoire (autrement dit : direction et sens) T2 et T3 respectivement. Un arbre 400 est également présent sur le côté de la route.
A l’étape S20, le dispositif d’aide à la conduite 110 réceptionne l’image 4000, , de l’environnement obtenue par exemple par la caméra 120.
A l’étape S30, le dispositif 110 reçoit des images radars (successives) de la part du radar 130
A l’étape S40, le dispositif 110 détermine, à partir des images radars, pour chaque pixel de l’image 4000, une durée avant une collision avec l’ego véhicule. Le pixel PX représentant surface PP (situé à une distance D1 du véhicule égo 100) du véhicule 220 est celui pour lequel la durée avant collision est minimum parmi tous les pixels de l’image 4000.
La durée avant collision est par exemple obtenue à partir de la vitesse relative entre l’égo véhicule et l’élément de l’environnement représenté par le pixel divisé par la distance entre l’élément de l’environnement représenté par le pixel et l’égo véhicule.
A l’étape S50, une durée d’analyse égale à la durée avant collision moins un temps de sécurité, par exemple égal à 2 secondes est déterminée. Par exemple, la durée d’analyse est de 1,1 seconde, et la durée avant collision de 3,1 secondes.
A l’étape S60, le premier réseau de neurones 111 réalise une classification sémantique de l’image 4000 avec pour résultat une image 5000, . Dans l’image 5000, sont classifiés :
  • Comme véhicules, le véhicule 210 (i.e. les pixels représentant le véhicule 210),
  • Comme séparations entre voies, la séparation centrale 310 (i.e. : les pixels représentant la séparation centrale 310),
  • Comme glissières de sécurité, les glissières 320 et 330 (i.e. : les pixels représentant ces éléments).
  • Comme éléments extérieurs à la route : l’arbre 400 et le véhicule 220 (i.e. : les pixels représentant ces éléments).
Durant l’étape de classification, le premier réseau de neurones peut ajouter, à chaque pixel de l’image 4000, une étiquette indiquant une classe à laquelle appartient le pixel et l’incertitude de la classification associée à ce pixel, pour obtenir l’image 5000.
Par exemple, le premier réseau de neurones 111 est celui enseigné dans l’article suivant :
  • Paszke, Chaurasia, Kim, Culurciello (2016) Enet: A deep neural network architecture for real-time semantic segmentation,” arXiv preprint arXiv:1606.02147.
Par exemple, la classification sémantique est réalisée par le premier réseau de neurones 111 en 0,5 seconde.
Le premier réseau de neurones en même temps que la classification, réalise une l’estimation d’une incertitude du premier résultat, par exemple, par une méthode d’abandon de monté-carlo ( en Anglais « Monté-Carlo dropout ») introduite dans l’article :
  • Y. Gal and Z. Ghahramani. Dropout as a Bayesian approximation: Representing model uncertainty in deep learning. In ICML, 2016.
Cette estimation peut être réalisée systématique ou uniquement si la durée d’analyse est supérieure au seuil ci-après.
A l’étape S70, la durée de d’analyse (1,1 secondes) est ensuite comparée à un seuil temporel, par exemple de 1 seconde. Si la durée d’analyse est inférieure au seuil, le dispositif électronique 110 commande la trajectoire de l’égo véhicule 100 à partir de l’image 5000. Si la durée d’analyse est supérieure au seuil, comme cela peut être le cas dans l’exemple ici ou la durée d’analyse pourrait être de 1,1 seconde et le seuil de 1 seconde, le procédé se poursuit par les étapes suivantes.
  • A l’étape S80, masquage de parties de l’image 5000 pour lesquelles l’incertitude dépasse un seuil d’incertitude, pour obtenir l’image 5000’ , , dans lequel le véhicule 220 est masqué (i.e. : les étiquettes des pixels correspondant au véhicule 220 associées à la classification sont supprimées ou marqués comme masqués),
  • A l’étape S90, complétion par le deuxième réseau de neurones 112 (autrement dit : détermination ou action de compléter) de la classification dans l’image 5000’ pour obtenir l’image 5000’’ .
Par exemple, durant l’étape de complétion S90, chaque pixel masqué durant l’étape de masquage est étiqueté, par le deuxième réseau de neurones 112, par une étiquette indiquant une classe à laquelle appartient ce pixel.
Dans l’image 5000’’, la classification est identique à celle de l’image 5000 sauf pour le véhicule 220 classifié comme un véhicule dans 5000’’.
Selon un mode de réalisation, le deuxième réseau de neurones 112 est un réseau de neurones convolutif et/ou contextuel, par exemple celui enseigné dans l’article :
  • Shin, Sagong, Yeo, Kim, Ko (2019). PEPSI++: Fast and lightweight network for image inpainting. IEEE Transactions on Neural Networks and Learning Systems 32 (1), 252-265.
Par exemple, le masquage est réalisé en 0.01 secondes et la complétion est réalisé par le premier réseau de neurones 111 en 0,49 secondes.
A l’étape S100, le dispositif électronique 110 commande la trajectoire de l’égo véhicule 100 à partir de l’image 5000’’.

Claims (8)

  1. Procédé d’analyse d’une première image dans un ego véhicule automobile (100), le procédé étant caractérisé en ce qu’il comporte les étapes suivantes :
    • Classification sémantique (S60) de la première image (4000) par un premier réseau de neurones (111) ayant pour résultat une quatrième image (5000),
    • Estimation par le premier réseau de neurones (111) d’une incertitude de la classification au travers de la quatrième image (5000),
    • Masquage (S80) de parties de la quatrième image (5000) pour lesquelles l’incertitude dépasse un seuil d’incertitude,
    • Complétion (S90) de la classification sémantique dans les parties de la quatrième image (5000) par un deuxième réseau de neurones (112).
  2. Procédé d’analyse d’une première image selon la revendication précédente dans lequel :
    • Durant l’étape de classification (S60), le premier réseau de neurones (111) étiquette chaque pixel de la quatrième image (5000) avec une étiquette de classe et une incertitude,
    • Durant l’étape de masquage (S80), chaque pixel de la quatrième image (5000) pour lequel l’incertitude dépasse le seuil d’incertitude est masqué,
    • Durant l’étape de complétion (S90), le deuxième réseau de neurones (112) étiquette chaque pixel masqué durant l’étape de masquage par une étiquette indiquant une classe à laquelle appartient ce pixel.
  3. Procédé d’analyse selon l’une quelconque des revendications précédentes, l’égo véhicule (100) étant situé dans un environnement comprenant un élément (PX), le procédé comportant les étapes suivantes :
    • Réception (S30) d’une information d’environnement,
    • Détermination (S40) d’une durée avant collision jusqu’à une collision anticipée entre l’égo véhicule et l’élément (PX), à partir de l’information d’environnement,
    La complétion n’étant mise en œuvre que si la durée d’analyse est supérieure à un seuil temporel.
  4. Procédé d’analyse selon la revendication précédente comprenant :
    • Une étape de détermination d’une distance (D1) entre l’ego véhicule (100) et l’élément (PP) à partir de l’information d’environnement,
    • Une étape de détermination d’une vitesse relative entre l’ego véhicule (100) et l’élément (PP) à partir de l’information d’environnement.
    La durée avant collision étant déterminée à partir de la distance et de la vitesse
  5. Procédé d’analyse selon l’une quelconque des revendications précédentes dans lequel le procédé comprend une étape de réception (S20) d’une deuxième image (4000) de l’environnement et l’élément est une surface (PP) représentée par un pixel (PX) de la deuxième image (4000).
  6. Programme d’ordinateur comprenant des instructions, exécutables par un microprocesseur ou un microcontroller, pour la mise en œuvre du procédé selon l’une quelconque des revendications 1 à 5, lorsque le programme est exécuté par un microprocesseur ou un microcontroller.
  7. Dispositif électronique (110) configuré pour mettre en œuvre les étapes du procédé selon l’une quelconque des revendications 1 à 5.
  8. Véhicule automobile (100) comprenant le dispositif électronique (110) selon la revendication précédente.
FR2201728A 2022-02-28 2022-02-28 Procédé d’analyse d’images par masquage et complétion en fonction de l’incertitude, dispositif et véhicule associés Pending FR3133096A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2201728A FR3133096A1 (fr) 2022-02-28 2022-02-28 Procédé d’analyse d’images par masquage et complétion en fonction de l’incertitude, dispositif et véhicule associés

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2201728 2022-02-28
FR2201728A FR3133096A1 (fr) 2022-02-28 2022-02-28 Procédé d’analyse d’images par masquage et complétion en fonction de l’incertitude, dispositif et véhicule associés

Publications (1)

Publication Number Publication Date
FR3133096A1 true FR3133096A1 (fr) 2023-09-01

Family

ID=81648397

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2201728A Pending FR3133096A1 (fr) 2022-02-28 2022-02-28 Procédé d’analyse d’images par masquage et complétion en fonction de l’incertitude, dispositif et véhicule associés

Country Status (1)

Country Link
FR (1) FR3133096A1 (fr)

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
ALEX KENDALL ET AL: "Bayesian SegNet: Model Uncertainty in Deep Convolutional Encoder-Decoder Architectures for Scene Understanding", 10 October 2016 (2016-10-10), XP055719206, Retrieved from the Internet <URL:https://arxiv.org/pdf/1511.02680v2.pdf> [retrieved on 20200730], DOI: 10.5244/C.31.57 *
DAVID BENCE ET AL: "Highway Situation Analysis with Scenario Classification and Neural Network based Risk Estimation for Autonomous Vehicles", 2019 IEEE 17TH WORLD SYMPOSIUM ON APPLIED MACHINE INTELLIGENCE AND INFORMATICS (SAMI), IEEE, 24 January 2019 (2019-01-24), pages 375 - 380, XP033587758, DOI: 10.1109/SAMI.2019.8782729 *
LU JIALIN ET AL: "A Review on Object Detection Based on Deep Convolutional Neural Networks for Autonomous Driving", 2019 CHINESE CONTROL AND DECISION CONFERENCE (CCDC), IEEE, 3 June 2019 (2019-06-03), pages 5301 - 5308, XP033614379, DOI: 10.1109/CCDC.2019.8832398 *
SHINSAGONGYEOKIMKO: "PEPSI++: Fast and lightweight network for image inpainting", IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS, vol. 32, no. 1, 2019, pages 252 - 265
SUN YUXIANG ET AL: "FuseSeg: Semantic Segmentation of Urban Scenes Based on RGB and Thermal Data Fusion", IEEE TRANSACTIONS ON AUTOMATION SCIENCE AND ENGINEERING, IEEE SERVICE CENTER, NEW YORK, NY, US, vol. 18, no. 3, 4 June 2020 (2020-06-04), pages 1000 - 1011, XP011864366, ISSN: 1545-5955, [retrieved on 20210701], DOI: 10.1109/TASE.2020.2993143 *
SUN YUXIANG ET AL: "See the Future: A Semantic Segmentation Network Predicting Ego-Vehicle Trajectory With a Single Monocular Camera", IEEE ROBOTICS AND AUTOMATION LETTERS, IEEE, vol. 5, no. 2, 20 February 2020 (2020-02-20), pages 3066 - 3073, XP011776205, DOI: 10.1109/LRA.2020.2975414 *
YARIN GAL ET AL: "Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning", 4 October 2016 (2016-10-04), XP055467519, Retrieved from the Internet <URL:https://arxiv.org/pdf/1506.02142.pdf> [retrieved on 20180416] *

Similar Documents

Publication Publication Date Title
EP3857169B1 (fr) Dispositif de planification d&#39;un chemin et/ou d&#39;une trajectoire d&#39;un vehicule automobile
WO2018146400A1 (fr) Procédé de détection de faux-positifs relatifs à un feu de signalisation
FR3133096A1 (fr) Procédé d’analyse d’images par masquage et complétion en fonction de l’incertitude, dispositif et véhicule associés
FR3133097A1 (fr) Procédé d’analyse d’images amélioré, en fonction du temps disponible, dans un véhicule automobile, dispositif et véhicule associés
WO2019122573A1 (fr) Procédé de surveillance d&#39;un environnement d&#39;un premier élément positionné au niveau d&#39;une voie de circulation, et système associé
FR3133098A1 (fr) Procédé d’analyse d’images dans un véhicule automobile, dispositif et véhicule associés
FR3133475A1 (fr) Procédé d’analyse d’images dans un véhicule automobile par génération de texte, dispositif et véhicule associés
FR2971750A1 (fr) Procede de commande de commutation du systeme d&#39;eclairage avant adaptatif d&#39;un vehicule automobile
EP3394795B1 (fr) Procédé de détection d&#39;un timon d&#39;attelage et produit programme d&#39;ordinateur associé
FR3106108A1 (fr) Procédé et dispositif de détermination de trajectoire d’une route
FR3133693A1 (fr) Procédé d’analyse d’images amélioré en fonction du temps disponible, par un réseau de neurones auto-encodeur, dispositif et véhicule associés
FR3080345A1 (fr) Amelioration de la detection par le suivi d’un vehicule eclaireur
EP3155446B1 (fr) Procédé et système d&#39;estimation d&#39;un paramètre dans un véhicule automobile et véhicule automobile équipé d&#39;un tel système
FR3087732A1 (fr) Procede et dispositif de determination d’un changement de voie d’un vehicule
FR3063359B1 (fr) Methode de determination d&#39;une performance temporelle d&#39;une unite de traitement electronique executant un algorithme
FR3144871A1 (fr) Procédé d’affichage tête haute sur un pare-brise d’un véhicule automobile, programme d’ordinateur et véhicule automobile associés.
FR3133468A1 (fr) Procédé d’élagage de réseau de neurones et dispositif associé
FR3118745A1 (fr) Procédé et dispositif de détermination d’une accélération d’un objet mobile dans un environnement d’un véhicule
FR3128177A1 (fr) Procédé et dispositif de prédiction d’un changement de voie de circulation pour véhicule
WO2024134090A1 (fr) Système de détection d&#39;objets dans des trames de données radar utilisant un réseau de neurones convolutionnel récurrent
WO2023233088A1 (fr) Procédé et dispositif de contrôle de système d&#39;aide à la conduite d&#39;un véhicule basé sur une limite de vitesse
WO2022258900A1 (fr) Procédé de régulation de vitesse d&#39;un véhicule circulant sur une chaussée à partir d&#39;un véhicule cible
WO2022002583A1 (fr) Méthode de génération d&#39;au moins une détection généralisée d&#39;une source large
EP4170603A1 (fr) Procédé automatique de détection d&#39;objets dans un flux d&#39;images
WO2023214138A1 (fr) Procédé et dispositif de contrôle d&#39;un système d&#39;aide à la conduite de véhicule en fonction de la détection d&#39;un panneau de signalisation et d&#39;un changement de voie

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230901

PLFP Fee payment

Year of fee payment: 3

CD Change of name or company name

Owner name: STELLANTIS AUTO SAS, FR

Effective date: 20240423