FR3124253A1 - Procédé de détection d'un objet sur une surface de route, procédé de conduite autonome et dispositif d'éclairage automobile - Google Patents

Procédé de détection d'un objet sur une surface de route, procédé de conduite autonome et dispositif d'éclairage automobile Download PDF

Info

Publication number
FR3124253A1
FR3124253A1 FR2106505A FR2106505A FR3124253A1 FR 3124253 A1 FR3124253 A1 FR 3124253A1 FR 2106505 A FR2106505 A FR 2106505A FR 2106505 A FR2106505 A FR 2106505A FR 3124253 A1 FR3124253 A1 FR 3124253A1
Authority
FR
France
Prior art keywords
light
image
light pattern
angle
lighting device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2106505A
Other languages
English (en)
Inventor
Mickael Mimoun
Yasser Almehio
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Vision SAS
Original Assignee
Valeo Vision SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Vision SAS filed Critical Valeo Vision SAS
Priority to FR2106505A priority Critical patent/FR3124253A1/fr
Priority to PCT/EP2022/066769 priority patent/WO2022263683A1/fr
Publication of FR3124253A1 publication Critical patent/FR3124253A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation

Abstract

La présente invention concerne un procédé de détection d'un objet sur une surface routière, le procédé comprenant les étapes consistant à projeter un motif lumineux sur la surface routière, à acquérir une image du motif lumineux projeté, à détecter une ombre dans l'image acquise et à utiliser certaines caractéristiques de l'ombre pour obtenir des informations sur les caractéristiques d'un objet. L'invention propose également un procédé de conduite autonome utilisant cette détection d'objet et un dispositif d'éclairage automobile.Figure pour le résumé : figure 3

Description

Procédé de détection d'un objet sur une surface de route, procédé de conduite autonome et dispositif d'éclairage automobile
La présente invention se rapporte au domaine des dispositifs lumineux automobiles, et plus particulièrement à ceux utilisés dans des conditions de conduite autonome.
La conduite autonome est développée pour fournir des véhicules capables de détecter leur environnement et de se déplacer en toute sécurité avec une intervention humaine réduite.
Pour atteindre cet objectif, ces véhicules autonomes combinent une variété de capteurs pour percevoir leur environnement. Des systèmes de contrôle avancés reçoivent des données de capteurs et fournissent une construction de l'environnement du véhicule pour identifier les chemins de navigation appropriés, ainsi que les obstacles et la signalisation pertinente.
Un système de classification à six niveaux, allant des systèmes entièrement manuels aux systèmes entièrement automatisés, a été publié en 2014 par SAE International, un organisme de normalisation automobile, sous la référence J3016. Cette classification est basée sur le degré d'intervention et d'attention du conducteur requis, plutôt que sur les capacités du véhicule, bien que celles-ci soient vaguement liées. En 2016, la SAE a mis à jour sa classification, appelée J3016_201609.
Au niveau 3 de cette classification, le conducteur peut en toute sécurité détourner son attention des tâches de conduite, par exemple, il peut envoyer des SMS ou regarder un film. Le véhicule gère les situations qui exigent une réponse immédiate, comme un freinage d'urgence. Le conducteur doit néanmoins être prêt à intervenir dans un délai limité, spécifié par le constructeur, lorsque le véhicule lui demande de le faire.
Les performances lumineuses des dispositifs d'éclairage sont essentielles pour que les capteurs reçoivent toutes les informations pertinentes nécessaires à la réalisation de ce mode de conduite, notamment la nuit.
La présente invention fournit une solution à ce problème au moyen d'un procédé de détection d'un objet sur une surface de route, le procédé comprenant les étapes suivantes
  • projection d'un motif lumineux sur une surface de route, le motif lumineux comprenant des bandes lumineuses ;
  • acquisition d'une image du motif lumineux projeté ;
  • détecter des données d'objet dans les bandes de lumière de l'image acquise ; et
  • utiliser les données d'objet des bandes de lumière pour déduire les caractéristiques d'un objet.
Dans cette méthode, un dispositif d'éclairage projette un motif lumineux sur la surface de la route où l'objet doit être détecté. Ce motif comprend des bandes lumineuses. Un dispositif d'imagerie, tel qu'une caméra, acquiert l'image de la route éclairée par ce motif lumineux. Lorsqu'un débris est présent dans cette image, acquise par le dispositif d'imagerie, ce débris provoque une déformation des bandes du motif lumineux. Cette déformation est facilement identifiable, car l'unité de contrôle qui analyse l'image dispose d'informations sur le motif lumineux original projeté par le dispositif d'éclairage. La forme et les dimensions de la partie déformée sont utilisées pour fournir des informations sur l'objet détecté et son importance. Ainsi, cette méthode d'éclairage peut être utilisée comme une aide à la conduite autonome de nuit, améliorant ainsi la sécurité et la précision de la détection des objets.
Dans certains modes de réalisation particuliers, les bandes ne sont pas continues.
Le fait que les bandes ne soient pas continues signifie que les bandes peuvent avoir certaines parties avec une première intensité lumineuse et d'autres parties, entre les premières parties, avec une seconde intensité lumineuse (ou même complètement sombre, pour augmenter le contraste). Cette approche permet d'obtenir un niveau de détail plus élevé et une identification plus précise de l'objet.
Dans certains modes de réalisation particuliers, les bandes sont horizontales et les données de l'objet comprennent la fréquence des bandes.
Dans ce cas, le terme "horizontal" est compris comme étant parallèle au plan de la route et perpendiculaire à la direction d'avancement du véhicule (c'est-à-dire aux lignes de la voie). C'est le sens habituel de ce terme. Par conséquent, si un objet est détecté, la fréquence des rayures (nombre de lignes par mètre) est différente de celle du motif original, ce qui indique la présence d'un objet. Comme cette zone déformée se termine brusquement de chaque côté de l'objet, les lignes horizontales sont particulièrement avantageuses pour mesurer la largeur de l'objet.
Dans certains modes de réalisation particuliers, l'étape de détection des données d'objet comprend l'exécution d'une transformation de Fourier rapide ou d'une transformation cosinus discrète sur l'image acquise.
Une transformée de Fourier rapide (FFT) permet de mesurer cette distorsion de la fréquence des lignes. Les paramètres de la FFT sont définis en fonction de la hauteur relative entre le capteur d'images et le module d'éclairage.
Une transformée en cosinus discrète (DCT) convient également pour mesurer cette distorsion. Elle est parfois plus adéquate, car elle n'utilise que des opérations sur des nombres réels.
Une matrice de cooccurrence peut également être utilisée pour ces deux transformations. L'approche statistique est utilisée pour fournir des informations précieuses sur les pixels voisins d'une image, ce qui permet de détecter ces changements (entre la bande éclairée et l'espace sombre).
Dans certains modes de réalisation particuliers, les bandes sont verticales et les données de l'objet comprennent l'angle d'une partie d'une bande par rapport au reste de la bande.
Dans ce cas, le terme "vertical" est compris comme perpendiculaire au plan de la route. C'est le sens habituel de ce terme. En conséquence, si un objet est détecté, les lignes sont "réfractées", modifiant l'angle de la partie de la ligne projetée sur l'objet, ce qui indique qu'il y a un objet. Comme cette zone déformée se termine brusquement sur la face supérieure de l'objet, les lignes verticales sont particulièrement avantageuses pour mesurer la hauteur de l'objet.
Dans certains modes de réalisation particuliers, l'étape de projection du motif lumineux est effectuée par un module lumineux, l'étape d'acquisition de l'image est effectuée par un capteur d'image et le procédé comprend en outre une première étape d'optimisation de la distance horizontale entre le module lumineux et le capteur d'image pour maximiser l'angle entre deux parties d'une bande lorsqu'un objet est détecté.
La distance horizontale (c'est-à-dire la distance mesurée sur une ligne horizontale, sans tenir compte de la différence de hauteur) entre le module d'éclairage et le capteur d'images a une influence sur l'angle que forme la partie déformée de la bande avec la partie non déformée de la bande. Par conséquent, une optimisation de la distance horizontale entre le module de lumière et le capteur d'image aide l'unité de contrôle à détecter et à identifier la partie déformée du motif lumineux causée par l'objet.
Dans certains modes de réalisation particuliers, les bandes sont orientées en formant un angle compris entre 1º et 89º par rapport à l'horizontale.
Les bandes peuvent également être diagonales, formant un angle par rapport à l'horizontale (le concept "horizontal" est le même que dans le reste du document). Avec des bandes diagonales, les avantages des bandes horizontales et des bandes verticales sont combinés. Une FFT peut être utilisée pour détecter une variation de la fréquence et la variation de l'angle d'une partie des bandes peut également être détectée.
Dans certains modes de réalisation particuliers, le procédé comprend en outre l'étape consistant à optimiser l'angle de la bande par rapport à l'horizontale pour maximiser l'angle que forme une partie de la bande par rapport au reste de la bande dans les images acquises.
Une possibilité d'optimisation consiste à maximiser l'angle que forme la partie déformée par rapport à la bande projetée originale. Cela permet d'optimiser les informations fournies à l'unité de contrôle, pour une meilleure identification de la partie du motif lumineux déformée par l'objet.
Dans certains modes de réalisation particuliers, le procédé comprend en outre l'étape consistant à augmenter l'intensité lumineuse du motif lumineux lorsqu'un objet est détecté.
Il est possible d'avoir un premier niveau d'intensité lumineuse pour un éclairage standard (pour économiser de l'énergie) puis, lorsque l'objet est détecté, d'augmenter l'intensité lumineuse pour une meilleure précision.
Dans certains modes de réalisation particuliers, le motif lumineux est projeté par un dispositif d’éclairage avant (c’est-à-dire un phare) ou par un dispositif d’éclairage en marche arrière (c’est-à-dire un feu de recul).
La méthode peut être utilisée pour éclairer la route devant ou derrière le véhicule, comme lors d'une opération de stationnement ou de toute autre manœuvre en marche arrière.
Dans certains modes de réalisation particuliers, les caractéristiques de l'objet comprennent la position, la largeur et/ou la hauteur de l'objet.
Ces caractéristiques sont utiles pour évaluer la pertinence de l'objet détecté, afin de prendre la meilleure décision possible.
Dans certains modes de réalisation particuliers, le procédé comprend en outre l'étape consistant à définir la distance entre deux bandes consécutives en fonction d'une plage de détection souhaitée.
En fonction de la résolution du module lumineux et de la précision souhaitée dans la détection des obstacles, la largeur des bandes et la distance entre elles peuvent être choisies.
Dans certains modes de réalisations particuliers,
  • - le procédé comprend une première étape consistant à fournir au dispositif d'éclairage une base de données d'objets de débris étiquetées, dans laquelle la base de données contient des objets ayant des tailles, des matériaux, des formes, des orientations et des ombres différents ;
  • l'étape consistant à utiliser les données d'objet des bandes lumineuses pour obtenir des informations sur les caractéristiques d'un objet est exécutée par un processus d'apprentissage automatique ; et
  • le processus d'apprentissage automatique comprend un prétraitement des images, qui comprend une égalisation d'image pour améliorer le contraste entre la surface éclairée et l'ombre créée par celle-ci.
L'égalisation de l'image améliore le contraste, ce qui renforce le processus d'apprentissage.
Selon un deuxième aspect inventif, l'invention propose un procédé de gestion d'un véhicule autonome, comprenant les étapes suivantes .
  • réaliser la détection d'un objet avec un procédé selon le premier aspect inventif ;
  • utiliser les caractéristiques obtenues de l'objet pour décider d'une manœuvre appropriée du véhicule ;
  • vérifier si la manœuvre du véhicule peut être effectuée dans des conditions de sécurité ; et
  • effectuer la manœuvre.
Le procédé de détection d'un objet peut être utilisé pour un procédé de conduite d'un véhicule autonome. Lorsque l'objet est détecté, le procédé de détection fournit les caractéristiques nécessaires qui permettent l'adoption d'une manœuvre correcte pour éviter la collision.
Selon un autre aspect inventif, l'invention fournit un dispositif d'éclairage automobile comprenant .
  • une pluralité de sources lumineuses à l'état solide, configurées pour projeter le motif lumineux dans un procédé selon un aspect inventif précédent ;
  • un capteur d'image configuré pour acquérir une image du motif lumineux projeté dans un procédé selon un aspect inventif précédent ; et
  • unité de contrôle configurée pour exécuter le reste des étapes d'un procédé selon un aspect inventif précédent.
Le terme "solid state" fait référence à la lumière émise par électroluminescence à l'état solide, qui utilise des semi-conducteurs pour convertir l'électricité en lumière. Par rapport à l'éclairage à incandescence, l'éclairage à semi-conducteurs crée de la lumière visible en générant moins de chaleur et en dissipant moins d'énergie. La masse généralement faible d'un dispositif d'éclairage électronique à semi-conducteurs lui confère une plus grande résistance aux chocs et aux vibrations que les tubes/ampoules en verre fragiles et les fils de filament longs et fins. Ils éliminent également l'évaporation des filaments, ce qui augmente potentiellement la durée de vie du dispositif d'éclairage. Certains exemples de ces types d'éclairage comprennent des diodes électroluminescentes à semi-conducteurs (LED), des diodes électroluminescentes organiques (OLED) ou des diodes électroluminescentes polymères (PLED) comme sources d'éclairage plutôt que des filaments électriques, du plasma ou du gaz.
Un arrangement matriciel est un exemple typique pour cette méthode. Les lignes peuvent être regroupées en plages de distance de projection et chaque colonne de chaque groupe représente un intervalle d'angle. Cette valeur d'angle dépend de la résolution de la disposition matricielle, qui est généralement comprise entre 0,01º par colonne et 0,5º par colonne. Par conséquent, de nombreuses sources lumineuses peuvent être gérées en même temps.
Dans certains modes de réalisation particuliers, le capteur d'images et la pluralité de sources lumineuses à semi-conducteurs sont situés à des positions horizontales extrêmes, maximisant la distance horizontale entre eux.
Le capteur d'image et le module d'éclairage avec les sources lumineuses à semi-conducteurs peuvent être situés dans le même dispositif d'éclairage ou peuvent être disposés à des endroits différents. Lorsque le module d'éclairage et le capteur d'images sont situés à des positions extrêmes dans le véhicule (c'est-à-dire un élément sur le bord gauche et l'autre sur le bord droit), la distance horizontale entre eux est maximale et l'angle de perception par le capteur d'images des bandes projetées par le module d'éclairage est optimal.
Sauf définition contraire, tous les termes (y compris les termes techniques et scientifiques) utilisés dans le présent document doivent être interprétés comme il est d'usage dans l'art. Il est en outre entendu que les termes d'usage courant doivent également être interprétés de la manière habituelle dans l'art concerné et non dans un sens idéalisé ou trop formel, à moins qu'ils ne soient expressément définis dans le présent document.
Dans le présent texte, le terme "comprend" et ses dérivés (tels que "comprenant", etc.) ne doivent pas être compris dans un sens excluant, c'est-à-dire que ces termes ne doivent pas être interprétés comme excluant la possibilité que ce qui est décrit et défini puisse comprendre d'autres éléments, étapes, etc.
Pour compléter la description et afin de permettre une meilleure compréhension de l'invention, un ensemble de dessins est fourni. Ces dessins font partie intégrante de la description et illustrent un mode de réalisation de l'invention, qui ne doit pas être interprété comme limitant la portée de l'invention, mais seulement comme un exemple de réalisation de l'invention. Les dessins comprennent les figures suivantes :
[La ] montre une vue en perspective générale d'un dispositif d'éclairage automobile selon l'invention.
[La figure 2 montre quelques étapes du fonctionnement d'un tel dispositif d'éclairage automobile.
[La figure 3 montre l'effet d'une transformation de Fourier rapide (FFT) sur l'image de la figure 2.
[La figure 4 montre une deuxième option dans la structure du motif lumineux, avec des bandes non continues disposées selon un motif en échiquier.
[La figure 5 montre une troisième option dans la structure du motif lumineux, avec des bandes verticales.
[La ] présente une question relative à la position relative du capteur d'images et du module d'éclairage dans un dispositif d'éclairage selon l'invention.
[La figure 7 montre une quatrième option dans la structure du motif lumineux, avec des bandes diagonales.
Dans ces figures, les numéros de référence suivants sont utilisés :
1 Dispositif d'éclairage
2 LEDs
3 Unité de contrôle
4 Caméra
5 Surface de la route
6 Motif lumineux
7 Rayures
8 Zone Objet
9 Direction de la projection
11 Direction de la détection
100 Véhicule automobile
Les exemples de réalisation sont décrits avec suffisamment de détails pour permettre aux personnes ayant une compétence ordinaire dans l'art de réaliser et de mettre en œuvre les systèmes et les procédés décrits dans le présent document. Il est important de comprendre que les modes de réalisation peuvent être fournis sous de nombreuses autres formes et ne doivent pas être interprétés comme étant limités aux exemples présentés ici.
En conséquence, bien que la réalisation puisse être modifiée de diverses manières et prendre diverses formes alternatives, des réalisations spécifiques de celle-ci sont montrées dans les dessins et décrites en détail ci-dessous à titre d'exemples. Il n'y a aucune intention de se limiter aux formes particulières divulguées. Au contraire, toutes les modifications, tous les équivalents et toutes les alternatives entrant dans le cadre des revendications annexées doivent être inclus.
La montre une vue en perspective générale d'un dispositif d'éclairage automobile selon l'invention.
Ce projecteur 1 est installé dans un véhicule automobile 100 et comprend
  • une disposition matricielle de diodes électroluminescentes (LED) 2, destinée à fournir un motif lumineux ;
  • une unité de contrôle 3 pour effectuer une commande du fonctionnement des LEDs 2 ; et
  • une caméra 4 destinée à fournir des données externes.
Cette configuration matricielle est un module haute résolution, dont la résolution est supérieure à 2000 pixels. Cependant, aucune restriction n'est attachée à la technologie utilisée pour produire les modules de projection.
Un premier exemple de cette configuration matricielle comprend une source monolithique. Cette source monolithique comprend une matrice d'éléments électroluminescents monolithiques disposés en plusieurs colonnes par plusieurs rangées. Dans une matrice monolithique, les éléments électroluminescents peuvent être cultivés à partir d'un substrat commun et sont connectés électriquement pour être activables sélectivement soit individuellement, soit par un sous-ensemble d'éléments électroluminescents. Le substrat peut être principalement constitué d'un matériau semi-conducteur. Le substrat peut comprendre un ou plusieurs autres matériaux, par exemple des matériaux non semi-conducteurs (métaux et isolants). Ainsi, chaque élément/groupe électroluminescent peut former un pixel lumineux et peut donc émettre de la lumière lorsque son/leur matériau est alimenté en électricité. La configuration d'une telle matrice monolithique permet l'agencement de pixels activables sélectivement très proches les uns des autres, par rapport aux diodes électroluminescentes classiques destinées à être soudées sur des cartes de circuits imprimés. La matrice monolithique peut comprendre des éléments électroluminescents dont la dimension principale de hauteur, mesurée perpendiculairement au substrat commun, est sensiblement égale à un micromètre.
La matrice monolithique est couplée à l’unité de contrôle de manière à contrôler la génération et/ou la projection d'un faisceau lumineux pixellisé par l'arrangement matriciel. L’unité de contrôle est ainsi capable de contrôler individuellement l'émission de lumière de chaque pixel de la matrice.
En variante de ce qui a été présenté ci-dessus, l'agencement matriciel peut comprendre une source lumineuse principale couplée à une matrice de miroirs. Ainsi, la source lumineuse pixelisée est formée par l'assemblage d'au moins une source lumineuse principale formée d'au moins une diode électroluminescente émettant de la lumière et d'une matrice d'éléments optoélectroniques, par exemple une matrice de micro-miroirs, également connue sous l'acronyme DMD, pour " Digital Micro-mirror Device ", qui dirige les rayons lumineux de la source lumineuse principale par réflexion vers un élément optique de projection. Le cas échéant, un élément optique auxiliaire peut recueillir les rayons d'au moins une source lumineuse pour les focaliser et les diriger vers la surface de la matrice de micro-miroirs.
Chaque micro-miroir peut pivoter entre deux positions fixes, une première position dans laquelle les rayons lumineux sont réfléchis vers l'élément optique de projection, et une seconde position dans laquelle les rayons lumineux sont réfléchis dans une direction différente de l'élément optique de projection. Les deux positions fixes sont orientées de la même manière pour tous les micro-miroirs et forment, par rapport à un plan de référence supportant la matrice de micro-miroirs, un angle caractéristique de la matrice de micro-miroirs défini dans ses spécifications. Un tel angle est généralement inférieur à 20° et peut être habituellement de l'ordre de 12°. Ainsi, chaque micro-miroir réfléchissant une partie des faisceaux lumineux incidents sur la matrice de micro-miroirs forme un émetteur élémentaire de la source lumineuse pixellisée. L'actionnement et le contrôle du changement de position des miroirs pour activer sélectivement cet émetteur élémentaire afin qu'il émette ou non un faisceau lumineux élémentaire sont commandés par l’unité de contrôle.
Dans différents modes de réalisation, l'agencement matriciel peut comprendre un système laser à balayage dans lequel une source de lumière laser émet un faisceau laser vers un élément de balayage qui est configuré pour explorer la surface d'un convertisseur de longueur d'onde avec le faisceau laser. Une image de cette surface est capturée par l'élément optique de projection.
L'exploration de l'élément de balayage peut être effectuée à une vitesse suffisamment élevée pour que l'œil humain ne perçoive aucun déplacement dans l'image projetée.
Le contrôle synchronisé de l'allumage de la source laser et du mouvement de balayage du faisceau permet de générer une matrice d'émetteurs élémentaires pouvant être activés sélectivement à la surface de l'élément de conversion de longueur d'onde. Le moyen de balayage peut être un micro-miroir mobile permettant de balayer la surface de l'élément convertisseur de longueur d'onde par réflexion du faisceau laser. Les micro-miroirs mentionnés comme moyens de balayage sont par exemple de type MEMS, pour " Micro-Electro-Mechanical Systems ". Toutefois, l'invention n'est pas limitée à un tel moyen de balayage et peut utiliser d'autres types de moyens de balayage, tels qu'une série de miroirs disposés sur un élément rotatif, la rotation de l'élément provoquant un balayage de la surface de transmission par le faisceau laser.
Dans une autre variante, la source de lumière peut être complexe et comprendre à la fois au moins un segment d'éléments lumineux, tels que des diodes électroluminescentes, et une partie de surface d'une source de lumière monolithique.
La illustre quelques étapes du fonctionnement d'un tel dispositif d'éclairage automobile. Sur cette figure, un motif lumineux 6 est représenté projeté sur la surface de la route 5. Ce motif lumineux uniforme comprend une pluralité de bandes horizontales 7.
Toutes les 0,2 secondes, la caméra du dispositif d'éclairage acquiert des données d'image du motif lumineux projeté 6. Lorsqu'un objet est présent sur la surface de la route 5, les données d'image acquises contiennent une zone 8 où la largeur et la fréquence des rayures sont différentes du reste de l'image, du fait qu'elles sont projetées sur une surface (la surface d'un objet) qui forme un angle par rapport à la route.
À ce stade, deux options s'offrent à vous. La première consiste à analyser l'image en tant que telle et la seconde à modifier le motif lumineux pour une meilleure identification de l'objet, en augmentant l'intensité lumineuse des bandes de lumière.
Dans tous les cas, l'unité de contrôle reçoit l'image acquise avec la zone déformée, soit avec une intensité lumineuse standard, soit avec une intensité accrue.
L'unité de contrôle effectue une transformation rapide de Fourier (FFT) sur l'image, ce qui donne l'image illustrée à la . Dans cette image, la FFT indique clairement qu'il y a un changement dans la fréquence des bandes lumineuses, ce qui indique la présence d'un objet sur la route et fournit des informations sur sa hauteur et sa largeur. Le système de conduite autonome du véhicule est donc en mesure d'utiliser ces informations pour décider de la meilleure façon d'éviter l'objet (freinage, réduction de la vitesse ou changement de voie). Toutefois, d'autres méthodes, telles que la transformation directe en cosinus (DCT) ou une matrice de cooccurrence, pourraient être utilisées à cette fin.
La montre un autre motif de bandes horizontales, comprenant des bandes non continues, disposées selon un motif en échiquier.
Cette approche permet d'obtenir un niveau de détail plus élevé et une identification plus précise de l'objet. Cependant, le reste des étapes de la méthode reste le même.
La montre une troisième option dans la structure du motif lumineux. À présent, au lieu de bandes horizontales, il y a des bandes verticales 7, qui offrent des avantages différents par rapport aux bandes horizontales.
De la même manière que dans le cas précédent, toutes les 0,2 secondes, la caméra du dispositif d'éclairage acquiert des données d'image du motif lumineux projeté 6. Lorsqu'un objet est présent sur la route, les données d'image acquises contiennent une zone 8 où une partie de chaque bande affectée (le nombre de bandes affectées dépendant de la largeur de l'objet) forme un angle par rapport à la bande restante, du fait qu'elle est projetée sur une surface (la surface d'un objet) qui forme un angle par rapport à la route.
À ce stade, deux options s'offrent à vous. La première consiste à analyser l'image en tant que telle et la seconde à modifier le motif lumineux pour une meilleure identification de l'objet, en augmentant l'intensité lumineuse des bandes de lumière.
Dans tous les cas, l'unité de contrôle reçoit l'image acquise avec la zone déformée, soit avec une intensité lumineuse standard, soit avec une intensité accrue.
Dans ce cas, l'unité de contrôle effectue une analyse de l'image afin d'identifier les parties de la bande qui sont orientées d'une manière différente par rapport au motif original. Lorsqu'elles sont identifiées, la zone à laquelle appartiennent ces bandes déviées est classée comme un objet, de sorte que sa position et ses dimensions peuvent être obtenues.
La présente une question relative à la position relative du capteur d'images et du module d'éclairage.
L'angle que forment les parties polarisées des bandes par rapport aux parties non polarisées des bandes dépend de la distance horizontale entre le module d'éclairage (qui projette le motif lumineux) et le capteur d'images (qui acquiert une image du motif lumineux projeté).
Cet angle est maximal lorsque le capteur d'images est à la plus grande distance possible du projecteur de lumière. Si le module d'éclairage est situé dans la position extrême d'un phare, le capteur d'images doit être situé dans la position extrême du phare opposé. Ainsi, la distance horizontale entre ces deux objets est maximale, ce qui maximise l'angle entre la direction de projection 9 et la direction de détection 11. Avec une telle disposition, l'angle entre les parties polarisées et les parties non polarisées des bandes est également maximisé, ce qui améliore le fonctionnement de l'unité de contrôle.
La présente encore une alternative différente des bandes horizontales et verticales. Dans ce cas, le motif lumineux comprend des bandes diagonales. L'objet sur la route modifie l'angle et la fréquence des bandes diagonales, de sorte que l'unité de contrôle peut obtenir, avec plus de précision, la forme et les dimensions de l'objet.
Dans l'un quelconque de ces exemples (image du motif lumineux sans modifications ou image du motif lumineux modifié), l'unité de contrôle reçoit l'image et la traite.
À ces étapes, l'unité de contrôle dispose de différentes méthodes pour analyser l'ombre.
La première étape optionnelle comprend l'exécution d'une égalisation d'image, pour améliorer le contraste entre les bandes éclairées et les zones noires entre les bandes. Ce contraste amélioré sera utile à l'unité de contrôle, pour une meilleure identification et quantification de la zone objet.
La deuxième étape optionnelle est l'utilisation de l'apprentissage automatique. L'unité de contrôle peut subir un processus d'apprentissage supervisé avant d'être installée dans le véhicule automobile. Cela comprend le fait qu'une base de données de débris est fournie dans le cadre d'une étape d'apprentissage préliminaire.
L'unité de contrôle comprend un réseau neuronal convolutionnel avec un certain nombre de blocs convolutionnels, chaque bloc convolutionnel comprenant plusieurs couches convolutionnelles et une couche de pool max, qui opèrent sur l'entrée (l'image de la base de données). Le réseau comprend en outre le même nombre de blocs déconvolutionnels, chaque bloc comprenant une couche de déséchantillonnage et des couches convolutionnelles. La sortie de ce processus permet d'obtenir les dimensions de la zone objet.
Une autre disposition d'un réseau neuronal convolutif peut comprendre quelques couches convolutives, qui opèrent sur l'entrée (l'image de la base de données). Ce réseau comprend des connexions de saut pour propager plus rapidement les caractéristiques d'entrée à travers les connexions résiduelles. Ce réseau comprend également une couche finale entièrement connectée.
Selon un exemple opérationnel, les objets présents dans les images étant limités, le réseau apprend à classer une ombre fournie dans un ensemble prédéfini de surfaces. La tâche consiste à ce que le réseau estime la surface comme s'il s'agissait d'une fonction de probabilité.
Cette invention peut également être utilisée dans différentes situations : la lumière peut être projetée par le phare, mais elle peut également être projetée par un feu arrière, tel qu'un feu de recul. Cet exemple serait utile pour garer la voiture, et une carte précise des obstacles serait nécessaire pour un fonctionnement autonome.
Cette invention peut également être utilisée pour le contrôle de l'objet. L'unité de contrôle, une fois qu'elle a détecté et identifié la présence, la position, l'orientation et la taille de l'objet, décide de la meilleure façon de le surmonter : soit en changeant de voie, soit en diminuant la vitesse, soit même en arrêtant totalement le véhicule. Les étapes de la conduite autonome sont effectuées selon l'invention pour l'opération la plus appropriée qui évite d'être endommagé par l'objet. Cependant, il faut parfois vérifier si cette manœuvre est possible (parce qu'il n'y a pas de véhicule à proximité) avant de l'effectuer.

Claims (15)

  1. Procédé de détection d'un objet sur une surface de route, le procédé comprenant les étapes suivantes :
    • la projection d'un motif lumineux sur une surface de route, le motif lumineux comprenant des bandes lumineuses ;
    • l'acquisition d'une image du motif lumineux projeté ;
    • détecter des données d'objet dans les bandes de lumière de l'image acquise ; et
    • utiliser les données d'objet des bandes de lumière pour déduire les caractéristiques d'un objet.
  2. Procédé selon la revendication 1, dans lequel les bandes ne sont pas continues.
  3. Procédé selon l'une quelconque des revendications précédentes, dans lequel les bandes sont horizontales et les données objet comprennent la fréquence des rayures.
  4. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape de détection de données d'objet comprend la réalisation d'une transformation de Fourier rapide sur l'image acquise.
  5. Procédé selon l'une quelconque des revendications 1 ou 2, dans lequel les bandes sont verticales et les données objet comprennent l'angle d'une partie d'une bande par rapport au reste de la bande.
  6. Procédé selon la revendication 5, dans lequel l'étape de projection du motif lumineux est réalisée par un module lumineux, l'étape d'acquisition de l'image est réalisée par un capteur d'image et le procédé comprend en outre une première étape d'optimisation de la distance horizontale entre le module lumineux et le capteur d'image pour maximiser l'angle entre deux parties d'une bande lorsqu'un objet est détecté.
  7. Procédé selon l'une quelconque des revendications 1 ou 2, dans lequel les bandes sont orientées en formant un angle compris entre 1º et 89º par rapport à l'horizontale.
  8. Procédé selon la revendication 7, comprenant en outre l'étape consistant à optimiser l'angle de la bande par rapport à l'horizontale pour maximiser l'angle que forme une partie de la bande par rapport au reste de la bande dans les images acquises.
  9. Procédé selon l'une quelconque des revendications précédentes, comprenant en outre l'étape consistant à augmenter l'intensité lumineuse du motif lumineux lorsqu'un objet est détecté.
  10. Procédé selon l'une quelconque des revendications précédentes, dans lequel les caractéristiques contiennent la position, la largeur et/ou la hauteur de l'objet.
  11. Procédé selon l'une quelconque des revendications précédentes, comprenant en outre l'étape consistant à définir la distance entre deux bandes consécutives en fonction d'une plage de détection souhaitée.
  12. Procédé selon l'une quelconque des revendications précédentes, dans lequel
    • le procédé comprend une première étape consistant à fournir à un dispositif d'éclairage une base de données étiquetée d'objets de débris, dans laquelle la base de données contient des objets ayant des tailles, des matériaux, des formes, des orientations et des ombres différents ;
    • l'étape consistant à utiliser les données d'objet des bandes lumineuses pour obtenir des informations sur les caractéristiques d'un objet est exécutée par un processus d'apprentissage automatique ; et
    • le processus d'apprentissage automatique comprend un prétraitement des images, qui comprend une égalisation d'image pour améliorer le contraste entre la surface éclairée et l'ombre créée par celle-ci.
  13. Procédé de gestion autonome d'un véhicule, comprenant les étapes suivantes
    • réaliser la détection d'un objet avec un procédé selon l'une quelconque des revendications précédentes ;
    • utiliser les caractéristiques obtenues de l'objet pour décider d'une manœuvre appropriée du véhicule ;
    • vérifier si la manœuvre du véhicule peut être effectuée dans des conditions de sécurité ; et
    • effectuer la manœuvre.
  14. Dispositif d'éclairage automobile mettant en œuvre le procédé de détection d’un objet selon l’une quelconque des revendications 1 à 12, comprenant
    • une pluralité de sources lumineuses à l'état solide, configurées pour projeter le motif lumineux ;
    • un capteur d'image configuré pour acquérir une image du motif lumineux projeté ; et
    • une unité de contrôle.
  15. Dispositif d'éclairage automobile selon l'une quelconque des revendications précédentes, dans lequel le capteur d'image et la pluralité de sources lumineuses à semi-conducteurs sont situés à des positions horizontales extrêmes, maximisant la distance horizontale entre eux.
FR2106505A 2021-06-18 2021-06-18 Procédé de détection d'un objet sur une surface de route, procédé de conduite autonome et dispositif d'éclairage automobile Pending FR3124253A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2106505A FR3124253A1 (fr) 2021-06-18 2021-06-18 Procédé de détection d'un objet sur une surface de route, procédé de conduite autonome et dispositif d'éclairage automobile
PCT/EP2022/066769 WO2022263683A1 (fr) 2021-06-18 2022-06-20 Procédé de détection d'objet sur la surface de la chaussée, procédé de conduite autonome et dispositif d'éclairage automobile

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2106505 2021-06-18
FR2106505A FR3124253A1 (fr) 2021-06-18 2021-06-18 Procédé de détection d'un objet sur une surface de route, procédé de conduite autonome et dispositif d'éclairage automobile

Publications (1)

Publication Number Publication Date
FR3124253A1 true FR3124253A1 (fr) 2022-12-23

Family

ID=78536268

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2106505A Pending FR3124253A1 (fr) 2021-06-18 2021-06-18 Procédé de détection d'un objet sur une surface de route, procédé de conduite autonome et dispositif d'éclairage automobile

Country Status (2)

Country Link
FR (1) FR3124253A1 (fr)
WO (1) WO2022263683A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080063239A1 (en) * 2006-09-13 2008-03-13 Ford Motor Company Object detection system and method
US20160378117A1 (en) * 2015-06-24 2016-12-29 Brain Corporation Bistatic object detection apparatus and methods
US20190220677A1 (en) * 2018-01-17 2019-07-18 GM Global Technology Operations LLC Structured light illumination system for object detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080063239A1 (en) * 2006-09-13 2008-03-13 Ford Motor Company Object detection system and method
US20160378117A1 (en) * 2015-06-24 2016-12-29 Brain Corporation Bistatic object detection apparatus and methods
US20190220677A1 (en) * 2018-01-17 2019-07-18 GM Global Technology Operations LLC Structured light illumination system for object detection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
AVINASH SHARMA: "PROJECTED TEXTURE FOR 3D OBJECT RECOGNITION", 1 July 2008 (2008-07-01), pages 1 - 80, XP055286933, Retrieved from the Internet <URL:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.469.6918&rep=rep1&type=pdf> [retrieved on 20160708] *

Also Published As

Publication number Publication date
WO2022263683A1 (fr) 2022-12-22

Similar Documents

Publication Publication Date Title
FR3055980B1 (fr) Systeme optique pour faisceau lumineux pixelise
EP2821692B1 (fr) Module optique sécurisé pour véhicule automobile comprenant une source laser
WO2018050593A1 (fr) Dispositif lumineux de véhicule automobile comportant une source lumineuse pixélisée et procédé de projection d&#39;un faisceau lumineux pixélisé par ledit dispositif lumineux de véhicule automobile
FR3083942A1 (fr) Systeme de communication optique sans fil pour vehicule
FR3076171A1 (fr) Calibration d&#39;un module lumineux a elements electroluminescents
FR3062217A1 (fr) Aboutage de sources lumineuses pixelisees
FR3055981B1 (fr) Controle de faisceau lumineux pixelise
FR3055947B1 (fr) Systeme optique de vehicule automobile
EP3432031B1 (fr) Détection d&#39;objets pour un véhicule automobile
WO2011092121A1 (fr) Dispositif optique, notamment pour véhicule automobile
FR3124253A1 (fr) Procédé de détection d&#39;un objet sur une surface de route, procédé de conduite autonome et dispositif d&#39;éclairage automobile
FR3106671A1 (fr) Système de projection de faisceaux lumineux
FR3101391A1 (fr) Système optique
FR3124252A1 (fr) Procédé de détection d&#39;un objet sur une surface de route, procédé de conduite autonome et dispositif d&#39;éclairage automobile
FR3124254A1 (fr) Procédé de détection d&#39;un objet sur une surface de route, procédé de conduite autonome et dispositif d&#39;éclairage automobile
FR3053758A1 (fr) Dispositif d&#39;eclairage et/ou de signalisation pour vehicule automobile
EP3720249A1 (fr) Calibration d&#39;un module lumineux à éléments électroluminescents
FR3126506A1 (fr) Dispositif d&#39;éclairage automobile et procédé de détection d&#39;un objet
FR3120213A3 (fr) Procédé de commande d&#39;un dispositif d&#39;éclairage automobile et dispositif d&#39;éclairage automobile
WO2024094529A1 (fr) Dispositif d&#39;éclairage
FR3120257A3 (fr) Procédé de commande d&#39;un dispositif d&#39;éclairage automobile
WO2021110581A1 (fr) Dispositif optique
WO2023094332A1 (fr) Dispositif optique de projection à trois lentilles
FR3115858A1 (fr) Procédé de fonctionnement d&#39;un dispositif d&#39;éclairage automobile et dispositif d&#39;éclairage automobile
FR3113994A1 (fr) Procédé de fonctionnement d&#39;un dispositif d&#39;éclairage automobile et dispositif d&#39;éclairage automobile

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20221223

PLFP Fee payment

Year of fee payment: 3