FR3062224A1 - Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images - Google Patents

Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images Download PDF

Info

Publication number
FR3062224A1
FR3062224A1 FR1750617A FR1750617A FR3062224A1 FR 3062224 A1 FR3062224 A1 FR 3062224A1 FR 1750617 A FR1750617 A FR 1750617A FR 1750617 A FR1750617 A FR 1750617A FR 3062224 A1 FR3062224 A1 FR 3062224A1
Authority
FR
France
Prior art keywords
images
zone
image
pyramid
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1750617A
Other languages
English (en)
Other versions
FR3062224B1 (fr
Inventor
Achraf Ben Hamadou
Rachid Benmokhtar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to FR1750617A priority Critical patent/FR3062224B1/fr
Publication of FR3062224A1 publication Critical patent/FR3062224A1/fr
Application granted granted Critical
Publication of FR3062224B1 publication Critical patent/FR3062224B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

L'invention concerne la détection d'obstacles dans l'environnement d'un véhicule automobile, à partir d'images capturées sur une première zone et une deuxième zone se chevauchant partiellement sur une zone de recouvrement, basée sur l'application d'un algorithme de reconnaissance de formes et apprentissage automatique dans lequel on génère une pluralité de descripteurs d'images par balayage de chaque image capturée par une fenêtre glissante (W), puis on effectue une classification des descripteurs. Selon l'invention, pour chaque couple d'images capturées simultanément sur la première et la deuxième zones, on génère (30, 61, 62) un ensemble de couples de descripteurs sur des premières portions (ImFR/A1, ImLE/A1) d'images issues du couple d'images, correspondant à la zone de recouvrement, et on applique la classification (64) sur une combinaison des descripteurs d'un même couple ; et on génère (51, 52) des ensembles de descripteurs sur des deuxièmes portions (ImFR/Z'FR, ImLE/Z'LE) d'images issues de chacune des images du couple d'images correspondant à une zone excluant au moins en partie la zone de recouvrement (A1), et on applique (53) la classification sur chaque descripteur généré.

Description

Titulaire(s) : VALEO SCHALTER UND SENSOREN GMBH Société par actions simplifiée.
O Demande(s) d’extension :
® Mandataire(s) : VALEO COMFORT AND DRIVING ASSISTANCE.
® DETECTION D'OBSTACLES DANS L'ENVIRONNEMENT D'UN VEHICULE AUTOMOBILE PAR TRAITEMENT D'IMAGES.
FR 3 062 224 - A1 (57) L'invention concerne la détection d'obstacles dans l'environnement d'un véhicule automobile, à partir d'images capturées sur une première zone et une deuxième zone se chevauchant partiellement sur une zone de recouvrement, basée sur l'application d'un algorithme de reconnaissance de formes et apprentissage automatique dans lequel on génère une pluralité de descripteurs d'images par balayage de chaque image capturée par une fenêtre glissante (W), puis on effectue une classification des descripteurs. Selon l'invention, pour chaque couple d'images capturées simultanément sur la première et la deuxième zones, on génère (30, 61, 62) un ensemble de couples de descripteurs sur des premières portions (lmFR/A1, lm^E/A1) d'images issues du couple d'images, correspondant a la zone de recouvrement, et on applique la classification (64) sur une combinaison des descripteurs d'un même couple; et on génère (51,52) des ensembles de descripteurs sur des deuxièmes portions (lm_ FR/Z'FR, lmLE/Z'LE) d'images issues de chacune des images du couple d'images correspondant à une zone excluant au moins en partie la zone de recouvrement (Ai), et on applique (53) la classification sur chaque descripteur généré.
2,
Figure FR3062224A1_D0001
Figure FR3062224A1_D0002
DETECTION D’OBSTACLES DANS L’ENVI RONNEMENT D’UN VEHICULE AUTOMOBI LE PAR TRAI TEMENT D’I MAGES
La présente invention concerne de manière générale les véhicules automobiles, et plus précisément un procédé et un système de détection d’obstacles dans l’environnement d’un véhicule automobile, à partir d’images capturées par une pluralité de caméras embarquées sur ledit véhicule automobile.
La détection d’obstacles dans l’environnement immédiat d’un véhicule automobile à conduite autonome ou équipé de systèmes d’assistance à la conduite (ou ADAS, initiales anglo-saxonnes mises pour Advanced Driver Assistance System) est cruciale pour prévenir des situations dangereuses. Les obstacles peuvent être notamment d’autres véhicules motorisés, statiques ou mobiles, pouvant présenter un danger particulier, ou bien des piétons. On comprend aisément que la détection de ces obstacles, incluant la détermination de leurs positions, voire de leurs vitesses relatives dans le cas de véhicules tiers, doit être non seulement précise mais menée en outre en temps réel pour que les systèmes d’assistance puissent réagir rapidement de façon adaptée.
On connaît déjà de nombreux systèmes réalisant des détections et classifications d’obstacles, tels que des véhicules motorisés ou des piétons, à partir d’images capturées par des caméras, en particulier soit une caméra frontale et une caméra arrière, soit des caméras latérales embarquées sur le véhicule automobile.
Parmi les algorithmes de vision connus permettant de détecter des objets dans des images, on connaît notamment ceux reposant sur la reconnaissance d’objets par apprentissage automatique, telles que les méthodes SVM (initales anglo-saxonnes mises pour Support Vector machine) ou Adaboost. L’approche utilisée dans la reconnaissance consiste à apprendre puis à retrouver dans l’image, l’allure générale d’un objet déterminé, par exemple un piéton. Pour réaliser par exemple un module de détection de piéton, on utilise des algorithmes de reconnaissance de formes dont le but est de discriminer la forme des piétons par rapport au reste. Concrètement, une première phase consiste à la construction d’une base d’entraînement pour capturer la diversité d’apparence des piétons. La base d’entraînement doit être la plus grande et la plus variée possible pour correspondre au mieux au grand nombre de situations pouvant être rencontrées par le module de détection. Puis, un algorithme d’apprentissage va étudier et dégager des propriétés de cette base pour créer un modèle représentant une frontière permettant la classification piéton/reste. Un classifieur s’appuie ensuite sur ce modèle pour différencier les éléments des deux groupes. Une fois le classifieur construit, la phase de détection consiste à balayer l’image sur des zones de scan qui se recouvrent, puis à comparer leur contenu avec le modèle. Si en un point donné, l’image est suffisamment proche du modèle, alors le module de détection indique la présence d’un piéton.
Les algorithmes mis en oeuvre dans une détection de piétons par reconnaissance de formes sont généralement très complexes compte tenu notamment de la très grande diversité entre les personnes (taille, poids, vêtements, postures...). Ces algorithmes de reconnaissance de formes sont souvent basés sur l’utilisation de descripteurs fournis en entrée du classifieur Une méthode classique, connue sous le nom de la méthode de Viola et Jones, consiste à tester la présence d’un piéton dans une fenêtre ou imagette de taille fixe, par exemple de 24 sur 48 pixels, à toutes les positions possibles dans l’image et pour plusieurs échelles de l’image. Le test consiste à générer un vecteur de descripteurs pour chaque position de la fenêtre et à les comparer avec les descripteurs appris sur la base d’entraînement. Plus précisément, pour chaque image capturée par une caméra, on génère une pyramide d’images, chaque étage ou image de la pyramide d’images correspondant à une échelle différente de l’image ou d’au moins une région d’intérêt dans l’image. La méthode consiste typiquement à balayer les images de la pyramide d’images, en déplaçant la fenêtre de taille fixe d’un certain nombre de pixels à la fois. Le classifieur, combiné à la base d’entraînement comportant des échantillons de piétons et des échantillons de fond, va traiter les différents vecteurs de descripteurs obtenus à chaque position de la fenêtre glissante pour identifier les zones correspondant effectivement à un piéton par rapport à un modèle appris. Le résultat est délivré par le classifieur sous forme d’une boîte englobante, généralement de forme rectangulaire, par piéton détecté. Les dimensions et/ou la position verticale de la boîte englobante relative à un piéton détecté sont alors utilisées pour estimer la distance à laquelle se situe le piéton par rapport au véhicule. Une telle méthode est par exemple implémentée par des détecteurs rapides de type Adaboost. Les résultats de la détection rapide sont ensuite généralement affinés et validés par des classifieur plus performants.
L’algorithme précédent, décrit dans le cadre de la détection de piétons, peut également être utilisé dans le cadre de la détection d’autres types d’obstacles tels que des véhicules tiers.
Les algorithmes de reconnaissance par apprentissage automatique sont très dépendants de la qualité de la base d’entraînement. Un modèle est construit par caméra.
Il est donc important de pouvoir trouver toute solution qui va dans le sens de l’amélioration de la robustesse dans la détection des obstacles à partir du traitement des images.
La présente invention a pour but de proposer une de ces solutions.
Pour ce faire, l’invention a pour objet un procédé de détection d’obstacles dans l’environnement d’un véhicule automobile, à partir d’images capturées par une pluralité de caméras embarquées sur ledit véhicule automobile de manière à capturer des images sur au moins une première zone et une deuxième zone, les première et deuxième zones se chevauchant partiellement de façon à définir à leur intersection une zone de recouvrement, le procédé comportant l’application d’un algorithme de détection d’obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère une pluralité de descripteurs d’images par le balayage au moins partiel de chaque image capturée par une fenêtre glissante, puis on effectue une classification des descripteurs d’images en vue de déterminer des candidats possibles représentatifs d’une présence potentielle d’obstacles, procédé dans lequel, pour chaque couple d’images capturées simultanément sur ladite première zone et ladite deuxième zone:
- on génère un ensemble de couples de descripteurs d’images sur des premières portions d’images issues du couple d’images, lesdites premières portions d’images correspondant à la zone de recouvrement, et on applique la classification sur une combinaison des descripteurs d’images d’un même couple ; et
- on génère un deuxième et troisième ensembles de descripteurs d’images sur des deuxièmes portions d’images issues de chacune des images du couple d’images, lesdites deuxième portions d’images correspondant à une zone excluant au moins en partie la zone de recouvrement, et on applique la classification sur chaque descripteur d’images généré.
Outre les caractéristiques principales qui viennent d'être mentionnées dans le paragraphe précédent, le procédé selon l'invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes :
- la génération dudit ensemble de couples de descripteurs d’images comporte de préférence les sous-étapes suivantes de génération d’une paire de pyramides d’images, la paire comportant d’une part, une première pyramide d’images générée à partir de la première portion d’image de ladite première zone, ladite première pyramide d’images correspondant à au moins une région d’intérêt dans la première portion d’image de ladite première zone, et chaque image de la première pyramide d’images correspondant à une échelle différente de la première portion d’image de ladite première zone, et d’autre part, une deuxième pyramide d’images générée à partir de la première portion d’image de ladite deuxième zone, ladite deuxième pyramide d’images correspondant à au moins une région d’intérêt dans la première portion d’image de ladite deuxième zone, chaque image de la deuxième pyramide d’images correspondant à une échelle différente de la première portion d’image de ladite deuxième zone; et de balayage par ladite fenêtre glissante de l’ensemble des images de la première pyramide d’images et de la deuxième pyramide d’images en fonction d’une table de correspondance permettant d’apparier de façon biunivoque chaque pixel d’une image à une première échelle de la première pyramide à un pixel correspondant d’une image à une deuxième échelle de la deuxième pyramide, pour générer, pour chaque position de la fenêtre glissante, un couple de descripteurs d’images comprenant un premier descripteur relatif à la première pyramide d’images et un deuxième descripteur relatif à la deuxième pyramide d’images ;
la génération du deuxième et troisième ensembles de descripteurs d’images comporte de préférence les sous-étapes suivantes de génération d’une troisième pyramide d’images à partir de la deuxième portion d’image de ladite première zone, ladite troisième pyramide d’images correspondant à au moins une région d’intérêt dans la deuxième portion d’image de ladite première zone, et chaque image de la troisième pyramide d’images correspondant à une échelle différente de la deuxième portion d’image de ladite première zone; de génération d’une quatrième pyramide d’images à partir de la deuxième portion d’image de ladite deuxième zone, ladite quatrième pyramide d’images correspondant à au moins une région d’intérêt dans la deuxième portion d’image de ladite deuxième zone, et chaque image de la quatrième pyramide d’images correspondant à une échelle différente de la deuxième portion d’image de ladite deuxième zone; et de balayage par ladite fenêtre glissante de l’ensemble des images de la troisième pyramide d’images et de la quatrième pyramide d’images pour générer respectivement, pour chaque position de la fenêtre glissante, un descripteur relatif à la troisième pyramide d’images et un descripteur relatif à la quatrième pyramide d’images ;
la deuxième portion d’image de ladite première zone et/ou de ladite deuxième zone peut correspondre à une zone recouvrant au moins en partie la zone de recouvrement et le procédé comporte alors en outre une étape de fusion des données issues des étapes de classification ;
le procédé peut comporter une étape préliminaire de correction des images capturées par chacune des caméras de ladite pluralité de caméras ;
la correction diffère avantageusement selon que la portion d’image à corriger correspond à une première portion d’image ou à une deuxième portion d’image ;
si ladite pluralité de caméras embarquées sur ledit véhicule automobile est apte à capturer en outre des images sur une troisième zone et une quatrième zone, les première, deuxième, troisième et quatrième zones entourant le véhicule sur 360° et se chevauchant deux à deux de façon à définir à leurs intersections quatre zones de recouvrement, les différentes étapes du procédé selon l’une quelconque des revendications précédentes sont en outre appliquées pour chaque couple d’images sur ladite première zone et ladite troisième zone avec leur zone de recouvrement associée, pour chaque couple d’images sur ladite troisième zone et ladite quatrième zone avec leur zone de recouvrement associée, et pour chaque couple d’images sur ladite quatrième zone et ladite deuxième zone avec leur zone de recouvrement associée ;
la première zone, la deuxième zone, la troisième zone et la quatrième zone correspondent respectivement à une zone avant du véhicule, une zone latérale gauche, une zone latérale droite et une zone arrière.
L’invention a également pour objet un système de détection d’obstacles dans l’environnement d’un véhicule automobile, à partir d’images capturées par une pluralité de caméras embarquées sur ledit véhicule automobile de manière à capturer des images sur au moins une première zone et une deuxième zone, les première et deuxième zones se chevauchant partiellement de façon à définir à leur intersection une zone de recouvrement, ledit système appliquant un algorithme de détection d’obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère une pluralité de descripteurs d’images par le balayage au moins partiel de chaque image capturée par une fenêtre glissante, puis on effectue une classification des descripteurs d’images en vue de déterminer des candidats possibles représentatifs d’une présence potentielle d’obstacles, ledit système comportant un module configuré pour implémenter, pour chaque couple d’images capturées simultanément sur ladite première zone et ladite deuxième zone, les étapes suivantes :
- on génère un ensemble de couples de descripteurs d’images sur des premières portions d’images issues du couple d’images, lesdites premières portions d’images correspondant à la zone de recouvrement, et on applique la classification sur une combinaison des descripteurs d’images d’un même couple ; et
- on génère un deuxième et troisième ensembles de descripteurs d’images sur des deuxièmes portions d’images issues de chacune des images du couple d’images, lesdites deuxième portions d’images correspondant à une zone excluant au moins en partie la zone de recouvrement, et on applique la classification sur chaque descripteur d’images généré.
L'invention sera mieux comprise à la lecture de la description qui suit, faite en référence aux figures annexées, dans lesquelles :
- la figure 1 illustre un exemple d’architecture d’un système embarqué sur un véhicule implémentant un procédé de détection d’obstacles présents dans l’environnement sur 360° autour du véhicule conforme à l’invention ;
- la figure 2 illustre un procédé de traitement mettant en oeuvre la détection d’obstacles à partir d’images selon l’invention.
En référence à la figure 1, un exemple de système de détection conforme à l’invention utilise les images capturées par une pluralité de caméras embarquées sur un véhicule automobile 1 de manière à couvrir l’environnement sur 360° autour du véhicule automobile et capturer des images sur une zone avant Zfr, une zone latérale gauche Zle, une zone arrière Zre et une zone latérale droite Zri, les zones se chevauchant deux à deux de façon à définir à leurs intersections quatre zones de recouvrement, à savoir :
-une zone de recouvrement Ai entre la zone avant Zfr et la zone latérale gauche Zle ;
-une zone de recouvrement A2 entre la zone latérale gauche Zle et la zone arrière Zre ;
-une zone de recouvrement A3 entre la zone arrière Zre et la zone latérale droite Zri ; et
- une zone de recouvrement A4 entre la zone latérale droite Zri et la zone avant Zfr.
Dans un mode préférentiel de réalisation, on utilise quatre caméras de type « fisheye », avec un angle d’observation supérieur à 180°, afin de limiter le nombre d’équipements embarqués sur le véhicule. Néanmoins, les principes de l’invention qui vont être exposés dans la suite sont valables quel que soit le nombre de caméras utilisées, à partir du moment où la zone d’observation globale autour du véhicule 1 comprend au moins une première zone et une deuxième zone, les première et deuxième zones se chevauchant partiellement de façon à définir à leur intersection une zone de recouvrement.
Plus précisément, le système de la figure 1 comprend par exemple une caméra frontale 2Fr capturant des images de la zone avant ZFr, une caméra latérale 2le à gauche du véhicule 1 capturant des images de la zone latérale gauche Zle, une caméra arrière 2re capturant des images de la zone arrière Zre et une caméra latérale 2ri à droite du véhicule 1, capturant les images de la zone latérale droite Zri. Les images capturées sont fournies pour traitement à un module 3 de détection d’obstacles embarqué dans le véhicule automobile 1 qui implémente notamment les étapes du procédé selon l’invention.
Pour faciliter la compréhension de l’invention sans surcharger inutilement les figures, le procédé de détection d’obstacles conforme à l’invention va être à présent explicité en considérant la seule présence des caméras 2Fr et 2le avec leurs zones d’observation associées, en particulier une première zone correspondant ici à la zone avant ZFr et une deuxième zone correspondant ici à la zone latérale gauche Zle, la première et la deuxième zone se chevauchant partiellement de façon à définir à leur intersection la zone de recouvrement Ai.
Le principe qui va être à présent décrit est ainsi reproductible pour chaque paire de zones présentant une zone de recouvrement.
Comme cela a été explicité ci-avant, il est connu de détecter des obstacles par un traitement des images capturées, et plus précisément par l’application d’un algorithme de détection d’obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère une pluralité de descripteurs d’images par le balayage au moins partiel de chaque image capturée par une fenêtre glissante, puis on effectue une classification des descripteurs d’images en vue de déterminer des candidats possibles représentatifs d’une présence potentielle d’obstacles.
Dans les systèmes connus, l’algorithme précédent est appliqué de façon indépendante pour chaque caméra utilisée.
Ici, l’invention propose de tirer avantage de l’existence d’une zone de recouvrement At entre la première zone Zfr et la deuxième zone Zle et donc, de la redondance de l’information relative à la présence ou l’absence d’un obstacle présente dans deux images capturées simultanément sur la première zone Zfr et la deuxième zone Zle, pour améliorer encore les performances de la classification.
L’invention propose pour ce faire de traiter de façon différente la classification selon que les descripteurs d’images en entrée du classifieur d’obstacles ont été générés à partir d’une portion d’une image capturée correspondant ou non à la zone de recouvrement Ai.
Plus précisément, pour chaque couple d’images capturées simultanément sur ladite première zone Zfr et ladite deuxième zone Zle :
- on génère un ensemble de couples de descripteurs d’images sur des premières portions d’images issues du couple d’images, lesdites premières portions d’images correspondant à la zone de recouvrement, et on applique la classification sur une combinaison des descripteurs d’images d’un même couple ; et
- on génère un deuxième et troisième ensembles de descripteurs d’images sur des deuxièmes portions d’images issues de chacune des images du couple d’images, lesdites deuxième portions d’images correspondant à une zone excluant au moins en partie la zone de recouvrement, et on applique la classification sur chaque descripteur d’images généré.
Le principe proposé par la présente invention repose sur le fait qu’à partir des informations de calibration des caméras utilisées, en particulier la position et l’orientation de chaque caméra sur le véhicule, ainsi que ses paramètres optiques intrinsèques (focale, centre de projection, champ de vision...), on sait reconstruire en trois dimensions et en deux dimensions les zones de recouvrement et les zones de non recouvrement. En d’autres termes, pour chaque image d’un couple d’images capturées simultanément sur la première zone Zfr et la deuxième zone Zle, on sait identifier d’une part, la portion d’image correspondant à la zone de recouvrement Ai, et d’autre part, la portion d’image correspondant à une zone indépendante, c’est-à-dire excluant au moins en partie la zone de recouvrement Ai. La figure 1 illustre par exemple deux zones indépendantes Z’fr et Z’le, chacune excluant en partie la zone de recouvrement Ai.
Une explication plus détaillée des différences dans le traitement des descripteurs va à présent être donnée en référence à la figure 2 qui illustre un procédé de traitement des images comportant notamment les différents traitements effectués pour le calcul et la classification des descripteurs d’images :
Sur la figure 2, les parties représentées à gauche de la ligne L correspondent à des étapes de pré-calcul et mémorisation dans le système embarqué de différents paramètres et tables caractérisant le système, ces étapes pouvant être réalisées avant même que le système de détection n’équipe effectivement le véhicule automobile, alors que les parties à droite de la ligne L illustrent un exemple de traitement in situ de couples d’images capturées simultanément par les caméras avant 2fr et latérale gauche 2le, chaque couple comprenant une image relative à la première zone (zone Zfr ici) et une image relative à la deuxième zone (zone Zle ici).
L’étape 10 de la figure 2 regroupe les calculs de reconstruction de la zone de recouvrement Ai et des zones indépendantes Z’fr et Z’le et leur mémorisation. Comme cela a été indiqué précédemment, ces zones peuvent être identifiées par calcul géométrique à partir des informations de calibration des caméras utilisées, en particulier la position et l’orientation de chaque caméra sur le véhicule, ainsi que ses paramètres optiques intrinsèques (focale, centre de projection, champ de vision...). Dans la suite, on assimile:
- la zone de recouvrement Ai à la portion d’image provenant de la première zone Zfr ou de la deuxième zone Zle et correspondant uniquement à la zone de recouvrement Ai ;
- la zone Z’fr à la portion d’image provenant de la caméra 2Fr et correspondant uniquement à la zone Z’Fr;
- la zone Z’le à la portion d’image provenant de la caméra 2le et correspondant uniquement à la zone Z’le·
Autrement dit, les paramètres mémorisés à l’étape 10 permettront d’identifier, dans chaque image capturée, la portion d’image en fonction de sa correspondance avec la zone de recouvrement ou la zone indépendante.
L’étape 20 de la figure 2 regroupe quant à elle les calculs de tables de correction TdjSt et leur mémorisation pour utilisation ultérieure dans le traitement des images. La correction consiste à appliquer une transformation à chaque pixel d’une image capturée par une caméra en fonction des paramètres de distorsions optiques à la fois intrinsèques à la caméra et liés à sa position et orientation sur le véhicule. Une table de correction est ainsi définie et mémorisée au moins pour chacune des caméras. Dans une variante avantageuse de l’invention, des tables de correction distinctes sont établies selon que la portion d’image à corriger correspond à une zone de recouvrement ou à une zone indépendante. Cela est notamment très avantageux dans le cas de l’utilisation de caméras de type « fisheye » qui ont tendance à déformer beaucoup plus l’image à ses extrémités latérales qu’au centre.
L’étape 30 regroupe enfin l’établissement et la mémorisation d’une table de correspondance Tcorr dont la signification et le rôle seront explicités plus en détail ci-après, dont on peut au moins dire à ce stade qu’elle consiste à apparier de façon biunivoque chaque pixel issu d’un traitement d’une portion d’image de la première zone dans la zone de recouvrement Ai à un pixel issu d’un traitement d’une portion d’image de la deuxième zone dans la zone de recouvrement Ai.
Pour les explications des étapes du procédé de traitement in situ situées à droite de la ligne L sur la figure 2, les conventions de notation suivantes seront adoptées :
- ImpR et Imle correspondent au couple d’images de la première zone Zfr et de la deuxième zone Zle, capturées simultanément par les caméras 2fr et 2 le ;
- Ihifr/ai est une première portion de l’image I m fr correspondant à la zone de recouvrement Ai ;
- Imle/ai est une première portion de l’image I m le correspondant à la zone de recouvrement Ai ;
- Iitifr/z’fr est une deuxième portion de l’image ImpR correspondant à la zone indépendante Z’fr;
- Imle/ζεε est une deuxième portion de l’image Iîtile correspondant à la zone indépendante Z’le-
Lorsqu’un couple d’images (lmFR ; lmLE) est capturé par les caméras, une première étape 40 consiste à corriger les images reçues et à identifier d’une part, les premières portions Ihifr/ai et Ihile/ai d’images, et d’autre part, les deuxièmes portions lmFR/z’FR et Ihile/zte- L’identification des portions d’images s’effectue en utilisant les paramètres établis et mémorisés à l’étape 10. La correction utilise les tables de corrections TdiSt établies et mémorisées à l’étape 20. Comme cela a été indiqué précédemment, la correction peut avantageusement être différente selon que l’on se situe au niveau de la première portion d’image ou de la deuxième portion d’image.
Un traitement d’images indépendant (étape 50) est alors appliqué à chacune des deuxièmes portions IrriFR/z’FR et Ihile/zte d’images, alors qu’un traitement d’image spécifique (étape 60) est réservé au couple de premières portions Ihifr/ai et I m le/ai d’images.
L’étape 50 appliquée à la deuxième portion IrriFR/z’FR de l’image lmFR comprend essentiellement à la génération d’un ensemble de descripteurs sur chacun desquels une classification va pouvoir être opérée.
De même, l’étape 50 appliquée à la deuxième portion Ihile/zte de l’image I m le comprend essentiellement la génération d’un ensemble de descripteurs sur chacun desquels une classification va pouvoir être opérée.
De manière différente, l’étape 60 comprend essentiellement la génération d’un couple de descripteurs correspondant au couple Ihifr/ai et Ιγπ[_ε/αι en vue d’une combinaison des descripteurs de ce couple avant ou pendant la classification.
S’agissant de l’étape 60, on commence par générer (étape 61) une paire de pyramides d’images, la paire comportant :
- d’une part, une première pyramide Pt d’images générée à partir de la première portion I m fr/ai d’image de la première zone Zfr, la première pyramide Pt d’images correspondant à au moins une région d’intérêt dans la première portion I m fr/ai d’image de ladite première zone Zfr, et chaque image (ou étage) de la première pyramide Pt d’images correspondant à une échelle différente de la première portion Ihifr/ai d’image de ladite première zone Zfr, et
- d’autre part, de façon similaire, une deuxième pyramide P2 d’images générée à partir de la première portion Ihile/ai d’image de la deuxième zone Zle, la deuxième pyramide P2 d’images correspondant à au moins une région d’intérêt dans la première portion Ihile/ai d’image de ladite deuxième zone Zle, chaque image (ou étage) de la deuxième pyramide P2 d’images correspondant à une échelle différente de la première portion Ihile/ai d’image de ladite deuxième zone Zle-
Οπ utilise ensuite la table de correspondance Tcorr établie et mémorisée à l’étape 30 pour effectuer un balayage (étape 62) par la fenêtre glissante W de l’ensemble des images de la première pyramide Pt d’images et de la deuxième pyramide P2 d’images en fonction de la table de correspondance (Tcorr)
Il convient de revenir à ce stade à la table de correspondance TcorrAppliquée aux pyramides Pi et P2, cette table permet d’apparier de façon biunivoque chaque pixel d’une image à une première échelle de la première pyramide Pt à un pixel correspondant d’une image à une deuxième échelle de la deuxième pyramide P2. La table Tcorr est cependant établie au préalable, sans connaissance a priori des pyramides ΡΊ et P2, celles-ci n’étant générées que lors du traitement in situ. La table de correspondance doit donc, à partir des informations de calibration des caméras 2fr, 2le et des tables de correction, de différentes régions d’intérêt dans la zone de recouvrement Ai, et d’une liste d’échelles susceptibles d’être utilisées dans la génération des pyramides Pi et P2, permettre de relier la position d’un pixel pris dans n’importe quelle image à une échelle donnée à la position d’un pixel pris dans une autre image à une autre échelle.
Aussi, à l’étape 30 de la figure 2, la notation suivante {x,y, E} RK->{x,y, E} P2 dans laquelle x,y est la position d’un pixel dans une pyramide P1 ou P2 et E correspond à l’échelle (donc à l’étage) dans la pyramide, a été utilisée par simplification et l’on doit comprendre que la table de correspondance s’étend à plusieurs couples possibles de deux pyramides.
L’étape 62 permet de générer, pour chaque position de la fenêtre glissante W, un couple de descripteurs d’images comprenant un premier descripteur relatif à la première pyramide Pt d’images et un deuxième descripteur relatif à la deuxième pyramide P2 d’images. Ce couple de descripteurs est ensuite combiné (étape 63) aux fins de la classification (étape 64). La combinaison a été présentée sur la figure 2 comme étant préalable à la classification. Néanmoins, en variante, le classifieur pourra effectuer cette combinaison. La combinaison peut être une simple concaténation, ou plus généralement toute combinaison linéaire ou non.
En sortie de l’étape 64 de classification, on obtient des candidats possibles représentatifs d’une présence potentielle d’obstacles. A supposer qu’un obstacle soit effectivement présent dans la zone de recouvrement, ce dernier est présent dans chacune des deux premières portions d’images ImpR/Ai et ImLE/Ai, et le fait d’avoir combiné les descripteurs du couple permet de renforcer la confiance associée à la détection.
L’étape 50 appliquée à chacune des deuxièmes portions (ImpR/z’FR I rn le/zle) d’images est un algorithme classique comprenant :
- la génération (étape 51) d’une troisième pyramide P3 d’images (respectivement quatrième pyramide P4 d’images) à partir de la deuxième portion ImpR/z’FR (respectivement Ιπίζε/ζέε) d’image de la première zone Zfr (respectivement Zle)· Ainsi, la troisième pyramide P3 d’images correspond à au moins une région d’intérêt dans la deuxième portion ImpR/z’FR d’image de la première zone Zfr, et chaque image de la troisième pyramide P3 d’images correspond à une échelle différente de la deuxième portion ImpR/z’FR d’image de ladite première zone Zfr. De même, la quatrième pyramide P4 d’images correspond à au moins une région d’intérêt dans la deuxième portion ImpR/zLE d’image de la deuxième zone Zle, et chaque image de la quatrième pyramide P4 d’images correspond à une échelle différente de la deuxième portion
Imfr/z’le d’image de ladite deuxième zone Zle; et
- le balayage (étape 52) par la fenêtre glissante W de l’ensemble des images de la troisième pyramide P3 d’images et de la quatrième pyramide P4 d’images pour générer respectivement, pour chaque position de la fenêtre glissante, un descripteur relatif à la troisième pyramide P3 d’images et un descripteur relatif à la quatrième pyramide P4 d’images. Il convient de noter que la fenêtre glissante utilisée dans l’étape 52 n’est pas forcément la même que celle utilisée dans l’étape 62.
Chaque descripteur obtenu est ensuite classifié de façon indépendante (étape 53 de classification).
En sortie de chaque étape 53 de classification, on obtient des candidats possibles représentatifs d’une présence potentielle d’obstacles dans chacune des zones indépendantes.
Dans un mode de réalisation préféré qui correspond à celui représenté sur la figure 1, les zones indépendantes Z’fr et Z’le n’excluent pas totalement la zone de recouvrement A-ι, ceci de manière à garantir la détection d’un obstacle qui se trouverait juste à cheval entre la première zone Zfr et la deuxième zone Zle- Dans ce cas, un tel obstacle serait visible, au moins en partie, dans chacune des premières portions d’images Ihifr/ai θί Ihile/ai, et dans chacune des deuxièmes portions d’images IrriFR/z’FR et Ihile/zte· Les résultats des différentes étapes 53 et 64 de classification sont alors fusionnés (étape 70 de fusion).
Dans tous les cas, les différents candidats représentatifs de la présence potentielle d’un obstacle, en d’autres termes les différentes boîtes 5 englobantes issues des traitements précédents, vont subir un traitement ultime (étape 80) permettant d’estimer la distance à laquelle se situe l’obstacle détecté par rapport au véhicule.
Dans le cas préféré du système représenté sur la figure 1, permettant de réaliser une détection dans un environnement sur 360° autour du véhicule automobile 1, on rappelle que le principe qui a été décrit est reproductible pour chaque paire de zones présentant une zone de recouvrement. Il suffit pour cela de remplacer les données de la première ligne du tableau ci-dessous par les données de n’importe laquelle des trois autres lignes :
Première zone Deuxième zone Zone de recouvrement Première portion d’image première zone Première portion d’image deuxième zone
Z FR Z LE Ai I m FR/A1 I m LE/A1
Z LE LU CC N a2 I m LE/A2 I m RE/A2
LU CC N Z R| a3 I m RE/A3 I m RI/A3
Z R| Z FR a4 I m ri/A4 I m FR/A4

Claims (10)

  1. REVENDICATIONS
    1. Procédé de détection d’obstacles dans l’environnement d’un véhicule automobile, à partir d’images capturées par une pluralité de caméras (2fr, 2left) embarquées sur ledit véhicule automobile de manière à capturer des images sur au moins une première zone (Zfr) et une deuxième zone (Zle), les première et deuxième zones se chevauchant partiellement de façon à définir à leur intersection une zone de recouvrement (A-ι), le procédé comportant l’application d’un algorithme de détection d’obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère une pluralité de descripteurs d’images par le balayage au moins partiel de chaque image capturée par une fenêtre glissante (W), puis on effectue une classification des descripteurs d’images en vue de déterminer des candidats possibles représentatifs d’une présence potentielle d’obstacles, procédé dans lequel, pour chaque couple d’images capturées simultanément sur ladite première zone (Zfr) et ladite deuxième zone (Zle) :
    - on génère (30, 61, 62) un ensemble de couples de descripteurs d’images sur des premières portions (Ihifr/ai, Ihile/ai) d’images issues du couple d’images, lesdites premières portions (Ihifr/ai, I m le/ai ) d’images correspondant à la zone de recouvrement (A-ι), et on applique la classification (64) sur une combinaison des descripteurs d’images d’un même couple ; et
    - on génère (51, 52) un deuxième et troisième ensembles de descripteurs d’images sur des deuxièmes portions (IrriFR/z’FR, Ihile/z’le) d’images issues de chacune des images du couple d’images, lesdites deuxième portions d’images correspondant à une zone (Z’fr, Z’le) excluant au moins en partie la zone de recouvrement (A-ι), et on applique (53) la classification sur chaque descripteur d’images généré.
  2. 2. Procédé selon la revendication 1, caractérisé en ce que la génération dudit ensemble de couples de descripteurs d’images comporte les sousétapes suivantes :
    - la génération (61) d’une paire de pyramides d’images, la paire comportant d’une part, une première pyramide (PJ d’images générée à partir de la première portion (Ihifr/ai) d’image de ladite première zone (Zfr), ladite première pyramide (ΡΊ) d’images correspondant à au moins une région d’intérêt dans la première portion d’image de ladite première zone (Zfr), et chaque image de la première pyramide (PJ d’images correspondant à une échelle différente de la première portion d’image de ladite première zone (Zfr), et d’autre part, une deuxième pyramide (P2) d’images générée à partir de la première portion (Ihile/ai) d’image de ladite deuxième zone (Zle), ladite deuxième pyramide (P2) d’images correspondant à au moins une région d’intérêt dans la première portion d’image de ladite deuxième zone (Zle), chaque image de la deuxième pyramide (P2) d’images correspondant à une échelle différente de la première portion d’image de ladite deuxième zone (Zle) ; et
    - le balayage (62) par ladite fenêtre glissante (W) de l’ensemble des images de la première pyramide (PJ d’images et de la deuxième pyramide (P2) d’images en fonction d’une table de correspondance (Tœrr) permettant d’apparier de façon biunivoque chaque pixel d’une image à une première échelle de la première pyramide (PJ à un pixel correspondant d’une image à une deuxième échelle de la deuxième pyramide (P2), pour générer, pour chaque position de la fenêtre glissante, un couple de descripteurs d’images comprenant un premier descripteur relatif à la première pyramide (PJ d’images et un deuxième descripteur relatif à la deuxième pyramide (P2) d’images.
  3. 3. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que la génération du deuxième et troisième ensembles de descripteurs d’images comporte les sous-étapes suivantes :
    - la génération (51) d’une troisième pyramide (P3) d’images à partir de la deuxième portion (ImpR/z’FR) d’image de ladite première zone (Zfr), ladite troisième pyramide (P3) d’images correspondant à au moins une région d’intérêt dans la deuxième portion (ImpR/z’FR) d’image de ladite première zone (Zfr), et chaque image de la troisième pyramide (P3) d’images correspondant à une échelle différente de la deuxième portion ( I m fr/z’fr) d’image de ladite première zone (Zfr);
    - la génération (51) d’une quatrième pyramide (P4) d’images à partir de la deuxième portion (ImpR/z’LE) d’image de ladite deuxième zone (Zle), ladite quatrième pyramide (P4) d’images correspondant à au moins une région d’intérêt dans la deuxième portion ( I m fr/zle) d’image de ladite deuxième zone (Zle), et chaque image de la quatrième pyramide (P4) d’images correspondant à une échelle différente de la deuxième portion (Im fr/zle) d’image de ladite deuxième zone (Zle); et
    - le balayage (52) par ladite fenêtre glissante (W) de l’ensemble des images de la troisième pyramide (P3) d’images et de la quatrième pyramide (P4) d’images pour générer respectivement, pour chaque position de la fenêtre glissante, un descripteur relatif à la troisième pyramide (P3) d’images et un descripteur relatif à la quatrième pyramide (P4) d’images.
  4. 4. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que la deuxième portion ( I m fr/zfr, ImFR/Z’LE) d’image de ladite première zone (Zfr) et/ou de ladite deuxième zone (Zle) correspond à une zone (Z’fr, Z’le) recouvrant au moins en partie la zone de recouvrement (A1), et en ce que le procédé comporte en outre une étape (70) de fusion des données issues des étapes (53, 64) de classification.
  5. 5. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il comporte une étape (40) préliminaire de correction des images capturées par chacune des caméras de ladite pluralité de caméras (2fr, 2left)·
  6. 6. Procédé selon la revendication 5, caractérisé en ce que la correction diffère selon que la portion d’image à corriger correspond à une première portion d’image ou à une deuxième portion d’image.
  7. 7. Procédé selon l’une quelconque des revendications précédentes, dans lequel ladite pluralité de caméras (2ri, 2re) embarquées sur ledit véhicule automobile est apte à capturer en outre des images sur une troisième zone (Zri) et une quatrième zone (Zle), les première, deuxième, troisième et quatrième zones entourant le véhicule sur 360° et se chevauchant deux à deux de façon à définir à leurs intersections quatre zones de recouvrement (A-ι, A2, A3, A4), caractérisé en ce que les différentes étapes du procédé selon l’une quelconque des revendications précédentes sont en outre appliquées pour chaque couple d’images sur ladite première zone (Zfr) et ladite troisième zone (Zri) avec leur zone de recouvrement associée (A3), pour chaque couple d’images sur ladite troisième zone (Zri) et ladite quatrième zone (Zre) avec leur zone de recouvrement associée (A4), et pour chaque couple d’images sur ladite quatrième zone (Zre) et ladite deuxième zone (Zle) avec leur zone de recouvrement associée (A2).
  8. 8. Procédé selon la revendication 7, caractérisé en ce que la première zone, la deuxième zone, la troisième zone et la quatrième zone correspondent respectivement à une zone avant du véhicule, une zone latérale gauche, une zone latérale droite et une zone arrière.
  9. 9. Système de détection d’obstacles dans l’environnement d’un véhicule automobile, à partir d’images capturées par une pluralité de caméras (2fr, 2left) embarquées sur ledit véhicule automobile de manière à capturer des images sur au moins une première zone (Zfr) et une deuxième zone (Zle), les première et deuxième zones se chevauchant partiellement de façon à définir à leur intersection une zone de recouvrement (A-ι), ledit système appliquant un algorithme de détection d’obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère une pluralité de descripteurs d’images par le balayage au moins partiel de chaque image capturée par une fenêtre glissante (W), puis on effectue une classification des descripteurs d’images en vue de déterminer des candidats possibles représentatifs d’une présence potentielle d’obstacles, ledit système comportant un module (3) configuré pour implémenter, pour chaque couple d’images capturées simultanément sur ladite première zone (Zfr) et ladite deuxième zone (Zle), les étapes suivantes :
    - on génère (30, 61, 62) un ensemble de couples de descripteurs d’images sur des premières portions (ImpR/Ai, I m le/a-i ) d’images issues du couple d’images, lesdites premières portions (Ihifr/ai, I m le/ai ) d’images correspondant à la zone de recouvrement (A-ι), et on applique la classification (64) sur une combinaison des descripteurs d’images d’un même couple ; et
    - on génère (51, 52) un deuxième et troisième ensembles de descripteurs d’images sur des deuxièmes portions (IrriFR/z’FR, I rn le/zle) d’images issues de chacune des images du couple d’images, lesdites deuxième portions d’images correspondant à une zone (Z’fr, Z’le) excluant au moins en partie la zone de recouvrement (A-ι), et on applique (53) la classification sur chaque descripteur d’images généré.
  10. 10. Système selon la revendication 9, caractérisé en ce chaque couple d’images est capturé par une paire de caméras de type « fisheye ».
    1/2
    Η
    Fl G.1
    2/ 2
    Fl G.2
FR1750617A 2017-01-25 2017-01-25 Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images Active FR3062224B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1750617A FR3062224B1 (fr) 2017-01-25 2017-01-25 Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1750617A FR3062224B1 (fr) 2017-01-25 2017-01-25 Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
FR1750617 2017-01-25

Publications (2)

Publication Number Publication Date
FR3062224A1 true FR3062224A1 (fr) 2018-07-27
FR3062224B1 FR3062224B1 (fr) 2020-08-28

Family

ID=58401876

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1750617A Active FR3062224B1 (fr) 2017-01-25 2017-01-25 Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images

Country Status (1)

Country Link
FR (1) FR3062224B1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1760489A1 (fr) * 2005-08-31 2007-03-07 CLARION Co., Ltd. Détecteur d'obstacle pour véhicule
EP3029602A1 (fr) * 2014-12-04 2016-06-08 Conti Temic microelectronic GmbH Procédé et appareil de détection d'un espace d'entraînement libre
EP3085074A1 (fr) * 2013-12-19 2016-10-26 Intel Corporation Système de formation d'images circulaires

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1760489A1 (fr) * 2005-08-31 2007-03-07 CLARION Co., Ltd. Détecteur d'obstacle pour véhicule
EP3085074A1 (fr) * 2013-12-19 2016-10-26 Intel Corporation Système de formation d'images circulaires
EP3029602A1 (fr) * 2014-12-04 2016-06-08 Conti Temic microelectronic GmbH Procédé et appareil de détection d'un espace d'entraînement libre

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SANG-IL OH ET AL: "Object Detection and Classification by Decision-Level Fusion for Intelligent Vehicle Systems", SENSORS, vol. 17, no. 1, 22 January 2017 (2017-01-22), pages 1 - 21, XP055407201, DOI: 10.3390/s17010207 *

Also Published As

Publication number Publication date
FR3062224B1 (fr) 2020-08-28

Similar Documents

Publication Publication Date Title
EP2275971B1 (fr) Procédé de détection d'un obstacle pour véhicule automobile
EP3332352B1 (fr) Dispositif et procede de detection de place de stationnement libre pour un vehicule automobile
EP2275970A1 (fr) Procédé de détection d'un obstacle pour véhicule automobile
WO2018138064A1 (fr) Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
FR2981185A1 (fr) Procede d'etalonnage d'un systeme de vision par ordinateur embarque sur un mobile
FR3025898A1 (fr) Procede et systeme de localisation et de cartographie
CA3000153A1 (fr) Procede d'analyse d'un document structure susceptible d'etre deforme
FR2974218A1 (fr) Analyse de l'image numerique de la surface d'un pneumatique - traitement des points de non mesure
EP2593907A1 (fr) Procédé de détection d'une cible dans des images stéréoscopiques par apprentissage et classification statistique à partir d'une loi de probabilité
EP3614306A1 (fr) Procédé de localisation et d'identification de visage et de détermination de pose, à partir d'une vue tridimensionnelle
EP2432660B1 (fr) Procede et dispositif pour etendre une zone de visibilite
WO2011124719A1 (fr) Procede de detection de cibles dans des images stereoscopiques
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
FR3054673B1 (fr) Fusion de donnees de detection et de suivi d'objets pour vehicule automobile
FR3062224A1 (fr) Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
FR3083352A1 (fr) Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere
WO2017005930A1 (fr) Détection d'objets par traitement d'images
FR2950451A1 (fr) Algorithme de detection des points de contour dans une image
FR3067144A1 (fr) Procede de determination du type de route sur laquelle evolue un vehicule
FR2926908A1 (fr) Assistance a la conduite d'un vehicule automobile par une vue de dessus
FR3080702A1 (fr) Estimation de la distance separant un vehicule automobile d'objets detectes par traitement d'images capturees depuis le vehicule automobile
FR3074595A1 (fr) Procede d’identification d’une cible au moyen d’une camera embarquee haute resolution
FR3053293A1 (fr) Systeme d'aide a la conduite pour un vehicule, vehicule ferroviaire et procede d'utilisation associes
EP2769360B1 (fr) Procédé de localisation d'objets par résolution dans l'espace tridimensionnel de la scène
WO2017216465A1 (fr) Procédé et dispositif de traitement d'images acquises par une caméra d'un véhicule automobile

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180727

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8