FR3062223A1 - Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images - Google Patents

Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images Download PDF

Info

Publication number
FR3062223A1
FR3062223A1 FR1750616A FR1750616A FR3062223A1 FR 3062223 A1 FR3062223 A1 FR 3062223A1 FR 1750616 A FR1750616 A FR 1750616A FR 1750616 A FR1750616 A FR 1750616A FR 3062223 A1 FR3062223 A1 FR 3062223A1
Authority
FR
France
Prior art keywords
image
images
pyramid
camera
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1750616A
Other languages
English (en)
Other versions
FR3062223B1 (fr
Inventor
Achraf Ben-Hamadou
Philippe Lafon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to FR1750616A priority Critical patent/FR3062223B1/fr
Priority to PCT/EP2018/051500 priority patent/WO2018138064A1/fr
Publication of FR3062223A1 publication Critical patent/FR3062223A1/fr
Application granted granted Critical
Publication of FR3062223B1 publication Critical patent/FR3062223B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

L'invention concerne un procédé de détection d'obstacles dans l'environnement d'un véhicule automobile, à partir d'images capturées par une caméra (2FR) embarquée sur ledit véhicule, le procédé comportant l'application d'un algorithme (20) de détection d'obstacles dans lequel on génère (22) une pluralité de descripteurs d'images par le balayage au moins partiel, par une fenêtre glissante (W), d'une pluralité d'images d'une pyramide (P) d'images, chaque image de la pyramide (P) d'images correspondant à une échelle différente d'au moins une zone d'intérêt d'une image (ImFR) capturée, puis on effectue une classification (23) des descripteurs d'images pour déterminer des candidats possibles représentatifs d'une présence potentielle d'obstacles. Le procédé est caractérisé en ce que chaque image de la pyramide (P) est en outre générée (21) à partir de ladite au moins une zone d'intérêt corrigée au moins selon une première transformation homographique (Thom(d1), Thom(d2)...Thom(dn)) fonction de l'échelle de l'image, pour corriger des déformations de perspectives liées au positionnement de la caméra sur ledit véhicule.

Description

Titulaire(s) : VALEO SCHALTER UND SENSOREN GMBH Société par actions simplifiée.
O Demande(s) d’extension :
® Mandataire(s) : VALEO COMFORT AND DRIVING ASSISTANCE.
(54) DETECTION D'OBSTACLES DANS L'ENVIRONNEMENT D'UN VEHICULE AUTOMOBILE PAR TRAITEMENT D'IMAGES.
FR 3 062 223 - A1 (57) L'invention concerne un procédé de détection d'obstacles dans l'environnement d'un véhicule automobile, à partir d'images capturées par une caméra (2FR) embarquée sur ledit véhicule, le procédé comportant l'application d'un algorithme (20) de détection d'obstacles dans lequel on génère (22) une pluralité de descripteurs d'images par le balayage au moins partiel, par une fenêtre glissante (W), d'une pluralité d'images d'une pyramide (P) d'images, chaque image de la pyramide (P) d'images correspondant à une échelle différente d'au moins une zone d'intérêt d'une image (ImFR) capturée, puis on effectue une classification (23) des descripteurs d'images pour déterminer des candidats possibles représentatifs d'une présence potentielle d'obstacles. Le procédé est caractérisé en ce que chaque image de la pyramide (P) est en outre générée (21) à partir de ladite au moins une zone d'intérêt corrigée au moins selon une première transformation homographique (ThOm(di). Thom(cl2)---Thçin(dn)) fonction de l'échelle de l'image, pour corriger des deformations de perspectives liées au positionnement de la caméra sur ledit véhicule.
Figure FR3062223A1_D0001
Figure FR3062223A1_D0002
DETECTION D'OBSTACLES DANS L'ENVIRONNEMENT D'UN VEHICULE AUTOMOBILE PAR TRAITEMENT D'IMAGES
La présente invention concerne de manière générale les véhicules automobiles, et plus précisément un procédé et un système de détection d'obstacles dans l'environnement d'un véhicule automobile, à partir d'images capturées par une caméra embarquée sur ledit véhicule automobile.
La détection d'obstacles dans l'environnement immédiat d'un véhicule automobile à conduite autonome ou équipé de systèmes d'assistance à la conduite (ou ADAS, initiales anglo-saxonnes mises pour Advanced Driver Assistance System) est cruciale pour prévenir des situations dangereuses. Les obstacles peuvent être notamment d'autres véhicules motorisés, statiques ou mobiles, pouvant présenter un danger particulier, ou bien des piétons. On comprend aisément que la détection de ces obstacles, incluant la détermination de leurs positions, voire de leurs vitesses relatives dans le cas de véhicules tiers, doit être non seulement précise mais menée en outre en temps réel pour que les systèmes d'assistance puissent réagir rapidement de façon adaptée.
On connaît déjà de nombreux systèmes réalisant des détections et classifications d'obstacles, tels que des véhicules motorisés ou des piétons, à partir d'images capturées par des caméras, en particulier soit une caméra frontale et une caméra arrière, soit des caméras latérales embarquées sur le véhicule automobile.
Parmi les algorithmes de vision connus permettant de détecter des objets dans des images, on connaît notamment ceux reposant sur la reconnaissance d'objets par apprentissage automatique, telles que les méthodes SVM (initiales anglo-saxonnes mises pour Support Vector machine) ou Adaboost. L'approche utilisée dans la reconnaissance consiste à apprendre puis à retrouver dans l'image, l'allure générale d'un objet déterminé, par exemple un piéton. Pour réaliser par exemple un module de détection de piéton, on utilise des algorithmes de reconnaissance de formes dont le but est de discriminer la forme des piétons par rapport au reste. Concrètement, une première phase consiste à la construction d'une base d'entraînement pour capturer la diversité d'apparence des piétons. La base d'entraînement doit être la plus grande et la plus variée possible pour correspondre au mieux au grand nombre de situations pouvant être rencontrées par le module de détection. Puis, un algorithme d'apprentissage va étudier et dégager des propriétés de cette base pour créer un modèle représentant une frontière permettant la classification piéton/reste. Un classifieur s'appuie ensuite sur ce modèle pour différencier les éléments des deux groupes. Une fois le classifieur construit, la phase de détection consiste à balayer l'image sur des zones de scan qui se recouvrent, puis à comparer leur contenu avec le modèle. Si en un point donné, l'image est suffisamment proche du modèle, alors le module de détection indique la présence d'un piéton.
Les algorithmes mis en œuvre dans une détection de piétons par reconnaissance de formes sont généralement très complexes compte tenu notamment de la très grande diversité entre les personnes (taille, poids, vêtements, postures...). Ces algorithmes de reconnaissance de formes sont souvent basés sur l'utilisation de descripteurs fournis en entrée du classifieur Une méthode classique, connue sous le nom de la méthode de Viola et Jones, consiste à tester la présence d'un piéton dans une fenêtre ou imagette de taille fixe, par exemple de 24 sur 48 pixels, à toutes les positions possibles dans l'image et pour plusieurs échelles de l'image. Le test consiste à générer un vecteur de descripteurs pour chaque position de la fenêtre et à les comparer avec les descripteurs appris sur la base d'entraînement. Plus précisément, pour chaque image capturée par une caméra, on génère une pyramide d'images, chaque étage ou image de la pyramide d'images correspondant à une échelle différente de l'image ou d'au moins une région d'intérêt dans l'image. La méthode consiste typiquement à balayer les images de la pyramide d'images, en déplaçant la fenêtre de taille fixe d'un certain nombre de pixels à la fois. Le classifieur, combiné à la base d'entraînement comportant des échantillons de piétons et des échantillons de fond, va traiter les différents vecteurs de descripteurs obtenus à chaque position de la fenêtre glissante pour identifier les zones correspondant effectivement à un piéton par rapport à un modèle appris. Le résultat est délivré par le classifieur sous forme d'une boîte englobante, généralement de forme rectangulaire, par piéton détecté. Les dimensions et/ou la position verticale de la boîte englobante relative à un piéton détecté sont alors utilisées pour estimer la distance à laquelle se situe le piéton par rapport au véhicule. Une telle méthode est par exemple implémentée par des détecteurs rapides de type Adaboost. Les résultats de la détection rapide sont ensuite généralement affinés et validés par des classifieur plus performants.
L'algorithme précédent, décrit dans le cadre de la détection de piétons, peut également être utilisé dans le cadre de la détection d'autres types d'obstacles tels que des véhicules tiers.
Pour résumer ce qui précède, un procédé classique de traitement d'images ImFR issues d'une caméra est représenté sur la figure 1. Le traitement comporte au préalable une étape 10 de correction d'image pour tenir compte d'une part, des distorsions optiques introduites par la caméra, et d'autre part, des déformations (défauts d'apparence) de l'obstacle à détecter dues à la position et l'orientation de la caméra sur le véhicule. La correction consiste à appliquer une transformation globale à chaque pixel d'une image ImFR capturée par une caméra en fonction des paramètres de distorsions optiques à la fois intrinsèques à la caméra et liés à sa position et orientation sur le véhicule. Une table de correction est ainsi définie et mémorisée pour une caméra donnée. La transformation globale consiste à déterminer un déplacement à deux dimensions de chaque pixel dans l'image, et résulte de la combinaison de deux transformations, une première transformation vouée à la seule correction des distorsions optiques introduites par la caméra, indépendante du positionnement de la caméra sur le véhicule, et une deuxième transformation dite homographique, pour corriger les défauts d'apparence liés au positionnement de la caméra sur le véhicule. Le procédé se poursuit alors en appliquant à l'image corrigée ImFR_Cor un algorithme classique (étape 20) comprenant :
- la génération (étape 21) d'une pyramide P d'images à partir d'au moins une région d'intérêt dans l'image corrigée ImFR_Cor, chaque image de la pyramide P d'images correspond à une échelle différente de la zone d'intérêt;
- le balayage (étape 22) par une fenêtre glissante W de l'ensemble des images de la pyramide P d'images pour générer, pour chaque position de la fenêtre glissante, un descripteur relatif à la pyramide P d'images ; et
- la classification (étape 23) de chaque descripteur obtenu à l'étape 22 pour déterminer des candidats possibles représentatifs d'une présence potentielle d'obstacles.
Un inconvénient lié au procédé de la figure 1 réside essentiellement dans la manière de corriger l'image. En effet, comme indiqué précédemment, une unique transformation globale est appliquée à l'image, combinant la première transformation et la deuxième transformation homographique. Or, la deuxième transformation homographique est déterminée de façon unique pour une distance moyenne entre un obstacle potentiel et la caméra. Il en résulte que la correction effectuée est insatisfaisante pour des obstacles qui se trouveraient à des distances en-deçà ou au-delà de cette distance moyenne, ce qui peut fausser les résultats de détections d'obstacles.
La présente invention a pour but de pallier l'inconvénient précédent.
Pour ce faire, l'invention a pour objet un procédé de détection d'obstacles dans l'environnement d'un véhicule automobile, à partir d'images capturées par une caméra embarquée sur ledit véhicule automobile, le procédé comportant l'application d'un algorithme de détection d'obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère une pluralité de descripteurs d'images par le balayage au moins partiel, par une fenêtre glissante, d'une pluralité d'images d'une pyramide d'images, chaque image de la pyramide d'images correspondant à une échelle différente d'au moins une zone d'intérêt d'une image capturée, puis on effectue une classification des descripteurs d'images en vue de déterminer des candidats possibles représentatifs d'une présence potentielle d'obstacles, le procédé étant caractérisé en ce que chaque image de la pyramide d'images est en outre générée à partir de ladite au moins une zone d'intérêt corrigée au moins selon une première transformation homographique fonction de l'échelle de l'image, pour corriger des déformations de perspectives liées au positionnement de la caméra sur ledit véhicule.
Outre les caractéristiques principales qui viennent d'être mentionnées dans le paragraphe précédent, le procédé selon l'invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes :
- chaque image de la pyramide d'images peut être avantageusement générée à partir de ladite au moins une zone d'intérêt corrigée en outre selon une deuxième transformation apte à supprimer des distorsions optiques intrinsèques à la caméra ;
- la première transformation homographique et la deuxième transformation sont appliquées de préférence simultanément à ladite au moins une zone d'intérêt au moment de la génération de ladite pyramide d'images.
- en variante, la deuxième transformation est appliquée directement sur l'image capturée par la caméra, avant la génération de ladite pyramide d'images.
L'invention a également pour objet un système de détection d'obstacles dans l'environnement d'un véhicule automobile, à partir d'images capturées par une caméra embarquée sur ledit véhicule automobile, ledit système ledit système comportant un module configuré pour implémenter un algorithme de détection d'obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère une pluralité de descripteurs d'images par le balayage au moins partiel, par une fenêtre glissante, d'une pluralité d'images d'une pyramide d'images, chaque image de la pyramide d'images correspondant à une échelle différente d'au moins une zone d'intérêt d'une image capturée, puis on effectue une classification des descripteurs d'images en vue de déterminer des candidats possibles représentatifs d'une présence potentielle d'obstacles, caractérisé en ce que ledit module est en outre apte à générer chaque image de la pyramide d'images à partir de ladite au moins une zone d'intérêt corrigée au moins selon une première transformation homographique fonction de l'échelle de l'image, pour corriger des déformations de perspectives liées au positionnement de la caméra sur ledit véhicule
L’invention sera mieux comprise à la lecture de la description qui suit, faite en référence aux figures annexées, dans lesquelles :
- la figure 1 donne les étapes d'un procédé classique de traitement d'images pour une classification et une détection d'obstacles ;
- la figure 2 illustre un exemple d'architecture d'un système embarqué sur un véhicule implémentant un procédé de détection d'obstacles présents à l'avant d'un véhicule, conforme à l'invention ;
- la figure 3 illustre un procédé de traitement mettant en œuvre la détection d'obstacles à partir d'images selon l'invention.
En référence à la figure 2, un exemple de système de détection conforme à l'invention utilise les images capturées par une caméra 2Fr embarquée sur un véhicule automobile 1. Dans cet exemple, la caméra 2FR est située à l'avant du véhicule 1, de manière à capturer des images sur une zone avant ZFr. L'invention est applicable bien entendu pour d'autres positions et zones d'observation de caméra.
Dans un mode préférentiel de réalisation, on utilise une caméra de type « fisheye », avec un angle d'observation supérieur à 180°. Néanmoins, les principes de l'invention qui vont être exposés dans la suite sont valables quel que soit le type de caméra utilisée.
Les images ImFR capturées par la caméra 2FR sont fournies pour traitement à un module 3 de détection d'obstacles embarqué dans le véhicule automobile 1 qui implémente notamment les étapes du procédé selon l'invention.
Comme cela a été explicité ci-avant, il est connu de détecter des obstacles par un traitement des images capturées, et plus précisément par l'application d'un algorithme de détection d'obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère, à partir d'une pyramide d'images, une pluralité de descripteurs d'images par le balayage au moins partiel de chaque image capturée par une fenêtre glissante, puis on effectue une classification des descripteurs d'images en vue de déterminer des candidats possibles représentatifs d'une présence potentielle d'obstacles.
Dans les systèmes connus, une correction de chaque image est en outre effectuée au préalable pour tenir compte des distorsions optiques introduites par la caméra ainsi que de la déformation de perspective liée au positionnement, en particulier à l'orientation, de la caméra sur le véhicule, en appliquant une unique transformation globale combinant une première transformation et une deuxième transformation homographique, cette dernière étant déterminée de façon unique pour une distance moyenne entre un obstacle potentiel et la caméra.
Ici, l'invention propose de tirer profit du fait la pyramide P d'images générée aux fins de classification d'objets comprend n étages, chaque étage i (i étant un entier variant de 1 à n) correspondant à une échelle prédéterminée Ei de l'image capturée ImFR (ou d'au moins une région d'intérêt dans cette image), échelle qui peut à son tour être mise en correspondance avec une distance d, par rapport à la caméra 2Fr.
L'invention propose en conséquence de déterminer au préalable, pour chaque échelle possible Ej, et par suite pour chaque distance d, associée, une transformation homographique spécifique qui permette ainsi de corriger très précisément les déformations de perspective dues au positionnement de la caméra 2 sur le véhicule 1. Comme représenté schématiquement sur la figure 2, pour une caméra avant 2fr ayant une portée maximum DMAx, on va identifier n distances notées di à dn (dn pouvant être confondu avec DMax), et calculer à l'avance la transformation homographique ThOm(di), ThOm(d2), Thom(dn) qu'il faut appliquer pour corriger les défauts de perspective à chacune de ces distances.
La figure 3 illustre, sous forme de synoptique simplifié, différentes étapes susceptibles d'être mises en œuvre dans un procédé de détection d'obstacle conforme à l'invention.
Sur la figure 3, les parties représentées à gauche de la ligne L correspondent à des étapes de pré-calcul et mémorisation dans le système 3 embarqué de différents paramètres et tables caractérisant le système, ces étapes pouvant être réalisées avant même que le système de détection n'équipe effectivement le véhicule automobile, alors que les parties à droite de la ligne L illustrent un exemple de traitement in situ d'images ImFR capturées par la caméra avant 2FR.
L'étape 10 de la figure 3 regroupe le calcul d'au moins une table de correction Topt et sa mémorisation pour utilisation ultérieure dans le traitement des images. Cette table de correction Topt correspond à la première transformation, c'est-à-dire celle vouée à la seule correction des distorsions optiques propres aux paramètres optiques intrinsèques (focale, centre de projection, champ de vision...). Chaque valeur de cette table de correction Topt correspond au déplacement à deux dimensions qu'il convient d'appliquer à chaque pixel défini par ses coordonnées {x,y} dans une image pour obtenir de nouvelles coordonnées {xCor_opt,Ycor_opt} représentatives de la correction effectuée.
L'étape 15 de la figure 3 regroupe quant à elle l'établissement et la mémorisation de n tables de correction Thom(di), Thom(d2), ...ThOm(dn), correspondant aux transformations homographiques qu'il convient d'appliquer pour chaque distance di à dn pour corriger les défauts de perspective liés exclusivement à la position et à l'orientation de la caméra sur le véhicule. Comme on l'a vu précédemment, chaque distance d, correspond à une échelle E, de la pyramide d'images P. Ainsi :
- chaque valeur de la table de correction ThOm(di) correspond au déplacement à deux dimensions qu'il convient d'appliquer à chaque pixel défini par ses coordonnées {x,y} dans une image prise à l'échelle Ei pour obtenir de nouvelles coordonnées {xCor_hom,ycor_hom} représentatives de la correction effectuée ;
- chaque valeur de la table de correction ThOm(d2) correspond au déplacement à deux dimensions qu'il convient d'appliquer à chaque pixel défini par ses coordonnées {x,y} dans une image prise à l'échelle E2 pour obtenir de nouvelles coordonnées {xCor_hom,ycor_hom} représentatives de la correction effectuée, et ainsi de suite jusqu'à la table de correction ThOm(dn).
Comme illustré par les étapes situées à droite de la ligne L sur la figure 3, correspondant au traitement in situ des images Iftifr capturées par la caméra 2FR, on procède aux différentes étapes 21 à 23 déjà décrites en référence à la figure 1, dans le cadre de l'application d'un algorithme 20 de détection d'obstacles par reconnaissance de formes et apprentissage automatique. Cependant, à la différence des solutions déjà connues, on utilise ici les tables de correction Thom(di), ThOm(d2)---Thom(dn) pré établies à l'étape 15 pour générer, lors de l'étape 21, chaque image (étage) de la pyramide P d'image. En d'autres termes, chaque image de la pyramide P est directement générée avec une correction au moins selon la première transformation homographique (ThOm(di), ThOm(d2)---Thom(dn)) fonction de l'échelle de l'image, pour corriger des déformations de perspectives liées au positionnement de la caméra sur ledit véhicule. Dans l'exemple de la figure 3, on combine également, de façon simultanée, la correction liée aux distorsions optiques, en utilisant la table Topt pré établie à l'étape 10.
Il convient de noter que la correction des distorsions optiques pourrait éventuellement être omise, dans le cas notamment où la caméra utilisée introduit de faibles distorsions optiques.
En variante, il n'est pas nécessaire d'effectuer la correction des distorsions optiques de manière simultanée avec la correction de perspectives. On pourrait notamment appliquer dans un premier temps la table Topt directement sur l'image Iftifr délivrée par la caméra 2fr.
Le fait de combiner les deux corrections au moment de la génération de la pyramide P d'images est néanmoins avantageux en termes de coûts de calcul. En effet, la pyramide d'images est souvent générée à partir de régions d'intérêt à l'intérieur d'une image de sorte que les calculs nécessaires peuvent se limiter à la taille de ces régions d'intérêt.
En sortie de l'étape 23 de classification, on obtient des candidats possibles représentatifs d'une présence potentielle d'obstacles dans chacune des zones indépendantes, sous forme d'une boite englobante par candidat possible, chaque boîte englobante subissant un traitement ultime (étape 30) permettant d'estimer la distance à laquelle se situe l'obstacle détecté par rapport au véhicule.

Claims (6)

  1. REVENDICATIONS
    1. Procédé de détection d'obstacles dans l'environnement d'un véhicule automobile (1), à partir d'images capturées par une caméra (2FR) embarquée sur ledit véhicule automobile (1), le procédé comportant l'application d'un algorithme (20) de détection d'obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère (22) une pluralité de descripteurs d'images par le balayage au moins partiel, par une fenêtre glissante (W), d'une pluralité d'images d'une pyramide (P) d'images, chaque image de la pyramide (P) d'images correspondant à une échelle différente d'au moins une zone d'intérêt d'une image (ImFR) capturée, puis on effectue une classification (23) des descripteurs d'images en vue de déterminer des candidats possibles représentatifs d'une présence potentielle d'obstacles, le procédé étant caractérisé en ce que chaque image de la pyramide (P) d'images est en outre générée (21) à partir de ladite au moins une zone d'intérêt corrigée au moins selon une première transformation homographique (ThOm(di), ThOm(d2)---Thom(dn)) fonction de l'échelle de l'image, pour corriger des déformations de perspectives liées au positionnement de la caméra sur ledit véhicule.
  2. 2. Procédé selon l'une quelconque des revendications précédentes, caractérisé en ce que chaque image de la pyramide (P) d'images est générée (21) à partir de ladite au moins une zone d'intérêt corrigée en outre selon une deuxième transformation (Topt) apte à supprimer des distorsions optiques intrinsèques à la caméra (2FR).
  3. 3. Procédé selon la revendication 2, caractérisé en ce que la première transformation homographique (ThOm(di), ThOm(d2)---Thom(dn)) et la deuxième transformation (2FR) sont appliquées simultanément à ladite au moins une zone d'intérêt au moment de la génération de ladite pyramide (P) d'images.
  4. 4. Procédé selon la revendication 2, caractérisé en ce que la deuxième transformation (Topt) est appliquée directement sur l'image (Iftifr) capturée par la caméra (2fr), avant la génération de ladite pyramide d'images.
  5. 5. Système de détection d'obstacles dans l'environnement d'un véhicule automobile (1), à partir d'images capturées par une caméra (2Fr) embarquée sur ledit véhicule automobile (1), ledit système ledit système comportant un module (3) configuré pour implémenter un algorithme (20) de détection d'obstacles par reconnaissance de formes et apprentissage automatique dans lequel on génère (22) une pluralité de descripteurs d'images par le balayage au moins partiel, par une fenêtre glissante (W), d'une pluralité d'images d'une pyramide (P) d'images, chaque image de la pyramide (P) d'images correspondant à une échelle différente d'au moins une zone d'intérêt d'une image (IMfr) capturée, puis on effectue une classification (23) des descripteurs d'images en vue de déterminer des candidats possibles représentatifs d'une présence potentielle d'obstacles, caractérisé en ce que ledit module (3) est en outre apte à générer chaque image de la pyramide (P) d'images à partir de ladite au moins une zone d'intérêt corrigée au moins selon une première transformation homographique (ThOm(di), Thom(d2)---Thom(dn)) fonction de l'échelle de l'image, pour corriger des déformations de perspectives liées au positionnement de la caméra sur ledit véhicule.
  6. 6. Système selon la revendication 5, caractérisé en ce les images sont capturées par une caméra de type « fisheye ».
    1/2
FR1750616A 2017-01-25 2017-01-25 Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images Active FR3062223B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1750616A FR3062223B1 (fr) 2017-01-25 2017-01-25 Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
PCT/EP2018/051500 WO2018138064A1 (fr) 2017-01-25 2018-01-23 Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1750616 2017-01-25
FR1750616A FR3062223B1 (fr) 2017-01-25 2017-01-25 Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images

Publications (2)

Publication Number Publication Date
FR3062223A1 true FR3062223A1 (fr) 2018-07-27
FR3062223B1 FR3062223B1 (fr) 2019-04-19

Family

ID=58401875

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1750616A Active FR3062223B1 (fr) 2017-01-25 2017-01-25 Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images

Country Status (2)

Country Link
FR (1) FR3062223B1 (fr)
WO (1) WO2018138064A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3100641A1 (fr) 2019-09-11 2021-03-12 Psa Automobiles Sa Détermination d’informations d’environnement en temps réel et à régression sélective, pour un système

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797657A (zh) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 车辆周边障碍检测方法、装置、存储介质及电子设备
EP3722991B1 (fr) * 2019-04-10 2024-05-29 Axis AB Procédé, système et dispositif pour détecter un objet dans une image déformée
WO2022217520A1 (fr) * 2021-04-14 2022-10-20 深圳市大疆创新科技有限公司 Procédé et appareil de détection, plate-forme mobile et support de stockage

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2275971A1 (fr) * 2009-07-06 2011-01-19 Valeo Vision Procédé de détection d'un obstacle pour véhicule automobile
FR3014229A1 (fr) * 2013-12-02 2015-06-05 Commissariat Energie Atomique Reconnaissance de formes par correction d'image
EP2924607A2 (fr) * 2014-03-24 2015-09-30 Toshiba Alpine Automotive Technology Corporation Appareil et procédé de traitement d'images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2275971A1 (fr) * 2009-07-06 2011-01-19 Valeo Vision Procédé de détection d'un obstacle pour véhicule automobile
FR3014229A1 (fr) * 2013-12-02 2015-06-05 Commissariat Energie Atomique Reconnaissance de formes par correction d'image
EP2924607A2 (fr) * 2014-03-24 2015-09-30 Toshiba Alpine Automotive Technology Corporation Appareil et procédé de traitement d'images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHRISTIAN WIEDEMANN ET AL: "Recognition and Tracking of 3D Objects", 10 June 2008, PATTERN RECOGNITION; [LECTURE NOTES IN COMPUTER SCIENCE], SPRINGER BERLIN HEIDELBERG, BERLIN, HEIDELBERG, PAGE(S) 132 - 141, ISBN: 978-3-540-69320-8, XP019090357 *
JIYOUNG JUNG ET AL: "Image Warping for View-invariant Object Matching using Stereo Cameras", &#XB300;&#XD55C;&#XC804;&#XC790;&#XACF5;&#XD559;&#XD68C; &#XAE30;&#XD0C0; &#XAC04;&#XD589;&#XBB3C;, February 2010 (2010-02-01), pages 165 - 168, XP055405554, Retrieved from the Internet <URL:https://joonyoung-cv.github.io/assets/paper/10_fcv_image_warping.pdf> [retrieved on 20170907] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3100641A1 (fr) 2019-09-11 2021-03-12 Psa Automobiles Sa Détermination d’informations d’environnement en temps réel et à régression sélective, pour un système

Also Published As

Publication number Publication date
FR3062223B1 (fr) 2019-04-19
WO2018138064A1 (fr) 2018-08-02

Similar Documents

Publication Publication Date Title
EP2275971B1 (fr) Procédé de détection d&#39;un obstacle pour véhicule automobile
WO2018138064A1 (fr) Detection d&#39;obstacles dans l&#39;environnement d&#39;un vehicule automobile par traitement d&#39;images
EP1431907B1 (fr) Evaluation de la netteté d&#39;une image d&#39;iris d&#39;oeil
US12002269B2 (en) Vehicle feature acquisition method and device
JP6540009B2 (ja) 画像処理装置、画像処理方法、プログラム、画像処理システム
FR2914761A1 (fr) Dispositif pour reconnaitre un objet sur une image
US8055016B2 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
FR2931006A1 (fr) Systeme et procede pour la reconnaissance visuelle
US20120162429A1 (en) Image Processing Method for a Driver Assistance System of a Motor Vehicle for Detecting and Classifying at Least one Portion of at Least one Predefined Image Element
EP2275970A1 (fr) Procédé de détection d&#39;un obstacle pour véhicule automobile
EP3392830B1 (fr) Dispositif de traitement d&#39;images, dispositif de reconnaissance d&#39;objets, système de commande d&#39;appareil, procédé de traitement d&#39;images et programme
Pertuz et al. Reliability measure for shape-from-focus
FR3085219A1 (fr) Appareil de detection d&#39;objet en mouvement et procede de detection d&#39;objet en mouvement
FR2905188A1 (fr) Procede et dispositif de conversion de densites d&#39;image
FR3019924A1 (fr) Procede de detection de points d&#39;interet dans une image numerique
JP6466038B1 (ja) 画像処理装置および画像処理方法
KR101080375B1 (ko) 객체 학습 방법, 객체 학습 방법을 이용한 객체 추적 방법, 객체 학습 및 추적 시스템
JP2010262576A (ja) 対象物検出装置及びプログラム
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d&#39;objets sur des images d&#39;une scene
FR3083352A1 (fr) Procede et dispositif de detection rapide de structures repetitives dans l&#39;image d&#39;une scene routiere
WO2017005930A1 (fr) Détection d&#39;objets par traitement d&#39;images
JP2006318061A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
FR2950451A1 (fr) Algorithme de detection des points de contour dans une image
CN112634298B (zh) 图像处理方法及装置、存储介质、终端
EP1431906B1 (fr) Détermination d&#39;un indice de netteté d&#39;une image numérique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180727

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8