FR3080702A1 - Estimation de la distance separant un vehicule automobile d'objets detectes par traitement d'images capturees depuis le vehicule automobile - Google Patents

Estimation de la distance separant un vehicule automobile d'objets detectes par traitement d'images capturees depuis le vehicule automobile Download PDF

Info

Publication number
FR3080702A1
FR3080702A1 FR1853623A FR1853623A FR3080702A1 FR 3080702 A1 FR3080702 A1 FR 3080702A1 FR 1853623 A FR1853623 A FR 1853623A FR 1853623 A FR1853623 A FR 1853623A FR 3080702 A1 FR3080702 A1 FR 3080702A1
Authority
FR
France
Prior art keywords
detected
vectors
motor vehicle
objects
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1853623A
Other languages
English (en)
Inventor
Camillo Vejarano
Ashley Chacon-Alam
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to FR1853623A priority Critical patent/FR3080702A1/fr
Publication of FR3080702A1 publication Critical patent/FR3080702A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

L'invention concerne un procédé d'estimation de la distance séparant un véhicule automobile d'objets détectés dans le voisinage du véhicule automobile, dans lequel : On génère (S3, S4) une première, respectivement deuxième, liste (ListFR, ListLE), de candidats représentatifs d'une présence potentielle d'objets d'au moins un type par traitement d'une première image (ImFR) capturée sur une première zone par une première caméra embarquée sur le véhicule, respectivement d'une deuxième image (ImLE) capturée (S3) simultanément à la première image sur une deuxième zone par une deuxième caméra embarquée, la première et la deuxième zones se chevauchant partiellement de façon à définir à leur intersection une zone de recouvrement; On détecte (S5, S6) une sous-partie caractéristique des objets pour chaque candidat de la première, respectivement de la deuxième, liste (ListFR, ListLE), situé au moins dans la zone de recouvrement, et on détermine une liste de premiers, respectivement seconds, vecteurs tridimensionnels, un vecteur tridimensionnel étant un vecteur directeur d'une droite reliant les caméras à chaque sous-partie détectée; On cherche à associer (S7) chaque sous-partie caractéristique détectée avec une paire de vecteurs directeurs composée d'une sélection d'un premier vecteur et d'un second vecteur; et on estime (S8, S9) la distance séparant le véhicule de chaque sous-partie associée à une paire de vecteurs directeurs à partir de la paire de vecteurs directeurs associée.

Description

ESTI ΜΑΤΙ ON DE LA DI STANCE SEPARANT UN VEHI CULE AUTOMOBI LE D’OBJETS DETECTES PAR TRAI TEMENT DΊ MAGES CAPTUREES DEPUI S LE VEHI CULE AUTOMOBI LE
La présente invention concerne de manière générale les véhicules automobiles, et plus précisément un procédé et un système permettant d’estimer la distance séparant un véhicule automobile d’objets détectés dans le voisinage du véhicule automobile, à partir d’un traitement d’images capturées par une pluralité de caméras embarquées sur ledit véhicule automobile.
La détection d’objets dans l’environnement immédiat d’un véhicule automobile à conduite autonome ou équipé de systèmes d’assistance à la conduite (ou ADAS, initiales anglo-saxonnes mises pour Advanced Driver Assistance System) est cruciale pour prévenir des situations dangereuses. Les objets peuvent être des obstacles, notamment d’autres véhicules motorisés, statiques ou mobiles, pouvant présenter un danger particulier, ou bien des piétons. On comprend aisément que la détection de ces obstacles, incluant la détermination de leurs positions, voire de leurs vitesses relatives dans le cas de véhicules tiers, doit être non seulement précise mais menée en outre en temps réel pour que les systèmes d’assistance puissent réagir rapidement de façon adaptée. Les objets peuvent être également relatifs à des informations relatives à la route empruntée, par exemple des panneaux de signalisation, des feux tricolores et/ou des lignes de marquage au sol. Ici encore, il est important de pouvoir déterminer en temps réel et avec précision la distance séparant l’objet détecté du véhicule automobile de manière à pouvoir anticiper les réactions du véhicule.
Tout système de détection utilisé pour l’assistance à la conduite ou pour les véhicule à conduite autonome comporte classiquement au moins un capteur apte à détecter des objets dans l’environnement du véhicule, typiquement à l’avant, à l’arrière ou sur un côté du véhicule dans une zone d’observation donnée, ainsi qu’un module de traitement associé à ce capteur. Le module de traitement est apte à délivrer au moins une information relative à chaque objet détecté, typiquement la position (coordonnées cartésiennes ou coordonnées polaires) de cet objet par rapport au véhicule. Certains modules de traitement permettent en outre, à partir de traitements d’images capturées par une caméra, une classification de l’objet détecté, par exemple pour identifier la présence d’un piéton, ou de véhicules susceptibles de présenter un danger. Dans la suite, on appelle « détecteur d’objets » l’ensemble formé par un capteur d’une technologie donnée et de son module de traitement associé.
Différentes technologies de capteurs (caméra, radar, lidar, capteur laser, capteur à ultrasons) peuvent être utilisées en fonction des besoins.
Les détecteurs d’objets précités présentent néanmoins l’inconvénient d’être peu précis dans certains types de mesures, ou encore non adaptés à la détection de certains types d’objets. Ainsi, un système de détection utilisant un radar ou un lidar sera en général précis pour l’estimation de la distance séparant le véhicule de l’objet détecté, mais ne peut être utilisé pour la détection de panneaux de signalisation, de feux tricolores et/ou de lignes de marquage au sol.
Le traitement d’images capturées par au moins une caméra est préféré car il permet de détecter des objets de types très variés. En revanche, un système de détection utilisant le traitement d’images capturées par une seule caméra permet des mesures moins précises en distance que d’autres capteurs comme le Lidar ou Radar. De plus, dans un système de détection par classification d’objets utilisant plusieurs caméras, la détection est opérée indépendamment pour chaque caméra. En particulier, une méthodologie souvent employée pour l’estimation de la distance séparant un objet détecté du véhicule repose sur l’assomption du monde comme surface plane (z=0), et utilise les paramètres intrinsèques (distance focale, taille de pixels) et extrinsèques (angle de visée par rapport à l’horizontale) de la caméra pour estimer la distance à un objet à partir de la position verticale d’une boîte englobante représentative de l’objet détecté, issue du détecteur d’objets. La distance ainsi que la taille des objets détectés par une caméra sont estimées dans le monde réel avec une erreur qui dépend de la position de la caméra sur le véhicule, de la qualité de sa calibration et de la résolution des images.
Il est donc important de pouvoir trouver des solutions qui vont dans le sens de l’amélioration de la précision dans l’estimation de la distance séparant le véhicule automobile d’un objet détecté par traitement d’images. La présente invention a pour but de proposer une de ces solutions.
Pour ce faire, l’invention a pour objet un procédé d’estimation de la distance séparant un véhicule automobile d’objets détectés dans le voisinage du véhicule automobile, comportant les étapes suivantes :
-génération d’une première liste de candidats représentatifs d’une présence potentielle d’objets d’au moins un type par traitement d’une première image capturée sur une première zone au moyen d’une première caméra embarquée sur ledit véhicule automobile;
-génération d’une deuxième liste de candidats représentatifs d’une présence potentielle d’objets dudit au moins un type par traitement d’une deuxième image capturée simultanément à la première image sur une deuxième zone au moyen d’une deuxième caméra embarquée sur ledit véhicule automobile, la première zone et la deuxième zone se chevauchant partiellement de façon à définir à leur intersection une zone de recouvrement;
-détection d’au moins une sous-partie caractéristique des objets dudit au moins un type par traitement de la première image pour chaque candidat de la première liste situé au moins dans la zone de recouvrement, et détermination d’une liste de premiers vecteurs tridimensionnels, chaque premier vecteur tridimensionnel étant un vecteur directeur d’une droite reliant une position de la première caméra à chaque sous-partie détectée;
-détection de ladite au moins une sous-partie caractéristique des objets dudit au moins un type par traitement de la deuxième image pour chaque candidat de la deuxième liste situé au moins dans la zone de recouvrement, et détermination d’une liste de seconds vecteurs tridimensionnels, chaque second vecteur tridimensionnel étant un vecteur directeur d’une droite reliant une position de la deuxième caméra à chaque sous-partie détectée;
- recherche d’association entre chaque sous-partie caractéristique détectée et une paire de vecteurs directeurs composée d’une sélection d’un desdits premiers vecteurs tridimensionnels et d’un desdits seconds vecteurs tridimensionnels; et
-estimation de la distance séparant le véhicule automobile de chaque sous-partie caractéristique détectée qui a été associée à une paire de vecteurs directeurs à partir de la paire de vecteurs directeurs associée.
Outre les caractéristiques principales qui viennent d'être mentionnées dans le paragraphe précédent, le procédé selon l'invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes :
- la recherche d’association peut comporter, pour toutes les paires possibles de vecteurs directeurs, une étape de calcul de la distance entre les deux droites associées aux vecteurs directeurs de la paire, et une étape de détermination de la position 3D d’un point de concours ou d’un point le plus proche entre les deux droites associées aux vecteurs directeurs de la paire ;
-une paire de vecteurs directeurs est par exemple sélectionnée pour association avec une sous-partie caractéristique détectée, si la distance calculée entre les droites associées est minimale voire nulle ;
- l’estimation de la distance séparant le véhicule automobile de chaque sous-partie caractéristique détectée qui a été associée à une paire de vecteurs directeurs peut comprendre le calcul de la distance séparant un point origine d’un repère tridimensionnel associé au véhicule automobile dudit point de concours ou du point le plus proche entre les deux droites correspondant à la paire de vecteurs directeurs associée ;
- les étapes de détection sont de préférence effectuées pour chaque candidat de la première liste et de la deuxième liste, y compris les candidats détectés en dehors de la zone de recouvrement ;
-si les objets sont de type véhicules tiers, les sous-parties caractéristiques des objets comportent par exemple un rétroviseur et/ou une roue et/ou un dispositif lumineux et/ou une plaque d’immatriculation ;
- pour des objets de type piétons, les sous-parties caractéristiques des objets sont par exemple les pieds des piétons.
L’invention a également pour objet un système d’estimation de la distance séparant un véhicule automobile d’objets détectés dans le voisinage du véhicule automobile, comportant un module de traitement configuré pour implémenter les étapes du procédé précédent.
L'invention sera mieux comprise à la lecture de la description qui suit, faite en référence aux figures annexées, dans lesquelles :
- la figure 1 illustre un exemple d’architecture d’un système embarqué sur un véhicule implémentant un procédé de détection d’objets présents dans l’environnement sur 360° autour du véhicule et apte à implémenter un procédé d’estimation de la distance séparant le véhicule d’un objet détecté conforme à l’invention ;
- la figure 2 illustre un procédé d’estimation selon un mode de réalisation possible de l’invention ;
- la figure 3 montre sous forme simplifiée un module de traitement apte à implémenter des étapes du procédé d’estimation ;
- les figures 4 et 5 illustrent les principes de l’invention sur un exemple de configuration routière vue de dessus.
En référence à la figure 1, un exemple d’architecture d’un système conforme à l’invention utilise les images capturées par une pluralité de caméras embarquées sur un véhicule automobile 1 de manière à couvrir l’environnement sur 360° autour du véhicule automobile 1 et capturer simultanément des images sur une zone avant Zfr, une zone latérale gauche Zle, une zone arrière Zre et une zone latérale droite Zri, les zones se chevauchant deux à deux de façon à définir à leurs intersections quatre zones de recouvrement, à savoir :
-une zone de recouvrement A-ι entre la zone avant Zfr et la zone latérale gauche Zle ;
- une zone de recouvrement A2 entre la zone latérale gauche Zleet la zone arrière Zre ;
- une zone de recouvrement A3 entre la zone arrière Zre et la zone latérale droite Zri ; et
- une zone de recouvrement A4 entre la zone latérale droite Zri et la zone avant Zfr.
Dans un mode préférentiel de réalisation, on utilise quatre caméras de type « fisheye », avec un angle d’observation supérieur à 60°, voire sensiblement égal à 190°, afin de limiter le nombre d’équipements embarqués sur le véhicule. Néanmoins, les principes de l’invention qui vont être exposés dans la suite sont valables quel que soit le nombre de caméras utilisées, à partir du moment où la zone d’observation globale autour du véhicule 1 comprend au moins une première zone et une deuxième zone, les première et deuxième zones se chevauchant partiellement de façon à définir à leur intersection une zone de recouvrement.
Plus précisément, le système de la figure 1 comprend par exemple une caméra frontale 2fr capturant des images de la zone avant Zfr, une caméra latérale 2le à gauche du véhicule 1 capturant des images de la zone latérale gauche Zle, une caméra arrière 2re capturant des images de la zone arrière Zre et une caméra latérale 2ri à droite du véhicule 1, capturant les images de la zone latérale droite Zri. Les images capturées sont fournies pour traitement à un module 3 de traitement embarqué dans le véhicule automobile 1 qui implémente notamment les étapes du procédé selon l’invention.
Pour faciliter la compréhension de l’invention sans surcharger inutilement les figures, le procédé de traitement conforme à l’invention va être à présent explicité en considérant la seule présence des caméras 2fr et 2le avec leurs zones d’observation associées, en particulier une première zone correspondant ici à la zone avant Zfr et une deuxième zone correspondant ici à la zone latérale gauche Zle, la première et la deuxième zone se chevauchant partiellement de façon à définir à leur intersection la zone de recouvrement A-,.
Le principe qui va être à présent décrit est ainsi reproductible pour chaque paire de zones présentant une zone de recouvrement.
Un procédé d’estimation de la distance séparant le véhicule automobile 1 d’objets détectés par le traitement d’images capturées par les caméras 2fr et 2le va à présent être explicité en référence aux figures 2 à 4.
Sur la figure 2, lors d’une étape Si, une première image IrriFRest capturée sur la zone avant Zfr au moyen de la caméra frontale 2fr. Une deuxième image lmi_E est quant à elle capturée simultanément sur la zone latérale gauche Zle au moyen de la caméra latérale 2le (étape S2). Ces images Imfr et Imle sont fournies à deux détecteurs d’objets, respectivement 30fr et 30le, appartenant au module 3 de traitement (voir figure 3). On suppose dans la suite, pour simplifier, que les détecteurs d’objets 30fr et 30le sont configurés pour détecter des véhicules tiers, par exemple les véhicule tiers 4 et 5 (figure 4) roulant dans le même sens que le véhicule 1, et le véhicule tiers 6 (figure 4) roulant en sens inverse, les deux véhicules tiers 4 et 6 étant choisis ici comme étant situés dans la zone de recouvrement Ai (et donc susceptibles d’être détectés à partir des images capturées par chacune des deux caméras 2fr et 2le) alors que le véhicule tiers 5 ne peut être vu que par la caméra frontale 2fr.
Chacun des détecteurs d’objets 30fr et 30le va pouvoir classiquement, à partir des images qu’il reçoit, générer une liste de candidats représentatifs d’une présence potentielle d’objets (véhicules tiers). Ainsi, le détecteur d’objets 30fr génère, lors d’une étape S3, une première liste Lîsîfr de candidats à partir du traitement de la première image Iihfr, et le détecteur d’objets 30le génère, lors d’une étape S4, une deuxième liste LisIle de candidats à partir du traitement de la deuxième image Ιπίεε·
Dans la situation représentée schématiquement sur les figures 4 et 5 à titre d’exemple non limitatif, la première liste Lîsîfr comprend trois candidats possibles, associé respectivement aux trois véhicules tiers 4, 5 et 6, alors que la deuxième liste Lîsîle comprend deux candidats possibles, l’un associé au véhicule tiers 4, l’autre associé au véhicule tiers 6.
La détection d’objets proprement dite au niveau des étapes S3 et S4 peut être effectuée par toute méthodologie connue de traitement d’image, par exemple par reconnaissance d’objets par apprentissage automatique (méthodes type SVM (Support Vector Machine), Adaboost, ou des Réseaux de Neurones Artificiels), ou une méthode dite de vision par ordinateur (algorithmes de flux ou flot optique), ou encore par traitement des pixels des images. Les étapes suivantes de traitement qui vont à présent être détaillées sont par exemple implémentées par le module spécifique de traitement 31 de la figure 3.
A l’issue des étapes de détection d’objets, le procédé prévoit avantageusement d’affiner les résultats de détection en procédant, sur les objets détectés issus des détecteurs d’objets 30fr et 30le, à une détection d’au moins une sous-partie caractéristique des objets détectés. Ainsi, dans le cas purement illustratif où les détecteurs d’objets ont été configurés pour la détection de véhicules tiers, une sous-partie caractéristique peut être une roue de véhicule, une plaque d’immatriculation, un rétroviseur extérieur, ou encore un dispositif lumineux tel qu’un projecteur ou un feu de signalisation de véhicule. Dans le cas où les objets à détecter sont des piétons, on pourrait envisager de détecter les pieds comme sous-parties caractéristiques d’un piéton. Si les objets à détecter sont des feux de signalisation, par exemple des feux tricolores, une sous-partie caractéristique peut correspondre à l’une des trois couleurs du feu. Les détections des sous-parties caractéristiques sont illustrées aux étapes S5 et Se de la figure 2. Ainsi, l’étape S5 comprend la détection d’au moins une sous-partie caractéristique pour chaque candidat contenu dans la première liste ListFR. De façon analogue, l’étape Se comprend la détection de ladite au moins une sous-partie caractéristique pour chaque candidat contenu dans la deuxième liste List[_EEn variante, on peut limiter la détection des sous-parties caractéristiques aux seuls candidats de chacune des listes Lîsîfr et l_ist[_E qui sont situés dans la zone de recouvrement A-,. Cette limitation est rendue possible du fait, qu’à partir des informations de calibration des caméras utilisées, en particulier la position et l’orientation de chaque caméra sur le véhicule 1, ainsi que ses paramètres optiques intrinsèques (focale, centre de projection, champ de vision...), on sait reconstruire en trois dimensions et en deux dimensions les zones de recouvrement et les zones de non recouvrement. En d’autres termes, pour chaque image d’un couple d’images capturées simultanément sur la première zone Zfr et la deuxième zone Zle, on sait identifier d’une part, la portion d’image correspondant à la zone de recouvrement Ai, et d’autre part, la portion d’image correspondant à une zone indépendante, c’est-à-dire excluant au moins en partie la zone de recouvrement Ai.
Chaque étape S5 et Se de la figure 2 comprend en outre la détermination, pour chaque sous-partie détectée, d’un vecteur tridimensionnel correspondant au vecteur directeur d’une droite reliant virtuellement la position de la caméra concernée à chaque sous-partie détectée. La détermination de ces vecteurs directeurs tridimensionnels est là encore rendue possible par la connaissance des informations de calibration des caméras. Ainsi, à l’issue de l’étape S5, le module de traitement spécifique 31 de la figure 3 dispose d’une liste { V^fr} de I premiers vecteurs tridimensionnels (i étant un entier variant de 1 à I), chaque premier vecteur tridimensionnel étant un vecteur directeur d’une première droite reliant une position de la première caméra 2fr à chaque sous-partie détectée sur la première image IrriFR. De même, à l’issue de l’étape Se, le module de traitement spécifique 31 de la figure 3 dispose d’une liste { Vj.le} de J seconds vecteurs tridimensionnels (j étant un entier variant de 1 à J), chaque second vecteur tridimensionnel étant un vecteur directeur d’une seconde droite reliant une position de la deuxième caméra 2le à chaque sous-partie détectée sur la deuxième image I m lePar exemple, dans la situation présentée sur la figure 4, le point h est représentatif d’une roue du véhicule 4 et le point I2 est représentatif d’une roue sur le véhicule 6, chaque roue étant détectée au niveau de chaque étape S5 et Se- Le point I3 est quant à lui représentatif d’une roue située sur le véhicule 5, et donc vue uniquement par la caméra frontale 2fr.
Le module de traitement spécifique 31 dispose dans ce cas, à l’issue de l’étape S5 associée à la caméra frontale 2fr d’une liste comprenant au moins deux vecteurs tridimensionnels directeurs représentés en trait plein sur la figure 4, à savoir:
- un vecteur directeur V-|,fr de la droite reliant fictivement la caméra 2fr au point h représentatif de la roue détectée sur le véhicule 4 ;
- un vecteur directeur V2,fr de la droite reliant fictivement la caméra 2fr au point l2 représentatif de la roue détectée sur le véhicule 6.
On notera que, sur la figure 4, chaque vecteur directeur a été assimilé à sa droite associée.
Si la détection de sous-parties (ici une roue de véhicule) a été réalisée sur l’ensemble des candidats détectés (et pas limitée aux seuls candidats présents dans la zone de recouvrement AJ, alors on dispose également, à l’issue de cette étape S5, du vecteur directeur V3,fr de la droite reliant fictivement la caméra 2fr au point I3 représentatif de la roue détectée sur le véhicule 5.
De façon analogue, le module de traitement spécifique 31 dispose, à l’issue de l’étape Se associée à la caméra latérale gauche 2le, d’une liste comprenant deux vecteurs tridimensionnels directeurs représentés en trait interrompu sur la figure 4, à savoir:
- un vecteur directeur V-|,le de la droite reliant fictivement la caméra 2le au point h représentatif de la roue détectée sur le véhicule 4 ;
- un vecteur directeur V2,le de la droite reliant fictivement la caméra 2le au point l2 représentatif de la roue détectée sur le véhicule 6.
Lors d’une étape suivante S7, le module 31 va rechercher à associer chaque sous-partie caractéristique détectée avec une paire de vecteurs directeurs composée d’une sélection d’un desdits premiers vecteurs tridimensionnels et d’un desdits seconds vecteurs tridimensionnels.
L’étape S7 consiste plus précisément à sélectionner la paire de vecteurs descripteurs composée d’un premier vecteur descripteur issu de l’étape S5 et d’un second vecteur descripteur issu de l’étape Se qui correspond le mieux à chaque sous-partie caractéristique détectée et à associer le cas échéant cette paire de vecteurs descripteurs à la sous-partie détectée. Dans la configuration de la figure 4, on note en effet qu’il existe quatre points d’intersection entre toutes les droites associées aux vecteurs descripteurs des paires (V-i,fr ; V-i,le)> (Vi.fr ! V2,le)> (V2,fr ; V-i,le)> (V2,fr ; V2,le)> à savoir le point h pour la paire (V-rfr ; V-rle) , Ιθ point h pour la paire (V2,fr ; V2,le), Ιθ point I4 pour la paire (V-rfr ; V2,le), et le point I5 pour la paire (V2,fr ; V-rle)· Or, seuls les points h, I2 et I3 correspondent en pratique aux sous-parties effectivement détectées aux étapes S5 et SePour effectuer cette sélection de la meilleure paire de vecteurs descripteurs à associer à une sous-partie, le module de traitement spécifique 31 va, selon un mode de réalisation possible, explorer toutes les paires possibles (VijFR; VbLE) de vecteurs descripteurs, et calculer la distance entre les droites associées aux vecteurs directeurs d’une même paire (étape S7-1 sur la figure 2). Ainsi, dans notre exemple de la figure 4, le module de traitement spécifique 31 va déterminer les distances entre les droites associées aux paires de vecteurs descripteurs (V-rfr; V-rle), (V-rfr; V2,le), (V2,fr ; V-rle), (V2,fr ; V2,le), (Vs,fr ; V-rle) et (Vs,fr ; V2,le), et sélectionner les paires de vecteurs descripteurs pour lesquelles les distances obtenues sont minimales (cas de droites non concourantes), voire nulles (cas de droites concourantes). Pour les cas plus complexes, où il existe une quantité élevée de candidats, une méthode supplémentaire de vérification d’appartenance à un objet peut être utilisée comme deuxième critère en cas de besoin. Cette méthode pourrait prendre en entrée les images des deux caméras concernées, pour calculer ensuite une mesure de similarité entre les deux régions d’intérêt correspondantes aux sous-parties d’objets détectées dans l’image.
Une méthode possible de détermination de la distance minimale séparant deux droites de l’espace 3D est explicitée ci-après :
Un vecteur directeur V^Xy-i, yvi, zvi) qui part du point correspondant à la position de la caméra 1 et qui a pour représentation paramétrique (ti e R):
• x=a1+xvlt1 7=¼-Py^ . Z=C1+Zvlt1
De même, un deuxième vecteur directeur K2 (xV2, Yv2, zV2) qui part du point C2 (a2,b2,c2) correspondant à la position de la caméra 2 et qui a pour représentation paramétrique (t2 eR): x=a2+xv2t2 y=b2+yv2t2 . 2 c2+zv2t2
On commence par rechercher un vecteur normal N aux deux droites, c’est-à-dire tel que :
' N·^ = 0 k NV2 = 0
Les coordonnées (xn, Yn, zn) de ce vecteur normal N peuvent par exemple être déterminées en effectuant le produit vectoriel des vecteurs directeurs V± et 72. On obtient ainsi :
i XN-yvi^v2_yv2^vl
1V = (} X = j y^j ^vl^v2_^v2^vl (zN=xvlyv2-xv2yvl
Le plan formé par la translation de sur N contient le point ~C^ et il est perpendiculaire à ÂÇ :
A/* = ΐζ x /v
De même, le plan formé par la translation de ϊζ sur N contient le point et il est perpendiculaire à Λζ :
= ϊζ x N
Par conséquent, le point d’intersection de ϊζ avec ~N^, qui est aussi le point le plus proche à ï^est donné par :
De même, le point d’intersection sur V2 avec Nr, qui est aussi le point le plus proche à V± est donné par :
P2 - C2 + (Q y2 Nr
La distance minimale (dmin) est définie à partir de Ί\ et comme suit :
d-min = 11P1 ~ P2 11
A l’issue de ce traitement, le module 31 va pouvoir (étape S7-2) :
-associer la roue détectée sur le véhicule 4 à la paire de vecteurs descripteurs (V-i.fr ; V^le) pour laquelle les droites associées concourent au point d’intersection h;
-associer la roue détectée sur le véhicule 6 à la paire de vecteurs descripteurs (V2,fr ; V2,le) pour laquelle les droites associées concourent au point d’intersection l2;
- conclure que la roue détectée sur le véhicule 5 (point I3) ne peut être associée à aucune paire de vecteurs descripteurs.
L’étape suivante Ss consiste à déterminer la position 3D (par exemple les trois coordonnées cartésiennes dans un repère (O, x, y, z) liée véhicule automobile 1) de chaque sous-partie caractéristique détectée aux étapes S5 et Se. Le traitement pour ce faire va être différent selon qu’une paire de vecteurs descripteurs a été associée ou non à la sous-partie caractéristique considérée.
Toutes les sous-parties caractéristiques détectées aux étapes S5 et Se pour lesquelles aucune association n’a été possible sont normalement toutes les sous-parties qui n’étaient visibles qu’à partir d’une caméra. Elles vont être traitées de façon classique (étape Ss-ι). On peut en particulier considérer, lorsque les sous-parties détectées concernées sont des roues de véhicules, que ces sous-parties touchent le sol et fixer par conséquent leur coordonnée selon l’axe z à la valeur nulle. Cette contrainte, associée à la connaissance des informations de calibration de la caméra, va permettre de déterminer la position 3D dans le repère (O, x, y, z). D’autres contraintes peuvent être utilisées, selon le type de sous-caractéristique considérée. Par exemple, on sait qu’une plaque d’immatriculation possède une taille connue car normée. A l’issue de l’étape Ss-1, le module 31 connaît la position 3D du point I3.
Toutes les autres sous-parties pour lesquelles une association avec une paire de vecteurs descripteurs a été possible vont subir un autre traitement (Etape S8-2) qui consiste à assimiler la position 3D de la sous-partie détectée à la position 3D du point d’intersection (cas de droites concourantes) ou la position 3D du point moyen entre les points les plus proches et P^) sur les vecteurs ϊζ et (cas de droites non concourantes) déterminée à partir des vecteurs descripteurs de la paire associée comme indiqué dans l’équation qui suit :
Figure FR3080702A1_D0001
Dans le cas des droites concourantes, les points (P± et P2) sont exactement les mêmes, la dmin est égale zéro et X = P^= .
A l’issue de l’étape Ss-2, le module 31 connaît la position 3D des points I1 et l2.
Le module de traitement spécifique 31 va ainsi pouvoir délivrer (étape S9) une estimation précise des distances D-ι, D2, D3 séparant respectivement les points 11, 12 et I3 du point O origine du repère lié au véhicule automobile 1.
Dans le cas préféré du système représenté sur la figure 1, permettant de réaliser une détection dans un environnement sur 360° autour du véhicule automobile 1, on rappelle que le principe qui a été décrit pour les caméras 2fr et 2le avec la zone de recouvrement Ai est reproductible pour chaque paire de zones présentant une zone de recouvrement.
Des variantes d’implémentation du procédé expliqué ci-avant peuvent être envisagées sans départir du cadre de l’invention :
Ainsi, comme indiqué précédemment, on peut limiter la détection des sous-parties caractéristiques aux seuls candidats de chacune des listes Lîsîfr et l_ist[_E qui sont situés dans la zone de recouvrement Ai.
En outre, l’étape S7 d’association pourrait être limitée aux seules sous5 parties caractéristiques qui ont été détectées dans la zone de recouvrement A1. Dans ce cas, l’étape Ss i représentée sur la figure 2 serait directement implémentée à la suite des étapes S5 et Se, pour les sous-parties détectées hors de la zone de recouvrement A1.

Claims (8)

1. Procédé d’estimation de la distance séparant un véhicule automobile (1) d’objets détectés dans le voisinage du véhicule automobile (1), comportant les étapes suivantes :
-génération (S3) d’une première liste (ListFR) de candidats représentatifs d’une présence potentielle d’objets d’au moins un type par traitement d’une première image (Iitirr) capturée (Si) sur une première zone (Zfr) au moyen d’une première caméra (2fr) embarquée sur ledit véhicule automobile (1);
-génération (S4) d’une deuxième liste (Lisîle) de candidats représentatifs d’une présence potentielle d’objets dudit au moins un type par traitement d’une deuxième image ( I m le) capturée (S3) simultanément à la première image sur une deuxième zone (Zle) au moyen d’une deuxième caméra (2le) embarquée sur ledit véhicule automobile (1), la première zone (Zfr) et la deuxième zone (Zle) se chevauchant partiellement de façon à définir à leur intersection une zone de recouvrement (A-,);
-détection (S5) d’au moins une sous-partie caractéristique des objets dudit au moins un type par traitement de la première image (Iihfr) pour chaque candidat de la première liste (Lîsîfr) situé au moins dans la zone de recouvrement (A-,), et détermination d’une liste de premiers vecteurs tridimensionnels, chaque premier vecteur tridimensionnel étant un vecteur directeur d’une droite reliant une position de la première caméra (2fr) à chaque sous-partie détectée;
-détection (Se) de ladite au moins une sous-partie caractéristique des objets dudit au moins un type par traitement de la deuxième image ( I m le) pour chaque candidat de la deuxième liste (Lîsîle) situé au moins dans la zone de recouvrement (A-,), et détermination d’une liste de seconds vecteurs tridimensionnels, chaque second vecteur tridimensionnel étant un vecteur directeur d’une droite reliant une position de la deuxième caméra (2le) à chaque sous-partie détectée;
- recherche d’association (S7) entre chaque sous-partie caractéristique détectée et une paire de vecteurs directeurs composée d’une sélection d’un desdits premiers vecteurs tridimensionnels et d’un desdits seconds vecteurs tridimensionnels; et
-estimation (Se, S9) de la distance séparant le véhicule automobile (1) de chaque sous-partie caractéristique détectée qui a été associée à une paire de vecteurs directeurs à partir de la paire de vecteurs directeurs associée.
2. Procédé selon la revendication 1, caractérisé en ce que la recherche d’association (S7) comporte, pour toutes les paires possibles de vecteurs directeurs, une étape de calcul de la distance entre les deux droites associées aux vecteurs directeurs de la paire, et une étape de détermination de la position 3D d’un point de concours ou d’un point le plus proche entre les deux droites associées aux vecteurs directeurs de la paire.
3. Procédé selon la revendication 2, caractérisé en ce qu’une paire de vecteurs directeurs est sélectionnée pour association avec une souspartie caractéristique détectée, si la distance calculée entre les droites associées est minimale voire nulle.
4. Procédé selon l’une quelconque des revendications 2 ou 3, caractérisé en ce que l’estimation (Se, S9) de la distance séparant le véhicule automobile (1) de chaque sous-partie caractéristique détectée qui a été associée à une paire de vecteurs directeurs comprend le calcul de la distance séparant un point origine d’un repère tridimensionnel associé au véhicule automobile (1) dudit point de concours ou du point le plus proche entre les deux droites correspondant à la paire de vecteurs directeurs associée.
5. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les étapes (S5, Se) de détection sont effectuées pour chaque candidat de la première liste (Lîsîfr) et de la deuxième liste (Lîsîle), y compris les candidats détectés en dehors de la zone de recouvrement (A1 ).
6. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les objets sont de type véhicules tiers, et en ce
5 que les sous-parties caractéristiques des objets comportent un rétroviseur et/ou une roue et/ou un dispositif lumineux et/ou une plaque d’immatriculation.
7. Procédé selon l’une quelconque des revendications 1 à 5, caractérisé en ce que les objets sont de type piétons, et en ce que les sous-parties
10 caractéristiques des objets sont les pieds des piétons.
8. Système d’estimation de la distance séparant un véhicule automobile (1) d’objets détectés dans le voisinage du véhicule automobile (1), comportant un module (3) de traitement configuré pour implémenter les étapes du procédé selon l’une quelconque des revendications
15 précédentes.
FR1853623A 2018-04-25 2018-04-25 Estimation de la distance separant un vehicule automobile d'objets detectes par traitement d'images capturees depuis le vehicule automobile Pending FR3080702A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1853623A FR3080702A1 (fr) 2018-04-25 2018-04-25 Estimation de la distance separant un vehicule automobile d'objets detectes par traitement d'images capturees depuis le vehicule automobile

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1853623 2018-04-25
FR1853623A FR3080702A1 (fr) 2018-04-25 2018-04-25 Estimation de la distance separant un vehicule automobile d'objets detectes par traitement d'images capturees depuis le vehicule automobile

Publications (1)

Publication Number Publication Date
FR3080702A1 true FR3080702A1 (fr) 2019-11-01

Family

ID=63407330

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1853623A Pending FR3080702A1 (fr) 2018-04-25 2018-04-25 Estimation de la distance separant un vehicule automobile d'objets detectes par traitement d'images capturees depuis le vehicule automobile

Country Status (1)

Country Link
FR (1) FR3080702A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150035973A1 (en) * 2013-08-02 2015-02-05 Connaught Electronics Ltd. Method for determining a current distance and/or a current speed of a target object based on a reference point in a camera image, camera system and motor vehicle
US20150294160A1 (en) * 2014-04-10 2015-10-15 Sadao Takahashi Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus
US20160042237A1 (en) * 2013-04-03 2016-02-11 Toyota Jidosha Kabushiki Kaisha Detection apparatus, detection method, driving assistance apparatus, and driving assistance method
US20170124725A1 (en) * 2015-10-29 2017-05-04 Shinichi SUMIYOSHI Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160042237A1 (en) * 2013-04-03 2016-02-11 Toyota Jidosha Kabushiki Kaisha Detection apparatus, detection method, driving assistance apparatus, and driving assistance method
US20150035973A1 (en) * 2013-08-02 2015-02-05 Connaught Electronics Ltd. Method for determining a current distance and/or a current speed of a target object based on a reference point in a camera image, camera system and motor vehicle
US20150294160A1 (en) * 2014-04-10 2015-10-15 Sadao Takahashi Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus
US20170124725A1 (en) * 2015-10-29 2017-05-04 Shinichi SUMIYOSHI Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium

Similar Documents

Publication Publication Date Title
EP2275971B1 (fr) Procédé de détection d'un obstacle pour véhicule automobile
JP2020064046A (ja) 車両位置決定方法及び車両位置決定装置
FR2871772A1 (fr) Procede d'aide au guidage d'un vehicule automobile sur la base de donnees d'images
Beltrán et al. Towards autonomous driving: a multi-modal 360 perception proposal
Masihullah et al. Attention based coupled framework for road and pothole segmentation
KR20230093471A (ko) 빗물, 빛 번짐 및 먼지가 있는 전방위 카메라 시스템 이미지의 보정
EP2432660B1 (fr) Procede et dispositif pour etendre une zone de visibilite
WO2018138064A1 (fr) Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
FR3027432A1 (fr) Estimation de distance d'un pieton par un systeme d'imagerie embarque sur un vehicule automobile
EP2556467A1 (fr) Procede de detection de cibles dans des images stereoscopiques
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
EP2470971A2 (fr) Procédé et dispositif de guidage d'un véhicule par rapport a une caténaire
FR3080702A1 (fr) Estimation de la distance separant un vehicule automobile d'objets detectes par traitement d'images capturees depuis le vehicule automobile
FR3052581B1 (fr) Procede de realisation d'une carte de profondeurs a partir d'images successives d'une camera unique (mono) embarquee dans un vehicule automobile
FR3083352A1 (fr) Procede et dispositif de detection rapide de structures repetitives dans l'image d'une scene routiere
FR3106108A1 (fr) Procédé et dispositif de détermination de trajectoire d’une route
Beltrán et al. Towards Autonomous Driving: a Multi-Modal 360$^{\circ} $ Perception Proposal
WO2017216465A1 (fr) Procédé et dispositif de traitement d'images acquises par une caméra d'un véhicule automobile
EP3830741B1 (fr) Assistance à la conduite pour le controle d'un vehicule automobile comprenant des étappes parallèles de traitement des images transformées.
FR3058247B1 (fr) Detection d'obstacles autour d'un vehicule automobile
FR3113330A1 (fr) Procédé d’alignement d’au moins deux images formées de points tridimensionnels
FR3062224A1 (fr) Detection d'obstacles dans l'environnement d'un vehicule automobile par traitement d'images
WO2020174142A1 (fr) Assistance à la conduite d'un véhicule, par détermination fiable d'objets dans des images déformées
EP4165601A1 (fr) Procede de calibration d'une camera et dispositif associe
FR3103301A1 (fr) Procédé de détection de pics d’intensité de faisceau lumineux réfléchi de manière spéculaire

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20191101

RX Complete rejection

Effective date: 20200327