FR2752969A1 - Procede pour detecter un objet a partir d'images stereoscopiques - Google Patents
Procede pour detecter un objet a partir d'images stereoscopiques Download PDFInfo
- Publication number
- FR2752969A1 FR2752969A1 FR9710946A FR9710946A FR2752969A1 FR 2752969 A1 FR2752969 A1 FR 2752969A1 FR 9710946 A FR9710946 A FR 9710946A FR 9710946 A FR9710946 A FR 9710946A FR 2752969 A1 FR2752969 A1 FR 2752969A1
- Authority
- FR
- France
- Prior art keywords
- image
- disparity
- points
- class
- structures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
Abstract
On forme à partir d'un couple d'images stéréoscopiques un couple d'images de classe de structures en déterminant pour chaque point d'image (x) les différences entre sa valeur de luminosité et celles de points d'image voisins environnants (xo à x3 , sous la forme de valeurs numériques (d(xo ), d(x1 ), d(x2 ), d(x3 )) et on réunit ces valeurs pour former un groupe (C), des groupes identiques définissant une classe de structures, on détermine pour les points d'image des autres classes de structures, des valeurs de disparité associées et on les cumule avec un incrément de fréquence dans un histogramme de disparité. Application notamment à la détection d'objets dans le trafic routier.
Description
L'invention concerne un procédé pour détecter et éventuellement également
suivre des objets à l'aide de l'enregistrement et de l'exploitation d'images stéréoscopiques. Naturellement un tel procédé est utile en tant que moyen auxiliaire pour le guidage automatique de véhicules routiers, ainsi que dans le domaine de la robotique, o il importe de détecter des objets importants et de déterminer leur position et leur taille. Dans le cas du guidage autonome de véhicules, par exemple dans le cas du trafic urbain avec des démarrages et des arrêts, en dehors d'objets fixes, qui sont situés dans la zone de déplacement du véhicule, il faut également détecter tous les objets mobiles dans la zone environnante rapprochée. Au contraire pour de telles applications, aucune carte complète dense des profondeurs de la scène n'est nécessaire. Ainsi la plupart du temps on part d'une surface
de base relativement plane et d'objets nettement surélevés.
En outre il n'est pas nécessaire d'obtenir des informations détaillées, comme par exemple la forme d'un véhicule précédent. De telles conditions marginales simplificatrices sont valables d'une manière analogue pour une multiplicité de problèmes dans les domaines de la robotique et de la
technique du contrôle.
Les procédés pour la détection d'objets à partir d'images stéréoscopiques peuvent être subdivisés en des procédés basés sur une surface et des procédés basés sur une caractéristique. Les procédés basés sur une surface sont décrits par exemple dans les rapports de conférence K. Sanejoschi, 3-D Image recognition system by means of stereoscopy combined with ordinary image processing, Intelligent Vehicles '94, 24.10.1994 au 26.10.1993, Paris, pages 13 à 18 et L. Matthies et al. Obstacle detection for unmamed ground véhicles: a progress report, Intelligent Vehicles '95, 25/26.09.1995, Detroit, pages 66 à 71. Ils requièrent une dépense de calcul plus élevée que des procédés basés sur des caractéristiques. Pour avoir un aperçu d'ensemble de procédés usuels de détection d'objets à partir d'images stéréoscopiques, on se reportera au livre de O. Faugeras, Three- Dimensional Computer Vision, MIT Press, 1993. D'après la demande de brevet allemand publiée 44 31 479 A1, on connaît un procédé pour la détection d'objets, notamment de véhicules, selon lequel on enregistre deux images à partir d'une zone considérée, et ce sous différents angles d'observation. A partir d'une comparaison des deux images, notamment de leurs valeurs de gris, on identifie, pour au moins une zone partielle, un objet lorsque la différence entre les deux images pour la zone partielle considérée est supérieure à un seuil
prédéterminé.
Dans le cas d'un système décrit dans la demande de brevet allemand publiée sous le N DE 43 08 776 Ai, pour contrôler un état extérieur à un véhicule, il est prévu une détection d'objets à partir d'images stéréoscopiques, au moyen de laquelle l'image d'un objet considéré est formée à
l'intérieur d'une zone fixe à l'extérieur d'un véhicule.
Les images enregistrées sont envoyées à un dispositif de traitement d'images, qui calcule une distribution de distances sur l'ensemble de l'image. Pour détecter un objet respectif dans l'image gauche et dans l'image droite, on subdivise l'image considérée en de petites régions et on compare des modèles de couleur ou de luminosité à l'intérieur de ces régions pour les deux images de manière à trouver les régions comportant des détails correspondants de l'objet et déterminer, à partir de là, la distribution
de distance dans l'ensemble de l'image stéréoscopique.
Dans la demande de brevet allemand publiée EP 0 626 655 A2, on décrit un dispositif pour identifier des véhicules précédents et pour déterminer leur éloignement, qui utilise un procédé de détection d'objets à partir d'images stéréoscopiques. Pour l'exploitation de l'image on utilise des techniques particulières, qui sont conçues spécialement pour l'identification de contours et qui utilisent des modèles de contours de véhicules. Pour un véhicule identifié, on détermine la disparité associée et,
à partir de là, la distance du véhicule.
L'invention a pour but, en tant que problème technique, d'indiquer un procédé pour la détection d'objets à partir d'images stéréoscopiques, qui convienne notamment pour les cas d'utilisation indiqués précédemment avec des conditions marginales simplifiées et qui soit
comparativement efficace et robuste.
ce problème est résolu conformément à l'invention à l'aide des étapes opératoires suivantes consistant à: a) produire un couple d'images de classe de structures à partir du couple respectif enregistré d'images stéréoscopiques par le fait que pour chaque point d'image on détermine les différences entre sa valeur de luminosité et chacune des valeurs de luminosité d'un nombre de points d'image environnants prédéterminés en tant que valeurs numériques et qu'on réunit les valeurs numériques obtenues pour former un groupe de valeurs numériques, des groupes identiques de valeurs numériques définissant respectivement une classe propre de structures, b) exécuter une analyse de correspondance du couple d'images de classe de structures, lors de laquelle b.1) on prend en compte uniquement les classes de structures, dont les points d'image possèdent au moins un point d'image environnant, situé en direction de la ligne épipolaire et possédant une luminosité qui diffère d'un ou de plusieurs échelons numériques de luminosité, b.2) pour chaque point d'image d'une classe de structures, qui est respectivement encore prise en compte, d'une image de _classe de structures on recherche les points d'image, qui sont situés dans un intervalle de disparité pouvant être prédéterminé sur la ligne épipolaire, de la même classe de structures de l'autre image de classe de structures et que l'on détermine la valeur de disparité associée, et b.3) on cumule les valeurs de disparité, qui sont ainsi obtenues globalement, en fonction d'un incrément associé de fréquence dans un histogramme de disparité, et c) identifier des zones de points d'accumulation dans l'histogramme de disparité produit et extraire un objet respectif du groupe de points d'image associé à la zone
respective de points d'accumulation.
Selon ce procédé, on forme tout d'abord, à partir du couple d'images stéréoscopiques enregistrées, un couple d'images de classe de structures, par le fait qu'on détermine sous forme numérique pour chaque point d'image les différences de luminosité par rapport à des points d'image environnants prédéterminés, et on rassemble les valeurs numériques selon une séquence prédéterminée pour former un groupe de valeurs numériques. Chacun des différents groupes possibles définit une classe de structures particulière. Ensuite, on exécute une analyse de correspondance, qui peut être mise en oeuvre d'une manière comparativement efficace et conçue avantageusement de façon simple et selon laquelle on ne prend pas en compte toutes les classes qui ne présentent aucun gradient de structure en direction de la ligne épipolaire, c'est-à-dire par rapport à une ligne de couples correspondant de points d'image respectifs communs de départ. Ce sont les classes de structures, dont les points d'image ont une luminosité qui ne diffère pas, d'une valeur pouvant être prédéterminée, de la luminosité des points d'image environnants situés en direction de la ligne épipolaire. De ce fait, on fait déjà l'économie d'une dépense notable de traitement d'images. Des structures travaillant en ce sens ne conviennent pas, pour la détermination de distance, d'une manière conditionnée par le système dans le cas de l'exploitation d'images stéréoscopiques basées sur des caractéristiques. Pour toutes les autres classes de structures, on détermine ensuite des valeurs de disparité de points d'image correspondants d'une même classe de structures, qui sont cumulées dans un histogramme de
disparité pour une valeur de fréquence respective.
Facultativement, pour chaque couple correspondant de points d'image, on peut introduire la valeur de disparité associée, avec un incrément de fréquence pondéré dans l'histogramme. Ensuite, on examine des zones de points d'accumulation dans l'histogramme. Pour des zones intéressantes fixées de points d'accumulation, on représente alors inversement le groupe associé de points d'image d'une image associée de classe de structures et on l'interprète en tant qu'objet situé à une distance déterminée. Il s'est avéré que ce procédé de détection d'objets travaille d'une manière très efficace pour de nombreux cas d'utilisation et fournit des résultats
stables, c'est-à-dire peu sensibles à des perturbations.
Selon une variante du procédé, pour la détermination de valeurs numériques lors de l'étape a on utilise un système ternaire, auquel cas on associe un premier chiffre ternaire aux différences de luminosité, qui ont une valeur absolue inférieure ou égale à une valeur de seuil positive prédéterminée de luminosité, on associe un second chiffre ternaire aux différences de luminosité qui sont supérieures à la valeur de seuil, et on associe le troisième des trois chiffres ternaires aux différences de luminosité qui sont inférieurs à la valeur négativée de la valeur de seuil. Dans cette variante, on utilise une logique ternaire pour numériser les différences de luminosité ce..,.. qui permet,. pour les applications ainsi considérées, une classification de structures très avantageuse, parce que d'une part elle est suffisamment différenciée et que d'autre part elle peut être exécutée suffisamment rapidement. Selon une autre variante du procédé selon l'invention, on utilise, comme points d'image environnants, respectivement deux points d'image, qui sont disposés, sur deux côtés du point d'image de référence respectif, d'une part parallèlement et d'autre part perpendiculairement à la ligne épipolaire et sont disposés en étant directement voisins du point d'image de référence et en étant séparés de ce dernier par une distance de détection pouvant être prédéterminée. Selon cette variante, on choisit comme points d'image environnants les quatre points d'image qui sont directement contigus, et ce des deux côtés, au point d'image de référence considéré, d'une part parallèlement et d'autre part perpendiculairement à la ligne épipolaire, ou bien ces points d'image sont séparés par une distance de détection pouvant être prédéterminée. La distance de détection de la taille d'un ou éventuellement de plusieurs points d'image permet d'introduire une zone plus étendue de voisinage, ce qui est approprié dans des cas o les gradients de luminosité s'étendent de façon typique sur une
zone de plusieurs points d'image.
Selon une autre variante du procédé selon l'invention, on choisit l'intervalle de disparité pour l'analyse de correspondance de telle sorte que pour le point d'image respectif dans une image de classe de structures, seul le point d'image immédiatement suivant sur la ligne épipolaire est pris en compte dans l'autre image de classe de structures et la valeur de disparité associé à ce point est cumulée dans l'histogramme de disparité. Dans cette variante, la dépense nécessaire de calcul est réduire de façon supplémentaire par le fait que de petites disparités sont favorisées en ce que pour chaque point d'image d'une image de classe de structures on détermine uniquement la disparité minimale, c'est-à-dire l'éloignement du point d'image immédiatement suivant de la même classe de structure dans l'autre image de classe de structures et qu'on en tient compte pour l'établissement de l'histogramme de disparité. L'hypothèse de base consistant à favoriser de petites disparités et par conséquent de grandes distances d'objets est judicieuse notamment dans le cas de l'utilisation dans des véhicules pour tenir compte de scènes sur la chaussée avec leurs obstacles de taille relativement importante. Avec ce mode opératoire, on supprime en outre l'apparition d'objets fantômes voisins, lors de l'analyse de correspondance, tels qu'ils peuvent être produits par des structures périodiques très
éloignées, par exemple des facades de maisons.
Selon une autre variante de mise en oeuvre du procédé, on associe à chaque point d'image du couple d'images de classe de structures, en plus du groupe respectif de valeurs numériques, une valeur de contraste, déterminée en fonction des différences de luminosité, en tant que facteur de pondération et on cumule la valeur de disparité, déterminée pour un couple respectif de points d'image, avec un incrément de fréquence pondéré en fonction des valeurs de contraste associées, pour l'histogramme de disparité. A chaque point d'image on associe, en dehors du groupe de valeurs numériques représentant les différences de luminosité, une valeur de contraste qui distingue plus fortement la grandeur des différences de luminosité qui apparaissent, et qu'on utilise en tant que facteur de
pondération pour former un incrément pondéré de fréquence.
Pour chaque couple correspondant de points d'image, pour lequel une valeur de disparité est déterminée, on cumule alors cette valeur avec l'incrément de fréquence pondéré en fonction du contraste, pour former l'histogramme de disparité. De ce fait, on tient compte plus fortement de structures plus contrastées lors de l'exploitation
d'images, ce qui évite un bruit de fond.
Selon une autre variante de mise en oeuvre du procédé, l'extraction de l'objet respectif à partir du groupe de points d'image, qui est associé à une zone respective de points d'accumulation de disparité, comprend une analyse d'accumulation du groupe de points d'image, au moyen de laquelle on détermine un rectangle de surface minimale, qui contient un pourcentage pouvant être prédéterminé des points d'image de ce groupe de points d'image. La détection de l'objet au moyen d'une analyse d'accumulation du groupe de points d'image, interprété comme étant associé à un objet respectif et qui d'une part est agencé d'une manière particulièrement simple et d'autre part permet une meilleure localisation et un meilleur suivi
du déplacement de l'objet.
Selon une variante de mise en oeuvre du procédé selon l'invention, après une extraction exécutée pour la première fois de l'objet respectif à partir du groupe de points d'image qui est associé à une zone respective de points d'accumulation de disparité, on exécute un suivi de déplacement de cet objet au moyen de l'exécution réitérée des étapes a à c, d'une manière limitée au volume d'un cube minimum contenant l'objet considéré. Selon cette variante, on exécute à la suite de la détection d'un objet, un suivi continu de déplacement, par le fait que la détection de l'objet selon l'invention est exécutée d'une manière répétée de façon cyclique en étant limitée à un cube minimum, qui contient l'objet détecté. La limitation à la zone d'image, qui est pertinente à cet égard, réduit non seulement la dépense de calcul, mais également et surtout l'influence d'objets parasites formant obstacles. En outre, il suffit d'exploiter encore seulement une gamme relativement faible de valeurs de disparité, la profondeur associée du.
cube étant déterminée par la modification..DTD: maximale de distance à laquelle on peut s'attendre.
Selon une variante de mise en oeuvre du procédé selon l'invention, pour la détection d'objets dans le trafic routier, caractérisé en outre en ce que dans l'hypothèse d'une configuration essentiellement plane de la chaussée et d'axes optiques parallèles de caméras stéréoscopiques, on interprète les points d'image, dont les valeurs de disparité associées sont situées à l'intérieur d'une zone prédéterminée d'espérance autour de la valeur d'espérance de disparité DR qui satisfait à la relation suivante dE:(x,y)=(B/H)fx( (y/fy)cosa+sinc) B étant l'étendue de base du dispositif de caméras stéréoscopiques, H sa hauteur au-dessus de la surface de la chaussée, a l'angle d'inclinaison de ce dispositif par rapport à la surface de la chaussée, fx, et fy les distances focales latérale et verticale de la caméra et y la coordonnée verticale de l'image se situant au-dessus de l'axe optique, comme étant associés à un objet de la surface de la chaussée. Cette variante convient pour des véhicules routiers et inclut un modèle vraisemblable de chaussée qui permet de séparer par filtrage les structures de la surface de chaussée, avec une grande fiabilité, ce qui facilite la détection d'objets dans la zone au-dessus de la surface de la chaussée et/ou permet la détection fiable de marques sur la chaussée pour le guidage
transversal autonome du véhicule.
D'autres caractéristiques et avantages de la
présente invention ressortiront de la description donnée
ci-après prise en référence aux dessins annexés, sur lesquels: - la figure 1 représente un couple d'images stéréoscopiques enregistré par un dispositif de caméras stéréoscopiques d'un véhicule; - la figure 2 montre une représentation schématique de la classification de structures utilisée pour l'exploitation des images stéréoscopiques conformément à la figure 1; - la figure 3 montre une représentation de valeurs de gris de l'image de classe de structures obtenues au moyen de la classification de structures conformément à la figure 2 à partir de l'image stéréoscopique de gauche de la figure 1; - la figure 4 représente un histogramme de disparité qui est obtenu au moyen d'une analyse de correspondance des deux images de classe de structures associées aux images stéréoscopiques de la figure 1 et comporte plusieurs points d'accumulation; - la figure 5 montre une représentation du groupe de points d'image qui est combiné à un premier point d'accumulation de la figure 4; et - la figure 6 est une représentation du groupe de points d'image qui est combiné à un second point
d'accumulation de la figure 4.
La figure 1 représente un couple d'images stéréoscopiques la, lb, qui reproduit une scène typique du trafic routier. Pour l'enregistrement continu du trafic en avant d'un véhicule sur la base de tels couples d'images stéréoscopiques la, lb, sur le véhicule est installé d'une manière usuelle un dispositif à caméras stéréoscopiques dirigé vers l'avant et dont les axes optiques sont de préférence parallèles entre eux et décalés horizontalement l'un par rapport à l'autre. Dans ce cas les lignes épipolaires associées, c'est-à-dire les lignes le long desquelles le point d'image associé à un point d'image d'origine commun dans une image stéréoscopique peut être décalé par rapport au point d'image correspondant dans l'autre image stéréoscopique, forment simultanément des lignes d'images respectives du couple d'images stéréoscopiques la, lb, ce qui rend particulièrement simple l'évaluation ultérieure de la disparité. Le contrôle, au moyen d'images stéréoscopiques, du trafic en avant du véhicule peut être utilisé notamment pour le guidage automatique du véhicule dans une direction longitudinale et/ou dans une direction transversale, ou bien pour l'avertissement d'obstacles qui apparaissent, comme d'autres véhicules et des piétons. Dans le cas du couple d'images stéréoscopiques la, lb de la figure 1, des objets intéressants sont par conséquent surtout le véhicule 2 qui est le véhicule précédent sur la même voie de circulation, ainsi qu'un véhicule 3 situé sur une voie de circulation
voisine. Le but du procédé de détection d'objets décrit ci-
après de façon plus détaillée est surtout de déterminer automatiquement, de façon rapide et fiable, la position de ces deux objets 2, 3 par rapport au véhicule proprement dit. A cet effet, chacune des deux images stéréoscopiques la, lb est transformée, dans une image correspondante de classe de structures, à l'aide d'une classification de structures, comme cela est indiqué schématiquement sur la figure 2. Pour chaque point d'image x des deux images stéréoscopiques la, lb on définit une quantité de points d'images environnants, qui est constituée, dans le cas de la figure 2, par quatre points d'image environnants xo, x1, x2, x3, qui sont directement voisins dans une direction de lignes et une direction de colonnes, c'est-à-dire parallèlement et perpendiculairement à la ligne épipolaire horizontale. Lorsque ce choix des points d'image environnants s'avère être trop local, on peut sinon choisir une zone de voisinage plus grande de points d'image environnants, ou un ensemble d'autres points d'image environnants éloignés. Lors du choix d'une zone de voisinage assez étendue, qui implique un accroissement cubique du nombre des classes de structure et permet d'accroitre la sensibilité par rapport aux valeurs de seuil de luminosité respectivement choisies, l'évaluation selon une pyramide de Gauss est avantageuse. On obtient des résultats satisfaisants au moyen d'un accroissement, moins coûteux du point de vue de la technique de calcul, des distances de détection, c'est-à-dire qu'à la place des points d'image environnants choisis sur la figure 2 et disposés directement dans une direction de lignes et une direction de colonnes, on choisit de tels points d'image environnants, qui sont situés, par rapport au point d'image de référence x, à une distance d'un point d'image ou d'un
petit nombre de points d'image.
Dans tous les cas, on compare alors, couple par couple, la luminosité du point d'image de référence x à celle du point d'image environnant respectif xo0 à x3, moyennant la prédétermination d'une valeur de seuil de luminosité positive T, sous une forme numérisée conformément à la technologie ternaire, auquel cas on produit comme résultat comparatif une valeur numérique d(xi) de différence de luminosité sous la forme d'un chiffre ternaire respectif, conformément à la relation suivante: =, lorsque g(xj)-g(x)<T d(x) = 2, lorsque g(xi)-g(x)<-T O, ailleurs g(x) étant la luminosité du point d'image de référence et g(x,) avec i=0,...,3 étant la luminosité du point d'image environnant considéré. Les quatre chiffres ternaires d(xo) à d(x3) déterminés de cette manière à un instant respectif x, sont alors réunis en un groupe sous la forme d'un nombre tertiaire C se présentant sous la forme C = L 35.d(x,) i-O comme cela est illustré dans la moitié droite de la figure 2. Pour le nombre tertiaire C ainsi formé, il est possible d'avoir quatre-vingt une valeurs différentes, dont chacune définit une classe particulière de structures. A la place de la numérisation ternaire décrite précédemment des différences de luminosité, on peut également considérer d'autres numérisations de valeurs multiples, et d'une manière générale, dans le cas d'une numérisation seulement binaire, des informations de gradient, qui sont une partie qui est constituée d'une partie importante de l'analyse suivante de correspondance, sont supprimées, tandis que des numérisations de valeur plus élevée entraînent une dépense
accrue de calcul.
La figure 3 représente le résultat de la classification de structures pour l'image stéréoscopique de gauche la de la figure 1, et on a choisi comme surface totale de luminosité l'intervalle [0,255] et une valeur de seuil de différence de luminosité T=20. Pour avoir une meilleure illustration, les nombres ternaires déterminés C sont multipliés par le facteur trois et inversés de sorte que les points d'image, qui sont associés à la classe de structures comportant le nombre ternaire C=0, apparaissent blancs sur la figure 3. Sur la figure 3, on peut voir qu'en raison de la non linéarité introduite par la valeur de seuil de luminosité T, on obtient une réduction importante des données. Sur le dessin de la figure 3, environ 50 % de tous les points d'image appartiennent à la classe de structures dans laquelle on a C=0. 25 % supplémentaires des points d'image font partie de ce qu'on appelle les classes de structures horizontales, qui sont celles qui comportent les structures horizontales, pour lesquelles on a d(x3)=d(x1)=0. De telles classes de structures horizontales ne sont pas utiles pour l'exploitation d'images vidéo avec la ligne épipolaire choisie dans une disposition horizontale et par conséquent ne sont plus prises en compte lors de la poursuite de l'évaluation de l'image. Par conséquent, seuls encore 25 % des points d'image doivent être soumis à une analyse de correspondance. Grâce au choix d'une fenêtre appropriée d'évaluation, on peut accroître ce nombre de points d'image en augmentant la sécurité d'évaluation. Ainsi par conséquent dans le cas présent, la zone d'image, qui est située nettement au-dessus de l'horizon et par conséquent de la surface de chaussée, peut être occultée comme étant non intéressante. Une fenêtre d'évaluation appropriée est indiquée à titre d'exemple dans l'image stéréoscopique de gauche la de la figure 1 avec le cadre blanc 4 qui est indiqué. Grâce au choix de cette fenêtre d'évaluation 4, dans le cas de la scène d'image présente, la quantité de points d'image devant être pris en compte pour l'analyse ultérieure de correction, est réduite à 13 % de tous les points d'image et simultanément des influences parasites qui sont basées sur des zones occultées d'image, sont évitées par des déterminations
d'erreurs de disparité.
A la production du couple d'images de classe de structures succède une analyse simplifiée de correspondance, qui en général ne fournit pas une solution, nette du point de vue des points d'image, du problème en correspondance, mais fournit, avec une dépense de calcul correspondante plus faible, des résultats suffisamment fiables pour les applications envisagées ici, dans lesquelles les objets pertinents à détecter possèdent des gradients de luminosités sensiblement perpendiculaires à la ligne épipolaire, ce qui est valable non seulement pour des véhicules, mais également pour la plupart des objets fixes et notamment pour des piétons. A cet effet, on procède de
façon détaillée comme indiqué ci-après.
Pour chaque point d'image dans une image de classe de structures on recherche, en tant que point de référence, et ce à l'intérieur d'un intervalle de disparité prédéterminé, des points d'image de la même classe de structures, situés sur la ligne épipolaire correspondante en tant que direction de recherche déterminante, dans l'autre image de classe de structures. En raison de la disposition des axes optiques parallèles des caméras d'enregistrement d'images et de la disposition décalée horizontalement de ces caméras, on obtient dans le présent exemple une direction de recherche qui s'étend dans la direction des lignes de l'image. On détecte l'éloignement d'un point d'image respectivement trouvé par rapport à la position du point d'image de référence et on l'accumule en tant que valeur de disparité associée dans un histogramme de disparité, et ce d'une manière non pondérée dans une première variante, c'est-à-dire que la fréquence dans l'histogramme est accrue de un pour chaque valeur de disparité lors de chaque apparition de cette valeur. Dans une seconde variante, on utilise un incrément de fréquence pondéré, qui tient compte du contraste d'image. A cet effet, pour chaque d'image x on produit une valeur locale de contraste à partir des différences de luminosité déterminées, par exemple une valeur de contraste K(x) répondant à la forme K(x) = 1 g(x )-g(x)j N i N étant le nombre des points d'image environnants, dont la luminosité diffère de plus de la valeur de seuil de luminosité T par rapport à la luminosité du point de référence, etégalement seuls ces points d'image environnants sont pris en compte lors de la sommation. Par conséquent le point d'image individuel reçoit un poids de contraste qui permet de mettre l'accent sur des structures à contraste intense lors de l'analyse de disparité. Une possibilité de prendre en compte cette valeur de contraste dans l'établissement de l'histogramme de disparité consiste à introduire dans l'établissement de l'histogramme la valeur de disparité déterminée pour un couple respectif correspondant..de points d'image non pas avec l'incrément de fréquence un, mais avec un incrément de fréquence, accru du minimum des valeurs de contraste, associées aux points d'image corrélés, dans la production de l'histogramme. Ceci fournit une séparation plus nette des gammes de points de fréquence, c'est-à-dire des zones de pics, dans l'histogramme de disparité résultant, par rapport au bruit
de fond.
La figure 4 représente l'histogramme de disparité, qui est obtenu au moyen du programme d'analyse de disparité expliqué, moyennant l'utilisation de l'incrément de fréquence non pondéré un à partir de la gamme de la fenêtre d'évaluation 4 avec des valeurs de disparité comprises entre zéro et deux cent. En chaque point de référence dans une image de structure, on a pris en compte tous les points d'image situés en direction de la ligne épipolaire correspondante, dans l'autre image de structure. Sinon le fait de favoriser l'utilisation de petites valeurs de disparité s'est avéré avantageux pour le cas présent d'application de l'observation du trafic routier, ce qui est corrélé avec une préférence donnée à des distances importantes. En effet dans des scènes complexes sur route, fréquemment des structures périodiques, comme par exemple les façades 5 des maisons dans le couple d'images stéréoscopiques la, lb de la figure 1, conditionnent un bruit intense dans l'histogramme de disparité, par le fait qu'en raison de leur périodicité, elles simulent des objets fantômes situés très près de l'emplacement de la caméra. On combat ce phénomène de façon efficace en donnant la préférence à des distances importantes. Dans une forme simple et efficace, ceci est obtenu par le fait que, lors de l'analyse de disparité, pour chaque point de référence dans une image de classes de structures on prend en compte uniquement le point d'image de cette classe de structures, qui est plus le près de ce point d'image de référence sur la ligne épipolaire, dans l'autre classe de structure. Ce mode opératoire s'avère fiable pour l'observation du trafic routier dans le cas des scènes sur route qui apparaissent dans la pratique, avec leurs obstacles relativement grands, et s'avère très avantageux en raison de l'économie, qui en résulte, du temps de calcul et de la suppression d'objets fantômes. Contrairement à l'histogramme bidimensionnel représenté sur la figure 4, le cas échéant, on peut réaliser un histogramme tridimensionnel de disparité sous la forme d'une carte quantifiée de profondeurs, en utilisant comme axe supplémentaire de l'histogramme, le décalage latéral du point d'image de référence considéré,
par rapport à l'axe médian de l'image.
Une fois que l'histogramme de disparité a été établi sous une forme ou sous une autre, on examine les zones de points d'accumulation de cet histogramme. Sur la figure 4, on a marqué les deux zones dl, d2 parmi les zones accusées de points d'accumulation, avec les valeurs maximales de disparité, une zone d, correspondant à une valeur maximale de disparité égale à environ 28 et l'autre d2 correspondant à une valeur maximale de disparité égale à environ 15. Chaque zone de points d'accumulation de ce type
devrait correspondre à un objet dans la zone d'observation.
Pour vérifier ceci et compléter de ce fait la détection d'un objet, on reproduit ensuite en sens inverse de l'analyse de disparité, les points d'une image de classe de structures, qui font partie d'une zone respective de points d'accumulation de disparité. Ainsi sur la figure 5, on a représenté les points d'image, qui sont associés à la zone dl de points d'accumulation de disparité et sur la figure 6 ont a représenté les points d'image associés à la zone d2 de points d'accumulation de disparité avec la valeur maximale de disparité 15. Comme on peut le voir, la figure reproduit déjà très bien le véhicule 2 qui circule devant sur la même voie de circulation, tandis que le véhicule 3 situé sur l'autre voie de circulation est prédominant dans l'image de la figure 6. On peut en tirer la conclusion que ces deux véhicules 2, 3 font partie de ces deux zones d,
d2 de points d'accumulation de disparité.
A partir de cette association d'une valeur finale de disparité à un objet respectif, on peut déterminer la distance L de cet objet par rapport au dispositif à caméras stéréoscopiques au moyen de la relation L=fx.B/d, B représentant la distance de base du dispositif à caméra stéréoscopiques, fx sa distance focale étalonnée et d la valeur respective de disparité. Ensuite, l'objet détecté peut continuer à être observé le cas échéant continûment, c'est-à-dire être suivi. A cet effet, on exécute au départ une simple analyse d'accumulation, lors de laquelle une fenêtre de forme rectangulaire ayant une hauteur et une largeur minimales est positionnée dans l'image résultante de l'objet, d'une manière analogue aux figures 5 et 6, de sorte que cette image de l'objet contient un pourcentage minimum prédéterminé de par exemple 90 % des points d'image trouvés. Etant donné que la relation trigonométrique indiquée ci-dessus pour l'éloignement L de l'objet représente une approximation relativement grossière en raison de la mise sous forme discrète des valeurs de disparité surtout dans le cas de faibles disparités et n'est encore pas optimale dans ce cas pour la détermination de processus de déplacement, il peut être en outre approprié de réaliser une estimation améliorée de disparité, qui correspond à une mesure d'une précision se situant à un niveau inférieur au point d'image, et pour laquelle on ajoute à la valeur maximale d'une zone respective de points d'accumulation de disparité, un terme correctif se présentant sous la forme dd=0,5.(h++ h_)/(2hm-(h+h_)) hm désignant la valeur maximale et h+ et h_ désignant les
hauteurs de disparité dans la zone latérale respective.
Après -,,une détection de l'objet réalisée cette manière, avec détermination de la distance et de la largeur approximative de l'objet considéré, on exécute, pendant la phase ultérieure de suivi, une évaluation de l'image, limitée à la zone importante d'image, qui contient encore précisément l'objet observé, selon le procédé décrit sous une forme répétée cycliquement. Les dispositions du procédé selon l'invention permettent des cycles opératoires typiques qui sont d'un ordre de grandeur compris seulement entre 100 ms et 200 ms, ce qui est à comparer à des durées typiques de cycle de plusieurs secondes de procédés plus compliqués d'évaluation d'images stéréoscopiques. La limitation des deux zones de l'image permet non seulement de réduire le temps de calcul, mais également et surtout de réduire l'influence d'objets formant obstacles gênants. Une importance capitale réside dans le fait qu'il suffit encore d'évaluer une gamme de disparités relativement faibles par le fait qu'on dispose de façon imaginaire autour de l'objet à suivre un cube, dont la profondeur dépend de la variation
maximale de distance à laquelle on peut s'attendre.
La position latérale d'un objet intéressant peut être déterminée pour le suivi d'une voie de déplacement au moyen d'un ensemble de faisceaux provenant par exemple de la position latérale du centre de l'image ou sinon du centre de gravité de l'image. De façon appropriée, on soumet les résultats obtenus à un filtrage usuel de Kalman de manière à obtenir des résultats optimum en tenant compte des connaissances concernant les possibilités limitées de déplacement. Pour isoler des structures de la surface de la
chaussée par rapport aux structures d'objets situées au-
dessus de la surface de la chaussée, on peut trouver un modèle simple de chaussée, dans lequel on suppose une surface plane de chaussée et des axes optiques parallèles du dispositif à caméras stéréoscopiques. Pour la disparité dE(x,y), à laquelle on peut s'attendre, d'un point d'image ayant pour coordonnées (x,y) dans le plan image on obtient alors, à partir de la hauteur H des caméras au-dessus de la
chaussée et de l'angle a d'inclinaison des caméras au-
dessus de l'horizon, la relation dE(x,y)=(B/H)fx((y/f,)cosx+sinc) fx, et fy désignant les distances focales étalonnées dans les systèmes de coordonnées considérés et B étant la
largeur de base du dispositif à caméras stéréoscopiques.
Pour l'extraction des structures superficielles de la chaussée, on prend en compte, dans ces conditions, uniquement des points situés au- dessous de l'horizon. Tous les points d'image ayant des valeurs de disparité, qui se situent à l'intérieur d'un intervalle déterminé autour de la valeur d'espérance, sont situés sur la surface de la chaussée tandis que les points d'image ayant des valeurs de disparité plus élevées sont associés à des objets au-dessus de la surface de la chaussée et que les points d'image ayant des valeurs de disparité trop faibles proviennent de
réflexions d'objets plus éloignés.
En fonction du cas d'utilisation, on peut faire intervenir en outre, pour la détection d'un objet, des considérations de symétrie, qui permettent de réduire la
dépense de calcul et d'accroître la sécurité de détection.
Dans tous les cas, le procédé selon l'invention permet une détection très rapide et stable de l'objet, pour une sécurité de détection donnée, et peut être utilisé pour l'observation optique d'objets en temps réel dans le trafic routier, dans le domaine de la robotique et partout o il existe un besoin de réaliser une détection basée sur des images stéréoscopiques, et éventuellement un suivi d'objets.
Claims (8)
1. Procédé pour la détection d'objets à partir d'images stéréoscopiques, notamment pour des véhicules routiers, caractérisé en ce qu'il comprend les étapes suivantes consistant à: a) produire un couple d'images de classe de structures à partir du couple respectif enregistré d'images stéréoscopiques (la, lb) par le fait que pour chaque point d'image (x) on détermine les différences entre sa valeur de luminosité (g(x)) et chacune des valeurs de luminosité (g(x ); i = O,..., n-l) d'un nombre (n) de points d'image environnants prédéterminés (xo,.. ., x_ ) en tant que valeurs numériques (d(xi)) et qu'on réunit les valeurs numériques obtenues pour former un groupe (c) de valeurs numériques, des groupes identiques de valeurs numériques définissant respectivement une classe propre de structures, b) exécuter une analyse de correspondance du couple d'images de classe de structures, lors de laquelle b.1) on prend en compte uniquement les classes de structures, dont les points d'image possèdent au moins un point d'image environnant, situé en direction de la ligne épipolaire et possédant une luminosité qui diffère d'un ou de plusieurs échelons numériques de luminosité, b.2) pour chaque point d'image d'une classe de structures, qui est respectivement encore prise en compte, d'une image de classe de structures on recherche les points d'image, qui sont situés dans un intervalle de disparité pouvant être prédéterminé sur la ligne épipolaire, de la même classe de structures de l'autre image de classe de structure et que l'on détermine la valeur de disparité associée, et b.3) on cumule les valeurs de disparité, qui sont ainsi obtenues globalement, en fonction d'un incrément associé de fréquence dans un histogramme de disparité, et c) identifier des zones de points d'accumulation (di, d2) dans l'histogramme de disparité produit et extraire un objet respectif du groupe de points d'image associé à la
zone respective de points d'accumulation.
2. Procédé selon la revendication 1, caractérisé en outre en ce que pour la détermination de valeurs numériques lors de l'étape a on utilise un système ternaire, auquel cas on associe un premier chiffre ternaire aux différences de luminosité, qui ont une valeur absolue inférieure ou égale à une valeur de seuil positive prédéterminée de luminosité (T), on associe un second chiffre ternaire aux différences de luminosité qui sont supérieures à la valeur de seuil, et on associe le troisième des trois chiffres ternaires aux différences de luminosité qui sont inférieurs
à la valeur négativée (-T) de la valeur de seuil.
3. Procédé selon l'une des revendications 1 ou 2,
caractérisé en outre en ce que l'on utilise, comme points d'image environnants (xo à x3), respectivement deux points d'image, qui sont disposés, sur deux côtés du point d'image de référence respectif (x), d'une part parallèlement et d'autre part perpendiculairement à la ligne épipolaire et sont disposés en étant directement voisins du point d'image de référence et en étant séparés de ce dernier par une
distance de détection pouvant être prédéterminée.
4. Procédé selon l'une quelconque des
revendications 1 à 3, caractérisé en outre en ce qu'on
choisit l'intervalle de disparité pour l'analyse de correspondance de telle sorte que pour le point d'image respectif dans une image de classe de structures, seul le point d'image immédiatement suivant sur la ligne épipolaire est pris en compte dans l'autre image de classe de structures et la valeur de disparité associé à ce point est
cumulée dans l'histogramme de disparité.
- 5...Procédé selon l'une quelconque des
revendications 1 à 4, caractérisé en outre en ce qu'on
associe à chaque point d'image du couple d'images de classe de structures, en plus du groupe respectif de valeurs numériques, une valeur de contraste (K(x)), déterminée en fonction des différences de luminosité, en tant que facteur de pondération et on cumule la valeur de disparité, déterminée pour un couple respectif de points d'image, avec un incrément de fréquence pondéré en fonction des valeurs
de contraste associées, pour l'histogramme de disparité.
6. Procédé selon l'une quelconque des
revendications 1 à 5, caractérisé en outre en ce que
l'extraction de l'objet respectif à partir du groupe de points d'image, qui est associé à une zone respective de points d'accumulation de disparité, comprend une analyse d'accumulation du groupe de points d'image, au moyen de laquelle on détermine un rectangle de surface minimale, qui contient un pourcentage pouvant être prédéterminé des
points d'image de ce groupe de points d'image.
7. Procédé selon l'une quelconque des
revendications 1 à 6, caractérisé en outre en ce qu'après
une extraction exécutée pour la première fois de l'objet respectif à partir du groupe de points d'image qui est associé à une zone respective de points d'accumulation de disparité, on exécute un suivi de déplacement de cet objet au moyen de l'exécution réitérée des étapes a à c, d'une manière limitée au volume d'un cube minimum contenant
l'objet considéré.
8. Procédé selon l'une quelconque des
revendications 1 à 7, pour la détection d'objets dans le
trafic routier, caractérisé en outre en ce que dans l'hypothèse d'une configuration essentiellement plane de la chaussée et d'axes optiques parallèles de caméras stéréoscopiques, on interprète les points d'image, dont les valeurs de disparité associées sont situées à l'intérieur d'une, zone prédéterminée d'espérance autour de la valeur d'espérance de disparité (dT) qui satisfait à la relation suivante dE(x,y)=(B/H)fx( (y/fy)cosc+sina) B étant l'étendue de base du dispositif à caméras stéréoscopiques, H sa hauteur au-dessus de la surface de la chaussée, a l'angle d'inclinaison de ce dispositif par rapport à la surface de la chaussée, fx, et fy les distances focales latérale et verticale de la caméra et y la coordonnée verticale de l'image se situant au-dessus de l'axe optique, comme étant associés à un objet de la
surface de la chaussée.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19636028A DE19636028C1 (de) | 1996-09-05 | 1996-09-05 | Verfahren zur Stereobild-Objektdetektion |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2752969A1 true FR2752969A1 (fr) | 1998-03-06 |
FR2752969B1 FR2752969B1 (fr) | 2001-09-28 |
Family
ID=7804698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR9710946A Expired - Fee Related FR2752969B1 (fr) | 1996-09-05 | 1997-09-03 | Procede pour detecter un objet a partir d'images stereoscopiques |
Country Status (6)
Country | Link |
---|---|
US (1) | US5937079A (fr) |
JP (1) | JP3049603B2 (fr) |
DE (1) | DE19636028C1 (fr) |
FR (1) | FR2752969B1 (fr) |
GB (1) | GB2317066B (fr) |
IT (1) | IT1294262B1 (fr) |
Families Citing this family (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6320589B1 (en) * | 1997-08-04 | 2001-11-20 | Lucent Technologies | Display techniques for three dimensional virtual reality |
DE19802261A1 (de) * | 1998-01-22 | 1999-07-29 | Daimler Chrysler Ag | Verfahren zur Signalverarbeitung von Zeitfolgen digitalisierter Bilder |
DE19859087A1 (de) * | 1998-12-10 | 2000-06-15 | Arnold & Richter Kg | Verfahren zur Trennung von auf Medien wie Laufbildfilmen, Videobändern o. dgl. gespeicherten Bildfolgen in Einzelsequenzen |
DE19926559A1 (de) * | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung |
US7236622B2 (en) * | 1999-08-25 | 2007-06-26 | Eastman Kodak Company | Method for forming a depth image |
JP3255360B2 (ja) * | 1999-09-22 | 2002-02-12 | 富士重工業株式会社 | 距離データの検査方法およびその検査装置 |
JP3287465B2 (ja) * | 1999-09-22 | 2002-06-04 | 富士重工業株式会社 | ステレオ画像処理装置 |
CA2395257C (fr) | 1999-12-29 | 2013-04-16 | Geospan Corporation | Procede de traitement d'images volumetriques passives |
JP3773433B2 (ja) * | 2000-10-11 | 2006-05-10 | シャープ株式会社 | 移動体の周囲監視装置 |
US7565008B2 (en) | 2000-11-06 | 2009-07-21 | Evryx Technologies, Inc. | Data capture and identification system and process |
US9310892B2 (en) | 2000-11-06 | 2016-04-12 | Nant Holdings Ip, Llc | Object information derived from object images |
US7899243B2 (en) | 2000-11-06 | 2011-03-01 | Evryx Technologies, Inc. | Image capture and identification system and process |
US8224078B2 (en) | 2000-11-06 | 2012-07-17 | Nant Holdings Ip, Llc | Image capture and identification system and process |
US7680324B2 (en) | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
DE10244148A1 (de) * | 2002-09-23 | 2004-04-08 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs |
US20050125121A1 (en) * | 2003-11-28 | 2005-06-09 | Denso Corporation | Vehicle driving assisting apparatus |
JP4406381B2 (ja) * | 2004-07-13 | 2010-01-27 | 株式会社東芝 | 障害物検出装置及び方法 |
EP2765533A1 (fr) | 2004-07-26 | 2014-08-13 | Automotive Systems Laboratory, Inc. | Système de protection d'usagers de la route vulnérables |
US7333652B2 (en) * | 2004-08-03 | 2008-02-19 | Sony Corporation | System and method for efficiently performing a depth map recovery procedure |
JP4246691B2 (ja) * | 2004-11-30 | 2009-04-02 | 本田技研工業株式会社 | 画像情報処理システム、画像情報処理方法、画像情報処理プログラム、及び自動車 |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
US7561721B2 (en) * | 2005-02-02 | 2009-07-14 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
US7620208B2 (en) * | 2005-02-09 | 2009-11-17 | Siemens Corporate Research, Inc. | System and method for detecting features from images of vehicles |
US20070031008A1 (en) * | 2005-08-02 | 2007-02-08 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
JP2007139756A (ja) * | 2005-10-17 | 2007-06-07 | Ricoh Co Ltd | 相対位置検出装置、回転体走行検出装置及び画像形成装置 |
US7623681B2 (en) * | 2005-12-07 | 2009-11-24 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
KR101311896B1 (ko) * | 2006-11-14 | 2013-10-14 | 삼성전자주식회사 | 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치 |
WO2008065717A1 (fr) * | 2006-11-29 | 2008-06-05 | Fujitsu Limited | Système et procédé de détection de piéton |
US8199975B2 (en) * | 2006-12-12 | 2012-06-12 | Cognex Corporation | System and method for side vision detection of obstacles for vehicles |
KR20080076628A (ko) * | 2007-02-16 | 2008-08-20 | 삼성전자주식회사 | 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법 |
US8103109B2 (en) * | 2007-06-19 | 2012-01-24 | Microsoft Corporation | Recognizing hand poses and/or object classes |
US20090005948A1 (en) * | 2007-06-28 | 2009-01-01 | Faroog Abdel-Kareem Ibrahim | Low speed follow operation and control strategy |
JP4856611B2 (ja) * | 2007-10-29 | 2012-01-18 | 富士重工業株式会社 | 物体検出装置 |
JP4937933B2 (ja) * | 2008-01-18 | 2012-05-23 | 富士重工業株式会社 | 車外監視装置 |
JP4521642B2 (ja) * | 2008-02-13 | 2010-08-11 | 本田技研工業株式会社 | 車両周辺監視装置、車両、車両周辺監視プログラム |
US9019381B2 (en) * | 2008-05-09 | 2015-04-28 | Intuvision Inc. | Video tracking systems and methods employing cognitive vision |
ES2622485T3 (es) * | 2008-05-22 | 2017-07-06 | Matrix Electronic Measuring Properties, Llc | Sistema y método de medición estereoscópicos |
DE102009042476B4 (de) | 2008-09-25 | 2022-12-22 | Volkswagen Ag | Bestimmung von Zuständen in der Umgebung eines Kraftfahrzeugs mittels einer Stereokamera |
DE102009022278A1 (de) | 2009-05-22 | 2010-01-21 | Daimler Ag | Verfahren zur Ermittlung eines hindernisfreien Raums |
JP5404263B2 (ja) * | 2009-09-07 | 2014-01-29 | パナソニック株式会社 | 視差算出方法、および視差算出装置 |
KR20110026214A (ko) * | 2009-09-07 | 2011-03-15 | 삼성전자주식회사 | 얼굴 검출 장치 및 방법 |
US8294768B2 (en) * | 2009-11-23 | 2012-10-23 | Hon Hai Precision Industry Co., Ltd. | System and method for motion detection |
US9049423B2 (en) * | 2010-12-01 | 2015-06-02 | Qualcomm Incorporated | Zero disparity plane for feedback-based three-dimensional video |
US9591281B2 (en) * | 2010-12-22 | 2017-03-07 | Thomson Licensing | Apparatus and method for determining a disparity estimate |
CN102316307B (zh) * | 2011-08-22 | 2013-09-25 | 安科智慧城市技术(中国)有限公司 | 一种道路交通视频检测方法及装置 |
CN103164851B (zh) * | 2011-12-09 | 2016-04-20 | 株式会社理光 | 道路分割物检测方法和装置 |
CN103177236B (zh) * | 2011-12-22 | 2016-06-01 | 株式会社理光 | 道路区域检测方法和装置、分道线检测方法和装置 |
TWI453697B (zh) * | 2011-12-29 | 2014-09-21 | Automotive Res & Testing Ct | The detection system of the driving space and its detection method |
CN102628814B (zh) * | 2012-02-28 | 2013-12-18 | 西南交通大学 | 一种基于数字图像处理的钢轨光带异常自动检测方法 |
CN103310213B (zh) * | 2012-03-07 | 2016-05-25 | 株式会社理光 | 车辆检测方法和装置 |
US8824733B2 (en) | 2012-03-26 | 2014-09-02 | Tk Holdings Inc. | Range-cued object segmentation system and method |
US8768007B2 (en) | 2012-03-26 | 2014-07-01 | Tk Holdings Inc. | Method of filtering an image |
US8831285B2 (en) | 2012-07-26 | 2014-09-09 | Hewlett-Packard Development Company, L.P. | Detecting objects with a depth sensor |
TWI496090B (zh) | 2012-09-05 | 2015-08-11 | Ind Tech Res Inst | 使用深度影像的物件定位方法與裝置 |
WO2014070448A1 (fr) | 2012-10-31 | 2014-05-08 | Tk Holdings, Inc. | Système et procédé de détection de trajectoire de véhicule |
DE102013200409A1 (de) * | 2013-01-14 | 2014-07-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Fahrzeugs und Verfahren zum Durchführen einer Notbremsung |
WO2014152470A2 (fr) | 2013-03-15 | 2014-09-25 | Tk Holdings, Inc. | Détection de trajectoire utilisant un éclairage structuré |
US9488483B2 (en) * | 2013-05-17 | 2016-11-08 | Honda Motor Co., Ltd. | Localization using road markings |
CN104217208B (zh) | 2013-06-03 | 2018-01-16 | 株式会社理光 | 目标检测方法和装置 |
US9224060B1 (en) * | 2013-09-17 | 2015-12-29 | Amazon Technologies, Inc. | Object tracking using depth information |
CN104517275A (zh) | 2013-09-27 | 2015-04-15 | 株式会社理光 | 对象检测方法和系统 |
CN104198752B (zh) * | 2014-08-18 | 2017-09-08 | 浙江大学 | 基于机器视觉的高温钢坯运动状态的多率检测方法 |
DE102015216160A1 (de) | 2015-08-25 | 2017-03-02 | Robert Bosch Gmbh | Verfahren zum Erfassen einer Fahrzeugumgebung eines Fahrzeuges |
JP6623729B2 (ja) * | 2015-12-04 | 2019-12-25 | 株式会社ソシオネクスト | 測距システム、移動体及び部品 |
CN107729856B (zh) * | 2017-10-26 | 2019-08-23 | 海信集团有限公司 | 一种障碍物检测方法及装置 |
CN110823134B (zh) * | 2018-07-23 | 2021-07-23 | 北京大恒图像视觉有限公司 | 一种靶线计算及工业传感器安装检测方法 |
US11495028B2 (en) * | 2018-09-28 | 2022-11-08 | Intel Corporation | Obstacle analyzer, vehicle control system, and methods thereof |
DE102021204411A1 (de) | 2021-05-03 | 2022-11-03 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Bestimmen einer Disparität und Fahrzeug |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4825393A (en) * | 1986-04-23 | 1989-04-25 | Hitachi, Ltd. | Position measuring method |
EP0686942A2 (fr) * | 1994-06-07 | 1995-12-13 | Matsushita Electric Industrial Co., Ltd. | Méthode de concordance et mesure de disparité stéreo |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5432712A (en) * | 1990-05-29 | 1995-07-11 | Axiom Innovation Limited | Machine vision stereo matching |
JPH05265547A (ja) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | 車輌用車外監視装置 |
US5487116A (en) * | 1993-05-25 | 1996-01-23 | Matsushita Electric Industrial Co., Ltd. | Vehicle recognition apparatus |
JP3209828B2 (ja) * | 1993-05-25 | 2001-09-17 | 松下電器産業株式会社 | 車間距離計測装置とステレオ画像取り込み装置 |
US5684890A (en) * | 1994-02-28 | 1997-11-04 | Nec Corporation | Three-dimensional reference image segmenting method and apparatus |
DE4431479A1 (de) * | 1994-09-03 | 1996-03-07 | Bosch Gmbh Robert | Vorrichtung und Verfahren zur Erkennung von Objekten |
US5818959A (en) * | 1995-10-04 | 1998-10-06 | Visual Interface, Inc. | Method of producing a three-dimensional image from two-dimensional images |
-
1996
- 1996-09-05 DE DE19636028A patent/DE19636028C1/de not_active Expired - Fee Related
-
1997
- 1997-09-03 FR FR9710946A patent/FR2752969B1/fr not_active Expired - Fee Related
- 1997-09-03 IT IT97RM000530A patent/IT1294262B1/it active IP Right Grant
- 1997-09-04 JP JP9277885A patent/JP3049603B2/ja not_active Expired - Fee Related
- 1997-09-04 GB GB9718813A patent/GB2317066B/en not_active Expired - Fee Related
- 1997-09-05 US US08/923,937 patent/US5937079A/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4825393A (en) * | 1986-04-23 | 1989-04-25 | Hitachi, Ltd. | Position measuring method |
EP0686942A2 (fr) * | 1994-06-07 | 1995-12-13 | Matsushita Electric Industrial Co., Ltd. | Méthode de concordance et mesure de disparité stéreo |
Non-Patent Citations (1)
Title |
---|
BURT P ET AL: "ELECTRONICALLY DIRECTED ''FOCAL'' STEREO", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON COMPUTER VISION,US,LOS ALAMITOS, IEEE COMP. SOC. PRESS, vol. CONF. 5, pages 94-101, XP000557056, ISBN: 0-7803-2925-2 * |
Also Published As
Publication number | Publication date |
---|---|
DE19636028C1 (de) | 1997-11-20 |
GB2317066B (en) | 1998-11-04 |
US5937079A (en) | 1999-08-10 |
JP3049603B2 (ja) | 2000-06-05 |
ITRM970530A1 (it) | 1998-03-06 |
FR2752969B1 (fr) | 2001-09-28 |
JPH10124683A (ja) | 1998-05-15 |
IT1294262B1 (it) | 1999-03-24 |
GB9718813D0 (en) | 1997-11-12 |
GB2317066A (en) | 1998-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2752969A1 (fr) | Procede pour detecter un objet a partir d'images stereoscopiques | |
FR2674354A1 (fr) | Procede d'analyse de sequences d'images routieres, dispositif pour sa mise en óoeuvre et son application a la detection d'obstacles. | |
Van Der Mark et al. | Real-time dense stereo for intelligent vehicles | |
GB2554481A (en) | Autonomous route determination | |
Nedevschi et al. | A sensor for urban driving assistance systems based on dense stereovision | |
FR2947657A1 (fr) | Procede de detection d’un obstacle pour vehicule automobile | |
EP1868161B1 (fr) | Procédé de détermination d'une distance de visibilité pour un conducteur de véhicule | |
FR2822547A1 (fr) | Releve en trois dimensions de l'environnement, notamment d'un vehicule routier | |
EP3572976A1 (fr) | Procede de traitement d'un flux d'images video | |
FR2921027A1 (fr) | Dispositif d'aide a la conduite pour vehicule automobile comportant un systeme de capture d'images stereoscopique | |
JPH09507930A (ja) | 一眼ビジョンシステムに対する背景決定及び減算用の方法及び装置 | |
FR2947656A1 (fr) | Procede de detection d'un obstacle pour vehicule automobile | |
FR2858447A1 (fr) | Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d'objets d'un espace, construction de contours et applications | |
FR3085219A1 (fr) | Appareil de detection d'objet en mouvement et procede de detection d'objet en mouvement | |
CN103679121B (zh) | 采用视差图像检测路边的方法及系统 | |
FR2597636A1 (fr) | Procede de reconnaissance automatique d'objets susceptibles de se chevaucher | |
EP0492724A1 (fr) | Procédé d'extraction de mouvement comprenant la formation d'images de différences et un filtrage tridimensionnel | |
EP3729327A1 (fr) | Methode de reconnaissance d'objets dans une scene observee en trois dimensions | |
CN106339659A (zh) | 检测道路分割物的方法和装置 | |
EP0588815B1 (fr) | Procede et dispositif d'analyse de sequences d'images routieres pour la detection d'obstacles | |
FR2848935A1 (fr) | Procede de detection de virages sur une route et systeme de mise en oeuvre | |
WO2010133785A1 (fr) | Procede et dispositif pour etendre une zone de visibilite | |
CN113989755A (zh) | 识别目标的方法、装置和计算可读存储介质 | |
FR2899363A1 (fr) | Procede et dispositif de detection de mouvement d'objets sur des images d'une scene | |
FR3047589A1 (fr) | Procede et dispositif d'estimation de la position laterale d'un vehicule dans une voie de circulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |