WO2016045764A1 - Procédé de calibration extrinsèque de caméras d'un système de formation d'images stéréos embarqué - Google Patents

Procédé de calibration extrinsèque de caméras d'un système de formation d'images stéréos embarqué Download PDF

Info

Publication number
WO2016045764A1
WO2016045764A1 PCT/EP2015/001726 EP2015001726W WO2016045764A1 WO 2016045764 A1 WO2016045764 A1 WO 2016045764A1 EP 2015001726 W EP2015001726 W EP 2015001726W WO 2016045764 A1 WO2016045764 A1 WO 2016045764A1
Authority
WO
WIPO (PCT)
Prior art keywords
cameras
scene
camera
depth
calibration
Prior art date
Application number
PCT/EP2015/001726
Other languages
English (en)
Inventor
Lucien Garcia
Original Assignee
Continental Automotive France
Continental Automotive Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive France, Continental Automotive Gmbh filed Critical Continental Automotive France
Priority to CN201580051885.0A priority Critical patent/CN106716489B/zh
Priority to US15/512,687 priority patent/US10672147B2/en
Publication of WO2016045764A1 publication Critical patent/WO2016045764A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to a method for the extrinsic calibration of cameras used in a stereoscopic stereoscopic imaging system on board, in particular intended to equip a motor vehicle.
  • driver assistance systems can include visual assistance through stereoscopic systems embedded in vehicles. These systems are generally used to detect obstacles located in the upstream field of view of these vehicles.
  • a stereoscopic system makes it possible to determine the distance between the vehicle and these upstream obstacles from two on-board cameras, arranged close to each other to provide pairs of stereo images to a digital processing unit. By analyzing the disparity between the images thus provided, the system makes it possible to identify obstacles and their distance to the vehicle with precision.
  • the recognition of these obstacles is, moreover, brought to the attention of the driver by the driver assistance system.
  • the reliability of the cameras can become decisive, for example when it comes to knowing in real time if, in the absence of obstacles reported elsewhere, the road is free of obstacles.
  • Camera calibration refers to intrinsic parameters, such as the adjustment of their focal length or zoom, as well as their extrinsic parameters relating to the position of each camera relative to the vehicle and the relative position of the cameras, one compared to each other.
  • Each camera is initially calibrated intrinsically at the factory and, for the supplier, the intrinsic parameters are considered constant for the duration of use.
  • the extrinsic calibration consists in adjusting the position and the rotation of this reference camera with respect to the vehicle and with respect to the rotation of the other camera, called slave camera. .
  • the cameras must be set in position with respect to each other very precisely to avoid any defect of perpendicularity of their position relative to their spacing. But it is difficult to assemble sufficiently precise to obtain a null offset in yaw and thus avoid this defect.
  • the extrinsic parameters vary over time due to variations in the utilization parameters, in particular variations due to temperature or mechanical vibrations experienced by the cameras.
  • the calibration of the relative rotation of the cameras around the transverse axis OX (pitch angle), the longitudinal axis OZ (roll angle) and the elevation axis OY (angle yaw or "yaw” in English terminology) can be made advantageously by applying the epipolar constraint used in the search for the stereoscopic pairing of points in a so-called epipolar geometry space.
  • This geometry establishes the relationships between the points of different images of the same scene (image points), made from different points of view, these image points corresponding to the projections in the image space of the cameras of the same point object of the scene.
  • the epipolar constraint makes it possible to limit the search, in a given image, of the image point of an object point on a so-called epipolar right projection line, whereas only the position of the image point in the other image is known.
  • the epipolar constraint thus guides the construction of a stereoscopic image by the search for the points of pairing between each point of a first mono acquisition image, produced by a first camera, and the points of the epipolar line of the other image, produced simultaneously by the other camera.
  • the epipolar geometry makes it possible to deduce, by simple relations, the corresponding image points in connection with their depth of field in order to reconstruct stereoscopic images, that is to say in three-dimensional vision.
  • the use of a radar makes it possible to locate an object - for example a vehicle - at a given distance. The same vehicle is then observed with a first camera of the stereo system and calibrated at an angle with the other camera so that the vehicle is well at the given distance.
  • the radar is not precise enough and therefore needs to take a significant number of landmarks.
  • this radar generates an additional cost.
  • Other developments have been explored without the constraint of using a radar, using only the image processing system.
  • the patent document FR 2 986 358 describes the calibration of a camera mounted on a vehicle from the capture of particular target points and marked on a test pattern.
  • a point of coordinates given in the image plane of the camera is then positioned in the scene.
  • the international application WO 2011/079258 provides for determining the real-time derating of a multi-camera system, more particularly its extrinsic descalibration, and of re-calibrating it, based on the correspondence between the observed data of a multi-camera system. an image - by their measurements - and those provided according to the application of the calibration previously set. Data matching, which refers to typical object model characteristics, is stored as historical statistics of real-time measured alignment scores.
  • this solution relates to systems of at least three multiple cameras and uses several model objects, such as circles, or a 3D model, such as a cylinder, to implement the method.
  • model objects such as circles
  • 3D model such as a cylinder
  • the aim of the invention is to calibrate a system of on-board stereoscopic cameras, in a reproducible manner and without being sensitive to the irregularities of the road or the image noise produced by these cameras.
  • the invention proposes to correlate the depth difference of a point of a scene observed by the system with respect to the supposedly flat scene and the corresponding yaw variation between the cameras of the system, and then of deduce a calibration correction lace of the cameras.
  • the subject of the present invention is an extrinsic calibration method of a first and a second camera of a stereoscopic stereoscopic image formation system embedded in a motor vehicle, comprising the following steps:
  • the comparison between the profiles of the scene as observed and as expected consists in determining a difference in depth of field between a depth of field of the scene as observed and a depth of field of at least one point of the linear profile scene as expected, then determining the lace calibration deviation between the first and second cameras as a function of the averaged depth deviation on a predetermined set of points;
  • the observed depth of field of an image point of the scene formed by the first camera is determined according to a disparity between the images of the cameras;
  • the distance between said first camera and the image point is equal to the product of the focal distance of the first camera and a distance between the cameras divided by the disparity between the images of the cameras;
  • the expected depth is determined by a matrix of passage between a marker of said first camera and a mark of the vehicle; ⁇
  • the lace calibration deviation is, for each image point, proportional to the difference in depth and inversely proportional to the square of the expected depth;
  • the difference in yaw calibration between the first and the second camera corresponds to a convergence, respectively a divergence between these cameras, according to whether the profile of the observed scene is generally inclined with a generally positive slope, respectively globally negative, with respect to the expected scene of globally zero slope profile;
  • FIG. 3a a side view of different road profiles, the supposed linear profile, the actual profile to be traveled by the vehicle, and the profile as observed by a stereoscopic system embedded in the vehicle - through a first camera in the mark of the second camera - in the case of a converging yaw defect between the cameras of the system;
  • Figure 3b a side view of the different profiles of the road according to Figure 3a, in the case of a yaw defect diverge between the cameras;
  • FIG. 4 is a perspective view of the image plane of the first camera of the stereoscopic system.
  • the flow diagram of FIG. 1 illustrates the implementation of the extrinsic calibration method according to the invention of a stereoscopic camera system embedded in a vehicle, from a step 10 of acquisition of images of the road observed by the system and a step of parallel acquisition of images of the road as expected (step 20), that is to say images of the road considered as flat.
  • the onboard stereoscopic system includes, in addition to the cameras, a unit for processing data from these cameras in order to construct three-dimensional images.
  • Each image of the observed route (step 10) is derived from a three-dimensional calibrated 3D reconstruction image made from a large number of points - for example 100,000 points - seen by the cameras of the stereoscopic system.
  • the depth of these points is determined from a map of disparities between the left and right images formed by the corresponding cameras.
  • an intrinsic mono and stereo extrinsic initial calibration acquisition step is filtered in step 40.
  • Each observed and reconstructed 3D image of step 10 is then compared in depth with the corresponding expected image of step 20 of the supposedly planar route.
  • Each expected image is formed by the reference two-dimensional 2D image of one of the cameras of the stereoscopic system, this same reference image serving to produce the corresponding 3D reconstructed image.
  • the image of the road is supposed to be flat, following a spatio-temporal filtering with a predetermined number of points. Several points are thus used on several consecutive images in order to obtain an averaged profile of the image of the road. This predetermined number is at least equal to one but, taking into account the acquisition noise and the more or less irregular profile of the road, it is advantageous to take several points on several consecutive images. The number of useful images depends on the speed of the vehicle and the desired calibration accuracy. A depth difference is then established at step 50 from this comparison.
  • a prior calibration can be conducted to empirically establish the correlation between a depth deviation and the corresponding yaw angle deviation.
  • a deterministic approach to this correlation is proposed below.
  • the lace calibration difference due to a yaw variation between the cameras is thus determined in step 60 and injected in step 61 in the form of image correction in the reconstruction of the 3D image as established in FIG. step 30.
  • the calibration is thus successively corrected. This iteration is continued as the correction to be made in step 30 and determined in step 60 is non-zero.
  • the cameras 11 and 12 of the stereoscopic system are assembled on a boarding support 110 disposed on the upper part of the windshield 1a of the vehicle 1.
  • the marks 01X1Y1Z1, 02X2Y2Z2 and OXYZ respectively centered on the optical centers 01, 02 and O of the first camera 11, the second camera 12 and the stereoscopic system, these marks being respectively linked to the cameras 1 1 and 12 and to the vehicle 1.
  • the distance between the cameras is measured by the distance between their optical centers 01 and 02, designated "b" in the figure.
  • the angular offset AL between the bidimensional sub-marks X101Z1 and X202Z2 of the cameras 11 and 12 represents the yaw deviation between the cameras 11 and 12.
  • this yaw deviation AL is illustrated between the axes 01X1 and 02X2 of said dimensional sub-marks, but could equally well be represented by the angular offset between the axes 01Z1 and 02Z2 which form the optical axes of the cameras 11 and 12.
  • the depth difference is considered, according to the invention, as indicative of a laced calibration defect between the cameras due to this angular offset AL.
  • this depth difference is illustrated in the plane Y101Z1 of the vehicle 1, perpendicular to the image plane of the first camera 1 1.
  • the actual profile 121 of the route defines on average - by spatio-temporal filtering - a linear profile as expected 120 said reference.
  • the yaw angle deviation of the cameras is due to an error or a variation in the installation of one or other of the cameras of the system, such as the camera 11, on their boarding support 1 10. And the inclination of the profile of the road as observed 13a or 13b in both cases ( Figures 3a and 3b) is even stronger than the angle defect and therefore calibration lace is important.
  • any point P1a of the observed road profile 13a is seen by the stereoscopic system more closely than the corresponding point P2a of the linear reference profile 120 as expected, points P1a and P2a. being on the right Da passing through the optical center "O" of the stereoscopic system.
  • This optical center coincides, in side view according to Figures 2a and 2b, with the optical center 01 of the camera 11. This "approximation" of the point P1a results from the positive inclination of the profile 13a.
  • any point P1b of the observed road profile 13b is seen by the stereoscopic system more distant than the corresponding point P2b of the linear reference profile 120, the points P1b and P2b being on the Db right passing in projection on this side view, by the optical center 01 of the camera 1 1.
  • This "removal" of the point P1 b is due to the negative inclination of the profile 13b.
  • the difference in depth AZb between the points P1b and P2b is also measured along the axis OZ. This difference AZb increases with the distance from the point P1 b considered because of the inclination of the observed profile 13b with respect to the linear reference profile 120.
  • the invention also proposes a method of quantized correction of the lace calibration by correlation between the variation of yaw AL formed between the cameras - causing the lace calibration deviation - and the depth deviation ⁇ ie AZa or AZb according to the two cases described above, which is deduced therefrom.
  • an image point Pi of the scene observed in an image plane 11 of the camera 11, as illustrated by the perspective view of FIG. symbolically indicated by a dotted line contour) has the optical center 01, center of the reference 01X1 Y1Z1 defining an optical axis 01Z1, here assumed to be parallel to the longitudinal axis roll OZ of the stereoscopic system (FIGS. 2a, 2b), a transverse axis 01X1 , assumed here parallel to the pitch axis OX of this system and an elevation axis 01Y1, parallel to the yoke axis OY of the stereoscopic system.
  • the camera 1 1 also has a focal length "f" equal to the distance between its image plane 11 and its optical center 01.
  • the camera 1 1 forms the image point Pi of an object point Ps of the scene with coordinates Ui and Vi, Ui being the transversal coordinate (parallel to the axis 01X1) and Vi the elevation coordinate (parallel to the axis 01Y1).
  • the other camera 12 of the stereoscopic system forms - in a manner equivalent to the camera 11 - an image point P'i of the object point Ps of coordinates U'i and V'i in the reference (U ', V) of its main image plane 12 ⁇ .
  • the reference reference 02X2Y2Z2 of the camera 12 is centered on the optical center 02 of this camera, the axis 02Z2 forming its optical axis.
  • An elementary variation of lace angle dL between the two cameras 11 and 12 of the system is then determined as a function of an elementary depth difference dZ - corresponding to the finite deviations AZa or AZb of FIGS. 3a and 3b - formed on the longitudinal axis 01 Z1.
  • the elementary depth difference dZ is measured by the difference between the depth Zi of the point Pi on the axis 01Z1 and the depth Z'i of the point P'i which is the image point of the point Ps as observed in the image plane 12 of this camera 12 by the epipolar method of stereoscopic image reconstruction.
  • the invention is not limited to the examples described and shown. Thus, the invention can be applied to systems of more than two cameras by using the method for each set of cameras of the system (pair, triplet, quadruplet, ).
  • any three-dimensional image reconstruction method capable of producing disparity maps to determine the depths of the points of a scene from the images provided by the cameras of a stereoscopic system, for example local, global and semi-global methods according to the mode of determination of the matching scores, the cutting of the images and the mode of expression of the disparities.
  • Local methods rely on matching scores of each pair of pixels in each image obtained between pixels that immediately surround two pixels to be matched.
  • Various correlation functions can be used (sum of the quadratic deviations, sum of the absolute deviations, standardized cross-correlation centered, etc.) to then determine the disparities of the paired pixels. For each pair of pixels analyzed, the disparity corresponding to the best score is selected.
  • Global methods consist of optimizing an energy function defined over the entire reference image.
  • the energy function defines the constraints that the disparity map must respect, for example the continuity of the disparity on the objects. Subsequently, all the disparities that minimize this energy function are sought.
  • the graph-cut method and Belief Propagation are the most studied global methods.
  • Semi-global methods are based on the same principle as global methods but on sub-parts of the image, ie lines or blocks. Splitting the problem of optimizing the energy function into sub-problems makes it possible to reduce the need for computation and memory resources compared to global methods.

Abstract

L'invention a pour objectif de calibrer un système stéréo embarqué, de manière reproductible et sans être sans être sensible aux irrégularités de la route ou aux bruits d'images produits par ces caméras. Pour ce faire, l'invention propose de corréler l'écart de profondeur d'un point d'une scène observée par le système par rapport à une scène supposée plane et l'écart de lacet correspondante entre les caméras du système, puis d'en déduire une correction de calibration lacet des caméras. Selon un mode de réalisation, la comparaison entre la scène telle qu'observée et telle qu'attendue consiste à déterminer, par filtrage spatio-temporel, un écart de profondeur (AZa) entre la profondeur observée d'au moins un point (P1a) d'une image de scène plane formée dans le plan image d'une première caméra (11) tel que positionné dans le repère de l'autre caméra, et la profondeur attendue de ce point (P2a) projeté sur la scène plane (120) à partir de la première caméra (11), puis à déterminer l'écart de calibration lacet entre les caméras en fonction de l'écart de profondeur moyennée sur un ensemble suffisant de points.

Description

Procédé de calibration extrinsèque de caméras d'un système de formation
d'images stéréos embarqué
La présente invention se rapporte à un procédé de calibration extrinsèque de caméras utilisées dans un système stéréoscopique de formation d'images stéréos embarqué, en particulier destiné à équiper un véhicule automobile.
Dans le domaine de la sécurité automobile, les systèmes d'assistance à la conduite peuvent comporter une assistance visuelle grâce à des systèmes stéréoscopiques embarqués à bord de véhicules. Ces systèmes servent en général à la détection d'obstacles situés dans le champ visuel amont de ces véhicules. Un système stéréoscopique permet en effet de déterminer la distance entre le véhicule et ces obstacles amont à partir de deux caméras embarquées, agencées à proximité l'une de l'autre pour fournir des couples d'images stéréos à une unité de traitement numérique. Par une analyse de la disparité entre les images ainsi fournies, le système permet d'identifier les obstacles et leur distance au véhicule avec précision.
La reconnaissance de ces obstacles est, de plus, portée à la connaissance du conducteur par le système d'assistance à la conduite. La fiabilité des caméras peut devenir décisive, par exemple lorsqu'il s'agit de savoir en temps réel si, en l'absence d'obstacles signalés par ailleurs, la route est bien libre d'obstacle.
La précision dépend de la calibration des caméras et de la connaissance d'éventuelles variations par rapport à une calibration initiale. La calibration des caméras se rapporte aux paramètres intrinsèques, comme le réglage de leur distance focale ou leur zoom, ainsi qu'à leurs paramètres extrinsèques relatives à la position de chaque caméra par rapport au véhicule et à la position relative des caméras, l'une par rapport à l'autre.
Chaque caméra est initialement calibrée intrinsèquement en usine et, pour le fournisseur, les paramètres intrinsèques sont considérés comme constants pendant toute la durée d'utilisation.
Classiquement, l'une des caméras étant considérée comme la caméra de référence, la calibration extrinsèque consiste à régler la position et la rotation de cette caméra de référence par rapport au véhicule et par rapport à la rotation de l'autre caméra, appelée caméra esclave. Les caméras doivent être réglées en position l'une par rapport à l'autre de façon très précise pour éviter tout défaut de perpendicularité de leur position par rapport à leur écartement. Or il est difficile de les assembler de façon suffisamment précise pour obtenir un décalage nul en lacet et donc éviter ce défaut.
De plus, les paramètres extrinsèques varient dans le temps du fait des variations des paramètres d'utilisation, en particulier des variations dues à la température ou aux vibrations mécaniques subies par les caméras. En référence à un repère orthogonal OXYZ d'un système stéréoscopique, la calibration de la rotation relative des caméras autour de l'axe transversal OX (angle tangage), de l'axe longitudinal OZ (angle roulis) et de l'axe élévation OY (angle lacet ou « yaw » en terminologie anglaise) peut s'effectuer avantageusement par l'application de la contrainte épipolaire utilisée dans la recherche de l'appariement stéréoscopique des points dans un espace de géométrie dite épipolaire. Cette géométrie établit les relations entre les points de différentes images d'une même scène (points images), réalisées en partant de points de vue différents, ces points images correspondants aux projections dans l'espace image des caméras d'un même point objet de la scène.
La contrainte épipolaire permet de limiter la recherche, dans une image donnée, du point image d'un point objet sur une droite de projection dite droite épipolaire, alors que seule la position du point image dans l'autre image est connue. La contrainte épipolaire guide ainsi la construction d'une image stéréoscopique par la recherche des points d'appariement entre chaque point d'une première image d'acquisition mono, produite par une première caméra, et les points de la droite épipolaire de l'autre image, produite simultanément par l'autre caméra. La géométrie épipolaire permet de déduire par des relations simples les points images correspondants en liaison avec leur profondeur de champ afin de reconstruire des images stéréoscopiques, c'est-à-dire en vision tridimensionnelle.
Cependant, la pixélisation des images a un impact sur leur qualité. Cet impact est mesurable pour la calibration roulis ou tangage car la détection de l'erreur de calibration est alors directement mesurable sur l'image. Par exemple, une rotation en roulis ou en tangage d'un degré va provoquer un écart de 10 pixels sur l'image et ce sera visible. Mais l'écart de lacet ne peut être corrigé sur l'image car la sensibilité est alors trop faible : l'écart de projection sur la droite épipolaire reste trop faible par rapport au bruit d'image - inférieure à 0,1 pixel en moyenne pour un décalage d'un degré - et la contrainte épipolaire ne peut alors être exploitée.
Pour remédier à ce problème, et plus généralement pour palier au défaut d'assemblage précis des caméras - qui se traduit plus particulièrement sur la calibration en lacet - il pourrait être envisagé d'utiliser des informations externes complémentaires, comme la vitesse du véhicule ou la profondeur de la scène à partir d'un autre capteur.
Par exemple, l'utilisation d'un radar permet de repérer un objet - par exemple un véhicule - à une distance donnée. Le même véhicule est alors observé avec une première caméra du système stéréo et calibré en angle avec l'autre caméra de sorte que le véhicule soit bien à la distance donnée. Cependant, le radar n'est pas suffisamment précis et nécessite donc de prendre un nombre important de points de repère. De plus, ce radar génère un coût supplémentaire. D'autres développements ont été explorés sans la contrainte d'utilisation d'un radar, en utilisant uniquement le système de traitement d'image.
Ainsi, le document de brevet FR 2 986 358 décrit la calibration d'une caméra montée sur un véhicule à partir de la saisie de points cibles particuliers et repérés sur une mire. Par la résolution d'un système d'équations non linéaires à six inconnues, trois composantes en translation et trois composantes en rotation, un point de coordonnées données dans le plan image de la caméra est alors positionné dans la scène.
Cette solution est difficilement applicable pour la calibration lacet entre deux caméras d'un système stéréoscopique car la complexité du système ne permet pas d'aboutir à des déterminations univoques pour deux caméras en mouvement à partir d'une même mire.
La demande internationale WO 2011/079258 prévoit de déterminer la dé- calibration en temps réel d'un système multi-caméras, plus particulièrement sa dé- calibration extrinsèque, et de le re-calibrer, à partir de la correspondance entre des données observées d'une image - par leurs mesures - et celles prévues en fonction de l'application de la calibration réglée antérieurement. La correspondance des données, qui se rapporte à des caractéristiques de modèles d'objets types, est mémorisée sous forme de statistiques historiques des scores d'alignement mesurés en temps réel.
Cependant, cette solution se rapporte à des systèmes d'au moins trois caméras multiples et utilise plusieurs objets modèles, tels que des cercles, ou un modèle 3D (tridimensionnel), tel qu'un cylindre, pour mettre en œuvre le procédé. L'utilisation de modèles-types restreint l'utilisation de ce procédé. De plus, les performances de la détermination de la dé-calibration, en particulier de la dé-calibration lacet pour un système stéréoscopique embarqué, ne sont ne sont pas mesurables.
L'invention a pour objectif de calibrer un système de caméras stéréoscopiques embarqué, de manière reproductible et sans être sensible aux irrégularités de la route ou aux bruits d'images produits par ces caméras. Pour ce faire, l'invention propose de corréier l'écart de profondeur d'un point d'une scène observée par le système par rapport à la scène supposée plane et la variation de lacet correspondante entre les caméras du système, puis d'en déduire une correction de calibration lacet des caméras.
A cet effet, la présente invention a pour objet un procédé de calibration extrinsèque d'une première et d'une deuxième caméras d'un système stéréoscopique de formation d'images stéréos embarqué dans un véhicule automobile, comportant les étapes suivantes :
· acquisition de calibrations intrinsèques mono et extrinsèques stéréo de roulis, tangage et lacet des caméras; • acquisition d'images stéréoscopiques successives d'une scène dans un champ de vision par reconstruction d'images tridimensionnelles calibrées par l'étape de calibration précédente, chaque image stéréoscopique étant reconstruite à partir d'images gauche et droite des première et deuxième caméras produites simultanément et mémorisées numériquement sous forme de pixels ;
• filtrage des images stéréoscopiques ainsi reconstruites ;
• comparaison, par filtrage spatio-temporel avec un nombre prédéterminé de points, entre un profil de la scène telle qu'observée par chaque image reconstruite et un profil linéaire de la scène telle qu'attendue ;
• établissement d'un écart de calibration lacet à partir de la comparaison précédente ;
• correction de la calibration lacet des caméras à partir de l'écart de calibration lacet déterminée par l'étape précédente ; et
• itération de la correction de l'étape précédente jusqu'à obtenir un écart de calibration nulle par répétition des étapes précédentes.
Selon des modes de mise en oeuvre préférés :
- la comparaison entre des profils de la scène telle qu'observée et telle qu'attendue consiste à déterminer un écart de profondeurs de champ entre une profondeur de champ de la scène telle qu'observée et une profondeur de champ d'au moins un point de la scène de profil linéaire telle qu'attendue, puis à déterminer l'écart de calibration lacet entre les première et deuxième caméras en fonction de l'écart de profondeur moyennée sur un ensemble prédéterminé de points ;
• la profondeur de champ observée d'un point d'image de la scène formée par la première caméra est déterminée en fonction d'une disparité entre les images des caméras ;
• la distance entre ladite première caméra et le point d'image est égale au produit de la distance focale de la première caméra et d'une distance entre les caméras divisé par la disparité entre les images des caméras ;
• la profondeur attendue est déterminée par une matrice de passage entre un repère de ladite première caméra et un repère du véhicule ; · l'écart de calibration lacet est, pour chaque point d'image, proportionnel à l'écart de profondeur et inversement proportionnel au carré de la profondeur attendue ; • l'écart de calibration lacet entre la première et la deuxième caméra correspond à une convergence, respectivement une divergence entre ces caméras, selon que le profil de la scène observée est globalement inclinée avec une pente globalement positive, respectivement globalement négative, par rapport à la scène attendue de profil de pente globalement nulle ;
• une variation élémentaire d'angle lacet dl_ entre la première et la deuxième caméra en fonction d'un écart de profondeur élémentaire dZ, entre un même point tel qu'observé et tel qu'attendu respectivement du profil de la scène observé et du profil linéaire de la scène attendu, est donnée par la formule suivante : dL = . _ ~dz*b « » une distance r (Ζ2*(1+ϋη2))
entre les caméras,, « Z » la profondeur attendue du point dans la scène de profil linéaire, « Un » une coordonnée transversale normalisée d'un point d'image correspondant au point observé dans un repère image bidimensionnel de la première caméra (avec Un = (t/t~t/0') , « Ui » étant une coordonné transversale du point d'image dans un plan d'image de la première caméra, « U0 » une coordonnée centrée dans ladite image et « f » une distance focale de ladite première caméra).
D'autres données, caractéristiques et avantages de la présente invention apparaîtront à la lecture de la description détaillée non limitative ci-après, en référence aux figures annexées qui représentent, respectivement :
- la figure 1 , un logigramme de la calibration lacet selon le procédé de la présente invention ;
- les figures 2a et 2b, des vues latérale et supérieure d'un véhicule dans lequel les caméras d'un système stéréoscopique sont assemblées sur un support d'embarquement ;
la figure 3a, une vue latérale de différents profils de la route, le profil supposé linéaire, le profil réel à parcourir par le véhicule, et le profil tel qu'observé par un système stéréoscopique embarqué dans le véhicule - à travers une première caméra dans le repère de la deuxième caméra -, dans le cas d'un défaut de lacet convergent entre les caméras du système ; la figure 3b, une vue latérale des différents profils de la route selon la figure 3a, dans le cas d'un défaut de lacet divergent entre les caméras ; et la figure 4, une vue en perspective du plan image de la première caméra du système stéréoscopique.
Le logigramme de la figure 1 illustre la mise en œuvre du procédé de calibration extrinsèque selon l'invention d'un système de caméras stéréoscopiques embarqué dans un véhicule, à partir d'une étape 10 d'acquisition d'images de la route observées par le système et d'une étape d'acquisition parallèle d'images de la route telles qu'attendues (étape 20), c'est-à-dire d'images de la route considérée comme plane. Le système stéréoscopique embarqué comporte, outre les caméras, une unité de traitement des données issues de ces caméras afin de construire des images tridimensionnelles.
Chaque image de la route observée (étape 10) est issue d'une image de reconstruction tridimensionnelle calibrée dite 3D réalisée à partir d'un grand nombre de points - par exemple 100 000 points - vus par les caméras du système stéréoscopique. La profondeur de ces points est déterminée à partir d'une carte de disparités entre les images gauche et droite formées par les caméras correspondantes.
Pour reconstruire chaque image 3D à l'étape 30, une étape d'acquisition de calibration initiale 31 intrinsèque mono et extrinsèque stéréo est filtrée à l'étape 40.
Chaque image observée et reconstruite 3D de l'étape 10 est alors comparée en profondeur à l'image attendue correspondante de l'étape 20 de la route supposée plane. Chaque image attendue est formée par l'image bidimensionnelle 2D de référence d'une des caméras du système stéréoscopique, cette même image de référence servant à réaliser l'image reconstruite 3D correspondante. L'image de la route est supposée plane, suite à un filtrage spatio-temporel avec un nombre prédéterminé de points. On utilise donc plusieurs points sur plusieurs images consécutives afin d'obtenir un profil moyenné de l'image de la route. Ce nombre prédéterminé est au moins égal à un mais, compte tenu du bruit d'acquisition et du profil plus ou moins irrégulier de la route, il est avantageux de prendre plusieurs points sur plusieurs images consécutives. Le nombre d'images utiles, dépend de la vitesse du véhicule et de la précision de calibration souhaitée. Un écart de profondeur est alors établi à l'étape 50 à partir de cette comparaison.
Un étalonnage préalable peut être conduit afin d'établir empiriquement la corrélation entre un écart de profondeur et l'écart d'angle lacet correspondant. Une approche déterministe de cette corrélation est proposée plus loin.
L'écart de calibration lacet due à une variation de lacet entre les caméras est ainsi déterminée à l'étape 60 et injectée à l'étape 61 sous forme de correction d'image dans la reconstruction de l'image 3D telle qu'établie à l'étape 30. A chaque établissement d'un nouvel écart de calibration d'angle lacet, la calibration est ainsi successivement corrigée. Cette itération est continuée tant que la correction à apporter à l'étape 30 et déterminée à l'étape 60 est non nulle.
Comme illustré par les vues latérale et supérieure des figures 2a et 2b, les caméras 11 et 12 du système stéréoscopique sont assemblées sur un support d'embarquement 110 disposé sur la partie supérieure du pare-brise 1a du véhicule 1. Ont été également représentés sur ces figures, les repères 01X1Y1Z1 , 02X2Y2Z2 et OXYZ, centrés respectivement sur les centres optiques 01 , 02 et O de la première caméra 11 , de la deuxième caméra 12 et du système stéréoscopique, ces repères étant liés respectivement audites caméras 1 1 et 12 et au véhicule 1. La distance entre les caméras est mesurée par celle entre leurs centres optiques 01 et 02, désignée par « b » sur la figure.
Plus particulièrement, le décalage angulaire AL entre les sous-repères bidimensionnels X101Z1 et X202Z2 des caméras 11 et 12 (figure 2b) représente l'écart de lacet entre les caméras 11 et 12. Sur la figure 2b, cet écart de lacet AL est illustré entre les axes 01X1 et 02X2 desdits sous-repères dimensionnels, mais pourrait tout aussi bien être représenté par le décalage angulaire entre les axes 01Z1 et 02Z2 qui forment les axes optiques des caméras 11 et 12.
Or l'écart de profondeur est considéré, selon l'invention, comme révélateur d'un défaut de calibration lacet entre les caméras dû à ce décalage angulaire AL. En référence aux vues latérales de profils de la route selon les figures 3a et 3b, cet écart de profondeur est illustré dans le plan Y101Z1 du véhicule 1 , perpendiculaire au plan image de la première caméra 1 1. Sur ces figures, le profil réel 121 de la route définit en moyenne - par filtrage spatio-temporel - un profil linéaire tel qu'attendu 120 dit de référence.
Sur ces figures, apparaît également le profil de la route 130 tel qu'observé par le système stéréoscopique embarqué, selon un profil globalement ascendant 13a (figure 3a) ou descendant 13b (figure 3b) correspondant à un défaut d'angle lacet des caméras, respectivement convergent et divergent, qui génère le défaut de calibration lacet.
L'écart d'angle lacet des caméras provient d'une erreur ou d'une variation d'installation de l'une ou l'autre des caméras du système, telle que la caméra 11 , sur leur support d'embarquement 1 10. Et l'inclinaison du profil de la route telle qu'observée 13a ou 13b dans les deux cas (figures 3a et 3b) est d'autant plus forte que le défaut d'angle et donc de calibration lacet est important.
Dans le premier cas (figure 3a), tout point P1a du profil de route observé 13a est vu par le système stéréoscopique de manière plus rapprochée que le point P2a correspondant du profil linéaire de référence 120 tel qu'attendu, les points P1a et P2a étant sur la droite Da passant par le centre optique « O » du système stéréoscopique. Ce centre optique coïncide, en vue latérale selon les figures 2a et 2b, avec le centre optique 01 de la caméra 11. Ce « rapprochement » du point P1a résulte de l'inclinaison positive du profil 13a.
L'écart de profondeur AZa entre les points P1a et P2a se mesure selon l'axe
01 Z1. Cet écart AZa augmente avec l'éloignement du point P1a considéré selon l'axe 01 Z1 , du fait de l'inclinaison du profil observé 13a par rapport au profil linéaire de référence 120. Des obstacles peuvent alors apparaître dans le champ de vision du système stéréoscopique sur la route réelle correspondant au profil 121 et peuvent être exclus par exemple par filtrage (étape 40, figure 1 ).
Dans le second cas (figure 3b), tout point P1 b du profil de route observé 13b est vu par le système stéréoscopique de manière plus éloignée que le point P2b correspondant du profil linéaire de référence 120, les points P1 b et P2b étant sur la droite Db passant, en projection sur cette vue latérale, par le centre optique 01 de la caméra 1 1. Cet « éloignement » du point P1 b est dû à l'inclinaison négative du profil 13b.
L'écart de profondeur AZb entre les points P1 b et P2b se mesure également selon l'axe OZ. Cet écart AZb augmente avec l'éloignement du point P1 b considéré du fait de l'inclinaison du profil observé 13b par rapport au profil linéaire de référence 120.
Il apparaît donc important de pouvoir corriger l'écart de calibration lacet qui est « convergent » ou « divergent » du système stéréoscopique (dû aux vibrations, à la calibration initiale et/ou aux effets thermiques) et qui induit des profils d'inclinaison respectivement positive ou négative.
Outre les méthodes empiriques évoquées plus haut, l'invention propose également une méthode de correction quantifiée de la calibration lacet par corrélation entre la variation de lacet AL formé entre les caméras - provoquant l'écart de calibration lacet - et l'écart de profondeur ΔΖ, à savoir AZa ou AZb selon les deux cas décrits ci- dessus, qui s'en déduit.
Pour établir une telle corrélation, il convient de partir du positionnement d'un point d'image Pi de la scène observée dans un plan image 11 de la caméra 11 , comme illustré par la vue en perspective de la figure 4. La caméra 11 (symboliquement indiquée par un contour en traits pointillés) possède le centre optique 01 , centre du repère 01X1 Y1Z1 définissant un axe optique 01Z1 , supposé ici parallèle à l'axe longitudinal roulis OZ du système stéréoscopique (figures 2a, 2b), un axe transversal 01X1 , supposé ici parallèle à l'axe tangage OX de ce système et un axe élévation 01Y1 , parallèle à l'axe lacet OY du système stéréoscopique. La caméra 1 1 possède également une distance focale « f » égale à la distance entre son plan image 11 et son centre optique 01. Dans le repère (U, V) du plan image 11 , la caméra 1 1 forme le point d'image Pi d'un point objet Ps de la scène avec pour coordonnées Ui et Vi, Ui étant la coordonnée transversale (parallèle à l'axe 01X1 ) et Vi la coordonnée élévation (parallèle à l'axe 01Y1 ). Des coordonnées normalisées Un = ({/ί~"0 et Vn = ( ~yo) du point Pi sont définies en référence aux cordonnées U0 et V0 du point principal PO, où l'axe optique 01Z1 de la caméra 11 perce le plan image 11 de façon perpendiculaire.
L'autre caméra 12 du système stéréoscopique, illustrée de façon similaire à la caméra 11 , forme - de façon équivalente à la caméra 11 - un point image P'i du point objet Ps de coordonnées U'i et V'i dans le repère (U', V) de son plan image 12 de point principal ΡΌ. Le repère de référence 02X2Y2Z2 de la caméra 12 est centré sur le centre optique 02 de cette caméra, l'axe 02Z2 formant son axe optique.
Une variation élémentaire d'angle lacet dL entre les deux caméras 11 et 12 du système est alors déterminée en fonction d'un écart de profondeur élémentaire dZ - correspondant aux écarts finis AZa ou AZb des figures 3a et 3b - formé sur l'axe longitudinal 01 Z1. L'écart de profondeur élémentaire dZ est mesuré par l'écart entre la profondeur Zi du point Pi sur l'axe 01Z1 et la profondeur Z'i du point P'i qui est le point d'image du point Ps tel qu'observé dans le plan image 12 de cette caméra 12 par la méthode épipolaire de reconstruction d'image stéréoscopique.
La corrélation entre une variation élémentaire d'angle lacet dL et l'écart de profondeur élémentaire correspondant dZ, est alors donnée par la formule:
dL = , ~dz*b ,^, b étant la distance entre les centres optiques des caméras
(z2»(l+i/n2)) ^ ^
(cf. figure 2b). Il apparaît ainsi que la variation d'angle lacet dL dépend de la profondeur Zs élevée au carré du point objet P's tel qu'attendu dans une scène considérée comme plane. Cette forte dépendance induit la forte inclinaison des profils de route tels qu'observés par le système stéréoscopique embarqué dans le véhicule, dans le cas d'angle de lacet convergent ou divergent entre les caméras du système (cf. figures 3a et 3b).
L'invention n'est pas limitée aux exemples décrits et représentés. Ainsi, l'invention peut s'appliquer à des systèmes de plus de deux caméras en utilisant le procédé pour chaque ensemble de caméras du système (paire, triplet, quadruplet,... ).
Par ailleurs, il est possible d'utiliser toute méthode de reconstruction d'image tridimensionnelle capable de réaliser des cartes de disparité pour déterminer les profondeurs des points d'une scène à partir des images fournies par les caméras d'un système stéréoscopique, par exemple des méthodes locales, globales et semi-globales en fonction du mode de détermination des scores d'appariement, de la découpe des images et du mode d'expression des disparités. Les méthodes locales reposent sur des scores d'appariement de chaque paire de pixels de chaque image obtenus entre les pixels qui entourent immédiatement deux pixels à apparier. Diverses fonctions de corrélation peuvent être utilisées (somme des écarts quadratiques, somme des écarts absolus, inter-corrélation normalisée centrée, etc.) pour déterminer alors les disparités des pixels appariés. Pour chaque paire de pixels analysée, la disparité correspondant au meilleur score est sélectionnée.
Les méthodes globales consistent à optimiser une fonction d'énergie définie sur toute l'image de référence. La fonction d'énergie définit les contraintes que la carte de disparité doit respecter, par exemple la continuité de la disparité sur les objets. Par la suite, l'ensemble des disparités qui minimisent cette fonction d'énergie est recherché. La méthode de coupure de graphes (« Graph-Cut » en terminologie anglaise) et la propagation de croyance (« Belief Propagation en terminologie anglaise) sont les méthodes globales les plus étudiées.
Les méthodes semi-globales se basent sur le même principe que les méthodes globales mais sur des sous-parties de l'image, à savoir des lignes ou des blocs. Le découpage du problème d'optimisation de la fonction d'énergie en sous-problèmes permet de diminuer le besoin en ressources de calcul et de mémoires par rapport aux méthodes globales.

Claims

REVENDICATIONS
1. Procédé de calibration extrinsèque d'une première (1 1 ) et d'une deuxième caméras (12) d'un système stéréoscopique de formation d'images stéréos embarqué dans un véhicule automobile (1 ), comportant les étapes suivantes :
acquisition de calibrations intrinsèques mono et extrinsèques stéréo de roulis, tangage et lacet des caméras (étape 31 ) ;
acquisition d'images stéréoscopiques successives d'une scène dans un champ de vision par reconstruction d'images tridimensionnelles calibrées par l'étape de calibration précédente, chaque image stéréoscopique étant reconstruite à partir d'images gauche et droite des première et deuxième caméras (11 , 12) produites simultanément et mémorisées numériquement sous forme de pixels (étape 30) ;
filtrage des images stéréoscopiques ainsi reconstruites (étape 40) ;
- comparaison, par filtrage spatio-temporel avec un nombre prédéterminé de points, entre un profil de la scène (130; 13a, 13b) telle qu'observée par chaque image reconstruite (10) et un profil linéaire de la scène (120) telle qu'attendue (étape 50) ;
établissement d'un écart de calibration lacet (AL) à partir de la comparaison précédente (étape 60) ;
- correction de la calibration lacet des caméras (11 , 12) à partir de l'écart de calibration lacet déterminée par l'étape précédente (étape 61 ) ; et itération de la correction de l'étape précédente jusqu'à obtenir un écart de calibration nulle par répétition des étapes précédentes (étapes 31 à 61 ).
2. Procédé de calibration selon la revendication 1 , caractérisé en ce que la comparaison entre des profils de la scène telle qu'observée et telle qu'attendue consiste à déterminer un écart de profondeurs de champ (AZa ; AZb) entre une profondeur de champ d'au moins un point (P1a, P1 b) de la scène telle qu'observée (130; 13a, 13b) et une profondeur de champ d'au moins un point (P2a ; P2b) de la scène de profil linéaire telle qu'attendue (120), puis à déterminer l'écart de calibration lacet (AL) entre les première et deuxième caméras (1 1 , 12) en fonction de l'écart de profondeur moyennée sur un ensemble déterminé de points.
3. Procédé de calibration selon la revendication précédente, dans lequel la profondeur de champ observée d'un point d'image (Pi) de la scène plane formée par la première caméra (1 1 ) est déterminée en fonction d'une disparité entre les images des caméras (1 1 , 12).
4. Procédé de calibration selon la revendication 3, dans lequel la distance entre ladite première caméra (1 1 ) et le point d'image (Pi) est égale au produit de la distance focale (f) de la première caméra (1 1 ) et d'une distance (b) entre les caméras (1 1 , 12) divisé par la disparité entre les images des caméras.
5. Procédé de calibration selon l'une quelconque des revendications 2 à 4, dans lequel la profondeur attendue (Zs) est déterminée par une matrice de passage entre un repère (01X1Y1 Z1 ) de ladite première caméra (1 ) et un repère (OXYZ) du véhicule (1 ).
6. Procédé de calibration selon l'une quelconque des revendications 2 à 5, dans lequel l'écart de calibration lacet (AL) est, pour chaque point d'image (Pi), proportionnel à l'écart de profondeur (AZa; AZb) et inversement proportionnel au carré de la profondeur attendue (Zs).
7. Procédé de calibration selon l'une quelconque des revendications 2 à 6, dans lequel l'écart de calibration lacet (AL) entre la première (1 1 ) et la deuxième caméra (12) correspond à une convergence, respectivement une divergence, entre les axes optiques (01Z1 , 02Z2) des caméras (1 1 , 12), selon que le profil de la scène observée (130) est globalement inclinée avec une pente globalement positive (13a), respectivement globalement négative (13b), par rapport à la scène attendue de profil de pente globalement nulle (120).
8. Procédé de calibration selon l'une quelconque des revendications 2 à 7, dans lequel une variation élémentaire d'angle lacet dL entre la première (1 1 ) et la deuxième caméra (12) en fonction d'un écart de profondeur élémentaire dZ, entre un même point tel qu'observé (P1a; P1 b) et tel qu'attendu (P2a; P2b) respectivement du profil de la scène observé (130; 13a, 13b) et du profil linéaire de la scène attendu (120), est donnée par la formule suivante dL = -dz*b <( ^ >y distance entre les caméras, « Z » la
(Z2»(l+i/n2))
profondeur attendue du point (P2a; P2b) dans la scène de profil linéaire (120), « Un » une coordonnée transversale normalisée d'un point d'image (Pi) correspondant au point observé dans un repère image bidimensionnel de la première caméra, avec : Un = (-Ul~U0^i « ui » étant une coordonné transversale du point d'image dans un plan d'image de la première caméra (1 1 ), « U0 » une coordonnée centrée dans ladite image et « f » une distance focale de ladite première caméra (1 1 ).
PCT/EP2015/001726 2014-09-25 2015-08-24 Procédé de calibration extrinsèque de caméras d'un système de formation d'images stéréos embarqué WO2016045764A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201580051885.0A CN106716489B (zh) 2014-09-25 2015-08-24 机载的形成立体图像的系统的摄像机的外在校准方法
US15/512,687 US10672147B2 (en) 2014-09-25 2015-08-24 Extrinsic calibration method for cameras of an on-board system for formation of stereo images

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1459047A FR3026591B1 (fr) 2014-09-25 2014-09-25 Procede de calibration extrinseque de cameras d'un systeme de formation d'images stereos embarque
FR1459047 2014-09-25

Publications (1)

Publication Number Publication Date
WO2016045764A1 true WO2016045764A1 (fr) 2016-03-31

Family

ID=51897332

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/001726 WO2016045764A1 (fr) 2014-09-25 2015-08-24 Procédé de calibration extrinsèque de caméras d'un système de formation d'images stéréos embarqué

Country Status (4)

Country Link
US (1) US10672147B2 (fr)
CN (1) CN106716489B (fr)
FR (1) FR3026591B1 (fr)
WO (1) WO2016045764A1 (fr)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10764561B1 (en) 2016-04-04 2020-09-01 Compound Eye Inc Passive stereo depth sensing
CN109242901B (zh) * 2017-07-11 2021-10-22 深圳市道通智能航空技术股份有限公司 应用于三维相机的图像校准方法和装置
CN108765484B (zh) * 2018-05-18 2021-03-05 北京航空航天大学 基于两台高速摄像机的活体昆虫运动采集及数据重构方法
DE102018215491A1 (de) 2018-09-12 2020-03-12 Robert Bosch Gmbh Verfahren zur Kalibrierung eines Erfassungssystems
CN109242914B (zh) 2018-09-28 2021-01-01 上海爱观视觉科技有限公司 一种可动视觉系统的立体标定方法
TWI680436B (zh) * 2018-12-07 2019-12-21 財團法人工業技術研究院 深度相機校正裝置及其方法
WO2020183312A1 (fr) * 2019-03-09 2020-09-17 Corephotonics Ltd. Système et procédé d'étalonnage stéréoscopique dynamique
WO2021002219A1 (fr) * 2019-07-03 2021-01-07 日立オートモティブシステムズ株式会社 Dispositif de commande de véhicule
US11030478B1 (en) 2019-11-27 2021-06-08 Compound Eye, Inc. System and method for correspondence map determination
WO2021150784A1 (fr) * 2020-01-21 2021-07-29 Compound Eye Inc. Système et procédé d'étalonnage de caméra
US11427193B2 (en) * 2020-01-22 2022-08-30 Nodar Inc. Methods and systems for providing depth maps with confidence estimates
WO2021150369A1 (fr) 2020-01-22 2021-07-29 Nodar Inc. Système non rigide de caméras à vision stéréoscopique
US11577748B1 (en) 2021-10-08 2023-02-14 Nodar Inc. Real-time perception system for small objects at long range for autonomous vehicles
WO2023244252A1 (fr) 2022-06-14 2023-12-21 Nodar Inc. Système de vision 3d avec capteurs de vision stéréo et capteur lidar étalonnés automatiquement

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080036576A1 (en) * 2006-05-31 2008-02-14 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
DE102008008619A1 (de) * 2008-02-12 2008-07-31 Daimler Ag Verfahren zur Kalibrierung eines Stereokamerasystems
JP2009182879A (ja) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc 校正装置及び校正方法
WO2011079258A1 (fr) 2009-12-24 2011-06-30 Cognex Corporation Système et procédé pour la détermination, à l'exécution, de défaut de d'étalonnage de caméra
EP2541498A1 (fr) * 2011-06-30 2013-01-02 Harman Becker Automotive Systems GmbH Procédé pour définir les paramètres extrinsèques dýun système de vision de véhicule et système de vision de véhicule
FR2986358A1 (fr) 2012-01-31 2013-08-02 Continental Automotive France Procede de calibration des caracteristiques extrinseques d'une camera solidaire d'un pare-brise de vehicule automobile

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004062275A1 (de) * 2004-12-23 2006-07-13 Aglaia Gmbh Verfahren und Vorrichtung zum Ermitteln eines Kalibrierparameters einer Stereokamera
JP5285619B2 (ja) * 2006-12-18 2013-09-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ カメラシステムのキャリブレーション
DE102008040985B4 (de) * 2008-08-05 2021-05-27 Robert Bosch Gmbh Verfahren zur Kalibrierung eines Mehrkamerasystems
FR2952743A3 (fr) * 2009-11-19 2011-05-20 Astrium Sas Procede d'estimation du mouvement d'un instrument d'observation a defilement survolant un corps celeste
JP5491235B2 (ja) * 2010-03-02 2014-05-14 東芝アルパイン・オートモティブテクノロジー株式会社 カメラキャリブレーション装置
CN101876533B (zh) * 2010-06-23 2011-11-30 北京航空航天大学 一种显微立体视觉校准方法
US9237331B2 (en) * 2011-01-18 2016-01-12 Disney Enterprises, Inc. Computational stereoscopic camera system
JP2013059016A (ja) * 2011-08-12 2013-03-28 Sony Corp 画像処理装置および方法、並びにプログラム
JP5898475B2 (ja) * 2011-11-28 2016-04-06 クラリオン株式会社 車載カメラシステム及びその較正方法、及びその較正プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080036576A1 (en) * 2006-05-31 2008-02-14 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
JP2009182879A (ja) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc 校正装置及び校正方法
DE102008008619A1 (de) * 2008-02-12 2008-07-31 Daimler Ag Verfahren zur Kalibrierung eines Stereokamerasystems
WO2011079258A1 (fr) 2009-12-24 2011-06-30 Cognex Corporation Système et procédé pour la détermination, à l'exécution, de défaut de d'étalonnage de caméra
EP2541498A1 (fr) * 2011-06-30 2013-01-02 Harman Becker Automotive Systems GmbH Procédé pour définir les paramètres extrinsèques dýun système de vision de véhicule et système de vision de véhicule
FR2986358A1 (fr) 2012-01-31 2013-08-02 Continental Automotive France Procede de calibration des caracteristiques extrinseques d'une camera solidaire d'un pare-brise de vehicule automobile

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHAO W ET AL: "Effects of camera alignment errors on stereoscopic depth estimates", PATTERN RECOGNITION, ELSEVIER, GB, vol. 29, no. 12, 1 December 1996 (1996-12-01), pages 2115 - 2126, XP004015755, ISSN: 0031-3203, DOI: 10.1016/S0031-3203(96)00051-9 *

Also Published As

Publication number Publication date
CN106716489B (zh) 2020-08-25
US20170287169A1 (en) 2017-10-05
US10672147B2 (en) 2020-06-02
FR3026591B1 (fr) 2016-10-21
FR3026591A1 (fr) 2016-04-01
CN106716489A (zh) 2017-05-24

Similar Documents

Publication Publication Date Title
WO2016045764A1 (fr) Procédé de calibration extrinsèque de caméras d&#39;un système de formation d&#39;images stéréos embarqué
EP2923330B1 (fr) Procede de reconstruction 3d et de mosaïquage 3d panoramique d&#39;une scene
US8120644B2 (en) Method and system for the dynamic calibration of stereovision cameras
JP5541653B2 (ja) 撮像装置及びその制御方法
EP1999484B1 (fr) Detection d&#39;obstacle
CN108028023A (zh) 信息处理装置、信息处理方法和程序
CN103424105B (zh) 对象检测方法和装置
WO2011117539A1 (fr) Methode et installation pour detecter la presence et l&#39;altitude de defauts dans un composant optique
KR101431373B1 (ko) 스테레오 정합을 이용한 차량의 움직임 측정 장치
CN109444916A (zh) 一种无人驾驶可行驶区域确定装置及方法
FR3020490A1 (fr) Systeme de localisation d&#39;un meme vehicule dans plusieurs zones differentes les unes des autres dans lesquelles ledit vehicule passe consecutivement
EP2208963B1 (fr) Procédé de mesure de jeux et d&#39;affleurements
Jutzi et al. Improved UAV-borne 3D mapping by fusing optical and laserscanner data
FR3052581B1 (fr) Procede de realisation d&#39;une carte de profondeurs a partir d&#39;images successives d&#39;une camera unique (mono) embarquee dans un vehicule automobile
FR2938228A1 (fr) Procede de mesure de distance au moyen d&#39;une camera embarquee dans un vehicule automobile
Cong et al. Dense single-shot 3D scanning via stereoscopic fringe analysis
Bourzeix et al. Speed estimation using stereoscopic effect
CN114279410B (zh) 摄像头测距方法
FR3069689B1 (fr) Procede d&#39;estimation du mouvement d&#39;un point dans une sequence d&#39;images
FR3084864A1 (fr) Procede de densification d&#39;une carte de profondeurs
FR3103301A1 (fr) Procédé de détection de pics d’intensité de faisceau lumineux réfléchi de manière spéculaire
FR3029641B1 (fr) Procede de determination d’une trajectographie par voie passive d’une source mobile par une methode de triangulation inverse
Lukić et al. Stereoscopic vehicle speed measurement-System calibration and synchronization errors analysis
JP2024514006A (ja) 自車両の周辺環境における少なくとも1つの特徴の位置を補正する方法およびシステム
FR2984512A1 (fr) Procede et systeme d&#39;auto-calibration d&#39;un dispositif de mesure de vitesse d&#39;un vehicule circulant dans un espace tridimensionnel

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15756839

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15512687

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15756839

Country of ref document: EP

Kind code of ref document: A1