DE102007027958A1 - Method for optimizing a stereoscopic image - Google Patents

Method for optimizing a stereoscopic image Download PDF

Info

Publication number
DE102007027958A1
DE102007027958A1 DE102007027958A DE102007027958A DE102007027958A1 DE 102007027958 A1 DE102007027958 A1 DE 102007027958A1 DE 102007027958 A DE102007027958 A DE 102007027958A DE 102007027958 A DE102007027958 A DE 102007027958A DE 102007027958 A1 DE102007027958 A1 DE 102007027958A1
Authority
DE
Germany
Prior art keywords
disparity
image
pixels
term
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007027958A
Other languages
German (de)
Inventor
Uwe Dr.-Ing. Franke
Stefan Dr. Rer. Nat. Gehrig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102007027958A priority Critical patent/DE102007027958A1/en
Priority to PCT/EP2008/003830 priority patent/WO2008154989A1/en
Publication of DE102007027958A1 publication Critical patent/DE102007027958A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

Die Erfindung betrifft ein Verfahren zur Optimierung eines stereoskopischen Bildes, wobei mindestens zwei Teilbilder (1.1, 1.2) eines Objektes (O) von unterschiedlichen Aufnahmepunkten aufgenommen und die Teilbilder (1.1, 1.2) derart umgewandelt werden, dass korrespondierende Teilbildpunkte (TP1.1, TP1.2) der beiden Teilbilder (1.1, 1.2) bezüglich einer Koordinate in einem Raumpunkt zusammenfallen und eine einer Abweichung zwischen Koordinatenwerten der korrespondierenden Teilbildpunkte (T1.1, T1.2) entsprechende Disparität ermittelt wird, anhand der ein Disparitätsbild (DB) mit entsprechenden Bildpunkten (BP) erzeugt wird. Erfindungsgemäß werden Disparitätswerte (d_mess) benachbarter Bildpunkte (BP) des ermittelten Disparitätsbildes (DB1) anhand eines Glättungsterms (EG) verarbeitet und ein geglättetes Disparitätsbild (DB2) erzeugt.The invention relates to a method for optimizing a stereoscopic image, wherein at least two partial images (1.1, 1.2) of an object (O) are recorded by different recording points and the partial images (1.1, 1.2) are converted such that corresponding partial pixels (TP1.1, TP1 .2) of the two partial images (1.1, 1.2) coincide with respect to a coordinate in a spatial point, and a disparity corresponding to a deviation between coordinate values of the corresponding partial pixels (T1.1, T1.2) is determined on the basis of which a disparity image (DB) with corresponding Pixels (BP) is generated. According to the invention, disparity values (d_mess) of adjacent pixels (BP) of the ascertained disparity image (DB1) are processed on the basis of a smoothing term (E G ) and a smoothed disparity image (DB2) is generated.

Figure 00000001
Figure 00000001

Description

Die Erfindung betrifft ein Verfahren zur Optimierung eines stereoskopischen Bildes.The The invention relates to a method for optimizing a stereoscopic Image.

Stereoskopieverfahren zur raumtreuen Abbildung beruhen üblicherweise auf dem Vergleich von mindestens zwei korrespondierenden Halbbildern (auch stereoskopische Halbbilder oder Bildpaar genannt), die aus mindestens zwei unterschiedlichen Blickwinkeln, beispielsweise zwei unterschiedlichen Kamerapositionen, aufgenommen werden, wobei korrespondierende Teilbildpunkte der Halbbilder durch geeignete Verfahren einander zugeordnet werden. Im Folgenden wird die Erfindung und der Stand der Technik anhand von zwei, mittels zwei hinsichtlich Orientierung und Brennweite abgestimmten Kameras aufgenommener Halbbilder beschrieben (= Standard-Stereo mit stereoskopischen Bildern); die Erfindung ist aber auch auf Systeme mit mehr als 2 Kameras nutzbringend anwendbar (= Multi-Stereo mit Multistereobildern).Stereoscopy method to the space-faithful illustration are usually based on the Comparison of at least two corresponding fields (also stereoscopic fields or image pairs), which consists of at least two different angles, for example two different ones Camera positions, are recorded, with corresponding subpixels the fields are assigned to each other by suitable methods. The invention and the prior art will be described below of two, by means of two in terms of orientation and focal length coordinated cameras recorded fields (= standard stereo with stereoscopic images); however, the invention is also related to systems usefully applicable with more than 2 cameras (= multi-stereo with Multi stereo images).

Die aus mindestens zwei unterschiedlichen Blickwinkeln aufgenommenen Halbbilder können zum Beispiel durch einfache Triangulation der Rekonstruktion von Tiefenwerten (auch Raumwerte) dienen gemäß: Abstand = normierte Brennweite × Basisbreite/Disparität. The half-images recorded from at least two different viewing angles can serve, for example, by simple triangulation of the reconstruction of depth values (also spatial values) according to: Distance = normalized focal length × base width / disparity.

Unter Tiefenwerten wird dabei die Tiefe eines Bildpunktes (= Raumpunkt der korrespondierenden Teilbildpunkte) verstanden, welche den Abstand des Bildpunktes vom Projektionszentrum der entsprechenden Kamera beschreibt. Durch Rekonstruktion von Tiefenwerten für sämtliche Bildpunkte des aus den zwei Halbbildern gebildeten stereoskopischen Bildes erhält man ein stereoskopisches Bild mit so genannter dichter Tiefenschätzung und somit ein dreidimensionales Bild.Under Depth values thereby become the depth of a pixel (= space point the corresponding subpixels), which is the distance of the pixel from the projection center of the corresponding camera describes. By reconstruction of depth values for all Pixels of the stereoscopic image formed from the two fields Image is obtained a stereoscopic image with so-called dense depth estimate and thus a three-dimensional Image.

Die Disparität des stereoskopischen Bildes wird üblicherweise pixelgenau ermittelt, indem eine Abweichung (= Abstand) zwischen Koordinatenwerten von korrespondierenden Teilbildpunkten der Halbbilder ermittelt wird. Dabei stellt eine Abweichung zwischen Koordinatenwerten der X-Koordinate der korrespondierenden Teilbildpunkte eine so genannte Querdisparität und eine Abweichung zwischen Koordinatenwerten der Z-Koordinate der korrespondierenden Teilbildpunkte eine so genannte Tiefen- oder Raumtiefendisparität dar. Beim Rektifizieren werden dazu die zwei Halbbilder beispielsweise in eine gemeinsame Bildebene derart projiziert, dass alle Abstandsvektoren korrespondierender Teilbildpunkte parallel zur X-Koordinate der Bildebene verlaufen, wobei die Y-Koordinate identisch ist.The Disparity of the stereoscopic image usually becomes pixel exact determined by a deviation (= distance) between Coordinate values of corresponding subpixels of the fields is determined. It represents a deviation between coordinate values the X coordinate of the corresponding subpixels a so-called Transverse disparity and a deviation between coordinate values the z-coordinate of the corresponding subpixels a so-called Depth or space depth disparity. When rectifying For example, the two fields are in a common Image plane projected such that all distance vectors corresponding Subpixels run parallel to the X coordinate of the image plane, where the Y coordinate is identical.

Die meisten Verfahren zur Bestimmung von Disparitäten, wie z. B. korrelationsbasierte Techniken oder global optimierende Ansätze, wie das so genannte Semi-Global-Matching, bestimmen die Disparitäten pixel-genau. Vor allem bei kleinen Disparitäten führt das in der Regel zu nicht tolerierbaren Quantisierungseffekten bei der Bestimmung der Entfernung oder Tiefe, welche die Qualität der Daten beeinflusst. Deshalb wird oft versucht, die Disparität genauer, d. h. subpixel-genau, zu schätzen. Dazu benutzt man eine so genannte "goodness-of-fit-Funktion", die man im Rahmen der Stereoanalyse für verschiedene Disparitäten ausgewertet hat und passt (auch fitten genannt) eine geeignete Funktion, meist eine Parabel, an das Optimum und die Funktionswerte der angrenzenden Disparitäten an. Der Ort des Minimums dieser Funktion wird dann als verbesserte Schätzung der Disparität angesehen. Eine derartige Funktion ist beispielsweise in D. Scharstein, R. Szeliski: "A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms", Proceedings of the IEEE Workshop an Stereo and Multi-Baseline Vision, Kauai, HI, 12/2001 , beschrieben. Diese Operation wird an allen Bildpunkten durchgeführt, für die vorab eine Disparität ermittelt wurde. Auch wenn dadurch die extremen Quantisierungseffekte vermieden werden, ist diese Vorgehensweise nicht befriedigend, da die unabhängige Auswertung der betrachteten Bildpunkte in einem starken Rauschen resultiert.Most methods for determining disparities, such as. B. Correlation-based techniques or global optimizing approaches, such as the so-called semi-global matching, determine the disparities pixel-exact. Especially with small disparities, this usually leads to intolerable quantization effects when determining the distance or depth, which influences the quality of the data. Therefore, it is often tried to estimate the disparity more accurately, ie subpixel-exact. For this purpose, one uses a so-called "goodness-of-fit function", which has been evaluated in the context of stereo analysis for various disparities and fits (also called fit) a suitable function, usually a parabola, to the optimum and the functional values of the adjacent Disparities. The location of the minimum of this function is then considered an improved estimate of the disparity. Such a function is for example in D. Scharstein, R. Szeliski: A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms, Proceedings of the IEEE Workshop on Stereo and Multi-Baseline Vision, Kauai, HI, 12/2001 , described. This operation is performed on all pixels for which a disparity was previously determined. Even if this avoids the extreme quantization effects, this approach is not satisfactory because the independent evaluation of the considered pixels results in a high noise.

Darüber hinaus sind Ansätze bekannt, die die Schätzung eines dichten Disparitätsbildes als Variationsaufgabe auffassen, wobei ein globaler Energieterm bestehend aus Ähnlichkeitsmaß der Stereobilder und Glattheitsmaß minimiert wird, wie dies beispielsweise aus X. Huang, E. Dubois: "Disparity estimation for the intermediate view interpolation of stereoscopic images", ICASSP 2005 , bekannt ist. Diese Verfahren sind sehr rechenintensiv und neigen zu unerwünschten Glättungen an Tiefensprüngen mit geringen Grauwertunterschieden. Somit sind Objektdetektionen mit wachsender Entfernung oder Tiefe erschwert.In addition, approaches are known which consider the estimation of a dense disparity image as a variational task, wherein a global energy term consisting of similarity measure of the stereo images and smoothness measure is minimized, as for example X. Huang, E. Dubois: "Disparity estimation for the intermediate view interpolation of stereoscopic images", ICASSP 2005 , is known. These methods are very computationally intensive and prone to undesirable smoothing of depths with little difference in gray scale. Thus, object detection becomes more difficult with increasing distance or depth.

Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zur Optimierung eines stereoskopischen Bildes anzugeben.Of the The invention is therefore based on the object, an improved method to specify a stereoscopic image.

Die Aufgabe wird erfindungsgemäß gelöst durch die im Patentanspruch 1 angegebenen Merkmale. Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.The The object is achieved by the features specified in claim 1. Advantageous developments The invention are the subject of the dependent claims.

Beim erfindungsgemäßen Verfahren zur Optimierung eines stereoskopischen Bildes werden Disparitätswerte von benachbarten Bildpunkte eines Disparitätsbildes, wobei die Disparitätswerte in einem herkömmlichen Verfahren ermittelt werden, anhand eines Glättungsterms verarbeitet und ein geglättetes Disparitätsbild erzeugt. Hierdurch wird die Qualität einer Pixelkorrespondenz bewertet, indem dabei Glattheitsbedingungen berücksichtigt werden, z. B. derart, dass benachbarte Bildpunkte meist glatte Oberflächen mit weitgehend gleicher Entfernung aufweisen. Mit anderen Worten: Der Tiefenunterschied benachbarter Bildpunkte wird als Bewertungskriterium für die Glattheit des Objekts genommen, wobei benachbarte Bildpunkte insbesondere ohne Rücksicht auf lokale Pixelkontraste (= Kanten und somit Tiefenunterschiede), d. h. über Disparitätskanten hinweg, stückweise geglättet werden. Hierdurch sind unerwünschte Verschmierungseffekte an Objektgrenzen (= Disparitätssprünge) vermieden, so dass eine bei der Stereoanalyse ermittelte Tiefenkarte oder ein Tiefenbild extrem rauschfrei ist. Hierdurch kann die Auflösungsgrenze von Stereosystemen gesteigert werden.At the inventive method for optimizing a stereoscopic image will be disparity values from neighboring ones Pixels of a disparity image, where the disparity values be determined in a conventional method, based a smoothing term and a smoothed one Disparity image generated. This is the quality pixel correspondence by taking into account smoothness conditions be, for. B. such that adjacent pixels usually smooth surfaces having substantially the same distance. In other words: The difference in depth between adjacent pixels is used as an evaluation criterion taken for the smoothness of the object, being adjacent Pixels in particular without regard to local pixel contrasts (= Edges and thus depth differences), d. H. about disparity edges away, be smoothed piece by piece. hereby are unwanted smearing effects on object boundaries (= Disparity jumps) avoided, so that a in the stereo analysis determined depth map or a depth image extreme is noise-free. This allows the resolution limit of Stereosystemen be increased.

Das zugrunde liegende Disparitätsbild wird herkömmlich beispielsweise anhand von mindestens zwei Teilbilder eines Objektes gebildet, die von unterschiedlichen Aufnahmepunkten aufgenommen und derart umgewandelt werden, dass korrespondie rende Teilbildpunkte der beiden Teilbilder bezüglich einer Koordinate (z. B. der X-Koordinate für die so genannte Querdisparität oder der Z-Koordinate für die so genannte Tiefenabweichung) in einem Raumpunkt zusammenfallen und eine einer Abweichung zwischen Koordinatenwerten der korrespondierenden Teilbildpunkte entsprechende Disparität ermittelt wird, anhand der ein Disparitätsbild mit entsprechenden Bildpunkten erzeugt wird.The underlying disparity picture becomes conventional for example, based on at least two partial images of an object formed, taken from different pickup points and are converted such that corresponding partial pixels of the two partial images with respect to a coordinate (eg the X-coordinate for the so-called transverse disparity or the Z-coordinate for the so-called depth deviation) to coincide in a point of space and a deviation between Coordinate values of the corresponding subpixels corresponding Disparity is determined based on a disparity image is generated with corresponding pixels.

Im Detail erfolgt die Optimierung der lokalen Disparität durch Energieminimierung, insbesondere so genannte globale Minimierung, bei der ein Raummodell durch einen Datenterm, der die Annahme der Bildkonsistenz umsetzt, und durch den Glättungsterm, der die stückweise Glättung benachbarter Bildpunkte umsetzt, vorgegeben wird.in the Detail is done optimizing the local disparity Energy minimization, in particular so-called global minimization, in the case of a space model through a data term, which is the assumption of Image consistency is implemented, and by the smoothing term, the the piecewise smoothing of adjacent pixels implements, is given.

Vorzugsweise wird der Glättungsterm gewichtet. Insbesondere werden die Disparitätswerte der benachbarten Bildpunkte gewichtet. Dabei kann der Glättungsterm als ein Glattheitsgewicht oder ein Kantengewicht bei der Energieminimierungsfunktion eingehen, wobei der Wichtungsfaktor eine Konstante, insbesondere eine ganzzahlige positive Konstante ist. Mit steigendem, insbesondere einem hohen Wichtungsfaktor wird die Nachbildung von glatten Oberflächen verbessert, wobei ein mittlerer Wichtungsfaktor die genaue Kantennachbildung verbessert, welche frei von Lücken sein sollte. Dabei kann durch Variation des Wichtungsfaktors ein entsprechend optimaler Wichtungsfaktor sowohl für die Nachbildung von glatten Oberflächen als auch von Kanten ermittelt werden. Bevorzugt wird ein für die Nachbildung glatter Oberflächen optimaler Wichtungsfaktor vorgegeben, wobei in diesem Ausführungsbeispiel dann der Glättungsterm an Objekt- oder Disparitätskanten repräsentierenden Bildpunkten deaktiviert oder reduziert wird.Preferably the smoothing term is weighted. In particular, the Weighted disparity values of neighboring pixels. The smoothing term may be a smoothness weight or an edge weight in the energy minimization function, wherein the weighting factor is a constant, in particular an integer positive constant is. With rising, especially a high Weighting factor is the reproduction of smooth surfaces improved, with an average weighting factor the exact edge replica improved, which should be free of gaps. It can by varying the weighting factor a correspondingly optimal Weighting factor for both the replica of smooth Surfaces and edges are determined. Prefers becomes a smooth surface for the reproduction given optimal weighting factor, in this embodiment then the smoothing term representing object or disparity edges Pixels is disabled or reduced.

In einer weiteren Ausführungsform berücksichtigt der Glättungsterm Tiefenunterschiede und/oder Querunterschiede. Dabei wird mittels des vorgebbaren Wichtungsfaktors die Glättung beispielsweise derart entfernungsabhängig (= Tiefenunterschied) eingestellt, dass Objekte in großer Entfernung oder Raumtiefe stärker geglättet werden als Objekte in naher Entfernung zur Kamera. Alternativ kann der Wichtungsfaktor auch in Abhängigkeit vom Seitenabstand des Objektes zur Kamera entsprechend vorgegeben werden (= Querunterschiede).In considered a further embodiment the smoothing term depth differences and / or cross differences. In this case, by means of the predeterminable weighting factor, the smoothing for example, depending on the distance (= depth difference) set that objects at great distance or depth of space stronger be smoothed as objects near the camera. Alternatively, the weighting factor can also be dependent from the side distance of the object to the camera specified accordingly become (= cross differences).

In einer weiteren Ausführungsform kann zusätzlich zu den Teilbildern des Objektes ein Kontrastterm, insbesondere ein Grauwertbild berücksichtigt werden. Hierdurch kann ebenfalls die Glättung an Objektgrenzen entsprechend reduziert oder gegebenenfalls deaktiviert werden.In Another embodiment may additionally to the partial images of the object a contrast term, in particular a Gray value image are taken into account. This can also be done the smoothing at object boundaries is reduced accordingly or be disabled if necessary.

Als eine mögliche Ausführungsform wird das geglättete Disparitätsbild anhand eines auf einer globalen Energieminimierungsfunktion basierendes Optimierungsverfahrens bestimmt, indem bei der Schätzung von subpixel-genauen Disparitäten der Glättungsterm berücksichtiget und das Schätzproblem als lokale Energieminimierung formuliert wird. Dabei wird die Energieminimierungsfunktion aus einem Datenterm und dem Glättungsterm gebildet, wobei als Datenterm ein Ähnlichkeitsmaß der Ähnlichkeit von Disparitätswerten der Bildpunkte ermittelt wird. Dabei weisen aufgrund der Bildkonsistenz des Raumes deren zugehörigen Raumpunkte (= Bildpunkte) annä hernd gleiche Teilbildpunkte mit gleichen Werten, insbesondere Farbwerte, Helligkeitswerte, auf.When a possible embodiment is the smoothed Disparity image based on one on a global energy minimization feature based on the estimation of Subpixel-exact disparities of the smoothing term and the estimation problem as local Energy minimization is formulated. This is the energy minimization function formed from a data term and the smoothing term, wherein as data term a similarity measure of similarity of disparity values of the pixels is determined. there due to the image consistency of the room their associated Space points (= pixels) approximately the same subpixels with the same values, in particular color values, brightness values.

In einer möglichen Ausführungsform wird das Ähnlichkeitsmaß anhand einer gewichteten quadrierten Disparitätsdifferenz, insbesondere anhand einer so genannten SSD-Funktion (SSD = Summe der quadrierten Differenzen oder Sum of Squared Differences) gebildet. Hierdurch werden lineare Helligkeits- und Kontrastunterschiede von benachbarten Bildpunkten berücksichtigt. Der Vorteil der SSD-Funktion liegt in der Einfachheit und effizienten Implementierung.In one possible embodiment, the similarity measure is formed on the basis of a weighted squared disparity difference, in particular based on a so-called SSD function (SSD = sum of squared differences or sum of squared differences). As a result, linear differences in brightness and contrast of adjacent pixels are taken into account. The advantage of the SSD function is simplicity and efficient implementation.

Darüber hinaus wird das Energieminimierungsverfahren iterativ ausgeführt, wobei in jedem Iterationsschritt ein so genanntes "kleinstes-Quadrat-Problem" gelöst wird. Hierdurch ist eine stufenweise Optimierung des stereoskopischen Bildes anhand der Disparitätsbilder ermöglicht.About that In addition, the energy minimization process is performed iteratively, whereby in each iteration step a so-called "least squares problem" is solved. This is a gradual optimization of stereoscopic image based on the disparity images.

Ausführungsbeispiele der Erfindung werden anhand einer Zeichnung näher erläutert. Dabei zeigen:embodiments The invention will be explained in more detail with reference to a drawing. Showing:

1 schematisch zwei, von unterschiedlichen Kamerapositionen aufgenommene Halbbilder mit einem in der Raumtiefe identifizierten Objekt, 1 schematically two fields recorded by different camera positions with an object identified in the spatial depth,

2 schematisch zwei Tiefenkarten mit einer zugehörigen Tiefenverteilung für das in der Raumtiefe identifizierte Objekt gemäß 1, wobei die linke Tiefenkarte mittels eines herkömmlichen Interpolationsverfahrens erzeugt wurde und die rechte Tiefenkarte mittels des erfindungsgemäßen Optimierungsverfahren erzeugt wurde, und 2 schematically two depth maps with an associated depth distribution for the identified in the spatial depth object according to 1 , wherein the left depth map was generated by means of a conventional interpolation method and the right depth map was generated by means of the optimization method according to the invention, and

3 schematisch ein Ausführungsbeispiel für ein iteratives Optimierungsverfahren von stereoskopischen Bildern anhand von Disparitätsbildern in Form eines Blockdiagramms. 3 schematically an embodiment of an iterative optimization method of stereoscopic images based on disparity images in the form of a block diagram.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.each other corresponding parts are in all figures with the same reference numerals Mistake.

1 zeigt schematisch zwei, von unterschiedlichen Kamerapositionen aufgenommene Halbbilder 1.1, 1.2 mit einem in der Raumtiefe identifizierten Objekt O, z. B. ein senkrechtes Heckteil eines Kraftfahrzeuges. 1 shows schematically two, taken from different camera positions fields 1.1 . 1.2 with an object O identified in the spatial depth, z. B. a vertical tail section of a motor vehicle.

Anhand der aufgenommenen Halbbilder 1.1, 1.2 wird mittels einer Datenverarbeitungseinheit 2 (siehe 3), z. B. ein Steuergerät eines Fahrassistenzsystems, ein Disparitätsbild in herkömmlicher Art und Weise ermittelt. Im nachfolgenden Beispiel stellt das ermittelte Disparitätsbild DB ein Tiefenbild (auch Tiefenkarte genannt) dar, welches die Entfernung des Objektes O darstellt, wobei eine Tiefenabweichung (= Tiefendisparität) von in einem Raum- oder Bildpunkt BP des Disparitätsbildes DB zusammenfallenden, korrespondierenden Teilbildpunkten TP1.1, TP1.2 der Halbbilder 1.1, 1.2 aufgrund der unabhängigen Bearbeitung der korrespondierenden Teilbildpunkte TP1.1, TP1.2 des Bildpunktes BP zu einem starken Rauschen führen. D. h. die übliche Schätzung der Disparität, insbesondere einer subpixelgenauen Disparität beispielsweise durch lokalen Parabelfit, ignoriert die Tatsache, dass benachbarte Bildpunkte BP des Disparitätsbildes DB meist zu glatten Oberflächen mit gleicher Entfernung gehören. Gerade bei kleinen Disparitäten ergibt sich ein dieser Tatsache widersprechendes starkes Tiefenrauschen, was eine Objektdetektion mit wachsen der Entfernung erschwert. Ein derartiges Rauschen (auch "Stereowolke" genannt) in einem auf herkömmlicher Art und Weise ermittelten Disparitätsbild DB1 ist beispielsweise in der 2 im linken Bild gezeigt und führt häufig zu fehlerhaften Objektdetektionen. Im Beispiel ist das Objekt O in einer Entfernung von 40 m positioniert. Die geschätzten räumlichen Bildpunkte BP des Disparitätsbildes DB1 (= Tiefenkarte) rauschen in diesem Beispiel in ihrer Entfernung oder Tiefe um +/– 1 m.Based on the recorded fields 1.1 . 1.2 is by means of a data processing unit 2 (please refer 3 ), z. B. a control unit of a driver assistance system, a Disparitätsbild determined in a conventional manner. In the following example, the determined disparity image DB represents a depth image (also called a depth map) representing the distance of the object O, wherein a depth deviation (= depth disparity) of corresponding partial image points TP1.1 coinciding in a spatial or image point BP of the disparity image DB , TP1.2 of the fields 1.1 . 1.2 due to the independent processing of the corresponding subpixels TP1.1, TP1.2 of the pixel BP lead to a strong noise. Ie. the usual estimation of the disparity, in particular a subpixel-precise disparity, for example by local parabola fitting, ignores the fact that adjacent pixels BP of the disparity image DB usually belong to smooth surfaces with the same distance. Especially with small disparities results in this fact contradicting strong sound noise, which makes an object detection with increasing distance difficult. Such noise (also called "stereo cloud") in a disparity image DB1 determined in a conventional manner is described, for example, in US Pat 2 shown in the left image and often leads to erroneous object detections. In the example, the object O is positioned at a distance of 40 m. The estimated spatial pixels BP of the disparity image DB1 (= depth map) in this example rush in their distance or depth by +/- 1 m.

Zur Reduzierung des Rauschens in ermittelten Disparitätsbildern DB1 ist beim erfindungsgemäßen Verfahren ein Optimierungsproblem formuliert, welches aus einem durch Korrelation gegebenen Datenterm ED und einem Glättungsterm EG gebildet wird. Dabei werden mittels des gegenüber herkömmlichen Verfahren neuen Glättungsterms EG folgenden Objekteigenschaften bzw Objektparameter berücksichtigt:

  • – Objekte und somit deren Bilder oder Bildbereiche weisen näherungsweise glatte Oberflächen auf, so dass daraus resultierend
  • – benachbarte Bildpunkte von Disparitätsbildern, welche dasselbe detektierte Objekt O repräsentieren, sehr ähnliche oder gleiche Disparitätswerte aufweisen sollten.
In order to reduce the noise in determined disparity images DB1, an optimization problem is formulated in the method according to the invention, which is formed from a data term E D given by correlation and a smoothing term E G. In this case, the following object properties or object parameters are taken into account by means of the new smoothing term E G compared to conventional methods:
  • - Objects and thus their images or image areas have approximately smooth surfaces, resulting in it
  • Adjacent pixels of disparity images representing the same detected object O should have very similar or equal disparity values.

Dabei wird das Optimierungsproblem derart formuliert, dass unerwünschte Verschmierungseffekte (= Tiefenrauschen) an Objektgrenzen (= Disparitätssprüngen) reduziert oder vermieden werden. Hierzu kann das Optimierungsproblem beispielsweise durch einfache Relaxation gelöst werden.there the optimization problem is formulated in such a way that undesired Smear effects (= noise) at object boundaries (= jumps in dispersion) be reduced or avoided. This can be the optimization problem be solved for example by simple relaxation.

Bei der Optimierung des Disparitätsbildes DB1 wird die lokale Disparität d0 als ein Energieminimierungsproblem vorgegeben gemäß:

Figure 00100001

  • Mit Eges = Fehlerterm, ED = Datenterm, EG = Glättungsterm, d0 = lokaler Disparitätswert.
In the optimization of the disparity image DB1, the local disparity d 0 is given as an energy minimization problem according to:
Figure 00100001
  • With E ges = error term, E D = data term, E G = smoothing term, d 0 = local disparity value.

Dabei wird berücksichtigt, dass eine hinreichend genaue Schätzung der Disparität der Disparitätsbilder DB1 eine gewisse Glattheit in den geschätzten Disparitäten bzw. Entfernungen aufweisen sollte. Das bedeutet, dass die Schätzung der Disparität an einem Bildpunkt BP(x, y) (BP auch Stelle x genannt) von den anderen Bildpunkten BP(x + 1, y + 1) bzw. BP(x – 1, y – 1) einer lokalen Nachbarschaft um einen Faktor x abhängen muss. Dabei soll bei der Optimierung des Disparitätsbildes DB1 berücksichtigt werden, dass an Objektgrenzen Disparitätssprünge und somit unstetige Disparitäten und/oder bei Bildpunkten BP abhängig vom lokalen Kontrast unterschiedliche Disparitäten auftreten.there is taken into account that a reasonably accurate estimate the disparity of the disparity images DB1 a certain smoothness in the estimated disparities or distances should have. That means the estimate the disparity at a pixel BP (x, y) (BP also position x) from the other pixels BP (x + 1, y + 1) and BP (x - 1, respectively) y - 1) depend on a local neighborhood by a factor x got to. It should in the optimization of the disparity picture DB1 be considered that at object boundaries Disparitätssprünge and thus disparate disparities and / or pixels BP depending on the local contrast different disparities occur.

Je nach Vorgabe wird dabei die Anzahl von zu berücksichtigenden benachbarten Bildpunkten BP vorgegeben. Beispielsweise wird eine 3×3 Maske mit nebenstehender Nummerierung der Bildpunkte BP vorgegeben: 1 2 3 4 0 5 6 7 8 Depending on the specification, the number of neighboring pixels BP to be taken into account is predetermined. For example, a 3 × 3 mask with adjacent numbering of the pixels BP is specified: 1 2 3 4 0 5 6 7 8th

Die Glattheit der Lösung wird beispielsweise durch eine Disparitätsvarianz σ definiert, andere Energieformulierungen sind denkbar. Somit ergibt sich als Glättungsterm EG zur Bestimmung der Glattheit:

Figure 00110001
mit N = 9 für das 3×3 System, di = Pixeldisparität (= Bildpunktdisparität), d = mittlerer Pixeldisparitätswert, d0 = lokale Disparität, σ = geschätzte Disparitätsvarianz.The smoothness of the solution is defined for example by a disparity variance σ, other energy formulations are conceivable. Thus, the smoothing term E G for determining the smoothness results:
Figure 00110001
with N = 9 for the 3 × 3 system, d i = pixel disparity (= pixel disparity), d = average pixel parity value, d 0 = local disparity, σ = estimated disparity variance.

Bei der so genannten SPG-Schätzung wird eine Parabel an die Werte einer so genannten SSD-Funktion {d_, do, d+} (mit SSD = Summe quadrierter Disparitätsdifferenzen) gefiltert, wobei dann do das Minimum der Fehlerfunktion darstellt. Die dabei resultierende Parabelöffnung ergibt ein Maß für die Zunahme einer Fehlerenergie, wenn man das Optimum verlässt. Damit kann der Datenterm ED wie folgt formuliert werden: ED ~ ao(do – dmess)2 [3]mit a0 = Konstante, d0 = Minimum der Fehlerfunktion, dmess = lokale Disparität.In the so-called SPG estimation, a parabola is filtered to the values of a so-called SSD function {d_, d o , d + } (with SSD = sum of squared disparity differences), where d o is the minimum of the error function. The resulting parabola opening gives a measure of the increase in error energy when leaving the optimum. Thus, the data term E D can be formulated as follows: e D ~ a O (d O - d mess ) 2 [3] with a 0 = constant, d 0 = minimum of the error function, d mess = local disparity.

Der Fehlerterm Eges (= Gesamtenergie) ergibt sich dann gemäß: Eges = ao(do – dmess)2 + λ·σ2(do) [4]mit λ = Wichtungsfaktor für eine entfernungsabhängige Wichtung.The error term E ges (= total energy) then results according to: e ges = a O (d O - d mess ) 2 + λ · σ 2 (d O ) [4] with λ = weighting factor for a distance-dependent weighting.

Einer Steigerung der Glättung und somit der Glattheit der Objektoberfläche durch Variation von do steht damit eine Zunahme der Energie im Datenterm ED gegenüber. Das Optimum ergibt sich zu:

Figure 00120001
mit folgenden Variationen: ao → 0: do = d, [9] ao → ∞: do = dmess oder [10] λ → ∞: do = d. [11] An increase in the smoothing and thus the smoothness of the object surface by varying d o is thus offset by an increase in the energy in the data term E D. The optimum results to:
Figure 00120001
with the following variations: a O → 0: d O = d, [9] a O → ∞: d O = d mess or [10] λ → ∞: d O = d , [11]

Die Gleichung [8] ermöglicht dabei auch eine Glättung und somit Glattheit über Disparitätskanten hinweg. Wünschenswert ist eine Formulierung, die den Einfluss des Glättungsterms EG an Disparitätskanten ausschließt bzw. stark mindert. Hierzu wird der Glättungsterm EG beispielsweise wie folgt modifiziert:

Figure 00130001
Equation [8] also allows for smoothing and thus smoothness across disparity edges. It is desirable to have a formulation which excludes or greatly reduces the influence of the smoothing term E G on disparity edges. For this purpose, the smoothing term E G is modified, for example, as follows:
Figure 00130001

Je größer die Disparitätsvarianz σ, desto weniger wirkt eine Änderung der lokalen Disparität do. Schreibt man zusätzlich λ = λ(d), ergibt sich für den Fehlerterm Eges:

Figure 00130002
mit K = Verstärkungsfaktor (Verbesserung der Homogenität durch Iteration des Optimierungsverfahrens).The larger the disparity variance σ, the less effective a change in the local disparity d o . Do you write in addition λ = λ ( d ) results for the error term E tot :
Figure 00130002
with K = gain factor (improvement of homogeneity by iteration of the optimization method).

Dabei entspricht die Gleichung [16] für σn = 1 und kleine Varianzen der Gleichung [8], reduziert aber mit zunehmender Varianz den Einfluss der mittleren Disparitätsvarianz d. The equation [16] for σ n = 1 and small variances of the equation [8], but reduces the influence of the mean disparity variance with increasing variance d ,

Wählt man einen konstanten Wichtungsfaktor mit λ(d) = konstant, werden alle Disparitäten gleich behandelt, wobei mittels des vorgebbaren Wichtungsfaktor λ die Glättung entfernungsabhängig einstellbar ist. Die Wahl von

Figure 00130003
glättet Objekte O in großer Entfernung stärker, was in vielen Fällen erwünscht ist.If one chooses a constant weighting factor with λ (d) = constant, all disparities are treated the same, whereby by means of the predeterminable weighting factor λ, the smoothing can be set as a function of the distance. The choice of
Figure 00130003
Smooths out objects O at a great distance, which is desirable in many cases.

In 2, rechtes Bild ist ein mittels des beschriebenen Optimierungsverfahrens erzeugtes geglättetes Disparitätsbild DB2 (= Tiefenkarte) dargestellt, in welchem das Tiefenrauschen weitgehend reduziert ist und somit die glatte Objektoberfläche des detektierten Objektes O deutlich erkennbar ist.In 2 , right image is a smoothed disparity image DB2 (= depth map) generated by means of the described optimization method, in which the depth noise is largely reduced and thus the smooth object surface of the detected object O is clearly recognizable.

Da sich bei Variation der lokalen Disparität do die lokale Varianz ändert, ist das Verfahren in der bekannten iterativen Form anzuwenden, wie dies in 3 beispielhaft an einem Blockdiagramm gezeigt ist.Since the local variance changes as the local disparity d o varies, the method must be applied in the known iterative form, as described in US Pat 3 is shown by way of example on a block diagram.

Dabei wird anhand von gemessenen Disparitäten dmess in einer ersten Iterationsstufe n gemäß dem oben beschriebenen Verfahren ein geglättetes Disparitätsbild DB2 (n) mit einer Homogenität H ermittelt, welche einer Funktion der Disparität d und der Varianz der Disparität d_var in diesem Bereich, z. B. in der 3×3 Matrix, entspricht. In einer weiteren Iterationsstufe n + 1 wird dann das nächste geglättete Disparitätsbild DB2(n + 1) für den jeweils betrachteten Bereich mit beispielsweise 3×3 Bildpunkten BP anhand der mittleren Disparität d_mean und der Konstanten a0 und der Homogenität H ermittelt, wobei für alle betrachteten Beispiele eine Konvergenz für a0 > 0 angenommen wird. Der Fall a0 = 0 kann nur in Bereichen mit konstanten Grauwerten auftreten und wird als "Disparität d nicht messbar" ausgeschlossen.In this case, based on measured disparities d mess in a first iteration step n according to the method described above, a smoothed disparity image DB2 (n) with a homogeneity H is determined which corresponds to a function of the disparity d and the variance of the disparity d_var in this region, e.g. B. in the 3 × 3 Matrix, corresponds. In a further iteration stage n + 1, the next smoothed disparity image DB2 (n + 1) for the respectively considered area with, for example, 3 × 3 pixels BP is then determined on the basis of the mean disparity d_mean and the constant a 0 and the homogeneity H, where for all Examples considered a convergence for a 0 > 0 is assumed. The case a 0 = 0 can occur only in areas with constant gray values and is excluded as "disparity d not measurable".

Sind darüber hinaus beispielsweise nicht alle benachbarten Disparitäten d von benachbarten Bildpunkten BP bekannt, sind die Varianzen σ bzw. N und d entsprechend zu berechnen.In addition, if, for example, not all adjacent disparities d of neighboring pixels BP are known, the variances are σ and N, respectively d to calculate accordingly.

1.1, 1.21.1 1.2
Halbbilderfields
22
DatenverarbeitungseinheitData processing unit
BPBP
Bildpunktpixel
d_messd_mess
Disparitätswertdisparity
DB1DB1
Disparitätsbilddisparity
DB2DB2
geglättes Disparitätsbildgeglättes disparity
HH
Homogenitäthomogeneity
OO
Objektobject
TP1.1TP1.1
TeilbildpunktSubpixel
TP1.2TP1.2
TeilbildpunktSubpixel

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturCited non-patent literature

  • - D. Scharstein, R. Szeliski: "A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms", Proceedings of the IEEE Workshop an Stereo and Multi-Baseline Vision, Kauai, HI, 12/2001 [0006] D. Scharstein, R. Szeliski: "A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms," Proceedings of the IEEE Workshop on Stereo and Multi-Baseline Vision, Kauai, HI, 12/2001 [0006]
  • - X. Huang, E. Dubois: "Disparity estimation for the intermediate view interpolation of stereoscopic images", ICASSP 2005 [0007] - X. Huang, E. Dubois: "Disparity estimation for the intermediate view of interpolation of stereoscopic images", ICASSP 2005 [0007]

Claims (12)

Verfahren zur Optimierung eines stereoskopischen Bildes, wobei mindestens zwei Teilbilder (1.1, 1.2) eines Objektes (O) von unterschiedlichen Aufnahmepunkten aufgenommen und die Teilbilder (1.1, 1.2) derart umgewandelt werden, dass korrespondierende Teilbildpunkte (TP1.1, TP1.2) der beiden Teilbilder (1.1, 1.2) bezüglich einer Koordinate in einem Raumpunkt zusammenfallen und eine einer Abweichung zwischen Koordinatenwerten der korrespondierenden Teilbildpunkte (T1.1, T1.2) entsprechende Disparität ermittelt wird, anhand der ein Disparitätsbild (DB) mit entsprechenden Bildpunkten (BP) erzeugt wird, dadurch gekennzeichnet, dass Disparitätswerte (d_mess) benachbarter Bildpunkte (BP) des ermittelten Disparitätsbildes (DB1) anhand eines Glättungsterms (EG) verarbeitet werden und ein geglättetes Disparitätsbild (DB2) erzeugt wird.Method for optimizing a stereoscopic image, wherein at least two partial images ( 1.1 . 1.2 ) of an object (O) from different recording points and the partial images ( 1.1 . 1.2 ) are converted in such a way that corresponding partial image points (TP1.1, TP1.2) of the two partial images ( 1.1 . 1.2 ) coincide with respect to a coordinate in a spatial point, and a disparity corresponding to a deviation between coordinate values of the corresponding partial pixels (T1.1, T1.2) is determined on the basis of which a disparity image (DB) with corresponding pixels (BP) is generated, characterized that disparity values (d_mess) of adjacent pixels (BP) of the determined disparity image (DB1) are processed on the basis of a smoothing term (E G ) and a smoothed disparity image (DB2) is generated. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Glättungsterm (EG) gewichtet wird.A method according to claim 1, characterized in that the smoothing term (E G ) is weighted. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Glättungsterm (EG) Tiefenunterschiede und/oder Querunterschiede berücksichtigt.A method according to claim 1 or 2, characterized in that the smoothing term (E G ) takes into account differences in depth and / or cross differences. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Glättungsterm (EG) für Objektkanten repräsentierende Bildpunkte (BP) deaktiviert oder reduziert wird.Method according to one of claims 1 to 3, characterized in that the smoothing term (E G ) for object edges representing pixels (BP) is deactivated or reduced. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zusätzlich ein Kontrastterm, insbesondere ein Grauwertbild bei der Ermittlung des geglätteten Disparitätsbildes (DB2) berücksichtigt wird.Method according to one of claims 1 to 4, characterized in that in addition a contrast term, in particular a gray scale image in the determination of the smoothed Disparity image (DB2). Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das geglättete Disparitätsbild (DB2) anhand eines auf einer globalen Energieminimierungsfunktion (Eges) basierenden Optimierungsverfahrens bestimmt wird.Method according to one of Claims 1 to 5, characterized in that the smoothed disparity image (DB2) is determined on the basis of an optimization method based on a global energy minimization function (E ges ). Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Energieminimierungsfunktion (Eges) aus einem Datenterm (ED) und dem Glättungsterm (EG) gebildet wird.Method according to Claim 6, characterized in that the energy minimization function (E ges ) is formed from a data term (E D ) and the smoothing term (E G ). Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass als Datenterm (ED) ein Ähnlichkeitsmaß der Ähnlichkeit von Disparitätswerten (d_mess) der Bildpunkte (BP) ermittelt wird.A method according to claim 7, characterized in that a similarity measure of the similarity of disparity values (d_mess) of the pixels (BP) is determined as data term (E D ). Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass das Ähnlichkeitsmaß anhand einer gewichteten quadrierten Disparitätsdifferenz gebildet wird.Method according to claim 8, characterized in that that the similarity measure is based on a weighted squared disparity difference is formed. Verfahren nach einem der Ansprüche 6 bis 9, dadurch gekennzeichnet, dass das Energieminimierungsverfahren iterativ ausgeführt wird, wobei in jedem Iterationsschritt ein kleinstes-Quadrat-Problem gelöst wird.Method according to one of claims 6 to 9, characterized in that the energy minimization method iteratively, wherein in each iteration step a least-square problem is solved. System zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass mindestens eine Datenverarbeitungseinheit (2) vorgesehen ist, die Disparitätswerte (d_mess) benachbarter Bildpunkte (BP) mindestens eines ermittelten Disparitätsbildes (DB1) anhand eines Glättungsterms (EG) verarbeitet und ein geglättetes Disparitätsbild (DB2) erzeugt.System for carrying out the method according to one of claims 1 to 10, characterized in that at least one data processing unit ( 2 ), which processes disparity values (d_mess) of adjacent pixels (BP) of at least one determined disparity image (DB1) on the basis of a smoothing term (E G ) and generates a smoothed disparity image (DB2). Computerprogrammprodukt zur Verarbeitung von Disparitätsbildern zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 10 auf einer Datenverarbeitungseinheit (2).Computer program product for processing disparity images for carrying out the method according to one of Claims 1 to 10 on a data processing unit ( 2 ).
DE102007027958A 2007-06-18 2007-06-18 Method for optimizing a stereoscopic image Withdrawn DE102007027958A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102007027958A DE102007027958A1 (en) 2007-06-18 2007-06-18 Method for optimizing a stereoscopic image
PCT/EP2008/003830 WO2008154989A1 (en) 2007-06-18 2008-05-13 Method for the optimization of a stereoscopic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007027958A DE102007027958A1 (en) 2007-06-18 2007-06-18 Method for optimizing a stereoscopic image

Publications (1)

Publication Number Publication Date
DE102007027958A1 true DE102007027958A1 (en) 2008-12-24

Family

ID=39805356

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007027958A Withdrawn DE102007027958A1 (en) 2007-06-18 2007-06-18 Method for optimizing a stereoscopic image

Country Status (2)

Country Link
DE (1) DE102007027958A1 (en)
WO (1) WO2008154989A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013100344A1 (en) * 2013-01-14 2014-07-17 Conti Temic Microelectronic Gmbh Method for determining depth maps from stereo images with improved depth resolution in the far field
WO2017005871A1 (en) 2015-07-09 2017-01-12 Chromasenes Gmbh Method and device for scanning surfaces using a stereo camera

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110211053B (en) * 2019-04-28 2023-09-15 航天智造(上海)科技有限责任公司 Rapid and accurate phase matching method for three-dimensional measurement
CN110111339B (en) * 2019-04-28 2023-08-15 航天智造(上海)科技有限责任公司 Stripe image target area extraction method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US7050646B2 (en) * 1999-12-10 2006-05-23 British Telecommunications Public Limited Company Image processing system and method for image segmentation using intensity contrast and depth contrast values
US6751345B2 (en) * 2001-02-12 2004-06-15 Koninklijke Philips Electronics N.V. Method and apparatus for improving object boundaries extracted from stereoscopic images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
D. Scharstein, R. Szeliski: "A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms", Proceedings of the IEEE Workshop an Stereo and Multi-Baseline Vision, Kauai, HI, 12/2001
X. Huang, E. Dubois: "Disparity estimation for the intermediate view interpolation of stereoscopic images", ICASSP 2005

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013100344A1 (en) * 2013-01-14 2014-07-17 Conti Temic Microelectronic Gmbh Method for determining depth maps from stereo images with improved depth resolution in the far field
US9704253B2 (en) 2013-01-14 2017-07-11 Conti Temic Microelectronic Gmbh Method for determining depth maps from stereo images with improved depth resolution in a range
US10223802B2 (en) 2013-01-14 2019-03-05 Conti Temic Microelectronic Gmbh Method for determining depth maps from stereo images with improved depth resolution in a range
WO2017005871A1 (en) 2015-07-09 2017-01-12 Chromasenes Gmbh Method and device for scanning surfaces using a stereo camera
DE102015111120A1 (en) * 2015-07-09 2017-01-12 Chromasens Gmbh Method and device for scanning surfaces with a stereo camera

Also Published As

Publication number Publication date
WO2008154989A1 (en) 2008-12-24

Similar Documents

Publication Publication Date Title
DE102018116111A1 (en) A uniform deep convolution neural network for the estimation of free space, the estimation of the object recognition and the object position
DE102015121387B4 (en) Obstacle detection device and obstacle detection method
WO2017206999A1 (en) Method for evaluating image data of a vehicle camera
DE102014222617B4 (en) Vehicle detection method and vehicle detection system
DE102013211930A1 (en) Binocular broad base line object comparison method using a minimal cost flownet
DE102016104729A1 (en) Method for extrinsic calibration of a camera, computing device, driver assistance system and motor vehicle
DE102014209137A1 (en) Method and device for calibrating a camera system of a motor vehicle
DE102018124108A1 (en) METHOD AND DEVICE FOR DETECTING ROAD LIMITATION
DE102016104732A1 (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102016104730A1 (en) Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle
WO2013178407A1 (en) Method and device for processing stereoscopic data
EP2562681A1 (en) Object tracking method for a camera-based driver assistance system
DE102007027958A1 (en) Method for optimizing a stereoscopic image
EP4285327A1 (en) Device and method for correspondence analysis in images
WO2014009406A1 (en) Method and device for calculating a change in an image scale of an object
DE19953063A1 (en) Method for three-dimensional optical measurement of object surfaces
DE102014225848A1 (en) Apparatus, method and computer readable medium for correcting an interpolation coefficient for stereo matching
WO2017093227A1 (en) Method and device for image correction
DE102008046505A1 (en) Method for image processing of stereo images
DE102006013318A1 (en) Static scene reconstruction method for testing work pieces, involves reconstructing scene of a two-dimensional image data by method of shape from motion when scene exhibits region with intensity gradients
DE102014219418B4 (en) Process for the stereo rectification of stereo camera images and driver assistance system
DE102016123168A1 (en) System and method for generating a disparity map by matching stereo images
DE102004007049A1 (en) Method for classifying an object with a stereo camera
DE102010009620A1 (en) Method for detecting obstacle in car surroundings, involves detecting image by monocular image capture system, comparing intensity difference with predetermined threshold, and detecting obstacle when difference is larger than threshold
DE102016123058A1 (en) Optical flow with confidence estimate

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20140213

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee