DE102013017621A1 - Method for evaluating stereoscopically captured frames, involves generating stereoscopically captured frames for evaluation of three-dimensional reconstruction of scene from captured frames as disparity image - Google Patents

Method for evaluating stereoscopically captured frames, involves generating stereoscopically captured frames for evaluation of three-dimensional reconstruction of scene from captured frames as disparity image Download PDF

Info

Publication number
DE102013017621A1
DE102013017621A1 DE201310017621 DE102013017621A DE102013017621A1 DE 102013017621 A1 DE102013017621 A1 DE 102013017621A1 DE 201310017621 DE201310017621 DE 201310017621 DE 102013017621 A DE102013017621 A DE 102013017621A DE 102013017621 A1 DE102013017621 A1 DE 102013017621A1
Authority
DE
Germany
Prior art keywords
scene
captured frames
stereoscopically
knowledge
dimensional reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201310017621
Other languages
German (de)
Inventor
Uwe Franke
Stefan Gehrig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE201310017621 priority Critical patent/DE102013017621A1/en
Publication of DE102013017621A1 publication Critical patent/DE102013017621A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

The method involves generating stereoscopically captured frames (B1,B2) for evaluation of three-dimensional reconstruction of scene from the captured frames as disparity image (DB). The three-dimensional reconstruction of scene knowledge (V) is used as geometric knowledge in response to prior knowledge similar to the scene knowledge.

Description

Die Erfindung betrifft ein Verfahren zur Auswertung von stereoskopisch erfassten Einzelbildern, wobei bei der Auswertung eine dreidimensionale Rekonstruktion einer Szene aus den stereoskopisch erfassten Einzelbildern als Disparitätsbild erzeugt wird, wobei bei der dreidimensionalen Rekonstruktion Szenenvorwissen genutzt wird.The invention relates to a method for evaluating stereoscopically recorded individual images, wherein a three-dimensional reconstruction of a scene from the stereoscopically captured individual images is generated as a disparity image during the evaluation, wherein scene prior knowledge is used in the three-dimensional reconstruction.

Aus dem Stand der Technik sind allgemein Verfahren zur Auswertung von stereoskopisch erfassten Bildern bekannt, bei welchen ein Szenenvorwissen zur Auswertung genutzt wird.Methods for the evaluation of stereoscopically recorded images are known from the prior art, in which a scene prior knowledge is used for the evaluation.

Ein derartiges Verfahren beschreibt beispielsweise Gallup, D. u. a.: ”Real-Time Plane-Sweeping Stereo with Multiple Sweeping Directions”; In Int. Conference on Computer Vision and Pattern Recognition 07, 2007 , wobei Vorwissen aus einem so genannten Structure-from-Motion-Schritt genutzt wird und in dem Vorwissen enthaltene Informationen für wenige Punkte einer Posenschätzung aus einem Structure-from-Motion-Prozess bei einer folgenden dichten Stereoanalyse präferiert werden.Such a method describes, for example Gallup, D. et al.: "Real-Time Plane-Sweeping Stereo with Multiple Sweeping Directions"; Int. Conference on Computer Vision and Pattern Recognition 07, 2007 Using prior knowledge from a so-called structure-from-motion step and prefetching the information contained in the prior knowledge for a few points of a pose estimation from a structure-from-motion process in a subsequent dense stereo analysis.

Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Auswertung von stereoskopisch erfassten Bildern anzugeben.The invention is based on the object to provide a comparison with the prior art improved method for the evaluation of stereoscopic captured images.

Die Aufgabe wird erfindungsgemäß mit einem Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved by a method having the features specified in claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the dependent claims.

In einem Verfahren zur Auswertung von stereoskopisch erfassten Einzelbildern wird bei der Auswertung eine dreidimensionale Rekonstruktion einer Szene aus den stereoskopisch erfassten Einzelbildern als Disparitätsbild erzeugt, wobei bei der dreidimensionalen Rekonstruktion Szenenvorwissen genutzt wird.In a method for evaluating stereoscopically recorded individual images, a three-dimensional reconstruction of a scene from the stereoscopically captured individual images is generated as a disparity image during the evaluation, wherein scene prior knowledge is used in the three-dimensional reconstruction.

Erfindungsgemäß wird als Szenenvorwissen geometrisches Vorwissen bildpunktspezifisch verwendet, wobei bei der dreidimensionalen Rekonstruktion in Abhängigkeit des Szenenvorwissens solche Rekonstruktionsergebnisse präferiert werden, welche dem Szenenvorwissen ähnlich sind.According to the invention, prior knowledge of the scene is used specifically for specific scenes, with reconstruction results that are similar to the scene prior knowledge being preferred in the three-dimensional reconstruction as a function of the scene knowledge.

Dabei zeichnet sich die Auswertung durch eine hohe Rauschfreiheit und zeitliche Robustheit aus, wodurch die stereoskopisch erfassten und verarbeiteten Bilddaten auch bei schlechten Sichtbedingungen, beispielsweise bei Regen, Schnee, Nebel und/oder Dunkelheit, weniger Fehler aufweisen und somit eine Fehlerrate von mittels dieser Bilddaten betriebenen Fahrerassistenzsystemen bei gleicher Verfügbarkeit gesenkt wird.The evaluation is distinguished by a high level of noise-freeness and temporal robustness, as a result of which the stereoscopically recorded and processed image data have fewer errors even in poor visibility conditions, for example in rain, snow, fog and / or darkness and thus an error rate of using this image data Driver assistance systems with the same availability is lowered.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.Embodiments of the invention will be explained in more detail below with reference to a drawing.

Dabei zeigen:Showing:

1 schematisch ein Blockschaltbild eines Ablaufs eines erfindungsgemäßen Verfahrens. 1 schematically a block diagram of a sequence of a method according to the invention.

In der einzigen 1 ist in einem Blockschaltbild ein Ablauf eines möglichen Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Auswertung von stereoskopisch erfassten Einzelbildern B1, B2 dargestellt.In the only one 1 is a block diagram of a sequence of a possible embodiment of a method according to the invention for the evaluation of stereoscopically captured frames B1, B2 shown.

Bei der Auswertung der Einzelbilder B1, B2 wird beispielsweise anhand eines Disparitätsschätzungs-Verfahrens DSV eine dreidimensionale Rekonstruktion einer Szene aus den stereoskopisch erfassten Einzelbildern B1, B2 als Disparitätsbild DB erzeugt. Bei dem Disparitätsschätzungs-Verfahren DSV handelt es sich beispielsweise um einen bekannten globalen oder semi-globalen Schätzalgorithmus, welcher auch als Global-Matching-Algorithmus oder Semi-Global-Matching-Algorithmus, wie beispielsweise aus Hirschmüller, H.: ”Accurate and efficient stereo processing by semi-global matching and mutual information”; In: Proceedings of Int. Conference an Computer Vision and Pattern Recognition 05, San Diego, CA, volume 2, Seiten 807–814, Juni 2005 bekannt ist.In the evaluation of the individual images B1, B2, a three-dimensional reconstruction of a scene from the stereoscopically recorded individual images B1, B2 is generated as a disparity image DB, for example on the basis of a disparity estimation process DSV. The disparity estimation method DSV is, for example, a known global or semi-global estimation algorithm, which is also known as a global matching algorithm or a semi-global matching algorithm, such as Hirschmüller, H .: "Accurate and efficient stereo processing by semi-global matching and mutual information"; In: Proceedings of Int. Conference on Computer Vision and Pattern Recognition 05, San Diego, CA, volume 2, pp. 807-814, June 2005 is known.

Bei der dreidimensionalen Rekonstruktion wird zusätzlich als Szenenvorwissen V geometrisches Vorwissen pixelspezifisch, d. h. bildpunktspezifisch verwendet, wobei bei der dreidimensionalen Rekonstruktion in Abhängigkeit des Szenenvorwissens V solche Rekonstruktionsergebnisse präferiert werden, welche dem Szenenvorwissen V ähnlich sind.In the case of the three-dimensional reconstruction, additional pre-knowledge of the geometry V pixel-specific, ie pixel-specific, is used as the scene prior knowledge. In the case of the three-dimensional reconstruction depending on the scene knowledge V, those reconstruction results which are similar to the scene prior knowledge V are preferred.

Dabei wird das Szenenvorwissen V modelliert und/oder aus Bilddaten gelernt, wobei die mittels der Modellierung und/oder des Lernens ermittelten Daten verwendet werden, um bildpunktspezifisch das Szenenvorwissen V bei der dreidimensionalen Rekonstruktion einfließen zu lassen.In this case, the scene prior knowledge V is modeled and / or learned from image data, the data determined by means of the modeling and / or learning being used to incorporate the scene prior knowledge V in the three-dimensional reconstruction in a pixel-specific manner.

Bei der Modellierung wird erwartet, dass sich der Himmel in einem oberen Bildabschnitt und eine Fahrbahn, auf welchem sich ein Fahrzeug, welches eine Bilderfassungseinheit zur stereoskopischen Erfassung der Einzelbilder B1, B2 umfasst, in einem unteren Bildabschnitt befindet. Dabei wird für den Himmel eine Disparität mit dem Wert ”0” präferiert, bei der Fahrbahn eine aufgrund einer Einbaulage eines Sensors der Bilderfassung am Fahrzeug erwarte Disparität.In the modeling, it is expected that the sky in an upper image portion and a lane on which a vehicle including an image capturing unit for stereoscopically capturing the frames B1, B2 are located in a lower image portion. In this case, a disparity with the value "0" is preferred for the sky, in the case of the roadway, a disparity expected on the basis of an installation position of a sensor of image acquisition on the vehicle.

Beim Lernen des Szenenvorwissens V werden viele mittels der Bilderfassungseinheit erfasste Bilddaten akkumuliert und es werden ein Punkt einer am häufigsten austretenden Disparität pro Bildpunkt bzw. Pixel sowie eine zugehörige Standardabweichung berechnet.In learning scene awareness V, many image data acquired by the image capture unit are accumulated, and a point of most frequent disparity per pixel or pixel and an associated standard deviation are calculated.

Im Folgenden wird ein mögliches Ausführungsbeispiel beschrieben, welches bei allen stereoskopischen Auswertungen Anwendung finden kann, bei denen Disparitätshypothesen in einem so genannten Kosten-Kubus C(u, v, d) mit einer Bildbreite u = 1, Bildhöhe v = 1 und einer maximalen Disparitäten d = 0 berechnet werden.In the following, a possible embodiment is described, which can be used in all stereoscopic evaluations in which disparity hypotheses in a so-called cost cube C (u, v, d) with an image width u = 1, image height v = 1 and a maximum disparities d = 0 are calculated.

Bei der Modellierung des Szenenvorwissens V wird zunächst angenommen, dass die Szene über dem Horizont durch den Himmel am besten beschrieben wird. Damit wird in diesem Bereich eine Disparität mit dem Wert ”0” bevorzugt. Dies wird beispielsweise durch Einführung eines Szenenvorwissen-Datenterms vorwissen-cost(u, v, d) im Kosten-Kubus C(u, v, d) der Stereoanalyse gemäß cost_new(u, v, d) = aehnlichkeits – cost(u, v, d) + vorwissen – cost(u, v, d), (1) wobei sich der Szenenvorwissen-Datenterm vorwissen-cost(u, v, d) für einen Bildpunkt bzw. Pixel (u, v) gemäß vorwissen – cost(u, v, d) = min(maxcost, (d – d_erwartet(u, v))2 (2) mit:

cost_new(u, v, d)
neuer Kosten-Kubus,
aehnlichkeits-cost(u, v, d)
Ähnlichkeitskosten,
vorwissen-cost(u, v, d)
Szenenvorwissen-Datenterm,
min
Minimum,
maxcost
maximale Kosten und
d_erwartet(u, v)
erwartete Disparität für den Bildpunkt (u, v)
ergibt.In modeling scene awareness V, it is first assumed that the scene above the horizon is best described by the sky. Thus, a disparity with the value "0" is preferred in this area. This is done, for example, by introducing a scene pre-knowledge data term pre-knowledge-cost (u, v, d) in the cost cube C (u, v, d) of the stereo analysis according to cost_new (u, v, d) = similarity - cost (u, v, d) + prior knowledge - cost (u, v, d), (1) wherein the scene prior knowledge data term pre-knowledge cost (u, v, d) for a pixel or pixels (u, v) according to previous knowledge - cost (u, v, d) = min (maxcost, (d - d_expected (u, v)) 2 (2) With:
cost_new (u, v, d)
new cost cube,
similarity cost (u, v, d)
Similarity costs
foreknowledge-cost (u, v, d)
Scene knowledge-data term,
min
Minimum,
maxcost
maximum costs and
d_expected (u, v)
expected disparity for the pixel (u, v)
results.

Damit ergeben sich bei Gleichung (2) die geringsten Kosten wenn die ermittelte Disparität d bei einer erwarteten Disparität d_erwartet(u, v) mit dem Wert ”0” ebenfalls den Wert ”0” aufweist. Die maximalen Kosten maxcost werden dabei durch eine Funktion in Abhängigkeit von einer Ausreißer-Wahrscheinlichkeit beschrieben.This results in the lowest cost in equation (2) if the determined disparity d at an expected disparity d_expected (u, v) with the value "0" also has the value "0". The maximum cost maxcost is described by a function depending on an outlier probability.

Die Gleichungen (1) und (2) gelten ebenso für die zweite Annahme, dass unterhalb des Horizonts eine Fahrbahn erwartet wird. Hierbei berechnet sich die erwartete Disparität d_erwartet(u, v) aus der Einbaulage des Sensors der Bilderfassungseinheit und der Wert der erwarteten Disparität d_erwartet(u, v) ändert sich von Zeile zu Zeile im Disparitätsbild DB.Equations (1) and (2) also apply to the second assumption that a roadway is expected below the horizon. Here, the expected disparity d_expected (u, v) is calculated from the mounting position of the sensor of the image acquisition unit and the value of the expected disparity d_expected (u, v) changes from line to line in the disparity image DB.

Liegen aus einer anderen Datenquelle, wie beispielsweise einer digitalen Karte weitere Informationen über den dreidimensionalen Aufbau der Szene vor, können diese gemäß einer möglichen Weiterbildung analog genutzt werden.If there is more information about the three-dimensional structure of the scene from another data source, such as a digital map, they can be used analogously in accordance with a possible further development.

Zum Lernen des Szenenvorwissens V werden die erwartete Disparität d_erwartet(u, v) und eine Varianz sigma_d2(u, v) aus vielen Bilddaten gelernt. Um dabei eine Unabhängigkeit von aktuellen Einbauwinkeln der Sensoren der Bilderfassungseinheit zu erzielen, wird werden die Bilddaten auf eine Fahrzeuglängsrichtung transformiert.For learning scene knowledge V, the expected disparity d_expected (u, v) and a variance sigma_d 2 (u, v) are learned from many image data. To be independent of current installation angles of the To achieve sensors of the image acquisition unit, the image data is transformed to a vehicle longitudinal direction.

Hierbei ergibt sich der Szenenvorwissen-Datenterm vorwissen-cost(u, v, d) gemäß

Figure DE102013017621A1_0002
This results in the scene prior knowledge data term prior knowledge cost (u, v, d) according to
Figure DE102013017621A1_0002

Damit entstehen die geringsten Kosten bei der erwarteten Disparität d_erwartet(u, v), die im Lernvorgang am häufigsten vorkommt.This results in the least cost in the expected disparity d_expected (u, v) that occurs most frequently in the learning process.

Bei einer Einbettung des Szenenvorwissens V in einen semi-globalen Schätzalgorithmus benötigt der Schätzalgorithmus Datenkosten zu jeder möglichen Korrespondenzhypothese, welche sich aus dem Kosten-Kubus C(u, v, d) der Größe Bildbreite u·Bildhöhe v·Anzahl der Disparitäten d ergibt. Die Datenkosten werden für den Kosten-Kubus c(u, v, d) beispielsweise mit Hammingdistanzen von censustransformierten Bildern, beispielsweise eines Census von 9 × 7, berechnet und liegen im Datenkubus c(u, v, d) vor.When the scene knowledge V is embedded in a semi-global estimation algorithm, the estimation algorithm requires data costs for each possible correspondence hypothesis, which results from the cost cube C (u, v, d) of the size image width u · image height v · number of disparities d. The data costs are calculated for the cost cube c (u, v, d), for example with Hamming distances of censored images, for example a census of 9x7, and are present in the data cube c (u, v, d).

Aufgrund der Einbettung ergibt sich die Berechnung der Datenkosten für alle Hypothesen im Kosten-Kubus c(u, v, d):

Figure DE102013017621A1_0003
Due to the embedding, the calculation of the data costs for all hypotheses in the cost cube c (u, v, d) results:
Figure DE102013017621A1_0003

Der Wert d_erwartet ist dabei die erwartete Disparität d_erwartet(u, v) aus der Modellierung und/oder dem Lernprozess. MAXCOST berechnet sich aus einer Ausreißerwahrscheinlichkeit (Parameter) und SCALEFAC wird aus dem verwendeten Ähnlichkeitskriterium berechnet und ist 4,5 für einen 9 × 7-Census als Ähnlichkeitskriterium.The value d_expected is the expected disparity d_expected (u, v) from the modeling and / or the learning process. MAXCOST is calculated from an outlier probability (parameter) and SCALEFAC is calculated from the similarity criterion used and is 4.5 for a 9x7 census as a similarity criterion.

Ein Mehraufwand zu einem klassischen semi-globalen Schätzalgorithmus ergibt sich dabei lediglich durch Erhöhung der Datenkosten gemäß Gleichung (4).An additional effort to a classical semi-global estimation algorithm results here only by increasing the data costs according to equation (4).

Die Anwendung ist in besonders vorteilhafter Weise auf alle Stereoalgorithmen erweiterbar, welche einen Kosten-Kubus c(u, v, d) generieren, einschließlich lokaler Stereoalgorithmen.The application is particularly advantageously extendible to all stereo algorithms that generate a cost cube c (u, v, d), including local stereo algorithms.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

  • B1B1
    Einzelbildframe
    B2B2
    Einzelbildframe
    DBDB
    Disparitätsbilddisparity
    DSVDSV
    DisparitätsschätzungsverfahrenDisparitätsschätzungsverfahren
    VV
    Szenenvorwissenscene knowledge

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Gallup, D. u. a.: ”Real-Time Plane-Sweeping Stereo with Multiple Sweeping Directions”; In Int. Conference on Computer Vision and Pattern Recognition 07, 2007 [0003] Gallup, D. et al.: "Real-Time Plane-Sweeping Stereo with Multiple Sweeping Directions"; Int. Conference on Computer Vision and Pattern Recognition 07, 2007 [0003]
  • Hirschmüller, H.: ”Accurate and efficient stereo processing by semi-global matching and mutual information”; In: Proceedings of Int. Conference an Computer Vision and Pattern Recognition 05, San Diego, CA, volume 2, Seiten 807–814, Juni 2005 [0014] Hirschmüller, H .: "Accurate and efficient stereo processing by semi-global matching and mutual information"; In: Proceedings of Int. Conference on Computer Vision and Pattern Recognition 05, San Diego, CA, volume 2, pp. 807-814, June 2005 [0014]

Claims (3)

Verfahren zur Auswertung von stereoskopisch erfassten Einzelbildern (B1, B2), wobei bei der Auswertung eine dreidimensionale Rekonstruktion einer Szene aus den stereoskopisch erfassten Einzelbildern (B1, B2) als Disparitätsbild (DB) erzeugt wird, wobei bei der dreidimensionalen Rekonstruktion Szenenvorwissen (V) genutzt wird, dadurch gekennzeichnet, dass als Szenenvorwissen (V) geometrisches Vorwissen bildpunktspezifisch verwendet wird, wobei bei der dreidimensionalen Rekonstruktion in Abhängigkeit des Szenenvorwissens (V) solche Rekonstruktionsergebnisse präferiert werden, welche dem Szenenvorwissen (V) ähnlich sind.Method for evaluating stereoscopically recorded individual images (B1, B2), wherein a three-dimensional reconstruction of a scene from the stereoscopically captured individual images (B1, B2) is generated as a disparity image (DB) during the evaluation, wherein scene prior knowledge (V) is used in the three-dimensional reconstruction is characterized in that the scene prior knowledge (V) geometric prior knowledge is used pixel-specific, in the three-dimensional reconstruction depending on the scene knowledge (V) such reconstruction results are preferred, which are similar to the scene knowledge (V). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Szenenvorwissen (V) modelliert wird.A method according to claim 1, characterized in that the scene prior knowledge (V) is modeled. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Szenenvorwissen (V) aus Bilddaten gelernt wird.A method according to claim 1 or 2, characterized in that the scene prior knowledge (V) is learned from image data.
DE201310017621 2013-10-23 2013-10-23 Method for evaluating stereoscopically captured frames, involves generating stereoscopically captured frames for evaluation of three-dimensional reconstruction of scene from captured frames as disparity image Withdrawn DE102013017621A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201310017621 DE102013017621A1 (en) 2013-10-23 2013-10-23 Method for evaluating stereoscopically captured frames, involves generating stereoscopically captured frames for evaluation of three-dimensional reconstruction of scene from captured frames as disparity image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201310017621 DE102013017621A1 (en) 2013-10-23 2013-10-23 Method for evaluating stereoscopically captured frames, involves generating stereoscopically captured frames for evaluation of three-dimensional reconstruction of scene from captured frames as disparity image

Publications (1)

Publication Number Publication Date
DE102013017621A1 true DE102013017621A1 (en) 2014-06-18

Family

ID=50821480

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310017621 Withdrawn DE102013017621A1 (en) 2013-10-23 2013-10-23 Method for evaluating stereoscopically captured frames, involves generating stereoscopically captured frames for evaluation of three-dimensional reconstruction of scene from captured frames as disparity image

Country Status (1)

Country Link
DE (1) DE102013017621A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11238307B1 (en) 2020-09-24 2022-02-01 Eagle Technology, Llc System for performing change detection within a 3D geospatial model based upon semantic change detection using deep learning and related methods
US11302071B1 (en) 2020-09-24 2022-04-12 Eagle Technology, Llc Artificial intelligence (AI) system using height seed initialization for extraction of digital elevation models (DEMs) and related methods
US11587249B2 (en) 2020-09-24 2023-02-21 Eagle Technology, Llc Artificial intelligence (AI) system and methods for generating estimated height maps from electro-optic imagery
US11747468B2 (en) 2020-09-24 2023-09-05 Eagle Technology, Llc System using a priori terrain height data for interferometric synthetic aperture radar (IFSAR) phase disambiguation and related methods

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Gallup, D. u. a.: "Real-Time Plane-Sweeping Stereo with Multiple Sweeping Directions"; In Int. Conference on Computer Vision and Pattern Recognition 07, 2007
Hirschmüller, H.: "Accurate and efficient stereo processing by semi-global matching and mutual information"; In: Proceedings of Int. Conference an Computer Vision and Pattern Recognition 05, San Diego, CA, volume 2, Seiten 807-814, Juni 2005

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11238307B1 (en) 2020-09-24 2022-02-01 Eagle Technology, Llc System for performing change detection within a 3D geospatial model based upon semantic change detection using deep learning and related methods
US11302071B1 (en) 2020-09-24 2022-04-12 Eagle Technology, Llc Artificial intelligence (AI) system using height seed initialization for extraction of digital elevation models (DEMs) and related methods
US11587249B2 (en) 2020-09-24 2023-02-21 Eagle Technology, Llc Artificial intelligence (AI) system and methods for generating estimated height maps from electro-optic imagery
US11747468B2 (en) 2020-09-24 2023-09-05 Eagle Technology, Llc System using a priori terrain height data for interferometric synthetic aperture radar (IFSAR) phase disambiguation and related methods

Similar Documents

Publication Publication Date Title
DE112016007131B4 (en) Object detection device and object determination method
EP2043045B1 (en) Method for tracking an object
DE112017006840B4 (en) Information processing program, information processing method and information processing device
DE102014222617B4 (en) Vehicle detection method and vehicle detection system
DE102016114168A1 (en) Method for detecting an object in a surrounding area of a motor vehicle with prediction of the movement of the object, camera system and motor vehicle
DE102013205854B4 (en) Method for detecting a free path using temporary coherence
DE102016208056A1 (en) Method and device for processing image data and driver assistance system for a vehicle
DE102019117559A1 (en) Method and system for merging two-dimensional semantic information from images with a three-dimensional point cloud
DE102018205879A1 (en) Method, apparatus and computer readable storage medium with instructions for processing sensor data
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
DE102013017621A1 (en) Method for evaluating stereoscopically captured frames, involves generating stereoscopically captured frames for evaluation of three-dimensional reconstruction of scene from captured frames as disparity image
DE102016218852A1 (en) Detection of objects from images of a camera
DE10141055B4 (en) Method for determining movement information
EP2381207A1 (en) 3D targeting and target designation from IR data
DE102015211871A1 (en) Object detection device
DE102016109660A1 (en) Clustering method and system, corresponding apparatus and corresponding computer program product
DE102009048117A1 (en) Method and device for detecting a misdetection of an object in an image
DE102015205901A1 (en) Method for calculating a route for a land vehicle
DE102020126690A1 (en) Method for determining a movement model of an object in an area surrounding a motor vehicle, computer program product, computer-readable storage medium and assistance system
WO2014146864A1 (en) Method and apparatus for creating a recording of an object which lights up in a pulsed manner
DE102013018561A1 (en) Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses
DE102020200875A1 (en) Method for providing sensor data by a sensor system of a vehicle
DE102012020778B4 (en) Method of tagging a sequence of images taken in time sequence with integrated quality control
DE102013016032A1 (en) Method for detecting e.g. robot in stereoscopically detected images by two different perspectives using image capture unit, involves performing time filtering or optimization for estimation of disparity images by filter
DE102019132012A1 (en) Method and system for the detection of small unclassified obstacles on a road surface

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee