DE102006013318A1 - 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren - Google Patents

3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren Download PDF

Info

Publication number
DE102006013318A1
DE102006013318A1 DE102006013318A DE102006013318A DE102006013318A1 DE 102006013318 A1 DE102006013318 A1 DE 102006013318A1 DE 102006013318 A DE102006013318 A DE 102006013318A DE 102006013318 A DE102006013318 A DE 102006013318A DE 102006013318 A1 DE102006013318 A1 DE 102006013318A1
Authority
DE
Germany
Prior art keywords
scene
image
sfm
sfs
reconstructed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102006013318A
Other languages
English (en)
Inventor
Pablo Dipl.-Ing. d'Angelo (FH)
Christian Dr.rer.nat. Wöhler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
DaimlerChrysler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DaimlerChrysler AG filed Critical DaimlerChrysler AG
Priority to DE102006013318A priority Critical patent/DE102006013318A1/de
Publication of DE102006013318A1 publication Critical patent/DE102006013318A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Insbesondere in der industriellen Bildverarbeitung besteht zunehmend die Anforderung, aus zweidimensionalen Bilddaten die dreidimensionale Struktur von Werkstücken oder von Oberflächen derselben zu rekonstruieren. Um eine 3-D-Rekonstruktion von statischen Szenen aus 2-D-Bilddaten zu ermöglichen, welche bei unterschiedlichsten Randbedingungen dichte und vom Ort unabhängige präzise Entfernungsdaten erzeugt, wird vorgeschlagen, das Rekonstruktionsproblem durch die Kombination bzw. die Fusion von aus dem Stand der Technik bekannten Verfahren bereits auf der algorithmischen Ebene zu lösen. Hierzu wird auf Basis der Methode des Depth from Defocus (DFD) die Intensitätsverteilung, in die eine punktförmige Lichtquelle durch das Objektiv und den Bildsensor transformiert wird, aus einem einzigen oder mehreren unterschiedlich fokussierten pixelsynchronen Bildern der Szene geschätzt. Dies entspricht der Ermittlung der Point Spread Function (PSF). Weist die zu rekonstruierende Szene Bereiche mit ausreichendem Intensitätsgradienten auf, so wird diese Szene mittels der Methode des Shape from Motion (SFM) rekonstruiert, wobei die ermittelte PSF einen Parameter der der SFM zugrunde liegenden Fehlerfunktion bildet. Anderenfalls wird die Szene mittels der Methode des Shape from Shading (SFS) rekonstruiert, wobei die ermittelte PSF zur Korrektur der Fehlerfunktion des SFS dient.

Description

  • Die Erfindung betrifft 3D-Rekonstruktion von statischen Szenen aus 2D-Bilddaten durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren gemäß dem Oberbegriff des Patentanspruchs 1.
  • Insbesondere in der industriellen Bildverarbeitung besteht zunehmend die Anforderung aus zweidimensionalen Bilddaten die dreidimensionale Struktur von Werkstücken oder von Oberflächen derselben zu rekonstruieren. Hierzu ist eine Vielzahl möglicher Bildverarbeitungsalgorithmen bekannt.
  • Faugeras (O. Faugeras, Three-Dimensional Computer Vision – A Geometric Viewpoint, MIT Press, Cambridge, USA, 1993) und Kraus (K. Kraus, Photogrammetrie, Band 1, 7. Auflage, de Gruyter, 2004) beschreiben eine Methode zur 3D-Rekonstruktion einer Szene gemäß der Methode des Structure from Motion (SFM). Hierbei erfolgt die Rekonstruktion der Szene durch simultane Bestimmung der internen und externen Kameraparameter (bis auf eine Skalierungskonstante) aus mehreren von verschiedenen Orten aufgenommenen Bildern der Szene. Hierbei wird die Position von geeigneten Bildmerkmalen (meist Ecken oder Kanten) über die Bildsequenz unter Einsatz eines Tracking-Verfahrens verfolgt, so daß Korrespondenzen zwischen den Merkmalen in den einzelnen Bildern hergestellt werden können – es ist also bekannt, welche Bildmerkmale zum selben physikalischen Objekt bzw. Objektteil in der Szene gehören. Die simultane Bestimmung der internen und externen Kameraparameter (und damit also „ganz nebenbei" auch der 3D-Struktur der Szene) erfolgt üblicherweise mit der Methode des Bündelausgleichs (Bundle Adjustment) durch Minimierung einer geeigneten Fehlerfunktion. Stereoskopische Verfahren zur 3D-Szenenrekonstruktion stellen eine Untermenge des Bündelausgleichsverfahrens dar.
  • Die Rekonstruktion einer Oberfläche bzw. ihres Gradientenfeldes anhand des Intensitätsverlaufs im Bild unter Einbeziehung von Annahmen über das Reflexionsverhalten der Oberfläche wird Shape from Shading (SFS) genannt. Bei diffuser Reflexion lässt sich mit drei von geeignet verteilten Orten aufgenommenen Bildern der Oberfläche eine eindeutige Lösung für die Gradienten und den Höhenverlauf der Oberfläche und ihre ortsabhängige Albedo ableiten. Aus einem einzigen Bild ist eine eindeutige Lösung (wenn überhaupt) nur unter Einbeziehung von Rand- oder Regularisierungsbedingungen, also bestimmten Annahmen über die Gestalt der Oberfläche, zu erhalten. Insbesondere geeignete Randbedingungen sind oftmals nicht verfügbar, wodurch das Rekonstruktionsproblem stark mehrdeutig wird. Details hierzu finden sich bei Horn und Brooks (B. K. P. Horn, M. J. Brooks, Shape from Shading. MIT Press, Cambridge, USA, 1989).
  • Anstatt allein anhand der Reflektanz kann zur Bestimmung des Gradientenfeldes einer Oberfläche auch ihr Polarisationsverhalten verwendet werden (Shape from Polarization, SFP). Die Polarisationseigenschaften, gegeben durch Polarisationsgrad und -richtung, glatter dielektrischer Oberflächen sind durch ein einfaches Modell gegeben; so beispielsweise beschrieben von Miyazaki (D. Miyazaki, M. Kagesawa, K. Ikeuchi, Transparent Surface Modeling from a Pair of Polarization Images, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 26, no. 1, 2004). Glatte metallische Oberflächen polarisieren einfallendes unpolarisiertes Licht nicht, rauhe metallische Oberflächen (z. B. Guß- und Schmiedeeisen) bewirken allerdings eine gut messbare Polarisation. Ein physikalisches Modell für solche rauhen metallischen Oberflächen existiert derzeit nicht, so dass die Polarisationseigenschaften durch Messung z. B. mittels eines Goniometers ermittelt und anschließend durch Ablegen in einer Tabelle oder Anpassung eines geeigneten analytischen Zusammenhangs, z. B. eines Polynoms, dem Rekonstruktionsverfahren zur Verfügung gestellt werden müssen; ein derartiges Verfahren wird beispielsweise in der nachveröffentlichten deutschen Patentanmeldung Nr. 102004062461.5 beschrieben. Rahmann und Canterakis (S. Rahmann, N. Canterakis, Reconstruction of Specular Surfaces using Polarization Imaging, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), volume I, pp. 149-155, IEEE Computer Society Press, Kauai, USA, December 2001) beschreiben, dass man aus dem Polarisationsgrad und/oder der Polarisationsrichtung in derselben Weise wie bei der SFS-Methode eine Lösung für das Feld der Oberflächengradienten und damit auch der Oberfläche selbst bestimmen kann. Abhängig von den Polarisationseigenschaften der Oberfläche und der Anzahl der verfügbaren Bilder ist diese Lösung eindeutig, mehrdeutig oder unendlich vieldeutig, so dass wie bei der SFS-Methode gegebenenfalls geeignete Regularisierungsbedingungen einzuführen sind.
  • Die Bestimmung der Entfernung eines Objekts in der Szene von der Kamera mittels Depth from Defocus (DFD) erfolgt durch Schätzung der sog. Point Spread Function (PSF), d. h. der Intensitätsverteilung, in die eine punktförmige Licht quelle durch das Objektiv und den Bildsensor transformiert wird, aus einem einzigen oder mehreren unterschiedlich fokussierten pixelsynchronen Bildern der Szene. Wurde das Objektiv entsprechend kalibriert, lässt sich aus der PSF direkt der Abstand des betreffenden Objekts von der Kamera ableiten. Details zu diesem Verfahren wurden auch durch Chaudhuri (S. Chaudhuri, A. N. Rajagopalan, Depth from Defocus, Springer-Verlag Telos, 1999) beschrieben. Bildregionen, die einen hohen Intensitätsgradienten aufweisen, sind in besonderer Weise zur Bestimmung der PSF geeignet, da sich letztere vor allem durch ihre Auswirkung auf die hohen Ortsfrequenzen im Bild bemerkbar macht.
  • Jedes dieser aus dem Stand der Technik bekannten Verfahren zur Rekonstruktion der dreidimensionalen Parameter einer Szene aus zweidimensionalen Bilddatensätzen liefert nur unter jeweils unterschiedlichen Voraussetzungen gute Ergebnisse. Mit SFM lassen sich nur diejenigen Objektteile rekonstruieren, die einen hohen Intensitätsgradienten im Bild aufweisen, also meist Objektkanten und -ecken, da nur solche Gebiete in der Bildsequenz hinreichend präzise verfolgt werden können. Darüber hinaus beeinträchtigen Fehlkorrespondenzen die Qualität des Rekonstruktionsergebnisses erheblich. DFD liefert im Prinzip für jeden Punkt im Bild einen Entfernungswert. Auch hier ist allerdings zur vernünftigen Abschätzung der PSF ein hoher Intensitätsgradient erforderlich, in gleichförmig hellen Bildregionen generiert das Verfahren keine präzisen Daten. Außerdem beeinträchtigen Sensorrauschen und ungenaue Kalibrierung des Objektivs die Genauigkeit der ermittelten Tiefenwerte. Mit SFS lassen sich oftmals nur unter Kenntnis von Randwerten eindeutige Lösungen erhalten. Die Qualität des Rekonstruktionsergebnisses ist in Bildbereichen mit nur schwach veränderlicher Intensität am besten. SFP weist in diesem Zusammenhang ähnliche Eigenschaften auf wie SFS. Die einzelnen Verfahren lösen somit nur jeweils einen Teil des 3D-Rekonstruktionsproblems. Dichte und unabhängig vom Ort in der Szene präzise Entfernungsdaten lassen sich so nicht gewinnen.
  • Bei den neuesten Ansätzen zur Rekonstruktion von 3D-Bildszenen werden aus dem Stand der Technik bekannte Verfahren bereits auf algorithmischer Ebene miteinander fusioniert. So beschreiben Wang und Qi (Z. Wang, F. Qi, Shape and motion from simultaneous equations with closed-loop solution, Journal of the pattern recognition society, pp. 2257-2260, Elsevier Ltd., 2004) einen neuen Rekonstruktionsalgorithmus, welcher die Methoden des SFM und des SFS miteinander verbindet.
  • Aufgabe der Erfindung ist es deshalb, ein Verfahren zur 3D-Rekonstruktion von statischen Szenen aus 2D-Bilddaten zu finden, welches bei unterschiedlichsten Randbedingungen dichte und vom Ort unabhängige präzise Entfernungsdaten erzeugt.
  • Die Aufgabe wird durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 gelöst. Vorteilhafte Ausgestaltungen und Weiterentwicklungen des Verfahrens werden durch die Unteransprüche beschrieben.
  • Ausgangspunkt der erfindungsgemäßen Lösung des Rekonstruktionsproblems ist die Kombination bzw. die Fusion der aus dem Stand der Technik bekannten Verfahren bereits auf der algorithmischen Ebene. Hierzu werden zur 3D-Rekonstruktion einer statischen Szene aus 2D-Bilddaten von dieser Szene mittels eines Bildsensors 2D-Bilddaten erfasst. Hiernach werden auf Basis der Methode des Depth from Defocus (DFD) die Inten sitätsverteilung, in die eine punktförmige Lichtquelle durch das Objektiv und den Bildsensor transformiert wird, aus mehreren unterschiedlich fokussierten pixelsynchronen Bildern der Szene geschätzt. Dies entspricht der Ermittlung der Point Spread Function (PSF) für alle oder einzelne Bildpunkte aus denen die statische Szene rekonstruiert werden soll. In erfinderischer weise werden die Bilder der zu rekonstruierenden Szene zusätzlich daraufhin untersucht, ob sie genügend Bereiche mit ausreichendem Intensitätsgradienten aufweisen, welche im Rahmen der Anwendung der Methode des Structure from Motion (SFM) in einer Sequenz von Bildern verfolgt werden können. Weist die zu rekonstruierende Szene Bereiche mit ausreichendem Intensitätsgradienten auf, so wird diese Szene mittels der Methode des Shape from Motion (SFM) rekonstruiert, wobei die ermittelte PSF einen Parameter der der SFM zugrunde liegenden Fehlerfunktion bildet. Anderenfalls wird die Szene mittels der Methode des Shape from Shading (SFS) rekonstruiert, wobei die ermittelte PSF zur Korrektur der Fehlerfunktion des SFS dient. Dies wurde entsprechend auch durch Chaudhuri (S. Chaudhuri, A. N. Rajagopalan, Depth from Defocus, Springer-Verlag Telos, 1999) beschrieben.
  • Ob ein Bildbereich innerhalb des Bildes der zu rekonstruierenden Szene einen ausreichenden Intensitätsgradienten zur Anwendung der Methode des Shape from Motion (SFM) vorweist, kann beispielsweise mit Hilfe des beim Harris Corner Detektors verwendeten Strukturtensors C
    Figure 00060001
    ermittelt werden, wozu hierbei die Summen über die Pixel in der Nachbarschaft des betrachteten Pixels I gebildet werden.
  • Ergibt sich für einen frei wählbaren, insbesondere applikationsspezifisch experimentell bestimmbaren, Schwellwert S, dass S < det(C) – k·trace(C)2 (2),wobei k eine kleine Zahl, insbesondere 0.04 ist, so kann davon ausgegangen werden, dass ein Bildbereich einen für die Anwendung des SFM ausreichenden Intensitätsgradienten aufweist.
  • Ob für die Anwendung des SFM in genügender Zahl derartige Bildbereiche mit ausreichendem Intensitätsgradienten im Bild der zu rekonstruierenden Szene vorhanden sind ergibt sich daraus, ob sich hierdurch die externen und internen Kameraparameter, beispielsweise mittels der Methode des Bündelausgleichs (Bundle Adjustment), bestimmen lassen.
  • Stehen zusätzliche Informationen oder Angaben, insbesondere über Randbedingungen, über die Szene zur Verfügung, so ist es gewinnbringend auch möglich die Point Spread Function (PSF) mittels der Methode des Depth from Defocus (DFD) bereits aus einem einzigen Bild der Szene an Stelle einer Mehrzahl von Bildern zu bestimmen.
  • Bei der SFM-Methode wird mit dem Optimierungsverfahren des Bündelausgleichs eine Fehlerfunktion ESFM({Xi,Yi,Zi,ui,vi,}) (3)optimiert, die im Wesentlichen von den 3D-Positionen {Xi,Yi,Zi} der Korrespondenzpunkte in der Szene und ihren daraus resultierenden projizierten 2D-Positionen {ui,vi} im Bild abhängt. Anstatt eine einzelne Kamera in der Szene zu bewegen, ist es selbstverständlich auch denkbar mehrere, an unterschiedlichen Positionen installierte, statische Kameras zu verwenden, im einfachsten Fall ein Stereo-Kamerapaar, ohne dass dies die Eigenschaften des hier beschriebenen Ansatzes ändert. Im Sinne einer Fusion wird die Fehlerfunktion ESFM um einen Term EDFD ergänzt, der die Abweichung der ermittelten Entfernungen der Korrespondenzpunkte von der Kamera von ihren gemäß dem DFD-Ansatz erwarteten Entfernungen beschreibt: E = ESFM + λ·EDFD, λ > 0 (4).
  • Diese Kombination ist vorteilhaft, weil es sich bei den Korrespondenzpunkten stets um Bildbereiche mit hohem Intensitätsgradienten handelt, denn ansonsten wäre eine Korrespondenzbildung nur ungenau oder gar nicht möglich, und auch der DFD-Ansatz liefert für solche Bildbereiche die besten Ergebnisse. Fehler beim Bündelausgleich, die beispielsweise auf eine ungenaue Bestimmung der Koordinaten der Korrespondenzpunkte im Bild zurückzuführen sind, können so kompensiert werden. Der DFD-Fehler EDFD wirkt daher als Regularisierungsbedingung.
  • In Bildregionen mit geringem Intensitätsgradienten kann die 3D-Position der zugehörigen Szenenpunkte nicht oder nur sehr ungenau durch Bündelausgleich bestimmt werden, weil eine Korrespondenzanalyse hier oft nicht möglich ist. Für die zugehörigen Bereiche der Szene bietet sich die Integration von mit der SFS-Methode ermittelter Tiefeninformation an. Im Allgemeinen ist die Fokussierung der Objekte der Szene über das Bildfeld hinweg nicht konstant, sondern von der jeweiligen Entfernung abhängig. Diese örtlich variable Bildunschärfe kann als Merkmal zur 3D-Rekonstruktion der Szene nach der DFD-Methode dienen. Aus diesem Grunde ist bei der 3D-Rekonstruktion von schwach strukturierten Objektteilen mit der SFS-Methode die Berücksichtigung der durch die jeweilige Defokussierung verursachten Bildunschärfe bzw. der resultierenden PSF unerlässlich. Im einfachsten Falle lässt sich die durch Defokussierung hervorgerufene Bildunschärfe als Faltung des ungestörten Bildes mit einer rotationssymmetrischen gauß schen PSF der Breite σ beschreiben. Das DFD-Verfahren schätzt im Zuge der Entfernungsbestimmung eines Szenenpunktes die Form der PSF, hier speziell den Parameter σ, für den zugehörigen Bildbereich.
  • Die so erhaltene PSF wird dann in einer bereits durch Joshi et. al (M. V. Joshi, S. Chaudhuri. Photometric Stereo Under Blurred Observations. 17th Int. Conf. on Pattern Recognition, vol. 3, pp. 169-172, Cambridge, UK, 2004) beschriebenen Weise direkt in die 3D-Rekonstruktion der Oberfläche durch SFS einbezogen. Hierbei wird der Intensitätsfehler unter Einbeziehung der PSF beschrieben als
    Figure 00090001
    mit I als dem gemessenen Pixelwert, R als dem entsprechenden Wert im rekonstruierten Bild und G der entsprechenden PSF mit welcher die Werte R gefaltet werden. Hierbei bietet es sich jedoch gewinnbringend an, nicht wie durch Joshi beschrieben die PSF parallel zu den Parametern der SFS aus dem Bild mitzuschätzen, sondern die PSF vorab mittels der DFD-Methode zu ermitteln und im Rahmen des von Joshi beschriebenen SFS-Verfahrens fest vorzugeben.
  • In besonders vorteilhafter Weise wird hierdurch als Ergebnis dieses Verfahrens, eine durch SFS im 3D-Raum rekonstruierte Oberfläche, so bestimmt wurde, dass ihr Verlauf (z. B. im Sinne eines Abstandsmaßes im 3D-Szenenraum) möglichst gut mit einer in anderen Bildbereichen (Bereiche mit hohen Intensitätsgradienten) durch Kombination von DFM und DFD, entsprechend obiger Beschreibung, rekonstruierten Szene verträglich ist.
  • Zur weiteren Regularisierung des SFS-Verfahrens kann zusätzlich Schatteninformation in der von Wöhler (C. Wöhler, 3D surface reconstruction by self-consistent fusion of shading and shadow features, 17th Int. Conf. on Pattern Recognition, vol. 2, pp. 204-207, Cambridge, UK, 2004) beschriebenen Weise herangezogen werden. Darüber hinaus ist die Verwendung von Polarisationsinformation durch Kombination von SFS mit SFP entsprechend der in der nachveröffentlichten deutschen Patentanmeldung Nr. 102004062461.5 beschriebenen Weise direkt möglich.
  • Häufig ist es schwierig die Methode des Shape from Shading SFS so zu parametrisieren, dass sie hin zu einer eindeutigen Lösung konvergiert. Dies ist oft nur unter Einbeziehung von Rand- oder Regularisierungsbedingungen möglich. Besonders vorteilhaft ist es deshalb Randbedingungen, die eine eindeutige (oder auf wenige Möglichkeiten beschränkte) Lösung des Shape-from-Shading-Problems liefern, aus Szenenpunkten bzw. -bereichen herzuleiten, die am Rand der Bildregion liegen und welche einen ausreichenden Intensitätsgradienten aufweisen, so dass deren 3D-Position in der Szene mittels Structure from Motion (SFM) ermittelt werden kann. Hierzu kann gewinnbringend wie vorab beschrieben das SFM mit der Methode des DFD kombiniert werden.
  • Andererseits ist es aber sehr wohl auch denkbar aus den am Rand der Bildregion liegenden Szenenpunkten oder Szenenbereichen fehlerbehaftete Größen zur Verbesserung der Rekonstruktion auf Basis der Methode des SFS herzuleiten.
  • In besonders gewinnbringender Weise lässt sich die 3D-Rekonstruktion weiter verbessern, wenn auch Informationen über Tiefendifferenzen direkt in die Minimierung der im Rahmen der Methode des SFM oder der Methode des SFS verwandten Fehlerfunktionen einfließen. Diese Tiefendifferenzen können aus beliebigen Quellen stammen und müssen im Kamerakoordinatensystem bekannt sein. Dabei werden die Tiefendifferenzen nicht als fehlerfreie Randbedingungen verwendet, sondern beispielsweise im Sinne des Minimierungsverfahrens der kleinsten Fehlerquadrate zusammen mit den anderen fehlerbehafteten Messwerten (beispielsweise Intensitäts- und Polarisationswerte) betrachtet werden. Besonders geeignete Tiefeninformation lässt sich beispielsweise durch Stereobildverarbeitung, Schattenanalyse oder Lasertriangulation ermitteln.
  • In besonders vorteilhafter Weise eignet sich die Erfindung zur Inspektion von Oberflächen bzw. Werkstücken bei der Produktion und Prüfung industrieller Werkstücke. Insbesondere lässt sich dieses vorteilhafte Inspektionsverfahren gewinnbringend in einen Produktionsablauf integrieren.

Claims (7)

  1. Verfahren zur 3D-Rekonstruktion einer statischen Szene aus 2D-Bilddaten, bei welchem mittels eines Bildsensors 2D-Bilddaten der Szene erfasst werden, bei welchem auf Basis der Methode des Depth from Defocus (DFD) eine Intensitätsverteilung, in die eine punktförmige Lichtquelle durch ein Objektiv und einen Bildsensor transformiert wird, aus mehreren unterschiedlich fokussierten pixelsynchronen Bildern der Szene geschätzt wird, was der Ermittlung einer Point Spread Function (PSF) für die einzelne Bildpunkte aus denen die statische Szene rekonstruiert werden soll entspricht, dadurch gekennzeichnet, dass das Bild einer zu rekonstruierende Szene daraufhin untersucht wird, ob es genügend Bereiche mit ausreichendem Intensitätsgradienten aufweist, welche im Rahmen der Anwendung der Methode des Structure from Motion (SFM) in einer Sequenz von Bildern verfolgt werden können, wobei dann, wenn die zu rekonstruierende Szene Bereiche mit ausreichendem Intensitätsgradienten aufweist, diese Szene mittels der Methode des Shape from Motion (SFM) rekonstruiert wird, wobei die ermittelten PSF einen Parameter einer der Methode des SFM zugrunde liegenden Fehlerfunktion bildet, und wobei anderenfalls die Szene mittels der Methode des Shape from Shading (SFS) rekonstruiert wird, wobei die ermittelten PSF einen Parameter einer der Methode des SFS zugrunde liegenden Fehlerfunktion liefert.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur der Ermittlung einer Point Spread Function (PSF) mittels der Methode des Depth from Defocus (DFD) für die einzelnen Bildpunkte aus denen die statische Szene rekonstruiert werden soll, nur ein einzelnes Bild der Szene zugrunde gelegt wird und hierzu ergänzend zusätzliche Informationen oder Annahmen über die Szene beachtet werden.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei der Anwendung der Methode des Shape from Shading diese zusätzlich mit der Methode des Shape from Polarisation (SFP) kombiniert wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Randbedingungen für SFS aus Szenenpunkten oder Szenenbereichen hergeleitet werden, die am Rand der Bildregion liegen und welche einen ausreichenden Intensitätsgradienten aufweisen, so dass deren 3D-Position in der Szene mittels Structure from Motion (SFM) ermittelt werden kann.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den am Rand der Bildregion liegenden Szenenpunkten oder Szenenbereichen fehlerbehaftete Größen zur Ver besserung der Rekonstruktion auf Basis der Methode des SFS herzuleiten.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus Bilddaten ermittelte Tiefendifferenzen in den im Rahmen der Methode des SFM oder der Methode des SFS verwandten Fehlerfunktionen als zusätzlicher Term direkt in die Minimierung einfließen.
  7. Verwendung des Verfahrens nach einem der Ansprüche 1 bis 6 zur Prüfung von Werkstücken, insbesondere innerhalb eines Produktionsablaufes.
DE102006013318A 2005-03-21 2006-03-21 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren Withdrawn DE102006013318A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102006013318A DE102006013318A1 (de) 2005-03-21 2006-03-21 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102005013461.0 2005-03-21
DE102005013461 2005-03-21
DE102006013318A DE102006013318A1 (de) 2005-03-21 2006-03-21 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren

Publications (1)

Publication Number Publication Date
DE102006013318A1 true DE102006013318A1 (de) 2006-09-28

Family

ID=36973844

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006013318A Withdrawn DE102006013318A1 (de) 2005-03-21 2006-03-21 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren

Country Status (1)

Country Link
DE (1) DE102006013318A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8736670B2 (en) 2009-12-07 2014-05-27 Photon-X, Inc. 3D visualization system
CN105913485A (zh) * 2016-04-06 2016-08-31 北京小小牛创意科技有限公司 一种三维虚拟场景的生成方法及装置
CN107103637A (zh) * 2017-04-05 2017-08-29 南京信息工程大学 一种增强纹理力方法
WO2020244717A1 (de) * 2019-06-05 2020-12-10 Conti Temic Microelectronic Gmbh Detektion, 3d-rekonstruktion und nachverfolgung von mehreren relativ zueinander bewegten starren objekten

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8736670B2 (en) 2009-12-07 2014-05-27 Photon-X, Inc. 3D visualization system
CN105913485A (zh) * 2016-04-06 2016-08-31 北京小小牛创意科技有限公司 一种三维虚拟场景的生成方法及装置
US10740963B2 (en) 2016-04-06 2020-08-11 Beijing Xiaoxiaoniu Creative Technologies Ltd 3D virtual environment generating method and device
CN107103637A (zh) * 2017-04-05 2017-08-29 南京信息工程大学 一种增强纹理力方法
WO2020244717A1 (de) * 2019-06-05 2020-12-10 Conti Temic Microelectronic Gmbh Detektion, 3d-rekonstruktion und nachverfolgung von mehreren relativ zueinander bewegten starren objekten
JP2022532792A (ja) * 2019-06-05 2022-07-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング 複数の相対的に接近する様に動いているリジッドなオブジェクトの検出、3d再現および追跡
JP7209115B2 (ja) 2019-06-05 2023-01-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング 複数の相対的に接近する様に動いているリジッドなオブジェクトの検出、3d再現および追跡
US12008785B2 (en) 2019-06-05 2024-06-11 Conti Temic Microelectronic Gmbh Detection, 3D reconstruction and tracking of multiple rigid objects moving in relation to one another

Similar Documents

Publication Publication Date Title
DE102013008273B4 (de) Dreidimensionale Bilderfassungsvorrichtung
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102012108567B4 (de) Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
DE69430153T2 (de) Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten
DE102015005267B4 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
DE69625423T2 (de) Vorrichtung zur Erkennung eines Objektes, in welchem die Position eines ebenen Objektes mit Hilfe einer Houghtransformation geschätzt wird
DE102013205762B4 (de) Informationsverarbeitungsvorrichtung, die eine dreidimensionale Formvermessung durchführt, Informationsverarbeitungsverfahren und Speichermedium
DE102017118767B4 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
WO2000063681A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
DE102021102233B4 (de) Vorrichtung und Verfahren zur Korrespondenzanalyse in Bildern
DE112016000356T5 (de) Selbstrektifizierung von Stereokameras
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102013211930A1 (de) Binokulares Objektvergleichsverfahren mit breiter Basislinie unter Verwendung eines Flussnetzes mit minimalen Kosten
WO2007107214A2 (de) Verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene
WO2012013686A1 (de) Ermittlung von defokussierten reflexionskarten für die robuste bestimmung von &#34;shape from focus&#34; in mikroskopbildern
DE102014113256A1 (de) Bildaufnahmevorrichtung und Verfahren zur Bildaufnahme mit Reflexunterdrückung
DE112014005376T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
DE102006013318A1 (de) 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination von geometrischen und photometrischen Verfahren
WO2013143882A1 (de) Verfahren zum scannenden messen eines dentalen objektes sowie intraoral-scanner
DE102009056177B4 (de) Vorrichtung und Verfahren zur Messung und Kompensation von Bewegungseinflüssen bei Phasenschiebe-Profilometern und dessen Anwendung auf mobile, freihandgeführte Profilometrie
DE102016008744A1 (de) Bildmessapparat, Regel- bzw. Steuerprogramm eines derartigen Apparats und nicht-flüchtiges Aufzeichnungsmedium, auf welchem das Regel- bzw. Steuerprogramm aufgezeichnet is
DE102014224274B4 (de) Vorrichtung und verfahren zum optischen vermessen von gegenständen mittels spiegelndem fluss und stereo-regularisierung
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102006013316A1 (de) 3D-Rekonstruktion von statischen Szenen durch vereinheitlichte Kombination der Methode des Depth from Defokus und der des Shape from Motion

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE

8127 New person/name/address of the applicant

Owner name: DAIMLER AG, 70327 STUTTGART, DE

8130 Withdrawal