DE19810014C2 - Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten - Google Patents

Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten

Info

Publication number
DE19810014C2
DE19810014C2 DE19810014A DE19810014A DE19810014C2 DE 19810014 C2 DE19810014 C2 DE 19810014C2 DE 19810014 A DE19810014 A DE 19810014A DE 19810014 A DE19810014 A DE 19810014A DE 19810014 C2 DE19810014 C2 DE 19810014C2
Authority
DE
Germany
Prior art keywords
image
disparity
images
stereo image
image pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19810014A
Other languages
English (en)
Other versions
DE19810014A1 (de
Inventor
Guo Quing Wei
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE19810014A priority Critical patent/DE19810014C2/de
Publication of DE19810014A1 publication Critical patent/DE19810014A1/de
Application granted granted Critical
Publication of DE19810014C2 publication Critical patent/DE19810014C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

Zum Auswerten eines Stereobildpaares zum Zwecke der Erstellung von Disparitätskarten werden die folgenden Schritte durchgeführt: DOLLAR A Es wird ein gemischtes Gütekriterium verwendet, in das sowohl die Intensitätsfunktionen (I(x, y)) jedes der beiden Bilder als auch Merkmale in Form der örtlichen Ableitungen (I¶x¶(x, y)), (I¶y¶(x, y)) nach den rechtwinkligen Bildkoordinaten (x, y), ebenfalls beider Bilder, sowie ein Glattheitstherm (G(x, y)) eingeht, wobei der Glattheitstherm nur auf die homogenen Bildregionen und der Merkmalstherm nur auf die komplementären Bildregionen angewendet wird. Ferner wird die Disparitätsfunktion durch eine Summe von Exponentialfunktionen mit negativen quadratischen Exponenten (beschichtetes Radial-Basis-Funktions-Netzwerk) in einem Optimierungsprozeß approximiert. Schließlich wird zur Korrektur von Kontrast- und Helligkeitsunterschieden in dem Stereobildpaar ein lineares Modell benutzt, dessen Parameter im Zuge der Bestimmung der Disparitätenkarte identifiziert werden.

Description

Die Erfindung betrifft ein Verfahren zum Auswerten eines Ste­ reobildpaares zum Zweck der Erstellung von Disparitätskarten.
Die stereooptische Formerfassung räumlicher Objekte hat ein weites Anwendungsfeld in vielen sehr unterschiedlichen Berei­ chen. Beispiele hierfür sind u. a. die Fernerkundung, die Ro­ botik, der Denkmalschutz und der VR-Bereich (virtual reali­ ty).
Bei der Fernerkundung werden Bilder der Erdoberfläche von Luft- oder Raumfahrzeugen aus aufgenommen und zur Erstellung digitaler Geländemodelle ausgewertet. Auf ähnliche Weise sol­ len in der Robotik dreidimensionale Modelle der Arbeitsumge­ bung eines Roboters erstellt werden. Im Denkmalschutz sollen Gebäude, von denen keine Baupläne vorhanden sind, auf einfa­ che Weise vermessen werden, indem sie aus unterschiedlichen Ansichten photographiert und die Bilder stereooptisch auswer­ tet werden. Für die Objekte einer VR-Umgebung sind der Phan­ tasie keine Grenzen gesetzt.
Zwei Bildpunkte eines stereooptischen Bildpaares heißen kor­ respondierende (homologe) Punkte, wenn sie Bildpunkte dessel­ ben Objektpunktes sind. Das Grundproblem bei der stereoopti­ schen Bildauswertung ist die eindeutige Identifizierung und exakte Lokalisierung korrespondierender Punkte.
Diese Arbeit wird bis jetzt häufig von geschultem Personal ausgeführt und ist aus folgenden Gründen nur sehr schwer au­ tomatisierbar. In stark strukturierten oder auch in periodi­ schen Bildbereichen ist das Risiko für Verwechslungen hoch, in homogenen Bildbereichen ist dagegen eine exakte Lokalisie­ rung schwer. Es gibt mehrere Ansätze zur automatischen Be­ stimmung von Stereokorrespondenzen, aber noch keine allge­ meinbefriedigende Lösung.
Konventionelle Techniken zur Stereokorrespondenzsuche lassen sich in drei Gruppen einteilen, nämlich einen flächenbasier­ ten, einen merkmalsbasierten und einen grauwertbasierten An­ satz (siehe z. B. EP 0686942 A2, US 5309522, US 4745562).
Der flächenbasierte Ansatz setzt konstante Disparität in ei­ ner Region ("Fenster") um den betrachteten Bildpunkt voraus. Das Ziel dabei ist, durch Verwenden der Bildstruktur im Fen­ ster Korrespondenz-Mehrdeutigkeiten aufzulösen. Ein bekannter hierfür geeigneter Ansatz ist die Korrelationsmethode, bei der solche Bildpunktpaare gesucht werden, deren Umgebungen einander am "ähnlichsten" sind. Dafür gibt es schnelle Hard­ ware, die eine effiziente Implementierung ermöglicht.
Allerdings ist die Voraussetzung bei diesem Ansatz im allge­ meinen nicht erfüllt, sondern sie wird sogar in der Praxis mit hoher Wahrscheinlichkeit verletzt, wobei die Wahrschein­ lichkeit für Verletzungen mit zunehmender Fenstergröße wächst. Die Folge davon sind Lokalisationsfehler. Anderseits wächst mit abnehmender Fenstergröße sowohl die Wahrschein­ lichkeit für Fehlzuordnungen (falsche Identifizierungen) als auch der Einfluß des Kamerarauschens auf Lokalisationsfehler.
Der merkmalsbasierte Ansatz beschränkt sich im ersten Schritt auf robust identifizierbare und lokalisierbare Bildstrukturen (Merkmale). Das augenfälligste Beispiel eines Merkmals ist die "Bildkante", die dort ist, wo sich der Grauwerteverlauf schnell ändert.
Der merkmalsbasierte Ansatz hat den Vorteil, daß er sich auf den als zuverlässig anzunehmenden Teil der Bildinformation abstützt, hat jedoch den Nachteil, daß er im allgemeinen nur eine "dünn besetzte" Disparitätenkarte, z. B. nur für die Kan­ ten, liefert; der Rest der Karte muß durch Interpolation auf­ gefüllt werden. Das Interpolationsergebnis hängt einerseits vom gewählten Interpolationsverfahren ab, anderseits bleibt die im Interpolationsgebiet verfügbare Bildinformation unge­ nutzt.
Der grauwertbasierte Ansatz setzt gleiche Grauwerte für korrespondierende Punkte voraus. In dieser strengen Form wird die Voraussetzung häufig verletzt, da schon der unterschied­ liche Strahlengang von einem Objektpunkt in die zwei Bildebe­ nen eine Grauwertverschiebung bewirken kann. In einer gemil­ derten Form werden "fast gleiche" Grauwerte vorausgesetzt.
Diese Voraussetzung ist in der Regel gut erfüllt. Der grau­ wertbasierte Ansatz hat den Vorteil, daß er ohne eine Annahme über den Disparitätsverlauf in der umgebenden Region aus­ kommt, daß er ferner eine dichte Disparitätenkarte (ohne In­ terpolation) liefert, außerdem keine Merkmalsextraktion er­ fordert, und daß er schließlich die ganze Bildinformation nutzt. Der grauwertbasierte Ansatz hat den gravierenden Nach­ teil, daß er empfindlich gegenüber Mehrdeutigkeiten ist, und daher in der Disparitätenkarte große Fehler durch Fehlzuord­ nungen auftreten können.
Aufgabe der Erfindung ist es, zu einer numerischen Lösung des Problems der Stereokorrespondenz hinsichtlich Identifizierung und Lokalisierung von Stereobildpaaren ein Verfahren anzuge­ ben, mit welchem auch bei schwierigem Bildmaterial sehr viel zuverlässigere Ergebnisse erhalten werden als mit bekannten Ansätzen, so daß es als Basis für die automatische stereoop­ tische digitale Bildauswertung dienen kann.
Gemäß der Erfindung ist diese Aufgabe mit einem Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten mit den Merkmalen des Anspruchs 1 gelöst. Vorteilhafte Weiterbildungen sind Gegenstand der auf Ansprü­ che 2 bis 8 unmittelbar oder mittelbar rückbezogenen Ansprü­ che.
Das erfindungsgemäße Verfahren liefert als Ergebnis eine Dis­ paritätenkarte. Wegen der zentralen Bedeutung der Begriffe Disparität und Disparitätenkarte werden diese Begriffe zu­ nächst erläutert. Die paralaktische Bildpunktverschiebung in einem stereooptischen Bildpaar heißt Disparität d. Für zwei korrespondierende Punkte PL = (xL,yL)T und PR = (xR,yR)T gilt:
d = (u,v)T = (xL - xR, yL - yR)T.
Hierbei sind x und y die Bildkoordinaten und u und v die Kom­ ponenten der Verschiebungsvektors in den Bildkoordinaten x und y. In Anlehnung an das menschliche Augenpaar - linkes und rechtes Auge - werden die aus einem stereooptischen Bildpaar abgeleiteten Größen durch die Indizes L und R unterschieden.
Ein dichtes Feld von Disparitäten, ein Verschiebungsvektor­ feld, über einem Bildausschnitt (oder einem ganzen Bild) heißt Disparitätenkarte
d(x,y) ∼ (u(x,y), v(x,y))T
T kennzeichnet den transponierten Vektor.
Unter den Voraussetzungen, daß eine Bildaufnahme verzeich­ nungsfrei erfolgt, beide Kameras in allen Achsen parallel orientiert sind, und sich ihre Position nur durch eine Ver­ schiebung entlang der x-Achse unterscheidet, gilt: v(x,y) ∼ 0. Die Disparitätenkarte ist dann die meßtechnische Darstellung der Entfernungskarte.
Zum Berechnen des Entfernungskarte aus der Disparitätenkarte ist die Kenntnis der Bildaufnahmegeometrie und der Kame­ ra-Abbildungseigenschaften erforderlich. Dieser Auswerte­ schritt ist nicht Gegenstand der Anmeldung und wird daher auch nicht behandelt.
Gemäß der Erfindung besteht ein erster Schritt darin, ver­ schiedene Ansätze in einem geschlossenen Algorithmus so mit­ einander zu verbinden, daß sie sich gegenseitig in der Wir­ kung ihrer positiven Eigenschaften verstärken. Dadurch sind bessere Ergebnisse zu erwarten, als wenn verschiedene Ansätze unabhängig voneinander realisiert werden und nur die Ergeb­ nisse vergleichend ausgewertet würden.
Besonders attraktiv erscheint dabei die Verbindung eines merkmalsbasierten Ansatzes mit einem grauwertbasierten An­ satz, und zwar der merkmalbasierte Ansatz wegen seiner hohen Zuverlässigkeit an Merkmals-Bildstellen und der grauwertba­ sierte Ansatz zur Unterstützung der Interpolation mit voll­ ständiger Bildinformation. Hierbei erfolgt die Verbindung durch die Minimierung eines globalen Gütekriteriums, zu dem beide Ansätze Beiträge liefern. Zur Stabilisierung des Algo­ rithmus in homogenen und daher kritischen Bildbereichen wird dem Gütekriterium noch ein parametrisierbarer Glattheitsterm hinzugefügt. Dieses modifizierte Gütekriterium wird nachsste­ hend als Korrespondenzfehlermaß bezeichnet.
Das Korrespondenzfehlermaß kann neben dem gesuchten Minimum jedoch noch weitere Minima aufweisen, und ist daher in diesem Sinne nicht eindeutig. Der zweite Schritt betrifft die effi­ ziente Auflösung solcher Mehrdeutigkeiten. Dazu wird die Dis­ paritätenkarte parametrisch, in einer hierarchischen Schich­ tenstruktur mit unterschiedlichen Auflösungsgraden dar­ gestellt und das Optimierungsproblem wird sequentiell, d. h. Schicht für Schicht, in der Richtung von grober zu feiner Auflösung gelöst. Die Parameter einer Schicht bleiben nach dem Optimierungsschritt für diese Schicht fest.
Im Gegensatz zur Darstellung der Disparitätenkarte durch un­ abhängige Variable für jeden Bildpunkt (direkter Ansatz), wird bei der Vorgehensweise gemäß der Erfindung folgendes er­ reicht. In den gröberen Schichten sind Mehrdeutigkeiten weni­ ger wahrscheinlich als in den feineren Schichten. Mit der In­ formation aus den schon bearbeiteten Schichten ist das Feh­ lerrisiko (durch lokale Minima) in der aktuellen Schicht ge­ ringer als ohne dieses Vorwissen.
Ferner wird durch die parametrische Repräsentation und die sequentielle Vorgehensweise die Anzahl der freien Parameter in jedem Optimierungsschritt sehr viel kleiner als beim di­ rekten Ansatz. Als Basisfunktion wird die Exponentialfunktion mit negativem quadratischem Exponenten verwendet, die auf dem Gebiet der Neuronalen Netze als Radial-Basis-Funktion bekannt ist, und dort wegen mehrerer günstiger Eigenschaften breite Verwendung gefunden hat.
Schließlich kann das stereoopitsche Bildpaar von zwei Kameras mit unterschiedlicher photometrischer Empfindlichkeit stam­ men, z. B. durch unterschiedliche Blendeneinstellung. In die­ sem Fall wäre die Voraussetzung für den Grauwert-Fehlerterm verletzt. Der dritte Schritt löst dieses Problem dadurch, daß eine photometrische Bildkorrektur mitgeschätzt wird. Hierbei wird (für die Blendenverstellung) ein lineares Korrekturmo­ dell mit konstanten Parametern für die Grauwerte aller Bild­ punkte eines der beiden Bilder verwendet. Dieses entspricht einer globalen Helligkeits- und Kontrastanpassung.
Nachfolgend wird die Erfindung unter Bezugnahme auf die an­ liegenden Zeichnungen erläutert. Es zeigen:
Fig. 1 schematisch eine Verteilung von RBF-Neuronen in drei Schichten;
Fig. 2a und 2b ein stereooptisches Bild;
Fig. 2c eine grauwertcodierte Disparitätenkarte;
Fig. 2d eine Disparitätenkarte mit Linien gleicher Dispari­ tät;
Fig. 2e ein linkes Originalbild mit Testpunkten (x) und ver­ tikalen Testlinien;
Fig. 2f ein rechtes Originalbild mit korrespondierenden Punk­ ten (x) und (vertikalen) Kurven sowie Testpunkten (+) und vertikalen Linien des rechten Bildes;
Fig. 2g das Differenzbild eines stereooptischen Bildpaares, und
Fig. 2h das Differenzbild nach der Zuordnung.
Die Disparitat ist auf die Koordinaten des linken Bildes be­ zogen und zur Abkürzung der Schreibweise wird die nachstehen­ de Notation für die Koordinaten eines stereooptischen Bildpa­ ares verwendet:
(x,y) = (xL,yL) und (x',y') = (xR,yR). (1)
Ein Korrespondenzfehlermaß hat die folgende Funktionen und Ableitungen:
  • a) Bildfunktionen (Grauwertfunktionen) des Bildpaares
    IL(x,y), IR(x',y'), (2)
  • b) deren erste Ableitungen nach den Bildkoordinaten
    ILx(x,y), ILy(x,y) und IRx'(x',y'), IRy'(x' und y'), und (3)
  • c) die ersten und zweiten Ableitungen einer (geschätzten) Disparitätenkarte
    ux,uy, vx,vy, und uxx,uxy,uyy,vxx,vxy,vyy. (4)
Die Bildfunktionen werden im Sinne eines grauwertbasierten Ansatzes, die ersten Ableitungen werden im Sinne eines merk­ malbasierten Ansatzes und die zweiten Ableitungen werden zur Formulierung eines Gutemaßes für die Glattheit der Disparitä­ tenkarte in homogenen Bildregionen verwendet. Zunächst wird beschrieben, auf welchen Modellen das Korrespondenzfehlermaß beruht.
Für ein korrespondierendes Punktepaar gilt
(x',y') = (x + u(x,y), y + v(x,y)). (5)
Für den grauwertbasierten Ansatz gilt dann das Modell:
IL(x,y) = IR(x',y') = IR(x + u(x,y),y + v(x,y)). (6)
Für den merkmalsbasierten Ansatz gilt das Modell:
ILx(x,y) = IRx'(x',y')(1 + vx(x,y)) + IRy'(x',y')vx(x,y) (7)
ILy(x,y) = IRx'(x',y')uy(x,y)) + IRy'(x',y')(1 + vy(x,y) (8)
In homogenen Bildregionen liefert ein grauwertbasierter An­ satz keine oder nur unzuverlässige Information über die Dis­ paritat, während ein merkmalsbasierter Ansatz keine Informa­ tion liefert. Daher wird für homogene Bildregionen eine Glattheitsforderung an die Disparitätskarte eingeführt. Die Glattheit G(x,y) der Disparitätenkarte wird durch die Summe der Quadrate ihrer zweiten Ableitungen modelliert.
Aus diesen Modellen wird dann das Korrespondenzfehlermaß E(d(x,y)), wie folgt, gewonnen:
welches die Qualität der Anpassung der Disparitätskarte d(x,y) an die Bilddaten beschreibt. Hierbei drückt aus die erste Summe den Beitrag des grauwertbasierten Ansatzes, die zweite Summe den Beitrag des merkmalbasierten Ansatzes und die dritte Summe die Glattheitsforderung. Der Einfluß des Glattheitstermes ist mit dem Gewichtsparameter λ einstellbar.
Die Auswertung der Einzelbeiträge erfolgt jeweils nur in den "relevanten" Bildregionen, und zwar, der Grauwertterm im gan­ zen Bild D, der Merkmalsterm nur in inhomogenen Bildregionen F und der Glattheitsterm nur in den dazu komplementären homo­ genen Regionen F.
Als Maß für die Homogenität wird die Quadratsumme der beiden ersten Bildableitungen (siehe Gl.(3)) verwendet, und diese wird mit einem Schwellwert Tg verglichen, um homogene von in­ homogenen Bildregionen zu trennen. Die Disparitätenkarte wird durch Minimierung des Korrespondenzfehlermaßes bestimmt.
Die Disparitätskarte wird durch gewichtete Summen radialsym­ metrischer Exponentialfunktionen mit negativ quadratischen Exponenten (Radial-Basisfunktion: RBF) dargestellt
Hierbei sind tk und σk Positionen {tk} und Breiten {σk} von Basisfunktionen und werden so gewählt, daß die Disparitäts­ funktionen in einer hierachischen Schichtenstruktur zunehmen­ den Auflösungsgrades dargestellt werden können (siehe Fig. 1). In Anlehnung an den Sprachgebrauch in dem Gebiet der Neurona­ len Netze werden die Knoten der Schichten Neuronen genannt. Ihre Gewichte {ak, bk mit k = 0...N} sind Variable zur Anpas­ sung der Disparitätenkarte an die Bilddaten.
Bei einer Bildgröße von 2M × 2M Pixel werden H = M - 1 Schich­ ten mit exponentiell zunehmender Neuronenzahl (Auflösung) 2h X 2h: h = 0,1, ...H verwendet. In jeder Schicht werden die Neuronen auf den Gitterpunkten eines quadratischen Gitters angeordnet. Die Gitterweite g(h) jeder Schicht folgt aus der Bildgröße und der Anzahl der Neuronen. Zur Anpassung des Ein­ flußbereiches der Neuronen an die unterschiedlichen Gitter­ weiten wird σk = g(h) für jede Schicht gewählt.
Ein Schätzen der Gewichte erfolgt schichtweise in der Rich­ tung von grober zu feiner Auflösung. Jede Schicht wird voll­ ständig bearbeitet, d. h. sie wird nach einem Wechsel in die höhere Schicht nicht mehr verändert. Die Bearbeitung einer Schicht erfolgt in einem iterativen Verfahren auf der Grund­ lage der stochastischen Gradientenmethode. Jedes Element di der (diskreten) Disparitätenkarte hat in jeder Schicht eine individuelle Untermenge von Neuronen, die einen nennenswerten Beitrag liefern, nämlich die "aktiven Neuronen". Deren Ge­ wichte werden schichtweise zu individuellen Gewichtsvektoren Wi zusammengefaßt.
Ein Schätzen der Gewichte erfolgt durch iterative Gewichtsan­ passung. Dazu werden die Gewichte im n-ten Iterationschritt, abhängig vom Gradienten des Korrespondenzfehlermaßes und ab­ hängig von der Gewichtsveränderung im vorangegangenen, dem (n - 1)-ten Iterationsschritt nach der folgenden (Lern-)Regel verändert:
Die Konstanten α und β heißen "Momentterm" und "Lernrate". Typische Werte sind α = 0,6 und β = 0,1. Diese Anpassung er­ folgt der Reihe nach für jedes Element der Disparitätenkarte. Das Bearbeiten einer Schicht wird auf diese Weise solange wiederholt, bis die Gewichte stationäre Werte annehmen.
Bisher wurde angenommen, daß korrespondierende Punkte glei­ chen Grauwert haben. Wenn das stereooptische Bildpaar von zwei verschiedenen Kameras stammt, dann ist mit unterschied­ licher photometrischer Empfindlichkeit zu rechnen. Dieser Un­ terschied wird durch ein lineares Modell
AIL(x,y) + B = IR(x',y') (15)
in der Form einer Kalibrierfunktion (Korrekturfunktion) für die Helligkeit und den Kontrast des linken Bildes modelliert. Die Parameter A und B werden durch eine Ausgleichsrechnung im Sinne minimaler Fehlerquadrate beginnend mit den Anfangswer­ ten A = 1 und B = 0 bestimmt. Eine photometrische Kalibrie­ rung und die Schätzung der Disparitätenkarte werden abwech­ selnd durchgeführt, so lange bis alle Variablen stationäre Werte angenommen haben.
In Fig. 2a und 2b ist ein Stereobildpaar einer Szene wiederge­ geben, die von INRIA, Frankreich zum Testen von Stereoalgo­ rithmen entwickelt wurde. Man erkennt darin sowohl stark strukturierte und unstrukturierte Bildbereiche als auch einen Helligkeits- und Kontrastunterschied im gesamten Bildbereich. Das Bildpaar ist geometrisch korrigiert (entzerrt), so daß nur Disparitaäten in der x-Achse des Bildkoordinatesystems vorhanden sind (v(x,y) ∼ 0).
Mit dem vorstehend beschriebenen Verfahren wurde die Dispari­ tät u(x,y) geschätzt, und das Ergebnis bildlich dargestellt. In der Graubilddarstellung von Fig. 2c bedeuten hellere Grau­ werte eine größere Disparität und daher eine geringere Ent­ fernung. In Fig. 2d sind von derselben Szene Linien gleicher Disparität dargestellt, die wie Höhenlinien einer Landkarte gelesen werden können. Die beiden Darstellungen entsprechen qualitativ dem visuellen Tiefeneindruck bei Betrachtung der Originalbilder. Eine quantitative Überprüfung ist derzeit nicht möglich, weil Referenzdaten nicht zur Verfügung stehen.
Um die geschätzte Disparitätsfunktion in einer objektiveren Weise zu überprüfen, wurde eine interaktive Vorgehensweise entwickelt. Dabei kann im linken Bild eine beliebige Stelle (per Maus-Click) markiert werden. Die Marke in dem linken Bild wird unter Verwendung der Disparitätenkarte auf das rechte Bild abgebildet. In Fig. 2e sind zwanzig Testpunkte im linken Bild mit "+" markiert, und in Fig. 2f die korrespondie­ renden Punkte im rechten Bild ebenso. Man erkennt, daß die automatische Korrespondenzsuche auf ein Ergebnis führt, das von einem ausgebildeten Bildauswerter vermutlich kaum über­ troffen werden dürfte.
Zur Veranschaulichung der zu lösenden Schwierigkeiten wurden in Fig. 2f außerdem die Originalpunkte durch ein "x" markiert. Wie im vorderen Bildbereich zu erkennen ist, wurden richtige Korrespondenzen, auch über komplexe Bildstrukturen hinweg, richtig gefunden.
Eine weitere Unterstützung der Beurteilung erhält man durch vertikale Testlinien im linken Bild, und deren korrespondie­ renden Linien (vertikale Kurven) im rechten Bild. Auch hier erhält man den Eindruck, das die gefundenen Korrespondenzen die tatsächlichen sehr gut repräsentieren.
Fig. 2g zeigt das Differenzbild der Originalbilder von Fig. 2a und 2b. Man erkennt erhebliche Differenzen (ausgedehnte helle Stellen). Nach Entzerrung des rechten Bildes entsprechend der Disparitätenkarte, ergeben sich nur noch geringe Restfehler (Fig. 2h), was als ein weiterer Hinweis für die korrekte Kor­ renzpondenzsuche gewertet werden kann.

Claims (8)

1. Verfahren zum Auswerten des Stereobildpaares zum Zweck der Erstellung von Disparitätskarten, mit folgenden Merkmalen:
Es wird ein gemischtes Gütekriterium verwendet, in das sowohl die Intensitätsfunktionen (I(x, y)) jedes der beiden Bilder, als auch Merkmale in Form der örtlichen Ableitungen (Ix(x, y), Iy(x, y))nach den rechtwinkligen Bildkoordinaten (x, y), ebenfalls beider Bilder, sowie ein Glattheitstherm (G(x, y)) eingeht, wobei der Glattheitstherm nur auf die homogenen Bildregionen (F) und der Merkmalsterm nur auf die komplemen­ tären Bildregionen (F) angewendet wird.
Die Disparitätsfunktion wird durch eine Summe von Exponenti­ alfunktionen mit negativen quadratischen Exponenten (Radial- Basis-Funktions-(RBF-)Netzwerk) in einem Optimierungsprozeß approximiert.
Zur Korrektur von Kontrast- und Helligkeitsunterschieden in dem Stereobildpaar wird ein lineares Modell benutzt, dessen Parameter im Zuge der Bestimmung der Disparitätenkarte iden­ tifiziert werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die inhomogene Bildregion (F) als die Gesamtheit der Regionen festgelegt wird, in welchen die Merkmale einen Schwellenwert (Tg) überschreiten, und der Rest des Bildes als homogene Bildregion (F) festgelegt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß ein quadratischer Fehlerterm, basierend auf den zweiten Ableitungen der Disparitätsfunktion in der Bildregion (F) verwendet wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das Radial-Basis-Funktions-Netzwerk in einer hierarchischen Struktur realisiert wird, wobei von Schicht zu Schicht die Auflösung (σ, 2h) verfeinert wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die die Auflösung bestimmenden Parameter (σ, 2h) so gewählt wer­ den, daß die Anzahl der Radial-Basis-Funktionen exponentiell mit der Schichtennummer (h) zunimmt, deren Breite (σ) ent­ sprechend abnimmt, und deren Höhe (a) in einem Optimierungs­ prozeß bestimmt wird.
6. Verfahren nach Anspruch 4 und 5, dadurch gekennzeichnet, daß die Gewichte der Radial-Basis-Funktionen in einer 'Coarse-to-fine' Weise geschätzt werden, indem die Schätzung schichtweise, beginnend mit der untersten Schicht (h = 0) und dann die höheren Schichten nacheinander (h = 1, 2, 3, ...., H) bearbeitet werden.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Parameter des linearen Modells zum Ausgleich der aufnahmebe­ dingten Helligkeitsunterschiede in einem Optimierungsprozeß des Stereobildpaares bestimmt werden, und zwar iterativ und alternierend mit der Disparitätsschätzung.
8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur Optimierung das Gradientenabstiegsverfahren verwendet wird.
DE19810014A 1998-03-09 1998-03-09 Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten Expired - Fee Related DE19810014C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19810014A DE19810014C2 (de) 1998-03-09 1998-03-09 Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19810014A DE19810014C2 (de) 1998-03-09 1998-03-09 Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten

Publications (2)

Publication Number Publication Date
DE19810014A1 DE19810014A1 (de) 1999-09-23
DE19810014C2 true DE19810014C2 (de) 2000-04-06

Family

ID=7860196

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19810014A Expired - Fee Related DE19810014C2 (de) 1998-03-09 1998-03-09 Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten

Country Status (1)

Country Link
DE (1) DE19810014C2 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19934904C2 (de) * 1999-07-21 2003-06-05 Deutsch Zentr Luft & Raumfahrt Verfahren und Vorrichtung zur Bildzuordnung
ES2361758B1 (es) * 2009-12-10 2012-04-27 Universitat De Les Illes Balears Procedimiento de establecimiento de correspondencia entre una primera imagen digital y una segunda imagen digital de una misma escena para la obtención de disparidades.
US9756312B2 (en) 2014-05-01 2017-09-05 Ecole polytechnique fédérale de Lausanne (EPFL) Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745562A (en) * 1985-08-16 1988-05-17 Schlumberger, Limited Signal processing disparity resolution
US5309522A (en) * 1992-06-30 1994-05-03 Environmental Research Institute Of Michigan Stereoscopic determination of terrain elevation
EP0686942A2 (de) * 1994-06-07 1995-12-13 Matsushita Electric Industrial Co., Ltd. Verfahren zur Stereoübereinstimmung und Umgleichheitsmessung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4745562A (en) * 1985-08-16 1988-05-17 Schlumberger, Limited Signal processing disparity resolution
US5309522A (en) * 1992-06-30 1994-05-03 Environmental Research Institute Of Michigan Stereoscopic determination of terrain elevation
EP0686942A2 (de) * 1994-06-07 1995-12-13 Matsushita Electric Industrial Co., Ltd. Verfahren zur Stereoübereinstimmung und Umgleichheitsmessung

Also Published As

Publication number Publication date
DE19810014A1 (de) 1999-09-23

Similar Documents

Publication Publication Date Title
EP1065628B1 (de) Optische 3-D Messung mit mehreren Näherungspunkten
EP1173749B1 (de) Bildbearbeitung zur vorbereitung einer texturanalyse
DE69926868T2 (de) Strassenprofil-erkennung
DE10354752B4 (de) Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern
DE3505331C2 (de) Verfahren und Gerät zur Vermessung des bei der Eindringhärteprüfung in einer Probe hinterlassenen Eindrucks
DE19623172C1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102009046295A1 (de) Optische Abweichungskorrektur für maschinelle Sichtinspektionssysteme
DE102019212099A1 (de) Optischer versatzmesser
WO2005080916A1 (de) Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts
DE69833813T2 (de) Vorrichtung zur Korrespondenzsuche in einem Bildpaar
DE69725953T2 (de) Bildanzeigeverfahren und -gerät
DE102016002186A1 (de) Verfahren und Bildverarbeitungsvorrichtung zur Bestimmung einer geometrischen Messgröße eines Objektes
DE19951146A1 (de) Verfahren zum Reduzieren des Rauschens in einem durch Abbildung erhaltenen Signal
DE10140735A1 (de) Verfahren und System zum automatischen Zusammensetzen von berechneten Radiographie-(CR) Bildern durch Weißband-Detektion und Konsistenz-Überprüfung
DE19810014C2 (de) Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten
DE102017010683B4 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102021100979A1 (de) Messeinrichtung für dreidimensionale Geometrien und Messverfahren für dreidimensionale Geometrien
DE60305936T2 (de) Verfahren und anordnung zur bewertung der qualität von hautabdruckbildern
DE102015109721B3 (de) Streifenprojektionsverfahren, Streifenprojektionsvorrichtung und Computerprogrammprodukt
EP2031348A1 (de) Vorrichtung für ein spiegelndes Metallband mit einer Inspektionseinheit zum Detektieren von Oberflächendefekten und/oder Vermessen der Oberflächentopographie
DE102021111417A1 (de) Verfahren und System zu Bestimmung der Lage eines Markers in einem 2D-Bild und dafür ausgebildeter Marker
EP0534996B1 (de) Verfahren zur segmentierung bewegter objekte durch hintergrundadaption mit kompensation der kamerabewegung
DE10042387A1 (de) Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder
DE102020211502A1 (de) Verfahren zum Bewerten einer Kamerakalibrierung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: DEUTSCHES ZENTRUM FUER LUFT-UND RAUMFAHRT E.V., 51

8327 Change in the person/name/address of the patent owner

Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V.

8327 Change in the person/name/address of the patent owner

Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V.

8339 Ceased/non-payment of the annual fee