DE19810014C2 - Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten - Google Patents
Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von DisparitätskartenInfo
- Publication number
- DE19810014C2 DE19810014C2 DE19810014A DE19810014A DE19810014C2 DE 19810014 C2 DE19810014 C2 DE 19810014C2 DE 19810014 A DE19810014 A DE 19810014A DE 19810014 A DE19810014 A DE 19810014A DE 19810014 C2 DE19810014 C2 DE 19810014C2
- Authority
- DE
- Germany
- Prior art keywords
- image
- disparity
- images
- stereo image
- image pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0077—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
Zum Auswerten eines Stereobildpaares zum Zwecke der Erstellung von Disparitätskarten werden die folgenden Schritte durchgeführt: DOLLAR A Es wird ein gemischtes Gütekriterium verwendet, in das sowohl die Intensitätsfunktionen (I(x, y)) jedes der beiden Bilder als auch Merkmale in Form der örtlichen Ableitungen (I¶x¶(x, y)), (I¶y¶(x, y)) nach den rechtwinkligen Bildkoordinaten (x, y), ebenfalls beider Bilder, sowie ein Glattheitstherm (G(x, y)) eingeht, wobei der Glattheitstherm nur auf die homogenen Bildregionen und der Merkmalstherm nur auf die komplementären Bildregionen angewendet wird. Ferner wird die Disparitätsfunktion durch eine Summe von Exponentialfunktionen mit negativen quadratischen Exponenten (beschichtetes Radial-Basis-Funktions-Netzwerk) in einem Optimierungsprozeß approximiert. Schließlich wird zur Korrektur von Kontrast- und Helligkeitsunterschieden in dem Stereobildpaar ein lineares Modell benutzt, dessen Parameter im Zuge der Bestimmung der Disparitätenkarte identifiziert werden.
Description
Die Erfindung betrifft ein Verfahren zum Auswerten eines Ste
reobildpaares zum Zweck der Erstellung von Disparitätskarten.
Die stereooptische Formerfassung räumlicher Objekte hat ein
weites Anwendungsfeld in vielen sehr unterschiedlichen Berei
chen. Beispiele hierfür sind u. a. die Fernerkundung, die Ro
botik, der Denkmalschutz und der VR-Bereich (virtual reali
ty).
Bei der Fernerkundung werden Bilder der Erdoberfläche von
Luft- oder Raumfahrzeugen aus aufgenommen und zur Erstellung
digitaler Geländemodelle ausgewertet. Auf ähnliche Weise sol
len in der Robotik dreidimensionale Modelle der Arbeitsumge
bung eines Roboters erstellt werden. Im Denkmalschutz sollen
Gebäude, von denen keine Baupläne vorhanden sind, auf einfa
che Weise vermessen werden, indem sie aus unterschiedlichen
Ansichten photographiert und die Bilder stereooptisch auswer
tet werden. Für die Objekte einer VR-Umgebung sind der Phan
tasie keine Grenzen gesetzt.
Zwei Bildpunkte eines stereooptischen Bildpaares heißen kor
respondierende (homologe) Punkte, wenn sie Bildpunkte dessel
ben Objektpunktes sind. Das Grundproblem bei der stereoopti
schen Bildauswertung ist die eindeutige Identifizierung und
exakte Lokalisierung korrespondierender Punkte.
Diese Arbeit wird bis jetzt häufig von geschultem Personal
ausgeführt und ist aus folgenden Gründen nur sehr schwer au
tomatisierbar. In stark strukturierten oder auch in periodi
schen Bildbereichen ist das Risiko für Verwechslungen hoch,
in homogenen Bildbereichen ist dagegen eine exakte Lokalisie
rung schwer. Es gibt mehrere Ansätze zur automatischen Be
stimmung von Stereokorrespondenzen, aber noch keine allge
meinbefriedigende Lösung.
Konventionelle Techniken zur Stereokorrespondenzsuche lassen
sich in drei Gruppen einteilen, nämlich einen flächenbasier
ten, einen merkmalsbasierten und einen grauwertbasierten An
satz (siehe z. B. EP 0686942 A2, US 5309522,
US 4745562).
Der flächenbasierte Ansatz setzt konstante Disparität in ei
ner Region ("Fenster") um den betrachteten Bildpunkt voraus.
Das Ziel dabei ist, durch Verwenden der Bildstruktur im Fen
ster Korrespondenz-Mehrdeutigkeiten aufzulösen. Ein bekannter
hierfür geeigneter Ansatz ist die Korrelationsmethode, bei
der solche Bildpunktpaare gesucht werden, deren Umgebungen
einander am "ähnlichsten" sind. Dafür gibt es schnelle Hard
ware, die eine effiziente Implementierung ermöglicht.
Allerdings ist die Voraussetzung bei diesem Ansatz im allge
meinen nicht erfüllt, sondern sie wird sogar in der Praxis
mit hoher Wahrscheinlichkeit verletzt, wobei die Wahrschein
lichkeit für Verletzungen mit zunehmender Fenstergröße
wächst. Die Folge davon sind Lokalisationsfehler. Anderseits
wächst mit abnehmender Fenstergröße sowohl die Wahrschein
lichkeit für Fehlzuordnungen (falsche Identifizierungen) als
auch der Einfluß des Kamerarauschens auf Lokalisationsfehler.
Der merkmalsbasierte Ansatz beschränkt sich im ersten Schritt
auf robust identifizierbare und lokalisierbare Bildstrukturen
(Merkmale). Das augenfälligste Beispiel eines Merkmals ist
die "Bildkante", die dort ist, wo sich der Grauwerteverlauf
schnell ändert.
Der merkmalsbasierte Ansatz hat den Vorteil, daß er sich auf
den als zuverlässig anzunehmenden Teil der Bildinformation
abstützt, hat jedoch den Nachteil, daß er im allgemeinen nur
eine "dünn besetzte" Disparitätenkarte, z. B. nur für die Kan
ten, liefert; der Rest der Karte muß durch Interpolation auf
gefüllt werden. Das Interpolationsergebnis hängt einerseits
vom gewählten Interpolationsverfahren ab, anderseits bleibt
die im Interpolationsgebiet verfügbare Bildinformation unge
nutzt.
Der grauwertbasierte Ansatz setzt gleiche Grauwerte für
korrespondierende Punkte voraus. In dieser strengen Form wird
die Voraussetzung häufig verletzt, da schon der unterschied
liche Strahlengang von einem Objektpunkt in die zwei Bildebe
nen eine Grauwertverschiebung bewirken kann. In einer gemil
derten Form werden "fast gleiche" Grauwerte vorausgesetzt.
Diese Voraussetzung ist in der Regel gut erfüllt. Der grau
wertbasierte Ansatz hat den Vorteil, daß er ohne eine Annahme
über den Disparitätsverlauf in der umgebenden Region aus
kommt, daß er ferner eine dichte Disparitätenkarte (ohne In
terpolation) liefert, außerdem keine Merkmalsextraktion er
fordert, und daß er schließlich die ganze Bildinformation
nutzt. Der grauwertbasierte Ansatz hat den gravierenden Nach
teil, daß er empfindlich gegenüber Mehrdeutigkeiten ist, und
daher in der Disparitätenkarte große Fehler durch Fehlzuord
nungen auftreten können.
Aufgabe der Erfindung ist es, zu einer numerischen Lösung des
Problems der Stereokorrespondenz hinsichtlich Identifizierung
und Lokalisierung von Stereobildpaaren ein Verfahren anzuge
ben, mit welchem auch bei schwierigem Bildmaterial sehr viel
zuverlässigere Ergebnisse erhalten werden als mit bekannten
Ansätzen, so daß es als Basis für die automatische stereoop
tische digitale Bildauswertung dienen kann.
Gemäß der Erfindung ist diese Aufgabe mit einem Verfahren zum
Auswerten eines Stereobildpaares zum Zweck der Erstellung von
Disparitätskarten mit den Merkmalen des Anspruchs 1 gelöst.
Vorteilhafte Weiterbildungen sind Gegenstand der auf Ansprü
che 2 bis 8 unmittelbar oder mittelbar rückbezogenen Ansprü
che.
Das erfindungsgemäße Verfahren liefert als Ergebnis eine Dis
paritätenkarte. Wegen der zentralen Bedeutung der Begriffe
Disparität und Disparitätenkarte werden diese Begriffe zu
nächst erläutert. Die paralaktische Bildpunktverschiebung in
einem stereooptischen Bildpaar heißt Disparität d. Für zwei
korrespondierende Punkte PL = (xL,yL)T und PR = (xR,yR)T gilt:
d = (u,v)T = (xL - xR, yL - yR)T.
Hierbei sind x und y die Bildkoordinaten und u und v die Kom
ponenten der Verschiebungsvektors in den Bildkoordinaten x
und y. In Anlehnung an das menschliche Augenpaar - linkes und
rechtes Auge - werden die aus einem stereooptischen Bildpaar
abgeleiteten Größen durch die Indizes L und R unterschieden.
Ein dichtes Feld von Disparitäten, ein Verschiebungsvektor
feld, über einem Bildausschnitt (oder einem ganzen Bild)
heißt Disparitätenkarte
d(x,y) ∼ (u(x,y), v(x,y))T
T kennzeichnet den transponierten Vektor.
Unter den Voraussetzungen, daß eine Bildaufnahme verzeich
nungsfrei erfolgt, beide Kameras in allen Achsen parallel
orientiert sind, und sich ihre Position nur durch eine Ver
schiebung entlang der x-Achse unterscheidet, gilt: v(x,y) ∼ 0.
Die Disparitätenkarte ist dann die meßtechnische Darstellung
der Entfernungskarte.
Zum Berechnen des Entfernungskarte aus der Disparitätenkarte
ist die Kenntnis der Bildaufnahmegeometrie und der Kame
ra-Abbildungseigenschaften erforderlich. Dieser Auswerte
schritt ist nicht Gegenstand der Anmeldung und wird daher
auch nicht behandelt.
Gemäß der Erfindung besteht ein erster Schritt darin, ver
schiedene Ansätze in einem geschlossenen Algorithmus so mit
einander zu verbinden, daß sie sich gegenseitig in der Wir
kung ihrer positiven Eigenschaften verstärken. Dadurch sind
bessere Ergebnisse zu erwarten, als wenn verschiedene Ansätze
unabhängig voneinander realisiert werden und nur die Ergeb
nisse vergleichend ausgewertet würden.
Besonders attraktiv erscheint dabei die Verbindung eines
merkmalsbasierten Ansatzes mit einem grauwertbasierten An
satz, und zwar der merkmalbasierte Ansatz wegen seiner hohen
Zuverlässigkeit an Merkmals-Bildstellen und der grauwertba
sierte Ansatz zur Unterstützung der Interpolation mit voll
ständiger Bildinformation. Hierbei erfolgt die Verbindung
durch die Minimierung eines globalen Gütekriteriums, zu dem
beide Ansätze Beiträge liefern. Zur Stabilisierung des Algo
rithmus in homogenen und daher kritischen Bildbereichen wird
dem Gütekriterium noch ein parametrisierbarer Glattheitsterm
hinzugefügt. Dieses modifizierte Gütekriterium wird nachsste
hend als Korrespondenzfehlermaß bezeichnet.
Das Korrespondenzfehlermaß kann neben dem gesuchten Minimum
jedoch noch weitere Minima aufweisen, und ist daher in diesem
Sinne nicht eindeutig. Der zweite Schritt betrifft die effi
ziente Auflösung solcher Mehrdeutigkeiten. Dazu wird die Dis
paritätenkarte parametrisch, in einer hierarchischen Schich
tenstruktur mit unterschiedlichen Auflösungsgraden dar
gestellt und das Optimierungsproblem wird sequentiell, d. h.
Schicht für Schicht, in der Richtung von grober zu feiner
Auflösung gelöst. Die Parameter einer Schicht bleiben nach
dem Optimierungsschritt für diese Schicht fest.
Im Gegensatz zur Darstellung der Disparitätenkarte durch un
abhängige Variable für jeden Bildpunkt (direkter Ansatz),
wird bei der Vorgehensweise gemäß der Erfindung folgendes er
reicht. In den gröberen Schichten sind Mehrdeutigkeiten weni
ger wahrscheinlich als in den feineren Schichten. Mit der In
formation aus den schon bearbeiteten Schichten ist das Feh
lerrisiko (durch lokale Minima) in der aktuellen Schicht ge
ringer als ohne dieses Vorwissen.
Ferner wird durch die parametrische Repräsentation und die
sequentielle Vorgehensweise die Anzahl der freien Parameter
in jedem Optimierungsschritt sehr viel kleiner als beim di
rekten Ansatz. Als Basisfunktion wird die Exponentialfunktion
mit negativem quadratischem Exponenten verwendet, die auf dem
Gebiet der Neuronalen Netze als Radial-Basis-Funktion bekannt
ist, und dort wegen mehrerer günstiger Eigenschaften breite
Verwendung gefunden hat.
Schließlich kann das stereoopitsche Bildpaar von zwei Kameras
mit unterschiedlicher photometrischer Empfindlichkeit stam
men, z. B. durch unterschiedliche Blendeneinstellung. In die
sem Fall wäre die Voraussetzung für den Grauwert-Fehlerterm
verletzt. Der dritte Schritt löst dieses Problem dadurch, daß
eine photometrische Bildkorrektur mitgeschätzt wird. Hierbei
wird (für die Blendenverstellung) ein lineares Korrekturmo
dell mit konstanten Parametern für die Grauwerte aller Bild
punkte eines der beiden Bilder verwendet. Dieses entspricht
einer globalen Helligkeits- und Kontrastanpassung.
Nachfolgend wird die Erfindung unter Bezugnahme auf die an
liegenden Zeichnungen erläutert. Es zeigen:
Fig. 1 schematisch eine Verteilung von RBF-Neuronen in drei
Schichten;
Fig. 2a und 2b ein stereooptisches Bild;
Fig. 2c eine grauwertcodierte Disparitätenkarte;
Fig. 2d eine Disparitätenkarte mit Linien gleicher Dispari
tät;
Fig. 2e ein linkes Originalbild mit Testpunkten (x) und ver
tikalen Testlinien;
Fig. 2f ein rechtes Originalbild mit korrespondierenden Punk
ten (x) und (vertikalen) Kurven sowie Testpunkten (+)
und vertikalen Linien des rechten Bildes;
Fig. 2g das Differenzbild eines stereooptischen Bildpaares,
und
Fig. 2h das Differenzbild nach der Zuordnung.
Die Disparitat ist auf die Koordinaten des linken Bildes be
zogen und zur Abkürzung der Schreibweise wird die nachstehen
de Notation für die Koordinaten eines stereooptischen Bildpa
ares verwendet:
(x,y) = (xL,yL) und (x',y') = (xR,yR). (1)
Ein Korrespondenzfehlermaß hat die folgende Funktionen und
Ableitungen:
- a) Bildfunktionen (Grauwertfunktionen) des Bildpaares
IL(x,y), IR(x',y'), (2) - b) deren erste Ableitungen nach den Bildkoordinaten
ILx(x,y), ILy(x,y) und IRx'(x',y'), IRy'(x' und y'), und (3) - c) die ersten und zweiten Ableitungen einer (geschätzten)
Disparitätenkarte
ux,uy, vx,vy, und uxx,uxy,uyy,vxx,vxy,vyy. (4)
Die Bildfunktionen werden im Sinne eines grauwertbasierten
Ansatzes, die ersten Ableitungen werden im Sinne eines merk
malbasierten Ansatzes und die zweiten Ableitungen werden zur
Formulierung eines Gutemaßes für die Glattheit der Disparitä
tenkarte in homogenen Bildregionen verwendet. Zunächst wird
beschrieben, auf welchen Modellen das Korrespondenzfehlermaß
beruht.
Für ein korrespondierendes Punktepaar gilt
(x',y') = (x + u(x,y), y + v(x,y)). (5)
Für den grauwertbasierten Ansatz gilt dann das Modell:
IL(x,y) = IR(x',y') = IR(x + u(x,y),y + v(x,y)). (6)
Für den merkmalsbasierten Ansatz gilt das Modell:
ILx(x,y) = IRx'(x',y')(1 + vx(x,y)) + IRy'(x',y')vx(x,y) (7)
ILy(x,y) = IRx'(x',y')uy(x,y)) + IRy'(x',y')(1 + vy(x,y) (8)
In homogenen Bildregionen liefert ein grauwertbasierter An
satz keine oder nur unzuverlässige Information über die Dis
paritat, während ein merkmalsbasierter Ansatz keine Informa
tion liefert. Daher wird für homogene Bildregionen eine
Glattheitsforderung an die Disparitätskarte eingeführt. Die
Glattheit G(x,y) der Disparitätenkarte wird durch die Summe
der Quadrate ihrer zweiten Ableitungen modelliert.
Aus diesen Modellen wird dann das Korrespondenzfehlermaß
E(d(x,y)), wie folgt, gewonnen:
welches die Qualität der Anpassung der Disparitätskarte
d(x,y) an die Bilddaten beschreibt. Hierbei drückt aus die
erste Summe den Beitrag des grauwertbasierten Ansatzes, die
zweite Summe den Beitrag des merkmalbasierten Ansatzes und
die dritte Summe die Glattheitsforderung. Der Einfluß des
Glattheitstermes ist mit dem Gewichtsparameter λ einstellbar.
Die Auswertung der Einzelbeiträge erfolgt jeweils nur in den
"relevanten" Bildregionen, und zwar, der Grauwertterm im gan
zen Bild D, der Merkmalsterm nur in inhomogenen Bildregionen
F und der Glattheitsterm nur in den dazu komplementären homo
genen Regionen F.
Als Maß für die Homogenität wird die Quadratsumme der beiden
ersten Bildableitungen (siehe Gl.(3)) verwendet, und diese
wird mit einem Schwellwert Tg verglichen, um homogene von in
homogenen Bildregionen zu trennen. Die Disparitätenkarte wird
durch Minimierung des Korrespondenzfehlermaßes bestimmt.
Die Disparitätskarte wird durch gewichtete Summen radialsym
metrischer Exponentialfunktionen mit negativ quadratischen
Exponenten (Radial-Basisfunktion: RBF) dargestellt
Hierbei sind tk und σk Positionen {tk} und Breiten {σk} von
Basisfunktionen und werden so gewählt, daß die Disparitäts
funktionen in einer hierachischen Schichtenstruktur zunehmen
den Auflösungsgrades dargestellt werden können (siehe Fig. 1).
In Anlehnung an den Sprachgebrauch in dem Gebiet der Neurona
len Netze werden die Knoten der Schichten Neuronen genannt.
Ihre Gewichte {ak, bk mit k = 0...N} sind Variable zur Anpas
sung der Disparitätenkarte an die Bilddaten.
Bei einer Bildgröße von 2M × 2M Pixel werden H = M - 1 Schich
ten mit exponentiell zunehmender Neuronenzahl (Auflösung) 2h
X 2h: h = 0,1, ...H verwendet. In jeder Schicht werden die
Neuronen auf den Gitterpunkten eines quadratischen Gitters
angeordnet. Die Gitterweite g(h) jeder Schicht folgt aus der
Bildgröße und der Anzahl der Neuronen. Zur Anpassung des Ein
flußbereiches der Neuronen an die unterschiedlichen Gitter
weiten wird σk = g(h) für jede Schicht gewählt.
Ein Schätzen der Gewichte erfolgt schichtweise in der Rich
tung von grober zu feiner Auflösung. Jede Schicht wird voll
ständig bearbeitet, d. h. sie wird nach einem Wechsel in die
höhere Schicht nicht mehr verändert. Die Bearbeitung einer
Schicht erfolgt in einem iterativen Verfahren auf der Grund
lage der stochastischen Gradientenmethode. Jedes Element di
der (diskreten) Disparitätenkarte hat in jeder Schicht eine
individuelle Untermenge von Neuronen, die einen nennenswerten
Beitrag liefern, nämlich die "aktiven Neuronen". Deren Ge
wichte werden schichtweise zu individuellen Gewichtsvektoren
Wi zusammengefaßt.
Ein Schätzen der Gewichte erfolgt durch iterative Gewichtsan
passung. Dazu werden die Gewichte im n-ten Iterationschritt,
abhängig vom Gradienten des Korrespondenzfehlermaßes und ab
hängig von der Gewichtsveränderung im vorangegangenen, dem
(n - 1)-ten Iterationsschritt nach der folgenden (Lern-)Regel
verändert:
Die Konstanten α und β heißen "Momentterm" und "Lernrate".
Typische Werte sind α = 0,6 und β = 0,1. Diese Anpassung er
folgt der Reihe nach für jedes Element der Disparitätenkarte.
Das Bearbeiten einer Schicht wird auf diese Weise solange
wiederholt, bis die Gewichte stationäre Werte annehmen.
Bisher wurde angenommen, daß korrespondierende Punkte glei
chen Grauwert haben. Wenn das stereooptische Bildpaar von
zwei verschiedenen Kameras stammt, dann ist mit unterschied
licher photometrischer Empfindlichkeit zu rechnen. Dieser Un
terschied wird durch ein lineares Modell
AIL(x,y) + B = IR(x',y') (15)
in der Form einer Kalibrierfunktion (Korrekturfunktion) für
die Helligkeit und den Kontrast des linken Bildes modelliert.
Die Parameter A und B werden durch eine Ausgleichsrechnung im
Sinne minimaler Fehlerquadrate beginnend mit den Anfangswer
ten A = 1 und B = 0 bestimmt. Eine photometrische Kalibrie
rung und die Schätzung der Disparitätenkarte werden abwech
selnd durchgeführt, so lange bis alle Variablen stationäre
Werte angenommen haben.
In Fig. 2a und 2b ist ein Stereobildpaar einer Szene wiederge
geben, die von INRIA, Frankreich zum Testen von Stereoalgo
rithmen entwickelt wurde. Man erkennt darin sowohl stark
strukturierte und unstrukturierte Bildbereiche als auch einen
Helligkeits- und Kontrastunterschied im gesamten Bildbereich.
Das Bildpaar ist geometrisch korrigiert (entzerrt), so daß
nur Disparitaäten in der x-Achse des Bildkoordinatesystems
vorhanden sind (v(x,y) ∼ 0).
Mit dem vorstehend beschriebenen Verfahren wurde die Dispari
tät u(x,y) geschätzt, und das Ergebnis bildlich dargestellt.
In der Graubilddarstellung von Fig. 2c bedeuten hellere Grau
werte eine größere Disparität und daher eine geringere Ent
fernung. In Fig. 2d sind von derselben Szene Linien gleicher
Disparität dargestellt, die wie Höhenlinien einer Landkarte
gelesen werden können. Die beiden Darstellungen entsprechen
qualitativ dem visuellen Tiefeneindruck bei Betrachtung der
Originalbilder. Eine quantitative Überprüfung ist derzeit
nicht möglich, weil Referenzdaten nicht zur Verfügung stehen.
Um die geschätzte Disparitätsfunktion in einer objektiveren
Weise zu überprüfen, wurde eine interaktive Vorgehensweise
entwickelt. Dabei kann im linken Bild eine beliebige Stelle
(per Maus-Click) markiert werden. Die Marke in dem linken
Bild wird unter Verwendung der Disparitätenkarte auf das
rechte Bild abgebildet. In Fig. 2e sind zwanzig Testpunkte im
linken Bild mit "+" markiert, und in Fig. 2f die korrespondie
renden Punkte im rechten Bild ebenso. Man erkennt, daß die
automatische Korrespondenzsuche auf ein Ergebnis führt, das
von einem ausgebildeten Bildauswerter vermutlich kaum über
troffen werden dürfte.
Zur Veranschaulichung der zu lösenden Schwierigkeiten wurden
in Fig. 2f außerdem die Originalpunkte durch ein "x" markiert.
Wie im vorderen Bildbereich zu erkennen ist, wurden richtige
Korrespondenzen, auch über komplexe Bildstrukturen hinweg,
richtig gefunden.
Eine weitere Unterstützung der Beurteilung erhält man durch
vertikale Testlinien im linken Bild, und deren korrespondie
renden Linien (vertikale Kurven) im rechten Bild. Auch hier
erhält man den Eindruck, das die gefundenen Korrespondenzen
die tatsächlichen sehr gut repräsentieren.
Fig. 2g zeigt das Differenzbild der Originalbilder von Fig. 2a
und 2b. Man erkennt erhebliche Differenzen (ausgedehnte helle
Stellen). Nach Entzerrung des rechten Bildes entsprechend der
Disparitätenkarte, ergeben sich nur noch geringe Restfehler
(Fig. 2h), was als ein weiterer Hinweis für die korrekte Kor
renzpondenzsuche gewertet werden kann.
Claims (8)
1. Verfahren zum Auswerten des Stereobildpaares zum Zweck der
Erstellung von Disparitätskarten, mit folgenden Merkmalen:
Es wird ein gemischtes Gütekriterium verwendet, in das sowohl die Intensitätsfunktionen (I(x, y)) jedes der beiden Bilder, als auch Merkmale in Form der örtlichen Ableitungen (Ix(x, y), Iy(x, y))nach den rechtwinkligen Bildkoordinaten (x, y), ebenfalls beider Bilder, sowie ein Glattheitstherm (G(x, y)) eingeht, wobei der Glattheitstherm nur auf die homogenen Bildregionen (F) und der Merkmalsterm nur auf die komplemen tären Bildregionen (F) angewendet wird.
Die Disparitätsfunktion wird durch eine Summe von Exponenti alfunktionen mit negativen quadratischen Exponenten (Radial- Basis-Funktions-(RBF-)Netzwerk) in einem Optimierungsprozeß approximiert.
Zur Korrektur von Kontrast- und Helligkeitsunterschieden in dem Stereobildpaar wird ein lineares Modell benutzt, dessen Parameter im Zuge der Bestimmung der Disparitätenkarte iden tifiziert werden.
Es wird ein gemischtes Gütekriterium verwendet, in das sowohl die Intensitätsfunktionen (I(x, y)) jedes der beiden Bilder, als auch Merkmale in Form der örtlichen Ableitungen (Ix(x, y), Iy(x, y))nach den rechtwinkligen Bildkoordinaten (x, y), ebenfalls beider Bilder, sowie ein Glattheitstherm (G(x, y)) eingeht, wobei der Glattheitstherm nur auf die homogenen Bildregionen (F) und der Merkmalsterm nur auf die komplemen tären Bildregionen (F) angewendet wird.
Die Disparitätsfunktion wird durch eine Summe von Exponenti alfunktionen mit negativen quadratischen Exponenten (Radial- Basis-Funktions-(RBF-)Netzwerk) in einem Optimierungsprozeß approximiert.
Zur Korrektur von Kontrast- und Helligkeitsunterschieden in dem Stereobildpaar wird ein lineares Modell benutzt, dessen Parameter im Zuge der Bestimmung der Disparitätenkarte iden tifiziert werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die
inhomogene Bildregion (F) als die Gesamtheit der Regionen
festgelegt wird, in welchen die Merkmale einen Schwellenwert
(Tg) überschreiten, und der Rest des Bildes als homogene
Bildregion (F) festgelegt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet,
daß ein quadratischer Fehlerterm, basierend auf den zweiten
Ableitungen der Disparitätsfunktion in der Bildregion (F)
verwendet wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das
Radial-Basis-Funktions-Netzwerk in einer hierarchischen
Struktur realisiert wird, wobei von Schicht zu Schicht die
Auflösung (σ, 2h) verfeinert wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die
die Auflösung bestimmenden Parameter (σ, 2h) so gewählt wer
den, daß die Anzahl der Radial-Basis-Funktionen exponentiell
mit der Schichtennummer (h) zunimmt, deren Breite (σ) ent
sprechend abnimmt, und deren Höhe (a) in einem Optimierungs
prozeß bestimmt wird.
6. Verfahren nach Anspruch 4 und 5, dadurch gekennzeichnet,
daß die Gewichte der Radial-Basis-Funktionen in einer
'Coarse-to-fine' Weise geschätzt werden, indem die Schätzung
schichtweise, beginnend mit der untersten Schicht (h = 0) und
dann die höheren Schichten nacheinander (h = 1, 2, 3, ....,
H) bearbeitet werden.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die
Parameter des linearen Modells zum Ausgleich der aufnahmebe
dingten Helligkeitsunterschiede in einem Optimierungsprozeß
des Stereobildpaares bestimmt werden, und zwar iterativ und
alternierend mit der Disparitätsschätzung.
8. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur
Optimierung das Gradientenabstiegsverfahren verwendet wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19810014A DE19810014C2 (de) | 1998-03-09 | 1998-03-09 | Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19810014A DE19810014C2 (de) | 1998-03-09 | 1998-03-09 | Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19810014A1 DE19810014A1 (de) | 1999-09-23 |
DE19810014C2 true DE19810014C2 (de) | 2000-04-06 |
Family
ID=7860196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19810014A Expired - Fee Related DE19810014C2 (de) | 1998-03-09 | 1998-03-09 | Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19810014C2 (de) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19934904C2 (de) * | 1999-07-21 | 2003-06-05 | Deutsch Zentr Luft & Raumfahrt | Verfahren und Vorrichtung zur Bildzuordnung |
ES2361758B1 (es) * | 2009-12-10 | 2012-04-27 | Universitat De Les Illes Balears | Procedimiento de establecimiento de correspondencia entre una primera imagen digital y una segunda imagen digital de una misma escena para la obtención de disparidades. |
US9756312B2 (en) | 2014-05-01 | 2017-09-05 | Ecole polytechnique fédérale de Lausanne (EPFL) | Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4745562A (en) * | 1985-08-16 | 1988-05-17 | Schlumberger, Limited | Signal processing disparity resolution |
US5309522A (en) * | 1992-06-30 | 1994-05-03 | Environmental Research Institute Of Michigan | Stereoscopic determination of terrain elevation |
EP0686942A2 (de) * | 1994-06-07 | 1995-12-13 | Matsushita Electric Industrial Co., Ltd. | Verfahren zur Stereoübereinstimmung und Umgleichheitsmessung |
-
1998
- 1998-03-09 DE DE19810014A patent/DE19810014C2/de not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4745562A (en) * | 1985-08-16 | 1988-05-17 | Schlumberger, Limited | Signal processing disparity resolution |
US5309522A (en) * | 1992-06-30 | 1994-05-03 | Environmental Research Institute Of Michigan | Stereoscopic determination of terrain elevation |
EP0686942A2 (de) * | 1994-06-07 | 1995-12-13 | Matsushita Electric Industrial Co., Ltd. | Verfahren zur Stereoübereinstimmung und Umgleichheitsmessung |
Also Published As
Publication number | Publication date |
---|---|
DE19810014A1 (de) | 1999-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1065628B1 (de) | Optische 3-D Messung mit mehreren Näherungspunkten | |
EP1173749B1 (de) | Bildbearbeitung zur vorbereitung einer texturanalyse | |
DE69926868T2 (de) | Strassenprofil-erkennung | |
DE10354752B4 (de) | Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern | |
DE3505331C2 (de) | Verfahren und Gerät zur Vermessung des bei der Eindringhärteprüfung in einer Probe hinterlassenen Eindrucks | |
DE19623172C1 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
DE102009046295A1 (de) | Optische Abweichungskorrektur für maschinelle Sichtinspektionssysteme | |
DE102019212099A1 (de) | Optischer versatzmesser | |
WO2005080916A1 (de) | Vorrichtung und verfahren zur bestimmung von raumkoordinaten eines objekts | |
DE69833813T2 (de) | Vorrichtung zur Korrespondenzsuche in einem Bildpaar | |
DE69725953T2 (de) | Bildanzeigeverfahren und -gerät | |
DE102016002186A1 (de) | Verfahren und Bildverarbeitungsvorrichtung zur Bestimmung einer geometrischen Messgröße eines Objektes | |
DE19951146A1 (de) | Verfahren zum Reduzieren des Rauschens in einem durch Abbildung erhaltenen Signal | |
DE10140735A1 (de) | Verfahren und System zum automatischen Zusammensetzen von berechneten Radiographie-(CR) Bildern durch Weißband-Detektion und Konsistenz-Überprüfung | |
DE19810014C2 (de) | Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten | |
DE102017010683B4 (de) | Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems | |
DE19953063A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
DE102021100979A1 (de) | Messeinrichtung für dreidimensionale Geometrien und Messverfahren für dreidimensionale Geometrien | |
DE60305936T2 (de) | Verfahren und anordnung zur bewertung der qualität von hautabdruckbildern | |
DE102015109721B3 (de) | Streifenprojektionsverfahren, Streifenprojektionsvorrichtung und Computerprogrammprodukt | |
EP2031348A1 (de) | Vorrichtung für ein spiegelndes Metallband mit einer Inspektionseinheit zum Detektieren von Oberflächendefekten und/oder Vermessen der Oberflächentopographie | |
DE102021111417A1 (de) | Verfahren und System zu Bestimmung der Lage eines Markers in einem 2D-Bild und dafür ausgebildeter Marker | |
EP0534996B1 (de) | Verfahren zur segmentierung bewegter objekte durch hintergrundadaption mit kompensation der kamerabewegung | |
DE10042387A1 (de) | Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder | |
DE102020211502A1 (de) | Verfahren zum Bewerten einer Kamerakalibrierung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: DEUTSCHES ZENTRUM FUER LUFT-UND RAUMFAHRT E.V., 51 |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V. |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: DEUTSCHES ZENTRUM FUER LUFT- UND RAUMFAHRT E.V. |
|
8339 | Ceased/non-payment of the annual fee |