DE19732883A1 - Verfahren zur Entfernungsmessung unter Verwendung von Bildern - Google Patents
Verfahren zur Entfernungsmessung unter Verwendung von BildernInfo
- Publication number
- DE19732883A1 DE19732883A1 DE19732883A DE19732883A DE19732883A1 DE 19732883 A1 DE19732883 A1 DE 19732883A1 DE 19732883 A DE19732883 A DE 19732883A DE 19732883 A DE19732883 A DE 19732883A DE 19732883 A1 DE19732883 A1 DE 19732883A1
- Authority
- DE
- Germany
- Prior art keywords
- value
- window
- correlation
- values
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Description
Die vorliegende Erfindung bezieht sich auf ein passives Verfahren zur Entfernungsmessung, bei
dem ein Ziel, etwa ein vorausfahrendes Fahrzeug, aufgrund von Bildern aufgenommen wird, die
von Bildsensoren empfangen werden, und die Entfernung berechnet wird, um eine Kollision zu
vermeiden.
Bei diesem passiven Verfahren zur Entfernungsmessung werden zwei Bildsensoren eingesetzt,
die horizontal, vertikal oder diagonal angeordnet sind, um zwei Bilder eines fernliegenden Objekts
aufzunehmen. Die Parallaxe zwischen den beiden Bildern wird zur Berechnung der Entfernung zu
dem Objekt verwendet. Verglichen mit aktiven Verfahren, bei denen das fernliegende Objekt mit
Ultraschallwellen oder Licht bestrahlt wird, um die Entfernung aufgrund der Reflexions- bzw.
Laufzeit zu ermitteln, ist das passive Verfahren genauer, eignet sich besser für die Messung
großer Entfernungen und ist außerdem besser dazu geeignet, Meßziele vom Hintergrund zu
unterscheiden. Das passive Verfahren wird bereits bei Autofokuskameras eingesetzt, aber auch
als besonders geeignet für die Verwendung in Vorrichtung angesehen, die dazu dienen, Auto
mobilkollisionen zu vermeiden.
Die Entfernungsmessung, die von der Parallaxe Gebrauch macht, basiert auf dem Prinzip der
Triangulation. Wenn ein optisches System mit einem Linsenpaar dazu benutzt wird, ein Meßziel
(Objekt) auf verschiedenen optischen Wegen auf zwei Bildsensoren abzubilden, und wenn ein
Versatz σ von einer Bezugsposition auf den Bildsensoren gemessen wird, an der das Ziel
abgebildet wird, wenn es im Unendlichen liegt, kann die Entfernung d auf der Basis des folgen
den Ausdrucks berechnet werden, wenn der Abstand zwischen den Linsen und die Brennweite
der Linsen, bei denen es sich um die Basislängen der Triangulation handelt, mit b bzw. f
bezeichnet werden:
d = bf/σ.
Bei praktischen Anwendungen wird der Versatz σ anstelle der Entfernung d als Entfernungsmaß
verwendet. Hinsichtlich einer genaueren Erläuterung des Meßprinzips wird auf die deutsche
Patentanmeldung 197 30 534.2 verwiesen.
Bei Verwendung einer Autofokuskamera benutzt der Fotograf den Sucher zur Auswahl des Ziels,
zu dem die Entfernung ermittelt werden soll. Bei einer Kollisionsverhinderungsvorrichtung ist es
dagegen nicht möglich, den Fahrer zu veranlassen, ein Ziel zu identifizieren, das direkt oder
diagonal vor dem Fahrzeug liegt, weswegen relativ große Bild- oder Gesichtsfelder für die
Bildsensoren eingestellt werden müssen, um eine automatische Erfassung unspezifizierter Ziele
zu ermöglichen und deren Entfernungen zu berechnen.
Es ist bekannt, daß die Entfernung d anhand der obigen Gleichung ermittelt werden kann, selbst
wenn das Meßziel unter einem Winkel Θ von der Vorderfläche der Bildsensoren diagonal vor dem
Fahrzeug liegt, und zwar unabhängig von dem Winkel Θ, indem der Versatz σ von einer Refe
renzposition ermittelt wird, an der das Meßziel abgebildet wird, wenn es in Richtung des Winkels
Θ an einem Punkt im Unendlichen liegt. Somit liegt das Problem in der Erfassung des Ziels in
dem Gesichtsfeld.
Bei einem, nachfolgend als "Verfahren A" bezeichneten, bereits vorgeschlagenen Verfahren wird
das Gesichtsfeld in eine Anzahl schmälerer Teilgesichtsfelder unterteilt, und Entfernungen
werden für jedes Teilgesichtsfeld berechnet. Auf der Basis der Häufigkeitsverteilung der
gemessenen Entfernungen wird die wahrscheinlich genaueste ausgewählt. Bei einem anderen,
nachfolgend als "Verfahren B" bezeichneten Verfahren, wird jedes Teilgesichtsfeld innerhalb der
Gesichtsfelder der Bildsensoren sequentiell abgetastet, um die Korrelation zwischen den
Bildpaaren für jedes Teilgesichtsfeld zu bestimmen, um dann zu entscheiden, daß das Ziel in dem
Abtastbereich vorhanden ist, für den eine gute Korrelation gefunden wurde, und hierfür die
Entfernung des Ziels von den Bildsensoren ermittelt wird.
Nun befinden sich jedoch außer dem Meßziel meistens noch andere Objekte innerhalb des
Gesichtsfeldes der Bildsensoren, das zur Ermittlung des Ziels und zur Messung der Entfernung zu
dem Ziel verwendet wird. Daher können Fehler bei der Entfernungsmessung für die einzelnen
Teilgesichtsfelder auftreten, was den Erhalt einer guten Korrelation bei der Prüfung von Bildpaa
ren für jedes Teilgesichtsfeld behindert.
Entfernungen zu Objekten, die in dem Gesichtsfeld vorhanden sind, unterscheiden sich oft von
der zu messenden Entfernung zu dem Ziel, so daß eine Unterscheidung des Ziels von anderen
Objekten zweckmäßig ist.
Wenn jedoch ein Objekt, das eine andere Entfernung als das Meßziel aufweist bzw. für das eine
Parallaxe zwischen dem Bildsensorpaar besteht, in dem Gesichtsfeld enthalten ist, in welchem
das Ziel aufzunehmen ist, kann keine gute Korrelation zwischen Bildpaaren erhalten werden, was
zu einer ungenauen Entfernungsmessung führt.
Dies soll kurz unter Bezugnahme auf Fig. 3 beschrieben werden. Das Bild innerhalb der Gesichts
felder mehrerer Bildsensorpaare, das in dem Rahmen der Figur gezeigt ist, enthält ein Meßziel 1
(ein vorausfahrendes Fahrzeug) sowie Hintergrund und Landschaft, hier repräsentiert durch eine
Straße RD, eine Leitplanke GR, ein Verkehrsschild RS, ein weiteres Fahrzeug Au, Bäume Tr,
Pfosten Ps und einen Berg Mt sowie den Schatten Sh des Ziels 1 auf der Straße RD. Ein
Teilgesichtsfeld, das das Ziel 1 innerhalb dieses Gesichtsfeldes aufnimmt, wird gewöhnlich als
Teil des Gesichtsfeldes für jedes Bildsensorpaar eingestellt. Verschiedene Beispiele solcher
Teilgesichtsfelder sind als Rechtecke dargestellt. In der Figur entsprechen Teilgesichtsfelder S1
bis S3 dem Fall, wo die Bildsensorpaare vertikal angeordnet sind, während sie im Fall der
Teilgesichtsfelder S4 und S5 horizontal angeordnet sind.
S1 ist ein ideales Gesichtsfeld, das so eingestellt ist, daß es das gesamte Ziel 1 mit wenigen
Störbildern enthält. Das heißt, mit diesem Teilgesichtsfeld kann das Verfahren A die Entfernung
korrekt messen, während das Verfahren B eine gute Korrelation liefert. Das Teilgesichtsfeld S2
erfaßt einen Teil des Ziels 1, enthält aber Bilder des entgegenkommenden Fahrzeugs Au und des
Berges Mt, die weiter entfernt von den Bildsensoren liegen. Daher wird das Verfahren A
wahrscheinlich die Entfernungen zu diesen entfernteren Objekten messen. Da das Verfahren B
die Korrelation auf der Annahme einer bestimmten Entfernung bestimmt, kann eine gute
Korrelation erhalten werden, wenn die angenommene Entfernung der tatsächlichen Entfernung
zum Ziel 1 nahekommt. Dagegen ist die Korrelation schlecht, wenn die Annahme falsch ist. Das
Teilgesichtsfeld S3 erfaßt ein Teil des Ziels 1 und seinen Schatten Sh. Der Kontrast mit dem
Schatten ist sehr hoch, so daß das Verfahren A wahrscheinlich die Entfernung zu dem Schatten
Sh anstelle derjenigen zum Ziel 1 messen wird, während das Verfahren B eine schlechte
Korrelation liefert, selbst wenn die Annahme ausreichend korrekt ist.
Das Teilgesichtsfeld S4 erfaßt das meiste von Ziel 1, wenngleich es an einem unterscheidungs
kräftigen Bildmuster fehlt, wobei die Bilder der Straße RD und der Leitplanke GR zusätzlich
enthalten sind. Somit wird das Verfahren A wegen der beigemischten Bilder wahrscheinlich
falsche Entfernungen liefern, während das Verfahren B niedrige Korrelationswerte liefert, selbst
wenn die Annahme korrekt ist. Das Teilgesichtsfeld S5 erfaßt das meiste des unterscheidungs
kräftigen Musters des Ziels 1. Somit kann das Verfahren A, obwohl Bilder von Bäumen Tr und
Pfosten Ps in das Gesichtsfeld eingemischt sind, die Entfernung korrekt messen, solange diese
Bilder nahe bei dem Ziel 1 liegen. Trotz des inkorrekten Aufnehmens des Ziels 1 liefert Verfahren
B eine gute Korrelation, wenn eine Entfernung richtig angenommen wurde, verhindert aber die
richtige Ermittlung der Richtung, in der das Ziel 1 liegt.
Wie aus diesen Beispielen hervorgeht, können, wenn eine Richtung und Größe des Gesichtsfeld
zur korrekten Aufnahme des Ziels eingestellt werden können, dessen Entfernung und Vorhan
densein richtig erfaßt werden. Wenn sie so eingestellt sind, daß sie eine Vermischung mit Bildern
nicht interessierender Objekte ermöglichen, insbesondere solcher in verschiedenen Entfernungen
von den Bildsensoren, können die Entfernung und die Richtung des Ziels nicht genau bestimmt
werden. Jedoch werden die Entfernung und die Richtung des Ziels tatsächlich aufgrund von
Wahrnehmungsergebnissen bestimmt, die Fehler enthalten können, da es schwierig ist zu
bestimmen, ob die Meßergebnisse richtig sind. Insbesondere für eine Kollisionsverhinderung ist
eine automatische korrekte Zielaufnahme zur Berechnung von Entfernung und Richtung notwen
dig.
Eine Aufgabe der vorliegenden Erfindung ist es, ein Verfahren zur Entfernungsmessung zu
schaffen, das eine Beurteilung der Zuverlässigkeit der Meßergebnisse erlaubt, um Zielentfer
nungs- und Präsenz-Berechnungen auf der Basis nur wirklich zuverlässiger Ergebnisse zu liefern.
Diese Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1 gelöst. Vorteilhafte Weiterbil
dungen der Erfindung sind in den Unteransprüchen gekennzeichnet.
Bei der erfindungsgemäßen Lösung werden Größe und Richtung eines zur Aufnahme des
Meßziels geeigneten Fenstergesichtsfeldes innerhalb des Aufnahmegesichtsfeldes der optischen
Anordnung durch die Position der Fensterdatensätze innerhalb der Bilddatensätze und die Anzahl
der Datenwerte in den Fensterdatensätzen eingestellt. Zur Ermittlung der Entfernung zu dem
Meßziel werden die Fensterdatensätze jeweils in eine erste bzw. eine zweite Gruppe von
Teildatensätzen unterteilt, wobei die Teildatensätze innerhalb jeder Gruppe von unterschiedlichen
Positionen innerhalb des jeweiligen Fensterdatensatzes extrahiert werden. Aus den Teildatensät
zen werden Teildatensatzpaare gebildet, wobei jedes Paar je einen Teildatensatz aus den beiden
Gruppen enthält. Für jedes Teildatensatzpaar wird ein die Korrelation zwischen den beiden
Teildatensätzen repräsentierender Korrelationswert ermittelt und das Teildatensatzpaar gesucht,
für das sich der beste Korrelationswert, der der maximalen Korrelation entspricht, ergibt. Wenn
innerhalb des untersuchten Fenstergesichtsfeldes außer dem Meßziel andere Objekte in anderen
Entfernungen vorhanden sind, beeinflußt dies den Verlauf der ermittelten Korrelationswerte über
der Teildatensatzpaarnummer. Die vorliegende Erfindung macht sich dies zunutze und führt eine
Zuverlässigkeitsprüfung durch, mittels derer festgestellt wird, mit welchem Grad an Zuverlässig
keit dasjenige Teildatensatzpaar, für das sich der beste Korrelationswert ergibt, für die Entfer
nungsermittlung zu dem Meßziel herangezogen werden kann. Zu diesem Zweck wird auf der
Basis der Änderungen der Korrelationswerte in der Umgebung des besten Korrelationswerts ein
Genauigkeitswert berechnet und mit einem vorgegebenen Schwellenwert verglichen. Nur wenn
der ermittelte Genauigkeitswert den Schwellenwert übersteigt, wird der ermittelte beste
Korrelationswert als zuverlässig angesehen und die Entfernung anhand der Positionen der zu
diesem besten Korrelationswert führenden Teildatensätze innerhalb der jeweiligen Fensterdaten
sätze herangezogen.
Falls der ermittelte Genauigkeitswert den Schwellenwert nicht übersteigt, kann gemäß einer
vorteilhaften Weiterbildung der Erfindung das Verfahren nach Änderung der Fenstereinstellung
wiederholt werden, wobei die zuvor ermittelten Korrelationswerte, insbesondere deren Änderung
im Bereich des besten Korrelationswerts als Anhaltspunkt für die neue Fenstereinstellung dienen.
Ausführungsbeispiele der Erfindung werden anhand der Zeichnungen näher erläutert. Es zeigen:
Fig. 1(a) ein Blockdiagramm zur Erläuterung eines Ausführungsbeispiels des Verfahrens gemäß
der Erfindung,
Fig. 1(b) eine Darstellung zur Erläuterung der Unterteilung von Fensterdatensätzen in Teildaten
sätze,
Fig. 1(c) eine Darstellung des Verlaufs eines Korrelationswerts,
Fig. 2(a) ein Flußdiagramm eines Beispiels zur Berechnung des Korrelationswerts,
Fig. 2(b) ein Flußdiagramm eines Beispiels eines Zuverlässigkeitsprüfverfahrens, und
Fig. 3 ein Beispiel eines Gesichtsfeldes mehrerer Bildsensorpaare und von Teilgesichtsfeldern,
die innerhalb des Gesichtsfeldes eingestellt sind.
Fig. 1 zeigt eine allgemeine Übersicht über eine Anordnung zur Durchführung eines Ausfüh
rungsbeispiels der Erfindung. Fig. 2 zeigt Flußdiagramme von Beispielen zur Berechnung eines
Korrelationswerts bzw. zur Durchführung einer Zuverlässigkeitsprüfung.
Eine optische Anordnung 10 und eine Bildsensoranordnung 20, die im oberen Teil von Fig. 1(a)
gezeigt sind, dienen dazu, ein Ziel 1, beispielsweise ein Automobil, in einem Gesichtsfeld S
aufzunehmen. Das Ziel 1 ist hier rechts von der optischen Anordnung 10 dargestellt. Die
optische Anordnung enthält zwei Linsen 11 und 12, die auf zwei Bildsensoren 21 und 22 der
Bildsensoranordnung 20 über optische Wege L1 und L2 ein jeweiliges das Ziel 1 in dem
Gesichtsfeld S enthaltendes Bild erzeugen. Die optischen Wege L1 und L2 sind in der Figur als
abgebogene Linien dargestellt. Bei der praktischen Realisierung dieses Ausführungsbeispiels
werden die Linsen 11 und 12 und die Bildsensoren 21 und 22 für das in der Figur gezeigte
Gesichtsfeld S vertikal übereinander angeordnet, während sie in der Figur zur Erläuterungs
zwecken horizontal nebeneinander angeordnet dargestellt sind. Um das Ziel 1 richtig aufzuneh
men, muß das Gesichtsfeld S in einem Winkel O zur Vorderfläche der optischen Anordnung 10
bzw. zur Normalen auf dieser Vorderfläche positioniert sein, wie in der Figur dargestellt.
Die Bildsensoranordnung 20 enthält eine Signalverarbeitungs- und -umsetzungsschaltung 23.
Diese empfängt nacheinander verstärkte Sensorsignale als analoge Signale von jedem der
optischen Sensorelemente in den Bildsensoren 21 und 22, beispielsweise CCDs, und setzt die
Signale in digitale Signale um, die dann als Sensordaten ausgegeben werden. Die Schaltung 23
kann für jeden Bildsensor 21 und 22 vorgesehen werden.
Ein Prozessor 70 lädt die Sensordaten nacheinander in einen Speicher 71, worin sie als Bild
datensätze D1 und D2 gespeichert werden. Diese Bilddatensätze D1 und D2 repräsentieren
Bildmuster innerhalb des von den Bildsensoren 21 und 22 gebotenen Gesichtsfeldes. In Fig. 1 ist
der Prozessor 70 als strichpunktierter Block unterhalb der Bildsensoranordnung 20 dargestellt.
Bei dem in der Figur gezeigten Ausführungsbeispiel sind eine Anordnung 30 zur Berechnung
eines Korrelationswerts und eine Anordnung 50 für eine Zuverlässigkeitsprüfung in Form
entsprechender Softwareroutinen in dem Prozessor 70 implementiert.
Indem die Anordnung 30 gesondert von dem Prozessor 70 und unter Verwendung einer
integrierten Schaltung, etwa eines Gatearrays, hardwaremäßig implementiert wird, können
mehrere Paare von Bildsensoren 21 und 22 in der Bildsensoranordnung 20 eingesetzt werden, so
daß mehrere Bildsensorpaare gleichzeitig betrieben werden können, um parallel einen Korrela
tionswert für jedes Bildsensorpaar zu berechnen.
Bei dem in der Figur dargestellten Ausführungsbeispiel ist die im Prozessor 70 enthaltene
Korrelationswert-Berechnungsroutine 30 mit einer Gesichtsfeldspezifikationsroutine 31 verbun
den. In Reaktion auf Spezifikationsdaten SD extrahiert die Routine 31 aus den Bilddatensätzen
D1 und D2 Fensterdatensätze WD1 und WD2, die der Richtung und Größe des Gesichtsfeldes S,
in welchem das Ziel 1 aufzunehmen ist, entsprechen. In der Figur ist die Richtung des Gesichts
feldes mit dem bereits erwähnten Winkel Θ bezeichnet, während seine Größe durch den
Gesichtswinkel ϕ charakterisiert ist und die Fensterdatensätze WD1 und WD2 den schraffierten
Teilen der Bilddatensätze D1 bzw. D2 entsprechen.
Die Korrelationswert-Berechnungsroutine 30, die aus den Fensterdatensätzen WD1 und WD2
einen Korrelationswert berechnet, wird nachfolgend unter Bezugnahme auf Fig. 1(b) beschrie
ben.
Die Fensterdatensätze WD1 und WD2 werden in zwei Gruppen von Teildatensätzen d1 und d2
unterteilt, und zwar so, daß in jeder Gruppe die einzelnen Teildatensätze zunehmend gegenüber
einer Referenzposition versetzt sind und mehrere Kombinationen oder Teildatensatzpaare Ck (0
k ke) gebildet werden, wie dies in der Figur dargestellt ist. Jedes Teildatensatzpaar enthält
einen Teildatensatz d1, d2 aus jeder der beiden Gruppen. Es sei angenommen, daß die Fenster
datensätze WD1 und WD2 jeweils m Sensordatenwerte aufweisen und jeder Teildatensatz d1,
d2 in jeder der beiden Gruppen n Sensordatenwerte umfaßt, wobei n vorzugsweise in dem
Bereich von m/2 bis 2m/3 eingestellt ist. Ferner wird vorzugsweise der Teildatensatz d1 des
Teildatensatzpaares C₀ vom rechten Ende des Fensterdatensatzes WD1 extrahiert (d. h., das
rechte Ende stellt die Referenzposition dar), während der zugehörige Teildatensatz d2 vom linken
Ende des Fensterdatensatzes WD2 extrahiert wird (d. h., das linke Ende stellt die Referenzposi
tion dar). Die nachfolgenden Teildatensätze sind vorzugsweise um einen Sensordatenwert
bezogen auf den vorangehenden Teildatensatz verschoben.
Die Routine 30 prüft den Korrelationswert zwischen den Teildatensätzen d1 und d2 für jedes
Teildatensatzpaar Ck, um so einen Korrelationswert Vk zu ermitteln. Dieser Korrelationswert Vk
ist beispielsweise die Summe der Absolutwerte der Differenzen einander entsprechender
Sensordatenwerte in den jeweiligen beiden Teildatensätzen d1 und d2. In diesem Fall nimmt der
Korrelationswert Vk mit zunehmender Korrelation zwischen den Teildatensätzen d1 und d2 ab.
Für jedes Teildatensatzpaar mit dem laufenden Index k wird der zugehörige Korrelationswerte Vk
in einem Speicher 72 als gespeichert. Zugleich wird der kleinste aller Korrelationswerte als bester
Korrelationswert Vs ermittelt und der Wert der Nummer k des zugehörigen Teildatensatzpaares
als Versatzwert s ebenfalls gespeichert. Da für jedes Teildatensatzpaar der Versatz seiner beiden
Teildatensätze relativ zum jeweiligen Bezugspunkt im jeweiligen Fensterdatensatz festliegt, kann
der Versatzwert s als Maß für die Position (den Versatz) der Teildatensätze, die die größte
Korrelation aufweisen, innerhalb des jeweiligen Fensaterdatensatzes angesehen werden.
Die Zuverlässigkeitsprüfroutine 50 empfängt die Vielzahl von Korrelationswerten Vk und
bestimmt als Zuverlässigkeitsmaß des besten Korrelationswerts Vs, der die maximale Korrelation
repräsentiert, einen Genauigkeitswert auf der Basis von Zustandsänderungen des Korrelations
werts Vk nahe dem Versatzwert k=s. Der den Zuverlässigkeitsgrad repräsentierende Genauig
keitswert ist vorzugsweise der Mittelwert der Neigungen, die von mehreren (beispielsweise zwei)
Korrelationswerten Vk vor und nach dem besten Korrelationswert Vs definiert werden, oder die
schwächere der Neigungen auf beiden Seiten des besten Korrelationswert Vs. Dies soll anhand
von Fig. 1(c) verdeutlicht werden.
Auf der Abszisse in Fig. 1(c) ist die Nummer k der Teildatensatzpaare aufgetragen, während auf
der Ordinate der jeweils zugehörige Korrelationswert Vk aufgetragen ist. Die Abhängigkeit des
Korrelationswerts Vk von der Nummer k ist im allgemeinen eine komplexe Funktion. Zur Verein
fachung der Erläuterung zeigt die Figur lediglich Änderungen des Korrelationswert Vk in de
Umgebung des besten Korrelationswerts Vs. Bei dem in der Figur dargestellten Beispiel ist der
Korrelationswert als Summe der Absolutwerte der Differenzen zwischen einander entsprechen
den Sensordatenwerten der beiden Teildatensätze des jeweiligen Teildatensatzpaares berechnet,
so daß der Wert der Nummer k=s, bei der der Korrelationswert Vk am kleinsten ist, den besten
Korrelationswert Vs darstellt. Bei dem in der Figur gezeigten Beispiel ist der Genauigkeitswert als
Maß der Zuverlässigkeit der Mittelwert der Neigung Φ⁺ auf der positiven Seite (k < s) und Φ⁻
auf der negativen Seite (k<s), bestimmt von den beiden Korrelationswerten Vk vor und nach
dem Versatzwert s. Wenn die Neigungen auf beiden Seiten des besten Korrelationswerts deutlich
verschieden sind, wird die schwächere der beiden Neigungen verwendet, so daß die Genauigkeit
geringer erscheint. Im diesem Fall kann eine Korrektur erfolgen, damit der Mittelwert näher bei
dem Wert der geringeren Neigung liegt.
Der auf diese Weise bestimmte Genauigkeitswert Φ hat jedoch die Tendenz mit zunehmendem
Bildkontrast in dem Gesichtsfeld S zuzunehmen. Daher kann ein effektiver Genauigkeitswert Φe
als Maß der Zuverlässigkeit eingesetzt werden, der nach Maßgabe eines den Kontrast repräsen
tierenden Korrekturwerts C korrigiert wurde. Als Korrekturwert C kann die Summe der Absolut
werte der Differenzen je zweier benachbarter Sensordatenwerte über alle Datenwerte im
jeweiligen Fensterdatensatz WD1 und WD2 verwendet werden. Vorzugsweise wird der Mittel
wert des für jedes Paar von Fensterdatensätzen ermittelten effektiven Genauigkeitswerts zur
genaueren Berechnung der Entfernung bestimmt. Die Differenzwerte der Fensterdatensätze sind
auch für die Berechnung des Korrelationswerts Vk nützlich. Empirisch gesehen ist es besser, den
Korrelationswert Vk mittels der Korrelationswert-Berechnungsroutine 30 auf der Basis dieser
Differenzwerte zu berechnen, statt die Datenwerte der Fensterdatensätze WD1 und WD2 selbst
als Basis zu verwenden.
Das Verfahren des vorliegenden Ausführungsbeispiels stellt nur dann fest, daß ein Bild des Ziels
1 erfolgreich erfaßt wurde, wenn der Genauigkeitswert Φ oder der effektive Genauigkeitswert
Φe, der in oben erwähnter Weise ermittelt wurde, einen vorbestimmten Wert ΦL übersteigt. In
diesem Fall wurde das Ziel 1 innerhalb des Gesichtsfeldes S, das den Fensterdatensätzen
entspricht, ermittelt, da der Genauigkeitswert anhand der Fensterdatensätze WD1 und WD2
ermittelt wurde und da der Winkel Θ, der die Richtung des Gesichtsfeldes S bezeichnet, und der
Gesichtswinkel ϕ den Positionen, von denen die Fensterdatensätze WD1 und WD2 aus den
Bilddatensätzen D1 und D2 extrahiert wurden, sowie der Anzahl von Sensordaten entsprechen.
Darüber hinaus ist, wie aus Fig. 1(b) ersichtlich, der Versatzwert s derjenige Wert der Nummer k,
der durch Verschieben der Teildatensätze d1 und d2 (Verschieben der Position in den Fensterda
tensätzen WD1 und WD2, von wo die Teildatensätze extrahiert werden) in solcher Weise
erhalten wurde, daß abhängig von der Parallaxe zwischen Bildern innerhalb des Gesichtsfeldes,
das durch die Bildsensoren 21 und 22 aufgenommen wird, der beste Korrelationswert Vs erhalten
werden kann. Das Maß σ für die Entfernung zu dem Ziel 1, das eingangs beschrieben wurde,
läßt sich leicht anhand dieses Versatzwerts s berechnen.
Als nächstes wird ein spezielles Beispiel der Korrelationswert-Berechnungsroutine 30 und der
Zuverlässigkeitsprüfroutine 50, die wie erwähnt beide als Software in dem Prozessor 70
implementiert sind, unter Bezugnahme auf die Fig. 2(a) und 2(b) beschrieben. Fig. 2(a) zeigt ein
Flußdiagramm eines Beispiels der Verarbeitungsschritte der Routine 30 und Fig. 2(b) zeigt ein
Flußdiagramm eines Beispiels der Verarbeitungsschritte der Routine 50. Bei dem Beispiel der
Routine 30 in Fig. 2(a) werden die Differenzwerte der Fensterdatensätze als Basis für die
Berechnung des Korrelationswerts Vk herangezogen, die laufende Datennummer im Fensterda
tensatz WD1 und in den Teildatensätzen d1 ist mit i bezeichnet, diejenige im Fensterdatensatz
WD2 und in den Teildatensätzen d2 mit j. Einander entsprechende Sensordaten werden als Di
bzw. Dj bezeichnet.
In einem ersten Schritt S31 der Routine 30 werden die internen Datennummern i und j der
Fensterdatensätze WD1 und WD2 auf 1 initialisiert. Beim nachfolgenden Schritt S32 werden
Differenzwerte S und S der Fensterdatensätze als Differenzen Di+1 - Di bzw. Dj+1 - Dj berechnet.
Unter der Annahme, daß die Fensterdatensätze je m Daten enthalten, wird im Schritt S33 die
Datennummer i mit m-1 verglichen. Wenn i kleiner als m-1 ist, werden die Datennummern i und j
im Schritt S34 um 1 inkrementiert, und die Prozedur kehrt zum Schritt S32 zurück. Nachdem alle
Differenzwerte berechnet wurden, wird diese Schleife im Schritt S33 verlassen. Da die Berech
nung der Differenzwerte Si und Sj beendet ist, wird im Schritt S35 der Wert von m durch m-I
ersetzt, und die Prozedur geht dann zur Vorbereitung der nächsten Schritte zum Schritt S36
weiter.
Im Schritt S36 wird der Endwert ke für die Nummer k des Teildatensatzpaares eingestellt. Der
Endwert ke kann 2(m-n) betragen, wenn n die Anzahl von Daten in jedem Teildatensatz ist. Die
Nummer k wird dann auf Null initialisiert.
Als nächstes werden im Schritt S36 die Startdatennummern is und is für die Teildatensätze d1
und d2 für das erste Teildatensatzpaar Ck=o eingestellt. Wie aus Fig. 1(b) ersichtlich, gilt is = m-
n + 1 und js = 1. Dann wird ein ausreichend großer Wert Vm als anfänglicher bester Korrela
tionswert Vs eingestellt, und ein Schaltflag SF zur Betriebsumschaltung wird auf 1 gesetzt. Die
Prozedur berechnet dann den Korrelationswert Vk für das Teildatensatzpaar der Nummer k.
Im Schritt S37 wird eine Korrelationswertvariable V auf 0 gesetzt, die Datennummern i und j
werden zu is bzw. js initialisiert, und ein Endwert ie für die Datennummer i wird eingestellt. Der
Endwert ie kann is+n-1 betragen. Anschließend werden im Schritt S38 Korrelationswerte
berechnet, wozu der Absolutwert der Differenz zwischen den Differenzwerten Si und Sj zu der
Korrelationswertvariablen V addiert wird. Wenn im nachfolgenden Schritt S39 festgestellt wird,
daß die Datennummer i noch nicht den Endwert ie erreicht hat, werden die Datennummern i und
j im Schritt S40 je um 1 inkrementiert, und die Prozedur kehrt zum Schritt S38 zurück. Wenn die
Datennummer i schließlich den Endwert ie erreicht hat und der Ablauf vom Schritt S39 zum
Schritt S41 übergeht, wurde der Korrelationswert V für das Teildatensatzpaar der Nummer k
berechnet und als k-ter Korrelationswert Vk im Speicher 72 gespeichert. Im Schritt S42 wird
dieser Korrelationswert Vk mit dem besten Korrelationswert Vs verglichen. Wenn Vk größer ist,
wird es direkt gespeichert. Andernfalls wird im Schritt S43 der momentane Wert der Nummer k
als Versatzwert s, der dem besten Korrelationswert entspricht, gespeichert, bevor der Ablauf
zum Schritt S44 weitergeht.
Im Schritt S44 wird die Nummer k mit ihrem Endwert ke verglichen, um festzustellen, ob k
kleiner als ke ist. Da das Ergebnis anfänglich positiv ist, geht der Ablauf zum Schritt S45 weiter,
um zu prüfen, ob das Schaltflag SF positiv ist. Da das Schaltflag SF im Schritt S36 auf 1 gesetzt
wurde, ist das Ergebnis anfänglich positiv, weshalb im Schritt S46 die Startdatennummer is für
den Teildatensatz d1 um 1 verringert wird, so daß der Teildatensatz um einen Datenwert nach
links verschoben wird, wie in Fig. 1(b) gezeigt. Im nachfolgenden Schritt S48 wird das Vorzei
chen des Schaltflags SF umgeschaltet und die Nummer k erhöht. Dann geht der Ablauf zum
Schritt S37 zurück, um den Korrelationswert Vk für die neue Nummer k zu berechnen. Wenn
diese Berechnung abgeschlossen ist, geht der Ablauf zum Schritt S45 weiter. Da das Schaltflag
SF auf einen negativen Wert gesetzt wurde, ist das Ergebnis der Prüfung negativ, und im Schritt
S47 wird die Startdatennummer js für den Teildatensatz d2 um 1 erhöht und somit nach rechts
verschoben. Der Ablauf geht dann zum Schritt S48 weiter.
In den nachfolgenden Schritten wird derselbe Vorgang wiederholt, wobei der Korrelationswert Vk
nach jeweiligem Inkrementieren der Nummer k berechnet wird. Wenn die Nummer k ihren
Endwert ke erreicht hat, wird die Schleife im Schritt S44 verlassen, womit die Korrelationswert-
Berechnungsroutine 30 beendet ist. In diesem Moment sind 2(m-n)+1 Korrelationswerte Vk für
die Datensatzpaare C₀ bis Cke in Fig. 1(b) im Speicher 72 des Prozessors 70 in Fig. 1(a) gespei
chert, und der Versatzwert s, der dem besten Korrelationswert entspricht (wie in Fig. 1(c)
gezeigt), ist ebenfalls darin gespeichert. Obwohl die oben beschriebene Korrelationswert-
Berechnungsroutine 30 die Differenzwerte Si und Sj verwendet, können die Schritte S31 bis S35
weggelassen werden, und der Absolutwert der Differenz zwischen Di und Dj statt dessen zur
Berechnung des Korrelationswerts V im Schritt S38 benutzt werden, wenn die Sensordaten Dj
und Dj selbst eingesetzt werden sollen.
Anhand des Flußdiagramms von Fig. 2(b) wird nun ein Beispiel der Zuverlässigkeitsprüfroutine 50
beschrieben. In den Schritten S51 bis S54 werden die negativseitige Neigung Φ⁻ und die
positivseitige Neigung Φ⁺ als Maß der Genauigkeit der besten Korrelation auf der Basis der
Vielzahl von Korrelationswerten Vk und des Versatzwerts s, die aus dem Speicher 72 ausgelesen
werden, ermittelt, wie unter Bezugnahme auf Fig. 1(c) beschrieben. Im Schritt S51 wird Φ⁻ aus
Vk=s-2 - Vk=s-1 berechnet und im Schritt S52 geprüft, ob es positiv ist. Im Schritt S53 wird Φ⁺
aus Vk=s+2 - Vk=s+1 berechnet und im Schritt S54 geprüft, ob es positiv ist. Wenn sich bei
beiden Schritten S52 und S54 ein positives Ergebnis ergibt, dann wird bezogen auf das in der
Figur gezeigte Beispiel die mittlere Neigung Φav zwischen der negativseitigen Neigung Φ⁻ und der
positivseitigen Neigung Φ⁺ im Schritt S55 ermittelt.
Im nachfolgenden Schritt S56 werden die Größen der negativseitigen Neigung Φ⁻ und der
positivseitigen Neigung Φ⁺ verglichen. Wenn die negativseitige Neigung Φ⁻ größer als die
positivseitige Neigung Φ⁺ ist, wird der Neigungsmittelwert Φav im Schritt S57 mit Φ⁺/Φ⁻
multipliziert. Andernfalls wird der Neigungsmittelwert im Schritt S58 mit Φ⁻/Φ⁺ multipliziert. Auf
diese Weise erfolgt eine Korrektur, durch die der Neigungsmittelwert Φav näher bei der schwä
cheren der beiden Neigungen liegt. Die resultierende Neigung wird als Genauigkeitswert Φ
verwendet, insbesondere, wenn die Neigungen Φ⁻ und Φ⁺ deutlich asymmetrisch sind.
Bei dem gegebenen Beispiel wird der Genauigkeitswert Φ noch nach Maßgabe des Bildkontrasts
innerhalb des Gesichtsfeldes S korrigiert. Der Kontrast ist der Helligkeitsbereich innerhalb eines
Bildmusters. Dazu wird im nachfolgenden Schritt S59 ein den Kontrast repräsentierender
Korrekturwert C als Mittelwert der Summe der Absolutwerte der m Differenzdaten Si und Sj, die
dem Fenster entsprechen, gebildet, wie durch das Summenzeichen Σ in der Figur angedeutet.
Beim dargestellten Ausführungsbeispiel wird der Genauigkeitswert dann durch den Korrekturwert
C geteilt, was einen effektiven Genauigkeitswert Φe ergibt. Die Korrektur des Genauigkeitswerts
Φ mit dem Korrekturwert C kann auf verschiedenste Weisen erfolgen.
Im Schritt S60 wird festgestellt, ob der effektive Genauigkeitswert Φe größer als ein vorgegebe
ner Grenzwert ΦL ist. Falls ja, wird im Schritt S61 das Entfernungsmaß σ des Ziels 1 aus dem
Versatzwert s berechnet. Das Maß σ ist eine einfache lineare Funktion, die von der Anzahl m der
Sensordaten im Fenster (der Fensterbreite) und der Anzahl n von Sensordaten in den Teildaten
sätzen abhängt, so daß es sehr einfach berechnet werden kann. Wenn das Ergebnis der
Entscheidung im Schritt S60, S52 oder S54 negativ ist, wird das Maß σ auf einen Wert σf
gesetzt, der deutlich anzeigt, daß die Erfassung des Ziels 1 fehlgeschlagen ist (Schritt S62). In
dem auf die Schritte S61 und S62 folgenden Schritt S63 wird das Maß σ der Entfernung als
Abschluß der Zuverlässigkeitsprüfroutine 50 ausgegeben.
Die Ergebnisse der Erfassung des Ziels 1, deren Zuverlässigkeit bewertet wurde, können von der
Gesichtsfeldspezifikationsroutine 31 dazu verwendet werden, ein gewünschtes Gesichtsfeld S
vorzugeben. Wenn beispielsweise der ermittelte Genauigkeitswert nicht den Wert ΦL übersteigt,
können Richtung und/oder Größe des Fensters bzw. des Gesichtsfelds S, in dem das Ziel 1
richtig aufgenommen werden kann, geändert und das beschriebene Verfahren wiederholt
werden. Dabei können die zuvor ermittelten Korrelationswerte Vk, insbesondere der effektive
Genauigkeitswert Φe bzw. die ermittelten Neigungen wirkungsvoll als Richtlinie dienen.
Wie oben beschrieben, empfängt gemäß der vorliegenden Erfindung die Bildsensoranordnung von
der optischen Anordnung Bilder zur Erzeugung eines Bildmuster repräsentierenden Bildpaares auf
einem Bildsensorpaar. Die Korrelationswert-Berechnungsroutine extrahiert Gruppen von Teilda
tensätzen aus den Fensterdatensätzen, die dem Gesichtsfeld entsprechen, in welchem das Ziel in
jedem Bilddatensatz aufzunehmen ist, wobei die Position des Teildatensatzes nacheinander
verschoben wird, und berechnet einen Korrelationswert für jede Kombination von Teildatensät
zen. Die Zuverlässigkeitsprüfroutine berechnet die Genauigkeit der besten Korrelation als Maß
der Zuverlässigkeit auf der Basis von Änderungszuständen des Korrelationswerts nahe dem
besten Korrelationswert und entscheidet, daß das Ziel in dem Gesichtsfeld vorhanden ist, nur
dann, wenn die Genauigkeit einen voreingestellten Wert übersteigt. Die Entfernung zu dem Ziel
wird dann berechnet. Diese Konfiguration schließt fehlerhafte Meßergebnisse aus, die durch die
Vermischung mit Bildern anderer Objekte anderer Entfernungen als das Ziel verursacht werden
könnten, um eine genaue Berechnung der Entfernung zu dem Ziel zu ermöglichen. Das Zuverläs
sigkeitsmaß kann zur Einstellung eines Gesichtsfeldes verwendet werden, in welchem das Ziel
richtig aufgenommen werden kann.
Als Zuverlässigkeitsmaß verwendet das beschriebene Ausführungsbeispiel den Mittelwert der
Neigungen einer Vielzahl von Korrelationswerten vor und nach dem Punkt der besten Korrelation.
Der Vorteil dieses Verfahrens besteht darin, daß eine akkurate Genauigkeit leicht berechnet
werden kann. Ausführungsbeispiele der Erfindung, die die schwächere der Neigungen zu beiden
Seiten des Punkts bester Korrelation verwenden und die einen Korrekturwert bilden, damit der
Mittelwert der beiden Neigungen näher bei dem Wert der schwächeren Neigung liegt, können
präzise Bewertungskriterien für die Zuverlässigkeit liefern und fehlerhafte Meßergebnisse
ausschließen.
Ein Ausführungsbeispiel der Erfindung, bei dem eine Korrektur abhängig von den Kontrastwerten
der Bilder innerhalb des Gesichtsfeldes erfolgt, zeichnet sich dadurch aus, daß es ein angemes
seneres Maß als das oben beschriebene zur Bewertung der Zuverlässigkeit der Meßergebnisse
verwendet. Ein Ausführungsbeispiel, das die Summe der Absolutwerte von Differenzwerten für
die Daten des Fensterteils als Kontrastwerte zur Korrektur verwendet, ermöglicht die Erzielung
genauerer Kontrastwerte durch einfache Berechnungen. Darüber hinaus liefert das Ausführungs
beispiel, bei dem die Berechnung der Korrelationswerte auf Differenzwerten, die zur Berechnung
von Kontrastwerten benutzt werden, basiert, oft genauere Meßergebnisse als dies der Fall ist,
wenn für die Berechnung der Korrelationswerte die ursprünglichen Daten des Fensterteils benutzt
werden.
Claims (8)
1. Verfahren zur Messung der Entfernung zwischen einer Meßvorrichtung und einem
Meßziel, bei dem auf zwei Bildsensoren (21, 22) der Meßvorrichtung über einen jeweiligen
zweier verschiedener optischer Wege Abbildungen eines Aufnahmegesichtsfeldes erzeugt und
von den Bildsensoren je ein dem Bildmuster der jeweiligen Abbildung entsprechender Bilddaten
satz (D1, D2) ausgegeben wird, umfassend die Schritte:
- (a) Einstellen eines Fensters innerhalb des Aufnahmegesichtfeldes, in welchem das Meßziel vorhanden ist oder vermutet wird,
- (b) Extrahieren eines jeweiligen, dem eingestellten Fenster entsprechenden Fensterda tensatzes (WD1, WD2) aus jedem der Bilddatensätze,
- (c) Unterteilen jedes der beiden Fensterdatensätze (WD1, WD2) in mehrere sukzessive innerhalb des Fensterdatensatzes in der Position verschobene Teildatensätze (d1, d2) und Bilden mehrerer Teildatensatzpaare(C₀-Cke), von denen jedes einen Teildatensatz aus jedem der beiden Fensterdatensätze (WD1, WD2) enthält,
- (d) Berechnen eines die Korrelation zwischen den beiden Teildatensätzen (d1, d2) jedes Teildatensatzpaares (C₀-Cke) repräsentierenden Korrelationswerts (Vk),
- (e) Ermitteln desjenigen der für die einzelnen Teildatensatzpaare (C₀-Cke) erhaltenen Korrelationswerte (Vk), der die größte Korrelation repräsentiert, als besten Korrelationswert (Vs),
- (f) Ermitteln eines die Zuverlässigkeit des besten Korrelationswerts (Vs) repräsentieren den Genauigkeitswerts (Φ, Φe) anhand des Grads der Änderungen der Korrelationswerte (Vk) in der Umgebung des besten Korrelationswerts (Vs), und
- (g) Berechnen der Entfernung zu dem Meßziel auf der Grundlage der Position jedes Teildatensatzes (d1, d2) desjenigen Teildatensatzpaares (Cs), das dem besten Korrelationswert (Vs) entspricht, innerhalb des jeweiligen Fensterdatensatzes, wenn der Genauigkeitswerts (Φ, Φe) einen vorgegebenen Wert (ΦL) übersteigt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Genauigkeitswert der
Mittelwert (Φav) der Neigungen berechnet wird, die von mehreren Korrelationswerten (Vk) zu
beiden Seiten des besten Korrelationswerts (Vs) definiert werden.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Genauigkeitswert die
schwächere der Neigungen (Φ⁺, Φ⁻) berechnet wird, die von mehreren Korrelationswerten (Vk) zu
beiden Seiten des besten Korrelationswerts (Vs) definiert werden.
4. Verfahren nach einem der vorhergehenden Ansprüche, ferner gekennzeichnet durch
einen Schritt der Korrektur des Genauigkeitswerts (Φ) nach Maßgabe eines aus den Fensterda
tensätzen (WD1, WD2) errechneten, den Bildkontrast repräsentierenden Korrekturwerts (C).
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß als Korrekturwert (C) die
Summe der Absolutwerte der Differenzen (Si, Sj) zwischen jeweils zwei benachbarten Datenwer
ten (Di, Di+1, Dj, Dj+1) wenigstens eines der Fensterdatensätze (WD1, WD2) errechnet wird.
6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß als Korrekturwert (C) der
Mittelwert der für die beiden Fensterdatensätze (WD1, WD2) gesondert errechneten Summen
der Absolutwerte der Differenzen (Si, Sj) zwischen jeweils zwei benachbarten Datenwerten (Di,
Di+1, Dj, Dj+1) des jeweiligen Fensterdatensatzes (WD1, WD2) errechnet wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß
Schritt (b) das Bilden eines jeweiligen modifizierten Fensterdatensatzes aus den beiden
Fensterdatensätzen (WD1, WD2) umfaßt, wobei jeder modifizierte Fensterdatensatz die Differen
zen (Si, Sj) zwischen jeweils zwei benachbarten Datenwerten (Di, Di+1, Dj, Dj+1) des jeweiligen
Fensterdatensatzes enthält, und
in Schritt (c) die Teildatensätze (d1, d2) von den modifizierten Fensterdatensätzen
gebildet werden.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß,
falls im Schritt (g) der Genauigkeitswert (Φ, Φe) den vorgegebenen Wert (ΦL) nicht übersteigt, die
Schritte (a) bis (g) wiederholt werden, wobei im Schritt (a) die Richtung und Größe des Fensters
nach Maßgabe der zuvor ermittelten Korrelationswerte (Vk) eingestellt werden.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20668796A JP3216792B2 (ja) | 1996-08-06 | 1996-08-06 | 映像による距離検出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19732883A1 true DE19732883A1 (de) | 1998-02-12 |
Family
ID=16527458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19732883A Ceased DE19732883A1 (de) | 1996-08-06 | 1997-07-30 | Verfahren zur Entfernungsmessung unter Verwendung von Bildern |
Country Status (4)
Country | Link |
---|---|
US (1) | US6021209A (de) |
JP (1) | JP3216792B2 (de) |
KR (1) | KR100525931B1 (de) |
DE (1) | DE19732883A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7471809B2 (en) | 2003-01-31 | 2008-12-30 | Seiko Epson Corporation | Method, apparatus, and program for processing stereo image |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3216792B2 (ja) * | 1996-08-06 | 2001-10-09 | 富士電機株式会社 | 映像による距離検出方法 |
JP3596314B2 (ja) * | 1998-11-02 | 2004-12-02 | 日産自動車株式会社 | 物体端の位置計測装置および移動体の通行判断装置 |
US6675121B1 (en) * | 1999-07-06 | 2004-01-06 | Larry C. Hardin | Velocity measuring system |
US20070162248A1 (en) * | 1999-07-06 | 2007-07-12 | Hardin Larry C | Optical system for detecting intruders |
JP4097869B2 (ja) * | 2000-01-17 | 2008-06-11 | 日本放送協会 | 画像の対応点信頼度推定装置と対応点探索装置 |
US6317691B1 (en) * | 2000-02-16 | 2001-11-13 | Hrl Laboratories, Llc | Collision avoidance system utilizing machine vision taillight tracking |
JP2001324305A (ja) * | 2000-05-17 | 2001-11-22 | Minolta Co Ltd | 画像対応位置検出装置および該装置を備える測距装置 |
JP2002350129A (ja) * | 2001-05-23 | 2002-12-04 | Canon Inc | 計測装置 |
US7262798B2 (en) * | 2001-09-17 | 2007-08-28 | Hewlett-Packard Development Company, L.P. | System and method for simulating fill flash in photography |
US7221777B2 (en) * | 2002-07-02 | 2007-05-22 | Honda Giken Kogyo Kabushiki Kaisha | Image analysis device |
EP1391778A1 (de) * | 2002-08-08 | 2004-02-25 | Seiko Precision Inc. | Apparat zur Bestimmung des Neigungswinkels eines Projektionsschirmes und einen Projektor, der diesen Apparat beinhaltet |
US7561720B2 (en) * | 2004-04-30 | 2009-07-14 | Visteon Global Technologies, Inc. | Single camera system and method for range and lateral position measurement of a preceding vehicle |
US7561721B2 (en) * | 2005-02-02 | 2009-07-14 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
US20070031008A1 (en) * | 2005-08-02 | 2007-02-08 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
JP2007139756A (ja) * | 2005-10-17 | 2007-06-07 | Ricoh Co Ltd | 相対位置検出装置、回転体走行検出装置及び画像形成装置 |
US7623681B2 (en) * | 2005-12-07 | 2009-11-24 | Visteon Global Technologies, Inc. | System and method for range measurement of a preceding vehicle |
JP4426535B2 (ja) * | 2006-01-17 | 2010-03-03 | 本田技研工業株式会社 | 車両の周辺監視装置 |
US20090005948A1 (en) * | 2007-06-28 | 2009-01-01 | Faroog Abdel-Kareem Ibrahim | Low speed follow operation and control strategy |
JP5544497B2 (ja) * | 2012-03-13 | 2014-07-09 | 株式会社モルフォ | 画像処理装置、画像処理方法及び画像処理プログラム |
US10498948B1 (en) | 2018-06-05 | 2019-12-03 | Applied Materials, Inc. | Methods and apparatus for absolute and relative depth measurements using camera focus distance |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4561749A (en) * | 1983-02-02 | 1985-12-31 | Nippon Kogaku K.K. | Focus detection apparatus |
US4969036A (en) * | 1989-03-31 | 1990-11-06 | Bir Bhanu | System for computing the self-motion of moving images devices |
JP2676953B2 (ja) * | 1989-10-27 | 1997-11-17 | 富士電機株式会社 | 映像位置検出装置 |
JP2676985B2 (ja) * | 1990-06-26 | 1997-11-17 | 富士電機株式会社 | 光学器械の対象検出方式 |
JPH0588077A (ja) * | 1991-06-20 | 1993-04-09 | Fuji Photo Film Co Ltd | 距離検出装置および方法 |
JPH0546386A (ja) * | 1991-08-13 | 1993-02-26 | Hitachi Ltd | データプロセツサ |
US5422828A (en) * | 1991-12-18 | 1995-06-06 | Choate; William C. | Method and system for image-sequence-based target tracking and range estimation |
JP3343697B2 (ja) * | 1992-12-31 | 2002-11-11 | 株式会社リコー | 合焦状態又は被写体距離検出装置 |
JP3197979B2 (ja) * | 1993-04-19 | 2001-08-13 | 富士フイルムマイクロデバイス株式会社 | 位相差距離検出装置および方法 |
US5487116A (en) * | 1993-05-25 | 1996-01-23 | Matsushita Electric Industrial Co., Ltd. | Vehicle recognition apparatus |
US5586063A (en) * | 1993-09-01 | 1996-12-17 | Hardin; Larry C. | Optical range and speed detection system |
JPH0771916A (ja) * | 1993-09-06 | 1995-03-17 | Fuji Film Micro Device Kk | 車載用距離計測装置 |
JP3059035B2 (ja) * | 1993-12-14 | 2000-07-04 | 三菱電機株式会社 | 距離測定装置 |
JPH07306038A (ja) * | 1994-05-13 | 1995-11-21 | Nippon Soken Inc | 距離測定装置 |
JPH0894916A (ja) * | 1994-09-28 | 1996-04-12 | Nikon Corp | 焦点検出装置 |
JP3216792B2 (ja) * | 1996-08-06 | 2001-10-09 | 富士電機株式会社 | 映像による距離検出方法 |
-
1996
- 1996-08-06 JP JP20668796A patent/JP3216792B2/ja not_active Expired - Fee Related
-
1997
- 1997-07-28 US US08/901,066 patent/US6021209A/en not_active Expired - Fee Related
- 1997-07-30 DE DE19732883A patent/DE19732883A1/de not_active Ceased
- 1997-08-06 KR KR1019970037530A patent/KR100525931B1/ko not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7471809B2 (en) | 2003-01-31 | 2008-12-30 | Seiko Epson Corporation | Method, apparatus, and program for processing stereo image |
Also Published As
Publication number | Publication date |
---|---|
JPH1047955A (ja) | 1998-02-20 |
US6021209A (en) | 2000-02-01 |
JP3216792B2 (ja) | 2001-10-09 |
KR19980018429A (ko) | 1998-06-05 |
KR100525931B1 (ko) | 2005-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19732883A1 (de) | Verfahren zur Entfernungsmessung unter Verwendung von Bildern | |
DE2922080C2 (de) | Entfernungsmeßeinrichtung | |
DE3735091C2 (de) | ||
DE3612233C2 (de) | ||
EP0023574B1 (de) | Opto-elektronisches Prüfsystem zur automatischen Beschaffenheitsprüfung von Leiterplatten, deren Zwischenprodukte und Druckwerkzeuge | |
DE4444593C2 (de) | Entfernungsmeßvorrichtung | |
CH651408A5 (de) | Optische dokumentenpruefeinrichtung zum erfassen von fehldrucken. | |
DE2948752A1 (de) | Scharfeinstellungs-ermittlungssystem | |
DE102006057552A1 (de) | System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs | |
DE2439913A1 (de) | Vorrichtung zum lesen kodierter informationen | |
DE102007004632A1 (de) | Verfahren zur Erfassung eines Gegenstands und optoelektronische Vorrichtung | |
DE2501373B2 (de) | Anordnung zur Winkel- oder Längenmessung | |
DE3732459C2 (de) | ||
DE1922301B2 (de) | Schaltungsanordnung zum ermitteln von amplitudenaenderungen eines videosignals | |
DE69531510T2 (de) | Verfahren und Vorrichtung zur Bewegungsschätzung mittels Blockübereinstimmung | |
DE102020206006A1 (de) | Verfahren zum Kalibrieren und/oder Justieren und Steuereinheit für ein LiDAR-System, LiDAR-System und Arbeitsvorrichtung | |
EP0365786A1 (de) | Verfahren zur Bestimmung der Übertragungsfunktion einer Videokamera | |
CH680950A5 (de) | ||
DE2106035C3 (de) | Vorrichtung zur Überprüfung der Formübereinstimmung eines elektromagnetisch erzeugten Objektbildes mit einem vorgegebenen Schema | |
DE102019121544A1 (de) | Zieldetektionsvorrichtung und zieldetektionsverfahren | |
DE102019212022B4 (de) | Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren | |
DE102019008369B4 (de) | Verfahren zur Kalibrierung eines distanzmessenden Sensors eines Fahrzeugs | |
DE3902503C2 (de) | ||
DE3232833C2 (de) | ||
DE3824092C2 (de) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8131 | Rejection |