DE19732883A1 - Verfahren zur Entfernungsmessung unter Verwendung von Bildern - Google Patents

Verfahren zur Entfernungsmessung unter Verwendung von Bildern

Info

Publication number
DE19732883A1
DE19732883A1 DE19732883A DE19732883A DE19732883A1 DE 19732883 A1 DE19732883 A1 DE 19732883A1 DE 19732883 A DE19732883 A DE 19732883A DE 19732883 A DE19732883 A DE 19732883A DE 19732883 A1 DE19732883 A1 DE 19732883A1
Authority
DE
Germany
Prior art keywords
value
window
correlation
values
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19732883A
Other languages
English (en)
Inventor
Takehide Hirabayashi
Hideo Shimizu
Akio Izumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Publication of DE19732883A1 publication Critical patent/DE19732883A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Description

Die vorliegende Erfindung bezieht sich auf ein passives Verfahren zur Entfernungsmessung, bei dem ein Ziel, etwa ein vorausfahrendes Fahrzeug, aufgrund von Bildern aufgenommen wird, die von Bildsensoren empfangen werden, und die Entfernung berechnet wird, um eine Kollision zu vermeiden.
Bei diesem passiven Verfahren zur Entfernungsmessung werden zwei Bildsensoren eingesetzt, die horizontal, vertikal oder diagonal angeordnet sind, um zwei Bilder eines fernliegenden Objekts aufzunehmen. Die Parallaxe zwischen den beiden Bildern wird zur Berechnung der Entfernung zu dem Objekt verwendet. Verglichen mit aktiven Verfahren, bei denen das fernliegende Objekt mit Ultraschallwellen oder Licht bestrahlt wird, um die Entfernung aufgrund der Reflexions- bzw. Laufzeit zu ermitteln, ist das passive Verfahren genauer, eignet sich besser für die Messung großer Entfernungen und ist außerdem besser dazu geeignet, Meßziele vom Hintergrund zu unterscheiden. Das passive Verfahren wird bereits bei Autofokuskameras eingesetzt, aber auch als besonders geeignet für die Verwendung in Vorrichtung angesehen, die dazu dienen, Auto­ mobilkollisionen zu vermeiden.
Die Entfernungsmessung, die von der Parallaxe Gebrauch macht, basiert auf dem Prinzip der Triangulation. Wenn ein optisches System mit einem Linsenpaar dazu benutzt wird, ein Meßziel (Objekt) auf verschiedenen optischen Wegen auf zwei Bildsensoren abzubilden, und wenn ein Versatz σ von einer Bezugsposition auf den Bildsensoren gemessen wird, an der das Ziel abgebildet wird, wenn es im Unendlichen liegt, kann die Entfernung d auf der Basis des folgen­ den Ausdrucks berechnet werden, wenn der Abstand zwischen den Linsen und die Brennweite der Linsen, bei denen es sich um die Basislängen der Triangulation handelt, mit b bzw. f bezeichnet werden:
d = bf/σ.
Bei praktischen Anwendungen wird der Versatz σ anstelle der Entfernung d als Entfernungsmaß verwendet. Hinsichtlich einer genaueren Erläuterung des Meßprinzips wird auf die deutsche Patentanmeldung 197 30 534.2 verwiesen.
Bei Verwendung einer Autofokuskamera benutzt der Fotograf den Sucher zur Auswahl des Ziels, zu dem die Entfernung ermittelt werden soll. Bei einer Kollisionsverhinderungsvorrichtung ist es dagegen nicht möglich, den Fahrer zu veranlassen, ein Ziel zu identifizieren, das direkt oder diagonal vor dem Fahrzeug liegt, weswegen relativ große Bild- oder Gesichtsfelder für die Bildsensoren eingestellt werden müssen, um eine automatische Erfassung unspezifizierter Ziele zu ermöglichen und deren Entfernungen zu berechnen.
Es ist bekannt, daß die Entfernung d anhand der obigen Gleichung ermittelt werden kann, selbst wenn das Meßziel unter einem Winkel Θ von der Vorderfläche der Bildsensoren diagonal vor dem Fahrzeug liegt, und zwar unabhängig von dem Winkel Θ, indem der Versatz σ von einer Refe­ renzposition ermittelt wird, an der das Meßziel abgebildet wird, wenn es in Richtung des Winkels Θ an einem Punkt im Unendlichen liegt. Somit liegt das Problem in der Erfassung des Ziels in dem Gesichtsfeld.
Bei einem, nachfolgend als "Verfahren A" bezeichneten, bereits vorgeschlagenen Verfahren wird das Gesichtsfeld in eine Anzahl schmälerer Teilgesichtsfelder unterteilt, und Entfernungen werden für jedes Teilgesichtsfeld berechnet. Auf der Basis der Häufigkeitsverteilung der gemessenen Entfernungen wird die wahrscheinlich genaueste ausgewählt. Bei einem anderen, nachfolgend als "Verfahren B" bezeichneten Verfahren, wird jedes Teilgesichtsfeld innerhalb der Gesichtsfelder der Bildsensoren sequentiell abgetastet, um die Korrelation zwischen den Bildpaaren für jedes Teilgesichtsfeld zu bestimmen, um dann zu entscheiden, daß das Ziel in dem Abtastbereich vorhanden ist, für den eine gute Korrelation gefunden wurde, und hierfür die Entfernung des Ziels von den Bildsensoren ermittelt wird.
Nun befinden sich jedoch außer dem Meßziel meistens noch andere Objekte innerhalb des Gesichtsfeldes der Bildsensoren, das zur Ermittlung des Ziels und zur Messung der Entfernung zu dem Ziel verwendet wird. Daher können Fehler bei der Entfernungsmessung für die einzelnen Teilgesichtsfelder auftreten, was den Erhalt einer guten Korrelation bei der Prüfung von Bildpaa­ ren für jedes Teilgesichtsfeld behindert.
Entfernungen zu Objekten, die in dem Gesichtsfeld vorhanden sind, unterscheiden sich oft von der zu messenden Entfernung zu dem Ziel, so daß eine Unterscheidung des Ziels von anderen Objekten zweckmäßig ist.
Wenn jedoch ein Objekt, das eine andere Entfernung als das Meßziel aufweist bzw. für das eine Parallaxe zwischen dem Bildsensorpaar besteht, in dem Gesichtsfeld enthalten ist, in welchem das Ziel aufzunehmen ist, kann keine gute Korrelation zwischen Bildpaaren erhalten werden, was zu einer ungenauen Entfernungsmessung führt.
Dies soll kurz unter Bezugnahme auf Fig. 3 beschrieben werden. Das Bild innerhalb der Gesichts­ felder mehrerer Bildsensorpaare, das in dem Rahmen der Figur gezeigt ist, enthält ein Meßziel 1 (ein vorausfahrendes Fahrzeug) sowie Hintergrund und Landschaft, hier repräsentiert durch eine Straße RD, eine Leitplanke GR, ein Verkehrsschild RS, ein weiteres Fahrzeug Au, Bäume Tr, Pfosten Ps und einen Berg Mt sowie den Schatten Sh des Ziels 1 auf der Straße RD. Ein Teilgesichtsfeld, das das Ziel 1 innerhalb dieses Gesichtsfeldes aufnimmt, wird gewöhnlich als Teil des Gesichtsfeldes für jedes Bildsensorpaar eingestellt. Verschiedene Beispiele solcher Teilgesichtsfelder sind als Rechtecke dargestellt. In der Figur entsprechen Teilgesichtsfelder S1 bis S3 dem Fall, wo die Bildsensorpaare vertikal angeordnet sind, während sie im Fall der Teilgesichtsfelder S4 und S5 horizontal angeordnet sind.
S1 ist ein ideales Gesichtsfeld, das so eingestellt ist, daß es das gesamte Ziel 1 mit wenigen Störbildern enthält. Das heißt, mit diesem Teilgesichtsfeld kann das Verfahren A die Entfernung korrekt messen, während das Verfahren B eine gute Korrelation liefert. Das Teilgesichtsfeld S2 erfaßt einen Teil des Ziels 1, enthält aber Bilder des entgegenkommenden Fahrzeugs Au und des Berges Mt, die weiter entfernt von den Bildsensoren liegen. Daher wird das Verfahren A wahrscheinlich die Entfernungen zu diesen entfernteren Objekten messen. Da das Verfahren B die Korrelation auf der Annahme einer bestimmten Entfernung bestimmt, kann eine gute Korrelation erhalten werden, wenn die angenommene Entfernung der tatsächlichen Entfernung zum Ziel 1 nahekommt. Dagegen ist die Korrelation schlecht, wenn die Annahme falsch ist. Das Teilgesichtsfeld S3 erfaßt ein Teil des Ziels 1 und seinen Schatten Sh. Der Kontrast mit dem Schatten ist sehr hoch, so daß das Verfahren A wahrscheinlich die Entfernung zu dem Schatten Sh anstelle derjenigen zum Ziel 1 messen wird, während das Verfahren B eine schlechte Korrelation liefert, selbst wenn die Annahme ausreichend korrekt ist.
Das Teilgesichtsfeld S4 erfaßt das meiste von Ziel 1, wenngleich es an einem unterscheidungs­ kräftigen Bildmuster fehlt, wobei die Bilder der Straße RD und der Leitplanke GR zusätzlich enthalten sind. Somit wird das Verfahren A wegen der beigemischten Bilder wahrscheinlich falsche Entfernungen liefern, während das Verfahren B niedrige Korrelationswerte liefert, selbst wenn die Annahme korrekt ist. Das Teilgesichtsfeld S5 erfaßt das meiste des unterscheidungs­ kräftigen Musters des Ziels 1. Somit kann das Verfahren A, obwohl Bilder von Bäumen Tr und Pfosten Ps in das Gesichtsfeld eingemischt sind, die Entfernung korrekt messen, solange diese Bilder nahe bei dem Ziel 1 liegen. Trotz des inkorrekten Aufnehmens des Ziels 1 liefert Verfahren B eine gute Korrelation, wenn eine Entfernung richtig angenommen wurde, verhindert aber die richtige Ermittlung der Richtung, in der das Ziel 1 liegt.
Wie aus diesen Beispielen hervorgeht, können, wenn eine Richtung und Größe des Gesichtsfeld zur korrekten Aufnahme des Ziels eingestellt werden können, dessen Entfernung und Vorhan­ densein richtig erfaßt werden. Wenn sie so eingestellt sind, daß sie eine Vermischung mit Bildern nicht interessierender Objekte ermöglichen, insbesondere solcher in verschiedenen Entfernungen von den Bildsensoren, können die Entfernung und die Richtung des Ziels nicht genau bestimmt werden. Jedoch werden die Entfernung und die Richtung des Ziels tatsächlich aufgrund von Wahrnehmungsergebnissen bestimmt, die Fehler enthalten können, da es schwierig ist zu bestimmen, ob die Meßergebnisse richtig sind. Insbesondere für eine Kollisionsverhinderung ist eine automatische korrekte Zielaufnahme zur Berechnung von Entfernung und Richtung notwen­ dig.
Eine Aufgabe der vorliegenden Erfindung ist es, ein Verfahren zur Entfernungsmessung zu schaffen, das eine Beurteilung der Zuverlässigkeit der Meßergebnisse erlaubt, um Zielentfer­ nungs- und Präsenz-Berechnungen auf der Basis nur wirklich zuverlässiger Ergebnisse zu liefern.
Diese Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1 gelöst. Vorteilhafte Weiterbil­ dungen der Erfindung sind in den Unteransprüchen gekennzeichnet.
Bei der erfindungsgemäßen Lösung werden Größe und Richtung eines zur Aufnahme des Meßziels geeigneten Fenstergesichtsfeldes innerhalb des Aufnahmegesichtsfeldes der optischen Anordnung durch die Position der Fensterdatensätze innerhalb der Bilddatensätze und die Anzahl der Datenwerte in den Fensterdatensätzen eingestellt. Zur Ermittlung der Entfernung zu dem Meßziel werden die Fensterdatensätze jeweils in eine erste bzw. eine zweite Gruppe von Teildatensätzen unterteilt, wobei die Teildatensätze innerhalb jeder Gruppe von unterschiedlichen Positionen innerhalb des jeweiligen Fensterdatensatzes extrahiert werden. Aus den Teildatensät­ zen werden Teildatensatzpaare gebildet, wobei jedes Paar je einen Teildatensatz aus den beiden Gruppen enthält. Für jedes Teildatensatzpaar wird ein die Korrelation zwischen den beiden Teildatensätzen repräsentierender Korrelationswert ermittelt und das Teildatensatzpaar gesucht, für das sich der beste Korrelationswert, der der maximalen Korrelation entspricht, ergibt. Wenn innerhalb des untersuchten Fenstergesichtsfeldes außer dem Meßziel andere Objekte in anderen Entfernungen vorhanden sind, beeinflußt dies den Verlauf der ermittelten Korrelationswerte über der Teildatensatzpaarnummer. Die vorliegende Erfindung macht sich dies zunutze und führt eine Zuverlässigkeitsprüfung durch, mittels derer festgestellt wird, mit welchem Grad an Zuverlässig­ keit dasjenige Teildatensatzpaar, für das sich der beste Korrelationswert ergibt, für die Entfer­ nungsermittlung zu dem Meßziel herangezogen werden kann. Zu diesem Zweck wird auf der Basis der Änderungen der Korrelationswerte in der Umgebung des besten Korrelationswerts ein Genauigkeitswert berechnet und mit einem vorgegebenen Schwellenwert verglichen. Nur wenn der ermittelte Genauigkeitswert den Schwellenwert übersteigt, wird der ermittelte beste Korrelationswert als zuverlässig angesehen und die Entfernung anhand der Positionen der zu diesem besten Korrelationswert führenden Teildatensätze innerhalb der jeweiligen Fensterdaten­ sätze herangezogen.
Falls der ermittelte Genauigkeitswert den Schwellenwert nicht übersteigt, kann gemäß einer vorteilhaften Weiterbildung der Erfindung das Verfahren nach Änderung der Fenstereinstellung wiederholt werden, wobei die zuvor ermittelten Korrelationswerte, insbesondere deren Änderung im Bereich des besten Korrelationswerts als Anhaltspunkt für die neue Fenstereinstellung dienen.
Ausführungsbeispiele der Erfindung werden anhand der Zeichnungen näher erläutert. Es zeigen:
Fig. 1(a) ein Blockdiagramm zur Erläuterung eines Ausführungsbeispiels des Verfahrens gemäß der Erfindung,
Fig. 1(b) eine Darstellung zur Erläuterung der Unterteilung von Fensterdatensätzen in Teildaten­ sätze,
Fig. 1(c) eine Darstellung des Verlaufs eines Korrelationswerts,
Fig. 2(a) ein Flußdiagramm eines Beispiels zur Berechnung des Korrelationswerts,
Fig. 2(b) ein Flußdiagramm eines Beispiels eines Zuverlässigkeitsprüfverfahrens, und
Fig. 3 ein Beispiel eines Gesichtsfeldes mehrerer Bildsensorpaare und von Teilgesichtsfeldern, die innerhalb des Gesichtsfeldes eingestellt sind.
Fig. 1 zeigt eine allgemeine Übersicht über eine Anordnung zur Durchführung eines Ausfüh­ rungsbeispiels der Erfindung. Fig. 2 zeigt Flußdiagramme von Beispielen zur Berechnung eines Korrelationswerts bzw. zur Durchführung einer Zuverlässigkeitsprüfung.
Eine optische Anordnung 10 und eine Bildsensoranordnung 20, die im oberen Teil von Fig. 1(a) gezeigt sind, dienen dazu, ein Ziel 1, beispielsweise ein Automobil, in einem Gesichtsfeld S aufzunehmen. Das Ziel 1 ist hier rechts von der optischen Anordnung 10 dargestellt. Die optische Anordnung enthält zwei Linsen 11 und 12, die auf zwei Bildsensoren 21 und 22 der Bildsensoranordnung 20 über optische Wege L1 und L2 ein jeweiliges das Ziel 1 in dem Gesichtsfeld S enthaltendes Bild erzeugen. Die optischen Wege L1 und L2 sind in der Figur als abgebogene Linien dargestellt. Bei der praktischen Realisierung dieses Ausführungsbeispiels werden die Linsen 11 und 12 und die Bildsensoren 21 und 22 für das in der Figur gezeigte Gesichtsfeld S vertikal übereinander angeordnet, während sie in der Figur zur Erläuterungs­ zwecken horizontal nebeneinander angeordnet dargestellt sind. Um das Ziel 1 richtig aufzuneh­ men, muß das Gesichtsfeld S in einem Winkel O zur Vorderfläche der optischen Anordnung 10 bzw. zur Normalen auf dieser Vorderfläche positioniert sein, wie in der Figur dargestellt.
Die Bildsensoranordnung 20 enthält eine Signalverarbeitungs- und -umsetzungsschaltung 23. Diese empfängt nacheinander verstärkte Sensorsignale als analoge Signale von jedem der optischen Sensorelemente in den Bildsensoren 21 und 22, beispielsweise CCDs, und setzt die Signale in digitale Signale um, die dann als Sensordaten ausgegeben werden. Die Schaltung 23 kann für jeden Bildsensor 21 und 22 vorgesehen werden.
Ein Prozessor 70 lädt die Sensordaten nacheinander in einen Speicher 71, worin sie als Bild­ datensätze D1 und D2 gespeichert werden. Diese Bilddatensätze D1 und D2 repräsentieren Bildmuster innerhalb des von den Bildsensoren 21 und 22 gebotenen Gesichtsfeldes. In Fig. 1 ist der Prozessor 70 als strichpunktierter Block unterhalb der Bildsensoranordnung 20 dargestellt.
Bei dem in der Figur gezeigten Ausführungsbeispiel sind eine Anordnung 30 zur Berechnung eines Korrelationswerts und eine Anordnung 50 für eine Zuverlässigkeitsprüfung in Form entsprechender Softwareroutinen in dem Prozessor 70 implementiert.
Indem die Anordnung 30 gesondert von dem Prozessor 70 und unter Verwendung einer integrierten Schaltung, etwa eines Gatearrays, hardwaremäßig implementiert wird, können mehrere Paare von Bildsensoren 21 und 22 in der Bildsensoranordnung 20 eingesetzt werden, so daß mehrere Bildsensorpaare gleichzeitig betrieben werden können, um parallel einen Korrela­ tionswert für jedes Bildsensorpaar zu berechnen.
Bei dem in der Figur dargestellten Ausführungsbeispiel ist die im Prozessor 70 enthaltene Korrelationswert-Berechnungsroutine 30 mit einer Gesichtsfeldspezifikationsroutine 31 verbun­ den. In Reaktion auf Spezifikationsdaten SD extrahiert die Routine 31 aus den Bilddatensätzen D1 und D2 Fensterdatensätze WD1 und WD2, die der Richtung und Größe des Gesichtsfeldes S, in welchem das Ziel 1 aufzunehmen ist, entsprechen. In der Figur ist die Richtung des Gesichts­ feldes mit dem bereits erwähnten Winkel Θ bezeichnet, während seine Größe durch den Gesichtswinkel ϕ charakterisiert ist und die Fensterdatensätze WD1 und WD2 den schraffierten Teilen der Bilddatensätze D1 bzw. D2 entsprechen.
Die Korrelationswert-Berechnungsroutine 30, die aus den Fensterdatensätzen WD1 und WD2 einen Korrelationswert berechnet, wird nachfolgend unter Bezugnahme auf Fig. 1(b) beschrie­ ben.
Die Fensterdatensätze WD1 und WD2 werden in zwei Gruppen von Teildatensätzen d1 und d2 unterteilt, und zwar so, daß in jeder Gruppe die einzelnen Teildatensätze zunehmend gegenüber einer Referenzposition versetzt sind und mehrere Kombinationen oder Teildatensatzpaare Ck (0 k ke) gebildet werden, wie dies in der Figur dargestellt ist. Jedes Teildatensatzpaar enthält einen Teildatensatz d1, d2 aus jeder der beiden Gruppen. Es sei angenommen, daß die Fenster­ datensätze WD1 und WD2 jeweils m Sensordatenwerte aufweisen und jeder Teildatensatz d1, d2 in jeder der beiden Gruppen n Sensordatenwerte umfaßt, wobei n vorzugsweise in dem Bereich von m/2 bis 2m/3 eingestellt ist. Ferner wird vorzugsweise der Teildatensatz d1 des Teildatensatzpaares C₀ vom rechten Ende des Fensterdatensatzes WD1 extrahiert (d. h., das rechte Ende stellt die Referenzposition dar), während der zugehörige Teildatensatz d2 vom linken Ende des Fensterdatensatzes WD2 extrahiert wird (d. h., das linke Ende stellt die Referenzposi­ tion dar). Die nachfolgenden Teildatensätze sind vorzugsweise um einen Sensordatenwert bezogen auf den vorangehenden Teildatensatz verschoben.
Die Routine 30 prüft den Korrelationswert zwischen den Teildatensätzen d1 und d2 für jedes Teildatensatzpaar Ck, um so einen Korrelationswert Vk zu ermitteln. Dieser Korrelationswert Vk ist beispielsweise die Summe der Absolutwerte der Differenzen einander entsprechender Sensordatenwerte in den jeweiligen beiden Teildatensätzen d1 und d2. In diesem Fall nimmt der Korrelationswert Vk mit zunehmender Korrelation zwischen den Teildatensätzen d1 und d2 ab. Für jedes Teildatensatzpaar mit dem laufenden Index k wird der zugehörige Korrelationswerte Vk in einem Speicher 72 als gespeichert. Zugleich wird der kleinste aller Korrelationswerte als bester Korrelationswert Vs ermittelt und der Wert der Nummer k des zugehörigen Teildatensatzpaares als Versatzwert s ebenfalls gespeichert. Da für jedes Teildatensatzpaar der Versatz seiner beiden Teildatensätze relativ zum jeweiligen Bezugspunkt im jeweiligen Fensterdatensatz festliegt, kann der Versatzwert s als Maß für die Position (den Versatz) der Teildatensätze, die die größte Korrelation aufweisen, innerhalb des jeweiligen Fensaterdatensatzes angesehen werden.
Die Zuverlässigkeitsprüfroutine 50 empfängt die Vielzahl von Korrelationswerten Vk und bestimmt als Zuverlässigkeitsmaß des besten Korrelationswerts Vs, der die maximale Korrelation repräsentiert, einen Genauigkeitswert auf der Basis von Zustandsänderungen des Korrelations­ werts Vk nahe dem Versatzwert k=s. Der den Zuverlässigkeitsgrad repräsentierende Genauig­ keitswert ist vorzugsweise der Mittelwert der Neigungen, die von mehreren (beispielsweise zwei) Korrelationswerten Vk vor und nach dem besten Korrelationswert Vs definiert werden, oder die schwächere der Neigungen auf beiden Seiten des besten Korrelationswert Vs. Dies soll anhand von Fig. 1(c) verdeutlicht werden.
Auf der Abszisse in Fig. 1(c) ist die Nummer k der Teildatensatzpaare aufgetragen, während auf der Ordinate der jeweils zugehörige Korrelationswert Vk aufgetragen ist. Die Abhängigkeit des Korrelationswerts Vk von der Nummer k ist im allgemeinen eine komplexe Funktion. Zur Verein­ fachung der Erläuterung zeigt die Figur lediglich Änderungen des Korrelationswert Vk in de Umgebung des besten Korrelationswerts Vs. Bei dem in der Figur dargestellten Beispiel ist der Korrelationswert als Summe der Absolutwerte der Differenzen zwischen einander entsprechen­ den Sensordatenwerten der beiden Teildatensätze des jeweiligen Teildatensatzpaares berechnet, so daß der Wert der Nummer k=s, bei der der Korrelationswert Vk am kleinsten ist, den besten Korrelationswert Vs darstellt. Bei dem in der Figur gezeigten Beispiel ist der Genauigkeitswert als Maß der Zuverlässigkeit der Mittelwert der Neigung Φ⁺ auf der positiven Seite (k < s) und Φ⁻ auf der negativen Seite (k<s), bestimmt von den beiden Korrelationswerten Vk vor und nach dem Versatzwert s. Wenn die Neigungen auf beiden Seiten des besten Korrelationswerts deutlich verschieden sind, wird die schwächere der beiden Neigungen verwendet, so daß die Genauigkeit geringer erscheint. Im diesem Fall kann eine Korrektur erfolgen, damit der Mittelwert näher bei dem Wert der geringeren Neigung liegt.
Der auf diese Weise bestimmte Genauigkeitswert Φ hat jedoch die Tendenz mit zunehmendem Bildkontrast in dem Gesichtsfeld S zuzunehmen. Daher kann ein effektiver Genauigkeitswert Φe als Maß der Zuverlässigkeit eingesetzt werden, der nach Maßgabe eines den Kontrast repräsen­ tierenden Korrekturwerts C korrigiert wurde. Als Korrekturwert C kann die Summe der Absolut­ werte der Differenzen je zweier benachbarter Sensordatenwerte über alle Datenwerte im jeweiligen Fensterdatensatz WD1 und WD2 verwendet werden. Vorzugsweise wird der Mittel­ wert des für jedes Paar von Fensterdatensätzen ermittelten effektiven Genauigkeitswerts zur genaueren Berechnung der Entfernung bestimmt. Die Differenzwerte der Fensterdatensätze sind auch für die Berechnung des Korrelationswerts Vk nützlich. Empirisch gesehen ist es besser, den Korrelationswert Vk mittels der Korrelationswert-Berechnungsroutine 30 auf der Basis dieser Differenzwerte zu berechnen, statt die Datenwerte der Fensterdatensätze WD1 und WD2 selbst als Basis zu verwenden.
Das Verfahren des vorliegenden Ausführungsbeispiels stellt nur dann fest, daß ein Bild des Ziels 1 erfolgreich erfaßt wurde, wenn der Genauigkeitswert Φ oder der effektive Genauigkeitswert Φe, der in oben erwähnter Weise ermittelt wurde, einen vorbestimmten Wert ΦL übersteigt. In diesem Fall wurde das Ziel 1 innerhalb des Gesichtsfeldes S, das den Fensterdatensätzen entspricht, ermittelt, da der Genauigkeitswert anhand der Fensterdatensätze WD1 und WD2 ermittelt wurde und da der Winkel Θ, der die Richtung des Gesichtsfeldes S bezeichnet, und der Gesichtswinkel ϕ den Positionen, von denen die Fensterdatensätze WD1 und WD2 aus den Bilddatensätzen D1 und D2 extrahiert wurden, sowie der Anzahl von Sensordaten entsprechen. Darüber hinaus ist, wie aus Fig. 1(b) ersichtlich, der Versatzwert s derjenige Wert der Nummer k, der durch Verschieben der Teildatensätze d1 und d2 (Verschieben der Position in den Fensterda­ tensätzen WD1 und WD2, von wo die Teildatensätze extrahiert werden) in solcher Weise erhalten wurde, daß abhängig von der Parallaxe zwischen Bildern innerhalb des Gesichtsfeldes, das durch die Bildsensoren 21 und 22 aufgenommen wird, der beste Korrelationswert Vs erhalten werden kann. Das Maß σ für die Entfernung zu dem Ziel 1, das eingangs beschrieben wurde, läßt sich leicht anhand dieses Versatzwerts s berechnen.
Als nächstes wird ein spezielles Beispiel der Korrelationswert-Berechnungsroutine 30 und der Zuverlässigkeitsprüfroutine 50, die wie erwähnt beide als Software in dem Prozessor 70 implementiert sind, unter Bezugnahme auf die Fig. 2(a) und 2(b) beschrieben. Fig. 2(a) zeigt ein Flußdiagramm eines Beispiels der Verarbeitungsschritte der Routine 30 und Fig. 2(b) zeigt ein Flußdiagramm eines Beispiels der Verarbeitungsschritte der Routine 50. Bei dem Beispiel der Routine 30 in Fig. 2(a) werden die Differenzwerte der Fensterdatensätze als Basis für die Berechnung des Korrelationswerts Vk herangezogen, die laufende Datennummer im Fensterda­ tensatz WD1 und in den Teildatensätzen d1 ist mit i bezeichnet, diejenige im Fensterdatensatz WD2 und in den Teildatensätzen d2 mit j. Einander entsprechende Sensordaten werden als Di bzw. Dj bezeichnet.
In einem ersten Schritt S31 der Routine 30 werden die internen Datennummern i und j der Fensterdatensätze WD1 und WD2 auf 1 initialisiert. Beim nachfolgenden Schritt S32 werden Differenzwerte S und S der Fensterdatensätze als Differenzen Di+1 - Di bzw. Dj+1 - Dj berechnet. Unter der Annahme, daß die Fensterdatensätze je m Daten enthalten, wird im Schritt S33 die Datennummer i mit m-1 verglichen. Wenn i kleiner als m-1 ist, werden die Datennummern i und j im Schritt S34 um 1 inkrementiert, und die Prozedur kehrt zum Schritt S32 zurück. Nachdem alle Differenzwerte berechnet wurden, wird diese Schleife im Schritt S33 verlassen. Da die Berech­ nung der Differenzwerte Si und Sj beendet ist, wird im Schritt S35 der Wert von m durch m-I ersetzt, und die Prozedur geht dann zur Vorbereitung der nächsten Schritte zum Schritt S36 weiter.
Im Schritt S36 wird der Endwert ke für die Nummer k des Teildatensatzpaares eingestellt. Der Endwert ke kann 2(m-n) betragen, wenn n die Anzahl von Daten in jedem Teildatensatz ist. Die Nummer k wird dann auf Null initialisiert.
Als nächstes werden im Schritt S36 die Startdatennummern is und is für die Teildatensätze d1 und d2 für das erste Teildatensatzpaar Ck=o eingestellt. Wie aus Fig. 1(b) ersichtlich, gilt is = m- n + 1 und js = 1. Dann wird ein ausreichend großer Wert Vm als anfänglicher bester Korrela­ tionswert Vs eingestellt, und ein Schaltflag SF zur Betriebsumschaltung wird auf 1 gesetzt. Die Prozedur berechnet dann den Korrelationswert Vk für das Teildatensatzpaar der Nummer k.
Im Schritt S37 wird eine Korrelationswertvariable V auf 0 gesetzt, die Datennummern i und j werden zu is bzw. js initialisiert, und ein Endwert ie für die Datennummer i wird eingestellt. Der Endwert ie kann is+n-1 betragen. Anschließend werden im Schritt S38 Korrelationswerte berechnet, wozu der Absolutwert der Differenz zwischen den Differenzwerten Si und Sj zu der Korrelationswertvariablen V addiert wird. Wenn im nachfolgenden Schritt S39 festgestellt wird, daß die Datennummer i noch nicht den Endwert ie erreicht hat, werden die Datennummern i und j im Schritt S40 je um 1 inkrementiert, und die Prozedur kehrt zum Schritt S38 zurück. Wenn die Datennummer i schließlich den Endwert ie erreicht hat und der Ablauf vom Schritt S39 zum Schritt S41 übergeht, wurde der Korrelationswert V für das Teildatensatzpaar der Nummer k berechnet und als k-ter Korrelationswert Vk im Speicher 72 gespeichert. Im Schritt S42 wird dieser Korrelationswert Vk mit dem besten Korrelationswert Vs verglichen. Wenn Vk größer ist, wird es direkt gespeichert. Andernfalls wird im Schritt S43 der momentane Wert der Nummer k als Versatzwert s, der dem besten Korrelationswert entspricht, gespeichert, bevor der Ablauf zum Schritt S44 weitergeht.
Im Schritt S44 wird die Nummer k mit ihrem Endwert ke verglichen, um festzustellen, ob k kleiner als ke ist. Da das Ergebnis anfänglich positiv ist, geht der Ablauf zum Schritt S45 weiter, um zu prüfen, ob das Schaltflag SF positiv ist. Da das Schaltflag SF im Schritt S36 auf 1 gesetzt wurde, ist das Ergebnis anfänglich positiv, weshalb im Schritt S46 die Startdatennummer is für den Teildatensatz d1 um 1 verringert wird, so daß der Teildatensatz um einen Datenwert nach links verschoben wird, wie in Fig. 1(b) gezeigt. Im nachfolgenden Schritt S48 wird das Vorzei­ chen des Schaltflags SF umgeschaltet und die Nummer k erhöht. Dann geht der Ablauf zum Schritt S37 zurück, um den Korrelationswert Vk für die neue Nummer k zu berechnen. Wenn diese Berechnung abgeschlossen ist, geht der Ablauf zum Schritt S45 weiter. Da das Schaltflag SF auf einen negativen Wert gesetzt wurde, ist das Ergebnis der Prüfung negativ, und im Schritt S47 wird die Startdatennummer js für den Teildatensatz d2 um 1 erhöht und somit nach rechts verschoben. Der Ablauf geht dann zum Schritt S48 weiter.
In den nachfolgenden Schritten wird derselbe Vorgang wiederholt, wobei der Korrelationswert Vk nach jeweiligem Inkrementieren der Nummer k berechnet wird. Wenn die Nummer k ihren Endwert ke erreicht hat, wird die Schleife im Schritt S44 verlassen, womit die Korrelationswert- Berechnungsroutine 30 beendet ist. In diesem Moment sind 2(m-n)+1 Korrelationswerte Vk für die Datensatzpaare C₀ bis Cke in Fig. 1(b) im Speicher 72 des Prozessors 70 in Fig. 1(a) gespei­ chert, und der Versatzwert s, der dem besten Korrelationswert entspricht (wie in Fig. 1(c) gezeigt), ist ebenfalls darin gespeichert. Obwohl die oben beschriebene Korrelationswert- Berechnungsroutine 30 die Differenzwerte Si und Sj verwendet, können die Schritte S31 bis S35 weggelassen werden, und der Absolutwert der Differenz zwischen Di und Dj statt dessen zur Berechnung des Korrelationswerts V im Schritt S38 benutzt werden, wenn die Sensordaten Dj und Dj selbst eingesetzt werden sollen.
Anhand des Flußdiagramms von Fig. 2(b) wird nun ein Beispiel der Zuverlässigkeitsprüfroutine 50 beschrieben. In den Schritten S51 bis S54 werden die negativseitige Neigung Φ⁻ und die positivseitige Neigung Φ⁺ als Maß der Genauigkeit der besten Korrelation auf der Basis der Vielzahl von Korrelationswerten Vk und des Versatzwerts s, die aus dem Speicher 72 ausgelesen werden, ermittelt, wie unter Bezugnahme auf Fig. 1(c) beschrieben. Im Schritt S51 wird Φ⁻ aus Vk=s-2 - Vk=s-1 berechnet und im Schritt S52 geprüft, ob es positiv ist. Im Schritt S53 wird Φ⁺ aus Vk=s+2 - Vk=s+1 berechnet und im Schritt S54 geprüft, ob es positiv ist. Wenn sich bei beiden Schritten S52 und S54 ein positives Ergebnis ergibt, dann wird bezogen auf das in der Figur gezeigte Beispiel die mittlere Neigung Φav zwischen der negativseitigen Neigung Φ⁻ und der positivseitigen Neigung Φ⁺ im Schritt S55 ermittelt.
Im nachfolgenden Schritt S56 werden die Größen der negativseitigen Neigung Φ⁻ und der positivseitigen Neigung Φ⁺ verglichen. Wenn die negativseitige Neigung Φ⁻ größer als die positivseitige Neigung Φ⁺ ist, wird der Neigungsmittelwert Φav im Schritt S57 mit Φ⁺/Φ⁻ multipliziert. Andernfalls wird der Neigungsmittelwert im Schritt S58 mit Φ⁻/Φ⁺ multipliziert. Auf diese Weise erfolgt eine Korrektur, durch die der Neigungsmittelwert Φav näher bei der schwä­ cheren der beiden Neigungen liegt. Die resultierende Neigung wird als Genauigkeitswert Φ verwendet, insbesondere, wenn die Neigungen Φ⁻ und Φ⁺ deutlich asymmetrisch sind.
Bei dem gegebenen Beispiel wird der Genauigkeitswert Φ noch nach Maßgabe des Bildkontrasts innerhalb des Gesichtsfeldes S korrigiert. Der Kontrast ist der Helligkeitsbereich innerhalb eines Bildmusters. Dazu wird im nachfolgenden Schritt S59 ein den Kontrast repräsentierender Korrekturwert C als Mittelwert der Summe der Absolutwerte der m Differenzdaten Si und Sj, die dem Fenster entsprechen, gebildet, wie durch das Summenzeichen Σ in der Figur angedeutet. Beim dargestellten Ausführungsbeispiel wird der Genauigkeitswert dann durch den Korrekturwert C geteilt, was einen effektiven Genauigkeitswert Φe ergibt. Die Korrektur des Genauigkeitswerts Φ mit dem Korrekturwert C kann auf verschiedenste Weisen erfolgen.
Im Schritt S60 wird festgestellt, ob der effektive Genauigkeitswert Φe größer als ein vorgegebe­ ner Grenzwert ΦL ist. Falls ja, wird im Schritt S61 das Entfernungsmaß σ des Ziels 1 aus dem Versatzwert s berechnet. Das Maß σ ist eine einfache lineare Funktion, die von der Anzahl m der Sensordaten im Fenster (der Fensterbreite) und der Anzahl n von Sensordaten in den Teildaten­ sätzen abhängt, so daß es sehr einfach berechnet werden kann. Wenn das Ergebnis der Entscheidung im Schritt S60, S52 oder S54 negativ ist, wird das Maß σ auf einen Wert σf gesetzt, der deutlich anzeigt, daß die Erfassung des Ziels 1 fehlgeschlagen ist (Schritt S62). In dem auf die Schritte S61 und S62 folgenden Schritt S63 wird das Maß σ der Entfernung als Abschluß der Zuverlässigkeitsprüfroutine 50 ausgegeben.
Die Ergebnisse der Erfassung des Ziels 1, deren Zuverlässigkeit bewertet wurde, können von der Gesichtsfeldspezifikationsroutine 31 dazu verwendet werden, ein gewünschtes Gesichtsfeld S vorzugeben. Wenn beispielsweise der ermittelte Genauigkeitswert nicht den Wert ΦL übersteigt, können Richtung und/oder Größe des Fensters bzw. des Gesichtsfelds S, in dem das Ziel 1 richtig aufgenommen werden kann, geändert und das beschriebene Verfahren wiederholt werden. Dabei können die zuvor ermittelten Korrelationswerte Vk, insbesondere der effektive Genauigkeitswert Φe bzw. die ermittelten Neigungen wirkungsvoll als Richtlinie dienen.
Wie oben beschrieben, empfängt gemäß der vorliegenden Erfindung die Bildsensoranordnung von der optischen Anordnung Bilder zur Erzeugung eines Bildmuster repräsentierenden Bildpaares auf einem Bildsensorpaar. Die Korrelationswert-Berechnungsroutine extrahiert Gruppen von Teilda­ tensätzen aus den Fensterdatensätzen, die dem Gesichtsfeld entsprechen, in welchem das Ziel in jedem Bilddatensatz aufzunehmen ist, wobei die Position des Teildatensatzes nacheinander verschoben wird, und berechnet einen Korrelationswert für jede Kombination von Teildatensät­ zen. Die Zuverlässigkeitsprüfroutine berechnet die Genauigkeit der besten Korrelation als Maß der Zuverlässigkeit auf der Basis von Änderungszuständen des Korrelationswerts nahe dem besten Korrelationswert und entscheidet, daß das Ziel in dem Gesichtsfeld vorhanden ist, nur dann, wenn die Genauigkeit einen voreingestellten Wert übersteigt. Die Entfernung zu dem Ziel wird dann berechnet. Diese Konfiguration schließt fehlerhafte Meßergebnisse aus, die durch die Vermischung mit Bildern anderer Objekte anderer Entfernungen als das Ziel verursacht werden könnten, um eine genaue Berechnung der Entfernung zu dem Ziel zu ermöglichen. Das Zuverläs­ sigkeitsmaß kann zur Einstellung eines Gesichtsfeldes verwendet werden, in welchem das Ziel richtig aufgenommen werden kann.
Als Zuverlässigkeitsmaß verwendet das beschriebene Ausführungsbeispiel den Mittelwert der Neigungen einer Vielzahl von Korrelationswerten vor und nach dem Punkt der besten Korrelation. Der Vorteil dieses Verfahrens besteht darin, daß eine akkurate Genauigkeit leicht berechnet werden kann. Ausführungsbeispiele der Erfindung, die die schwächere der Neigungen zu beiden Seiten des Punkts bester Korrelation verwenden und die einen Korrekturwert bilden, damit der Mittelwert der beiden Neigungen näher bei dem Wert der schwächeren Neigung liegt, können präzise Bewertungskriterien für die Zuverlässigkeit liefern und fehlerhafte Meßergebnisse ausschließen.
Ein Ausführungsbeispiel der Erfindung, bei dem eine Korrektur abhängig von den Kontrastwerten der Bilder innerhalb des Gesichtsfeldes erfolgt, zeichnet sich dadurch aus, daß es ein angemes­ seneres Maß als das oben beschriebene zur Bewertung der Zuverlässigkeit der Meßergebnisse verwendet. Ein Ausführungsbeispiel, das die Summe der Absolutwerte von Differenzwerten für die Daten des Fensterteils als Kontrastwerte zur Korrektur verwendet, ermöglicht die Erzielung genauerer Kontrastwerte durch einfache Berechnungen. Darüber hinaus liefert das Ausführungs­ beispiel, bei dem die Berechnung der Korrelationswerte auf Differenzwerten, die zur Berechnung von Kontrastwerten benutzt werden, basiert, oft genauere Meßergebnisse als dies der Fall ist, wenn für die Berechnung der Korrelationswerte die ursprünglichen Daten des Fensterteils benutzt werden.

Claims (8)

1. Verfahren zur Messung der Entfernung zwischen einer Meßvorrichtung und einem Meßziel, bei dem auf zwei Bildsensoren (21, 22) der Meßvorrichtung über einen jeweiligen zweier verschiedener optischer Wege Abbildungen eines Aufnahmegesichtsfeldes erzeugt und von den Bildsensoren je ein dem Bildmuster der jeweiligen Abbildung entsprechender Bilddaten­ satz (D1, D2) ausgegeben wird, umfassend die Schritte:
  • (a) Einstellen eines Fensters innerhalb des Aufnahmegesichtfeldes, in welchem das Meßziel vorhanden ist oder vermutet wird,
  • (b) Extrahieren eines jeweiligen, dem eingestellten Fenster entsprechenden Fensterda­ tensatzes (WD1, WD2) aus jedem der Bilddatensätze,
  • (c) Unterteilen jedes der beiden Fensterdatensätze (WD1, WD2) in mehrere sukzessive innerhalb des Fensterdatensatzes in der Position verschobene Teildatensätze (d1, d2) und Bilden mehrerer Teildatensatzpaare(C₀-Cke), von denen jedes einen Teildatensatz aus jedem der beiden Fensterdatensätze (WD1, WD2) enthält,
  • (d) Berechnen eines die Korrelation zwischen den beiden Teildatensätzen (d1, d2) jedes Teildatensatzpaares (C₀-Cke) repräsentierenden Korrelationswerts (Vk),
  • (e) Ermitteln desjenigen der für die einzelnen Teildatensatzpaare (C₀-Cke) erhaltenen Korrelationswerte (Vk), der die größte Korrelation repräsentiert, als besten Korrelationswert (Vs),
  • (f) Ermitteln eines die Zuverlässigkeit des besten Korrelationswerts (Vs) repräsentieren­ den Genauigkeitswerts (Φ, Φe) anhand des Grads der Änderungen der Korrelationswerte (Vk) in der Umgebung des besten Korrelationswerts (Vs), und
  • (g) Berechnen der Entfernung zu dem Meßziel auf der Grundlage der Position jedes Teildatensatzes (d1, d2) desjenigen Teildatensatzpaares (Cs), das dem besten Korrelationswert (Vs) entspricht, innerhalb des jeweiligen Fensterdatensatzes, wenn der Genauigkeitswerts (Φ, Φe) einen vorgegebenen Wert (ΦL) übersteigt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Genauigkeitswert der Mittelwert (Φav) der Neigungen berechnet wird, die von mehreren Korrelationswerten (Vk) zu beiden Seiten des besten Korrelationswerts (Vs) definiert werden.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß als Genauigkeitswert die schwächere der Neigungen (Φ⁺, Φ⁻) berechnet wird, die von mehreren Korrelationswerten (Vk) zu beiden Seiten des besten Korrelationswerts (Vs) definiert werden.
4. Verfahren nach einem der vorhergehenden Ansprüche, ferner gekennzeichnet durch einen Schritt der Korrektur des Genauigkeitswerts (Φ) nach Maßgabe eines aus den Fensterda­ tensätzen (WD1, WD2) errechneten, den Bildkontrast repräsentierenden Korrekturwerts (C).
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß als Korrekturwert (C) die Summe der Absolutwerte der Differenzen (Si, Sj) zwischen jeweils zwei benachbarten Datenwer­ ten (Di, Di+1, Dj, Dj+1) wenigstens eines der Fensterdatensätze (WD1, WD2) errechnet wird.
6. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß als Korrekturwert (C) der Mittelwert der für die beiden Fensterdatensätze (WD1, WD2) gesondert errechneten Summen der Absolutwerte der Differenzen (Si, Sj) zwischen jeweils zwei benachbarten Datenwerten (Di, Di+1, Dj, Dj+1) des jeweiligen Fensterdatensatzes (WD1, WD2) errechnet wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß Schritt (b) das Bilden eines jeweiligen modifizierten Fensterdatensatzes aus den beiden Fensterdatensätzen (WD1, WD2) umfaßt, wobei jeder modifizierte Fensterdatensatz die Differen­ zen (Si, Sj) zwischen jeweils zwei benachbarten Datenwerten (Di, Di+1, Dj, Dj+1) des jeweiligen Fensterdatensatzes enthält, und in Schritt (c) die Teildatensätze (d1, d2) von den modifizierten Fensterdatensätzen gebildet werden.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß, falls im Schritt (g) der Genauigkeitswert (Φ, Φe) den vorgegebenen Wert (ΦL) nicht übersteigt, die Schritte (a) bis (g) wiederholt werden, wobei im Schritt (a) die Richtung und Größe des Fensters nach Maßgabe der zuvor ermittelten Korrelationswerte (Vk) eingestellt werden.
DE19732883A 1996-08-06 1997-07-30 Verfahren zur Entfernungsmessung unter Verwendung von Bildern Ceased DE19732883A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20668796A JP3216792B2 (ja) 1996-08-06 1996-08-06 映像による距離検出方法

Publications (1)

Publication Number Publication Date
DE19732883A1 true DE19732883A1 (de) 1998-02-12

Family

ID=16527458

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19732883A Ceased DE19732883A1 (de) 1996-08-06 1997-07-30 Verfahren zur Entfernungsmessung unter Verwendung von Bildern

Country Status (4)

Country Link
US (1) US6021209A (de)
JP (1) JP3216792B2 (de)
KR (1) KR100525931B1 (de)
DE (1) DE19732883A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7471809B2 (en) 2003-01-31 2008-12-30 Seiko Epson Corporation Method, apparatus, and program for processing stereo image

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3216792B2 (ja) * 1996-08-06 2001-10-09 富士電機株式会社 映像による距離検出方法
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6675121B1 (en) * 1999-07-06 2004-01-06 Larry C. Hardin Velocity measuring system
US20070162248A1 (en) * 1999-07-06 2007-07-12 Hardin Larry C Optical system for detecting intruders
JP4097869B2 (ja) * 2000-01-17 2008-06-11 日本放送協会 画像の対応点信頼度推定装置と対応点探索装置
US6317691B1 (en) * 2000-02-16 2001-11-13 Hrl Laboratories, Llc Collision avoidance system utilizing machine vision taillight tracking
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
JP2002350129A (ja) * 2001-05-23 2002-12-04 Canon Inc 計測装置
US7262798B2 (en) * 2001-09-17 2007-08-28 Hewlett-Packard Development Company, L.P. System and method for simulating fill flash in photography
US7221777B2 (en) * 2002-07-02 2007-05-22 Honda Giken Kogyo Kabushiki Kaisha Image analysis device
EP1391778A1 (de) * 2002-08-08 2004-02-25 Seiko Precision Inc. Apparat zur Bestimmung des Neigungswinkels eines Projektionsschirmes und einen Projektor, der diesen Apparat beinhaltet
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP2007139756A (ja) * 2005-10-17 2007-06-07 Ricoh Co Ltd 相対位置検出装置、回転体走行検出装置及び画像形成装置
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
US20090005948A1 (en) * 2007-06-28 2009-01-01 Faroog Abdel-Kareem Ibrahim Low speed follow operation and control strategy
JP5544497B2 (ja) * 2012-03-13 2014-07-09 株式会社モルフォ 画像処理装置、画像処理方法及び画像処理プログラム
US10498948B1 (en) 2018-06-05 2019-12-03 Applied Materials, Inc. Methods and apparatus for absolute and relative depth measurements using camera focus distance

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4561749A (en) * 1983-02-02 1985-12-31 Nippon Kogaku K.K. Focus detection apparatus
US4969036A (en) * 1989-03-31 1990-11-06 Bir Bhanu System for computing the self-motion of moving images devices
JP2676953B2 (ja) * 1989-10-27 1997-11-17 富士電機株式会社 映像位置検出装置
JP2676985B2 (ja) * 1990-06-26 1997-11-17 富士電機株式会社 光学器械の対象検出方式
JPH0588077A (ja) * 1991-06-20 1993-04-09 Fuji Photo Film Co Ltd 距離検出装置および方法
JPH0546386A (ja) * 1991-08-13 1993-02-26 Hitachi Ltd データプロセツサ
US5422828A (en) * 1991-12-18 1995-06-06 Choate; William C. Method and system for image-sequence-based target tracking and range estimation
JP3343697B2 (ja) * 1992-12-31 2002-11-11 株式会社リコー 合焦状態又は被写体距離検出装置
JP3197979B2 (ja) * 1993-04-19 2001-08-13 富士フイルムマイクロデバイス株式会社 位相差距離検出装置および方法
US5487116A (en) * 1993-05-25 1996-01-23 Matsushita Electric Industrial Co., Ltd. Vehicle recognition apparatus
US5586063A (en) * 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
JPH0771916A (ja) * 1993-09-06 1995-03-17 Fuji Film Micro Device Kk 車載用距離計測装置
JP3059035B2 (ja) * 1993-12-14 2000-07-04 三菱電機株式会社 距離測定装置
JPH07306038A (ja) * 1994-05-13 1995-11-21 Nippon Soken Inc 距離測定装置
JPH0894916A (ja) * 1994-09-28 1996-04-12 Nikon Corp 焦点検出装置
JP3216792B2 (ja) * 1996-08-06 2001-10-09 富士電機株式会社 映像による距離検出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7471809B2 (en) 2003-01-31 2008-12-30 Seiko Epson Corporation Method, apparatus, and program for processing stereo image

Also Published As

Publication number Publication date
JPH1047955A (ja) 1998-02-20
US6021209A (en) 2000-02-01
JP3216792B2 (ja) 2001-10-09
KR19980018429A (ko) 1998-06-05
KR100525931B1 (ko) 2005-12-26

Similar Documents

Publication Publication Date Title
DE19732883A1 (de) Verfahren zur Entfernungsmessung unter Verwendung von Bildern
DE2922080C2 (de) Entfernungsmeßeinrichtung
DE3735091C2 (de)
DE3612233C2 (de)
EP0023574B1 (de) Opto-elektronisches Prüfsystem zur automatischen Beschaffenheitsprüfung von Leiterplatten, deren Zwischenprodukte und Druckwerkzeuge
DE4444593C2 (de) Entfernungsmeßvorrichtung
CH651408A5 (de) Optische dokumentenpruefeinrichtung zum erfassen von fehldrucken.
DE2948752A1 (de) Scharfeinstellungs-ermittlungssystem
DE102006057552A1 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
DE2439913A1 (de) Vorrichtung zum lesen kodierter informationen
DE102007004632A1 (de) Verfahren zur Erfassung eines Gegenstands und optoelektronische Vorrichtung
DE2501373B2 (de) Anordnung zur Winkel- oder Längenmessung
DE3732459C2 (de)
DE1922301B2 (de) Schaltungsanordnung zum ermitteln von amplitudenaenderungen eines videosignals
DE69531510T2 (de) Verfahren und Vorrichtung zur Bewegungsschätzung mittels Blockübereinstimmung
DE102020206006A1 (de) Verfahren zum Kalibrieren und/oder Justieren und Steuereinheit für ein LiDAR-System, LiDAR-System und Arbeitsvorrichtung
EP0365786A1 (de) Verfahren zur Bestimmung der Übertragungsfunktion einer Videokamera
CH680950A5 (de)
DE2106035C3 (de) Vorrichtung zur Überprüfung der Formübereinstimmung eines elektromagnetisch erzeugten Objektbildes mit einem vorgegebenen Schema
DE102019121544A1 (de) Zieldetektionsvorrichtung und zieldetektionsverfahren
DE102019212022B4 (de) Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
DE102019008369B4 (de) Verfahren zur Kalibrierung eines distanzmessenden Sensors eines Fahrzeugs
DE3902503C2 (de)
DE3232833C2 (de)
DE3824092C2 (de)

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8131 Rejection