DE60308782T2 - Vorrichtung und Methode zur Hinderniserkennung - Google Patents

Vorrichtung und Methode zur Hinderniserkennung Download PDF

Info

Publication number
DE60308782T2
DE60308782T2 DE60308782T DE60308782T DE60308782T2 DE 60308782 T2 DE60308782 T2 DE 60308782T2 DE 60308782 T DE60308782 T DE 60308782T DE 60308782 T DE60308782 T DE 60308782T DE 60308782 T2 DE60308782 T2 DE 60308782T2
Authority
DE
Germany
Prior art keywords
degree
obstacle
detection
image
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60308782T
Other languages
English (en)
Other versions
DE60308782D1 (de
Inventor
Hiroaki Nakai
Hiroshi Hattori
Nobuyuki Takeda
Kazunori Onoguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of DE60308782D1 publication Critical patent/DE60308782D1/de
Publication of DE60308782T2 publication Critical patent/DE60308782T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

  • HINTERGRUND DER ERFINDUNG GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft eine Hinderniserkennungsvorrichtung zum Erkennen von Hindernissen auf einer Straße, ohne diese mit Texturen bzw. Strukturen zu verwechseln, unter Verwendung einer Vielzahl von in einem Fahrzeug angeordneten oder über der Straße vorgesehenen Kameras, und ein für die Vorrichtung angewendetes Verfahren. Die Hindernisse sind hierbei solche, die sich auf der Straße befinden, zum Beispiel andere vorausfahrende Fahrzeuge, geparkte Fahrzeuge und Fußgänger. Die Strukturen sind u. a. weiße Linien, Verkehrszeichen, Farbe, Straßenverfärbungen und Schatten von Objekten am Straßenrand, die alle die Fahrt des Fahrzeugs nicht behindern. Die Kameras sind hauptsächlich zur Unterstützung des sicheren Fahrens und zur Realisierung des automatischen Fahrens des Fahrzeugs oder zum Zählen der Anzahl der auf der Straße vorbeifahrenden Fahrzeuge oder zur Beobachtung der Fahrt dieser vorbeifahrenden Fahrzeuge vorgesehen. Hinderniserkennung ist auch dann möglich, wenn sich die Beziehung zwischen der Straßenebene und den entsprechenden Kameras in der relativen Position oder Ausrichtung ständig ändert, zum Beispiel durch Kameraerschütterung oder eine Änderung in der Straßenneigung.
  • BESCHREIBUNG DES STANDES DER TECHNIK
  • Ein Verfahren zum Erkennen von Hindernissen auf Straßen wird in zwei Typen unterteilt: eines ist ein Typ, der aktive Sensoren verwendet, deren typische Vertreter Schallortungsgeräte, Radar und Entfernungsmeßgeräte sind; und das andere ist ein Typ, der passive Sensoren verwendet, deren typische Vertreter CCD-Kameras für sichtbares Licht und Infrarotkameras sind.
  • Die aktiven Sensoren sind zum Messen von Objektpositionen in verschiedenen Anwendungen verbreitet und für ihre Verwendbarkeit bekannt. Die aktiven Sensoren haben jedoch Probleme mit der Anwendung zur Erkennung von auf der Fahrstrecke auf den Straßen befindlichen Hindernissen, zum Beispiel weitere Fahrzeuge. Die Probleme sind insbesondere einer zu geringen Auflösung, einer nicht ausreichenden Reichweite, fehlerhafter Erkennung von Nicht-Hindernissen auf den Straßen und fehlerhafter Erkennung von Objekten zuzuordnen, die sich auf der nicht störenden Straßenseite befinden, bedingt durch mangelndes Fahrstreifenerkennungsvermögen. Daher besteht Bedarf an einer hochentwickelten Hinderniserkennungstechnologie durch Bildanalyse unter Verwendung der passiven Sensoren, beispielsweise CCD-Kameras.
  • Um auf Fahrbahnen befindliche Hindernisse durch Analyse von Bildern zu erkennen, die beispielsweise von in Fahrzeugen angeordneten CCD-Kameras bereitgestellt werden, wird im allgemeinen Information über die Bildhelligkeitsgradstruktur oder zu diesem Zweck zu erkennenden Fahrstreifen genutzt. Was das Erkennen der Fahrstreifen betrifft, so ist das Ausschneiden von Teilen in Grauschattierungen mit geringerer Struktur aus mit einer Kamera aufgenommenen Bildern ausreichend.
  • Das Problem hierbei ist, daß viele Hindernisse in ihrem Bildhelligkeitsgrad oder in ihrer Bildhelligkeitsstruktur den Straßen tatsächlich ähnlich sind, was es schwierig macht, bessere Verwendbarkeit mit weniger Falscherkennung zu erreichen.
  • Es gibt einen weiteren Verfahrenstyp, der eine Vielzahl von Kameras zur Erkennung von Hindernissen und Fahrstreifen verwendet. Ein solches Verfahren wird im allgemeinen als ein stereoskopisches Verfahren bezeichnet.
  • Bei stereoskopischen Ansichten kann eine dreidimensionale (3D-)Information über einen Zielermittlungsbereich nach dem Triangulationsprinzip abgeleitet werden. Daher scheinen stereoskopische Ansichten eine Lösung zur Hindernis- und Fahrstreifenerkennung mit höherer Genauigkeit zu sein, aber sie bringen auch Probleme mit sich. Zum Beispiel kann eine Korrespondenzpunktsuche nicht eindeutig gelöst werden, und die Berechnungskosten sind ziemlich hoch. Diese Korrespondenzpunktsuche wird durchgeführt, um irgendeinen spezifischen Punkt bzw. irgendwelche spezifischen Punkte in der reellen Welt zu finden, die in einer Vielzahl von Kamerabildern gemeinsam vorkommen.
  • In dieser Hinsicht erfordern in Patentliteratur 1 (JP-A-2000-293693) und Patentliteratur 2 (JP-A-2001-76128) offenbarte Verfahren keine solche Korrespondenzpunktsuche und werden zur Hinderniserkennung als brauchbar betrachtet. Diese Verfahren werden unten beschrieben.
  • Wir nehmen nunmehr an, daß zwei Kameras, eine rechte und eine linke, bereitgestellt werden, um Bilder einer Straße aufzunehmen. Als Projektionspunkte, die ein Ergebnis des Projizierens von Punkten auf der Straßenebene auf von der rechten und linken Kamera aufgenommene Bilder sind, werden (u, v) und (u', v') angenommen, und ein Vergleichsausdruck 1 wird wie folgt aufgestellt:
    Figure 00020001
  • Die Gleichung 2 zeigt einen Parameter, der von den Positionen und Ausrichtungen der rechten und linken Kamera in bezug auf die Straßenebene, den Objektivbrennweiten der Kameras, Ursprungspunkten der Bilder und dergleichen abhängig ist. Der Parameter h kann im voraus nur durch Projektionspunkte (ui, vi) und (ui', vi') (i = 1, 2,... N) abgeleitet werden, die diejenigen sind, die durch Projizieren von vier oder mehr Punkten auf der Straßenebene auf das rechte und linke Bild abgeleitet werden. Bei einem solchen Vergleichsausdruck wird ein korrespondierender bzw. übereinstimmender Punkt P'(u', v') auf dem linken Bild auf der Grundlage der Annahme abgeleitet, daß sich ein beliebiger Punkt P(u, v) auf dem rechten Bild auf der Straßenebene befindet. Wenn sich der Punkt P tatsächlich auf der Straßenebene befindet, werden die Punkte P und P' als die richtigen Korrespondenzpunkte gepaart, was zu einer brauchbaren Übereinstimmung zwischen zwei Pixeln oder benachbarten Bereichen hinsichtlich des Helligkeitsgrades oder -merkmals führt. Wenn sich dagegen die Punkte P und P' im Helligkeitsgrad unterscheiden, wird der Punkt P als einem Hindernisbereich zugehörig bestimmt. Dieses Verfahren ermöglicht es, daß nur aus dem Vergleichsausdruck 1 unmittelbar bestimmt wird, ob ein beliebiger Punkt im Bild eine Höhe von der Straßenebene hat. Daher besteht keine Notwendigkeit zur Korrespondenzpunktsuche zwischen dem rechten und linken Bild.
  • Um ein solches Schema zur Erkennung von Hindernissen vor dem Fahrzeug anzuwenden, wird der Parameter h als ungefähr konstant angenommen, wenn das Fahrzeug mit geringer Geschwindigkeit auf einer ziemlich ebenen Straße fährt. Daher besteht keine Notwendigkeit, den Parameter h für eine richtige Hinderniserkennung zweimal zu berechnen.
  • Zur Korrespondenzermittlung wird hier der Betrieb eines dafür vorgesehenen Teils mit Bezug auf 3 bis 5 beschrieben.
  • Der Korrespondenzermittlungsteil wandelt ein von einer ersten Bildaufnahmevorrichtung aufgenommenes erstes Bild in ein von einem Standpunkt einer zweiten Bildaufnahmevorrichtung gesehenes Bild um. Ein für diese Umwandlung verwendeter Parameter wird so berechnet, daß eine typische geometrische Beziehung zwischen einer Vielzahl von Bildaufnahmevorrichtungen und der Straßenebene unter einer Annahme beibehalten wird, nämlich daß das Fahrzeug auf der neigungsfreien Straßenebene steht. Der Parameter wird nicht zweimal berechnet und während der Hinderniserkennung nicht geändert, zum Beispiel wenn das Fahrzeug in Bewegung ist.
  • Der Parameter wird auf Grundlage der Patentliteratur 1 berechnet und unten beschrieben.
  • Mit Bezug auf 3 werden zwei Kameras a und b aufgestellt. Die Fahrbahn hat zwei parallele weiße Linien 1 und 1', die sich ungefähr entlang der optischen Achsen der Kameras erstrecken. Die Hinderniserkennungsvorrichtung ist über die Beziehung zwischen den beiden Kameras a und b hinsichtlich Position und Ausrichtung nicht informiert, sondern nur über die epipolare Einschränkung. Während die Hinderniserkennungsvorrichtung in Betrieb ist, tritt vermutlich keine Änderung hinsichtlich der relativen Positionen und Ausrichtungen der Kameras a und b und der epipolaren Einschränkung ein. Hier bedeutet die epipolare Einschränkung eine Einschränkungsbedingung für stereoskopische Bilder eines allgemeinen Typs. Unter dieser Bedingung ist, wie in 4 gezeigt, der beliebige Punkt P auf dem von der Kamera a aufgenommenen Bild (rechtes Bild) so eingeschränkt, daß er sich auf einer vorbestimmten geraden Linie befindet, die den korrespondierenden Punkt P' in dem von der Kamera b aufgenommenen Bild (linkes Bild) einschließt. Diese gerade Linie wird als eine Epipolarlinie bezeichnet. Wenn beispielsweise die optischen Achsen der Kameras so angeordnet sind, daß sie zueinander parallel sind, wird der korrespondierende Punkt des beliebigen Punkts P im rechten Bild auf der gleichen Bildzeile im rechten Bild gefunden. Folglich stimmt die Epipolarlinie mit der Bildzeile überein. Die epipolare Einschränkung ist von der Beziehung zwischen den stereoskopischen Kameras in der relativen Position und Ausrichtung und von internen Parametern der Kameras, zum Beispiel der Objektivbrennweite, und dem Ursprungspunkt der Bilder abhängig. Daß die epipolare Einschränkung invariant ist, das bedeutet, daß die relative Positionsbeziehung zwischen den stereoskopischen Kameras und ihren internen Parametern keine Änderung aufweist (während die Hinderniserkennungsvorrichtung in Betrieb ist oder das Fahrzeug, in dem die Vorrichtung angeordnet ist, in Bewegung ist). Diese epipolare Einschränkung ist in der nachfolgenden Gleichung 3 formuliert. (u', v', 1)F(u', v', 1)T = 0 (3)
  • Hierin ist (u, v) der beliebige Punkt P auf dem rechten Bild und (u', v') ist der korrespondierende Punkt P auf dem linken Bild. F bezeichnet eine 3×3-Matrix und wird als Fundamentalmatrix bezeichnet. Die Erweiterung der Gleichung 3 führt zur nachfolgenden Gleichung 4. (F11u + F12v + F13)u' + (F21u + F22v + F23)v' + (F31u + F32v + F33) = 0 (4)
  • Hierin bezeichnet Fij (i, j = 1, 2, 3) ein Element der j Zeile(n) und i Spalte(n) der Matrix F und kann von einer Vielzahl von Korrespondenzpunkten abgeleitet werden. Ferner bezeichnet die Gleichung 4 eine Epipolarlinie, die mit dem Punkt P(u, v) auf dem rechten Bild übereinstimmt. Neun Elemente der Matrix F sind nicht alle unabhängig und theoretisch von sieben Korrespondenzpunkten ableitbar. Da eine 3D-Position für kein Korrespondenzpunktpaar erforderlich ist, ist die Berechnung der Matrix F, das heißt der epipolaren Einschränkung, ziemlich einfach. Die Linien 1 und 1' in jedem Bild sind dreidimensional parallel, allerdings nicht auf den von der rechten und linken Kamera aufgenommenen Bildern. Wie in 5 gezeigt, kreuzen die Linien 1 und 1' in jedem Bild einander in einem Punkt im Unendlichen, der als Verschwindungspunkt bezeichnet wird. Als nächstes wird eine Beziehung abgeleitet, die zwischen den Korrespondenzpunkten auf der Straßenebene hergestellt wird. Wie im rechten Bild von 5 gezeigt, sind P1 und P3 beliebige Punkte auf der geraden Linie 1, und P2 und P4 sind beliebige Punkte auf der geraden Linie 1'. Für diese vier Punkte können Korrespondenzpunkte P1', P2', P3' und P4' im linken Bild unter Verwendung der zuvor abgeleiteten epipolaren Einschränkung berechnet werden. Das heißt, der mit dem Punkt P1 korrespondierende Punkt P1' stimmt mit einem Schnittpunkt der geraden Linie 1 und der Epipolarlinie L1 des Punkts P1 auf dem linken Bild überein. Ebenso können die Punkte P2', P3' und P4' jeweils als Schnittpunkte der Epipolarlinien L2, L3 und L4 der Punkte P2, P3 und P4 und der geraden Linie 1 oder 1' abgeleitet werden. Wir nehmen an, daß (ui, vi) Koordinaten des Punkts Pi (i = 1, 2, 3, 4) sind und (ui', vi') Koordinaten des Punkts Pi' (i = 1, 2, 3, 4) sind. Die Beziehung zwischen den Koordinaten (ui, vi) und (ui', vi') kann durch einen Vergleichsausdruck 5 ausgedrückt werden.
  • Figure 00040001
  • Diese acht Gleichungen werden unter Verwendung der nachfolgenden Gleichung 6 gelöst. h = (h11, h12, h13, h21, h22, h23, h31, h32, h33) (6)
  • Wenn eine beliebige Lösung h die Gleichung 5 erfüllt, erfüllt auch ein konstantes Vielfaches kh von h (k ist konstant) die Gleichung 5. Keine Allgemeingültigkeit geht also bei h33 = 1 verloren, und acht Gleichungen führen zu dem aus neun Elementen bestehenden h. Unter Verwendung eines solchen abgeleiteten h kann der Korrespondenzpunkt P'(u', v') auf dem rechten Bild mit der nachfolgenden Gleichung 7 unter einer Annahme berechnet werden, nämlich daß sich der beliebige Punkt P(u, v) auf dem linken Bild auf der Straßenebene befindet.
  • Figure 00040002
  • Wenn bei den Verfahren in Patentliteratur 1 und 2 das Fahrzeug auf typischen Außenstraßen fährt, ändert sich die Beziehung zwischen der Straßenebene und den jeweiligen Kameras in der relativen Position und Ausrichtung kontinuierlich durch Erschütterungen, die an der Hinderniserkennungsvorrichtung auftreten, oder durch eine Änderung der Straßenneigung. Folglich bringen diese Verfahren durch Fahrzeugerschütterung bedingte Probleme mit sich, wie etwa häufige Falscherkennung, besonders im Umkreis der Struktur der Straßenebene, zum Beispiel weiße Linien, Verkehrszeichen, Farbe, Straßenverfärbungen, Schatten von Objekten und Fahrzeugen am Straßenrand und dergleichen.
  • Wie oben beschrieben, ist bei einer Hinderniserkennungsvorrichtung unter Verwendung von CCD-Kameras eines herkömmlichen Typs die Anwendungsumgebung begrenzt, oder die Beziehung zwischen der Straßenebene und den entsprechenden Kameras ändert sich ständig in der relativen Position und Ausrichtung durch Erschütterungen während des Betriebs der Vorrichtung oder der Fahrzeugfahrt. Infolgedessen tritt häufige Falscherkennung besonders im Umkreis der Struktur auf der Straßenebene, zum Beispiel weiße Linien, Verkehrszeichen, Farbe, Straßenverfärbungen, Schatten und dergleichen auf, wobei die Richtigerkennungsgenauigkeit der Hinderniserkennung erheblich verringert wird.
  • WO 98/20455 offenbart einen Objektdetektor zur Unterscheidung zwischen einem Hindernis und einer Fahrbahn durch Bestimmung der Position der ebenen Fahrbahn und Bestimmung der Höhe der Objekte auf der Straße.
  • Die vorliegende Erfindung ist eine Vorrichtung nach Anspruch 1 und ein entsprechendes Verfahren, Programm und Programmaufzeichnungsmedium, wie in den Ansprüchen 6, 11 und 16 definiert.
  • Eine solche Hinderniserkennungsvorrichtung kann in der Lage sein, wahre Hindernisse richtig zu erkennen, ganz gleich, auf welcher Straße die Vorrichtung angebracht ist oder auf welcher Straße ein Fahrzeug, in dem die Vorrichtung angeordnet ist, fährt.
  • Das Neigungsgradberechnungsmittel kann den Neigungswinkel als einen Steigungswinkel zwischen der Grundebene und der Ermittlungsebene und einen Parameter einer Affintransformationsmatrix, der eine Beziehung zwischen den Korrespondenzpunkten in den Bildern anzeigt, oder einen von dem Parameter abgeleiteten eindeutigen Wert als einen Neigungsgrad ansehen.
  • Das Neigungsgradberechnungsmittel kann den Neigungsgrad durch Lösen einer Gleichung auf Grundlage einer Parallaxe und vertikaler Positionen der Vielzahl von Korrespondenzpunktpaaren berechnen.
  • Das Neigungsgradberechnungsmittel kann den Neigungsgrad durch Entscheidungskoordinatenwerte der Vielzahl von Korrespondenzpunktpaaren in einem Entscheidungsraum auf Grundlage einer Gleichung berechnen, die durch die Koordinatenwerte erfüllt wird.
  • Das Neigungsgradberechnungsmittel kann aus der Vielzahl von Korrespondenzpunktpaaren nur das Korrespondenzpunktpaar als ein Hindernis ermitteln, das einen Neigungsgrad ergibt, der einen hohen Wert hat.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Darstellung, die den Aufbau einer Hinderniserkennungsvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ist eine schematische Darstellung, die den aufgebauten Zustand von in einem Fahrzeug angeordneten Bildaufnahmevorrichtungen zeigt;
  • 3 ist eine schematische Darstellung, die eine Straßenebene und den aufgebauten Zustand von Bildaufnahmevorrichtungen zeigt;
  • 4 ist eine schematische Darstellung, die die auf einen beliebigen Punkt angewendete epipolare Einschränkung zeigt;
  • 5 ist eine schematische Darstellung, die die auf Punkte auf weißen Linien 1 und 1' angewendete epipolare Einschränkung zeigt;
  • 6 ist eine schematische Darstellung, die ein Bild eines Ermittlungsbereichs ohne Hindernis darstellt;
  • 7 ist eine schematische Darstellung, die ein Bild eines Ermittlungsbereichs mit beliebigen Hindernissen darstellt;
  • 8 ist eine schematische Darstellung, die eine Parallaxe auf einem Liniensegment in einem Ermittlungsbereich zeigt;
  • 9 ist eine schematische Darstellung, die einen Fall zeigt, wo eine Neigung vor Kameras wahrgenommen wird;
  • 10 ist eine schematische Darstellung, die eine Bildumwandlung in einem Fall zeigt, wo ein Verkehrszeichen auf der Neigung angeordnet ist;
  • 11 ist eine schematische Darstellung, die ein Verfahren zur Berechnung von Neigungsgraden zeigt;
  • 12 ist eine schematische Darstellung, die ein Entscheidungsverfahren während der Neigungsgradberechnung zeigt;
  • 13 ist eine schematische Darstellung, die Korrespondenzpunktpaare in einem Fall zeigt, wo ein Ermittlungsbereich oder ein beliebiger Korrespondenzpunkt verschoben ist; und
  • 14 ist eine schematische Darstellung, die eine Neigungsgradberechnung in einem Fall zeigt, wo ein Ermittlungsbereich oder ein Korrespondenzpunkt verschoben ist.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Nachstehend wird eine Ausführungsform der vorliegenden Erfindung mit Bezug auf 1, 2 und 6 bis 14 beschrieben.
  • 1 ist eine schematische Darstellung, die den Aufbau einer Hinderniserkennungsvorrichtung 10 gemäß der vorliegenden Ausführungsform zeigt.
  • Die Hinderniserkennungsvorrichtung 10 ist mit einem Bildeingabeteil 11, einem Korrespondenzermittlungsteil 12, einem Neigungsgradberechnungsteil 13 und einem Ergebnisbestimmungsteil 14 aufgebaut.
  • Wenn der Ergebnisbestimmungsteil 14 das Vorhandensein eines Hindernisses bestimmt, kann eine Warnvorrichtung 102 einen Fahrzeugführer oder einen Überwacher warnen. Wenn die Hinderniserkennungsvorrichtung 10 in einem Fahrzeug angeordnet ist, kann ferner ein Fahrzeugkarosseriesteuerungsmittel 103 zum Bremsen vorgesehen sein. Alternativ dazu ist eine Fahrzeugbremsung durch Lenken eine Möglichkeit. In jedem Fall kann eine Kommunikationsvorrichtung 104 oder dergleichen vorgesehen sein, um irgendein Ausgangssignal oder übermitteltes Ergebnis zu empfangen.
  • In der Hinderniserkennungsvorrichtung 10 werden der Bildeingabeteil 11, der Korrespondenzermittlungsteil 12, der Neigungsgradberechnungsteil 13 und der Ergebnisbestimmungsteil 14 durch computergespeicherte Programme funktionell realisiert.
  • 1. BILDEINGABETEIL 11
  • Der Bildeingabeteil 11 empfängt Bilder von einer beliebigen Anzahl von Bildaufnahmevorrichtungen 101. In der vorliegenden Ausführungsform sind mehrere Bildaufnahmevorrichtungen 101, beispielsweise eine CCD-Kamera, vorgesehen. Wenn zwei der Vorrichtungen in einem Fahrzeug angeordnet sind, wie in 2 gezeigt, sind diese am vorderen Teil des Fahrzeugs auf der rechten und linken Seite angebracht. Wenn zwei der Vorrichtungen über einer Straße vorgesehen sind, wie in 3 gezeigt, sind diese so vorgesehen, daß sie in die Richtung zeigen, in die sich die Straße erstreckt. Die optischen Achsen dieser beiden Bildaufnahmevorrichtungen 101 sind zueinander parallel.
  • Der Bildeingabeteil 11 unterzieht die von einer Vielzahl von Bildaufnahmevorrichtungen kommenden Videosignale einer A/D-Umsetzung. Dann wird das Ergebnis der A/D-Umsetzung im Speicher des Bildeingabeteils 11 als digitale Bilder oder Bildfolgen gespeichert. Als Antwort auf eine Anfrage werden die Bilder eines beliebigen Zeitpunkts und beliebigen Bereichs an den Korrespondenzermittlungsteil 12 in der nachfolgenden Stufe ausgegeben.
  • 2. KORRESPONDENZERMITTLUNGSTEIL 12
  • Der Korrespondenzermittlungsteil 12 führt eine Korrespondenzpunktsuche in bezug auf die von den Bildaufnahmevorrichtungen 101 aufgenommenen und im Bildeingabeteil 11 gespeicherten Bilder durch.
  • Die Korrespondenzpunktsuche wird insbesondere durchgeführt, um irgendeinen/irgendwelche spezifischen Punkt(e) in der reellen Welt zu finden, die in den von den Kameras aufgenommen Bildern gemeinsam vorkommen. In dieser Ausführungsform werden derartig ermittelte Korrespondenzpunkte zur Berechnung eines Neigungsgrads im Neigungsgradberechnungsteil 13 in der nächsten Stufe verwendet. Die 3D-Strukturrekonstruktion erfolgt hier nicht durch die allgemeine stereoskopische Bildbearbeitung. Daher wird die Korrespondenzpunktsuche nicht unbedingt streng durchgeführt, und jedes einfachere Verfahren, das weniger Berechnungsaufwand erfordert, kann verwendet werden.
  • Nunmehr wird ein Fall betrachtet, wo Korrespondenzpunkte zwischen einem von der rechten Kamera aufgenommenen und im Bildeingabeteil 11 gespeicherten Bild (nachstehend als ein rechtes Bild bezeichnet) und einem von der linken Kamera gleichzeitig aufgenommen Bild (nachstehend linkes Bild) abgeleitet werden.
  • 2-1. BERECHNUNG DER MERKMALSGRÖßE DES RECHTEN BILDES
  • Zunächst werden beliebige Pixel oder beliebige Bereiche im rechten Bild hinsichtlich ihrer vorbestimmten Merkmalsgrößen berechnet. Irgendein Pixel oder Bereich mit einer umfangreichen Merkmalsgröße wird als ein Merkmalspunkt des rechten Bildes gewählt.
  • Hierin bedeutet die "Merkmalsgröße" eine beliebige Information, die für jedes Pixel oder in einem beliebigen Bereich ableitbar ist. Als Merkmalsgröße wird möglicherweise einfach folgendes verwendet: ein Pixelhelligkeitsstärkewert oder eine Farbinformation oder ein beliebiger Skalar oder Vektor, der berechenbar ist aus den Ergebnissen, die durch beliebige Objekterkennung oder einen Bereichssegmentierungsprozeß, zum Beispiel Differenzierungs- oder Integrationsergebnis in Raum oder Zeit, abgeleitet sind, ein beliebiges Filterüberlagerungsergebnis oder Mittelwert- oder Varianzstatistik, oder der berechenbar ist aus Bildern, zum Beispiel Merkmalsgrößen oder Bewegungsgrößen eines Bereichs, die durch diese Ergebnisse abgeleitet sind. In diesem Beispiel ist ein Fall beschrieben, wo die Merkmalsgröße ein Helligkeitsstärkemaß in einer Pixelposition ist.
  • Hier bezeichnet der "Intensitätsgradient" einen Grad der Helligkeitsstärkeänderung in der Umgebung der Pixel, und je näher an den Grenzbereichen, das heißt Rändern, der Objekte oder Objektstrukturen in den Bildern, um so größer wird der Wert.
  • Um einen solchen Helligkeitsstärkegrad zu berechnen, kann ein Filter, zum Beispiel ein Sobel-Operator, auf ein Zielbild angewendet werden.
  • Wenn der Sobel-Operator nur für das Ableiten eines Helligkeitsstärkegrads in der vertikalen Richtung des Bildes verwendet wird, kann die nachfolgende Gleichung 8 verwendet werden.
  • Figure 00080001
  • Hierin ist ein Helligkeitsstärkewert eines Pixels (x, y) I(x, y), D(x, y) ist ein Helligkeitsstärkegradwert in der vertikalen Richtung, und 2M + 1 ist die Filtergröße. Ausgehend vom Pixel (x, y), dessen Absolutwert |D(x, y)| hoch ist, wird eine beliebige Anzahl von Pixeln als die Merkmalspunkte im rechten Bild betrachtet. Was einen bestimmten Schwellwert Th betrifft, so sind als Alternative alle Pixel (x, y), für die |D(x, y)| > Th gilt, die Merkmalspunkte im rechten Bild.
  • Verschiedene andere Filter können zum Ableiten eines Helligkeitsstärkegrades verwendet werden, einschließlich Laplace-, Robinson- und Canny-Filter, und alle sind ausreichend. Außer einem bekannten Verfahren zum Ableiten eines Helligkeitsstärkegrades gibt es viele Verfahren zur Berechnung der Merkmalsgröße von Bildern. Die Einzelheiten sind beispielsweise in der Nichtpatentliteraturstelle 1 (herausgegeben von Takagi und Shimoda, Image Analysis Handbook, Tokyo University Press, ISBN 4-13-061107-0) beschrieben.
  • 2-2. KORRESPONDENZPUNKTERMITTLUNG IM LINKEN BILD
  • Als nächstes wird ein Merkmalspunkt im linken Bild berechnet, der mit dem Merkmalspunkt im rechten Bild korrespondiert.
  • Verfahren zur Berechnung eines Anpassungsgrads zwischen beliebigen Pixeln oder beliebigen Bereichen werden als Anpassung bezeichnet und sind durch direkten Mustervergleich gekennzeichnet. Beim direkten Mustervergleich wird ein Bereich in der Umgebung des Merkmalspunkts im Bild als ein Muster verwendet, und das Muster wird mit einem beliebigen Teil des Ziel-Suchbereichs im Bild verglichen, um einen Bereich zu finden, der eine große Übereinstimmung zeigt.
  • 2-2-1. VERFAHREN UNTER VERWENDUNG DER SAD
  • In einem Verfahren unter Verwendung der einfachsten SAD (Summe absoluter Differenzen) wird die nachfolgende Gleichung 9 für jedes Pixel (x, y) im Suchbereich gelöst. Das Pixel (x, y), das den kleinsten R(x, y) ergibt, wird als ein Korrespondenzpunkt abgeleitet. Hierin ist ein Musterbereich K, ein Helligkeitsstärkewert eines Musterpixels ist T(i, j) (in dieser Ausführungsform der Bereich in der Umgebung des für das rechte Bild abgeleiteten Merkmalspunkts), und ein Helligkeitsstärkewert des Pixels im Suchbereich ist I(x, y) (in dieser Ausführungsform der für den Merkmalspunkt im linken Bild festgelegte Suchbereich).
  • Figure 00090001
  • Hier befindet sich der Korrespondenzpunkt auf einer Epipolarlinie, wie mit Bezug auf 4 beschrieben. Daher ist der Suchbereich des Korrespondenzpunkts auf die Epipolarlinie begrenzt, wodurch die Berechnungsaufgabe für die Korrespondenzpunktsuche reduziert wird. Wenn die optischen Achsen der Kameras parallel zueinander sind, stimmt ferner die Epipolarlinie mit der Bildzeile überein, was die Korrespondenzpunktsuche erleichtert.
  • 2-2-2. WEITERE VERFAHREN
  • Es gibt verschiedene weitere Verfahren zum Ableiten von Korrespondenzpunkten, einschließlich eines Verfahrens unter Verwendung der SSD (Summe der Quadratdifferenzen), eines sequentiellen Ähnlichkeitsermittlungsalgorithmus (SSDA), eines normierten Korrelationskoeffizientenverfahrens, Strukturanpassung und dergleichen, und jedes beliebige Verfahren ist anwendbar. Die oben genannte Nichtpatentliteraturangabe 1 zeigt Einzelheiten von gut bekannten Verfahren.
  • 2-2-3. FALL ZUR BERECHNUNG EINER VIELZAHL VON KORRESPONDENZPUNKTEN FÜR EINEN MERKMALSPUNKT
  • Alternativ kann eine Vielzahl von Korrespondenzpunkten im linken Bild für einen Merkmalspunkt im rechten Bild gesucht werden.
  • Wie oben beschrieben, wird nach der Korrespondenzpunktsuche durch direkten Mustervergleich unter Verwendung von SAD nur ein Punkt (x, y), der den kleinsten R(x, y) ergibt, als ein Korrespondenzpunkt betrachtet. Hier werden andererseits als Korrespondenzpunkte die Punkte (x', y') und (x'', y'') betrachtet, die beispielsweise den zweit- bzw. drittkleinsten R(x', y') bzw. R(x'', y'') ergeben. Auf diese Weise kann eine beliebige Anzahl von Korrespondenzpunkten im linken Bild für einen Merkmalspunkt im rechten Bild abgeleitet werden.
  • 2-2-4. WEITERE KORRESPONDENZPUNKTSUCHE
  • Eine solche Korrespondenzpunktsuche ist nicht nur auf die Originalbilder, das heißt Helligkeitsstärkewertbilder, anwendbar, sondern auch auf Bilder im Ergebnis der oben beschriebenen Berechnung einer beliebigen Merkmalsgröße.
  • 3. NEIGUNGSGRADBERECHNUNGSTEIL 13
  • Der Neigungsgradberechnungsteil 13 verwendet Korrespondenzpunktpaare im rechten und linken Bild, die vom Korrespondenzermittlungsteil 12 abgeleitet worden sind, um einen Neigungsgrad entsprechend einem Neigungswinkel einer Ebene in einen 3D-Raum im Ermittlungsbereich (unten als Ermittlungsebene bezeichnet) festzustellen.
  • Der "Neigungswinkel" ist hierin ein Winkel zwischen der Straßenebene und der Ermittlungsebene und ist ein Steigungswinkel in bezug auf die Straßenebene mit kleinen Seitenabweichungs- und Querneigungswinkeln. Einzelheiten folgen in der späteren Beschreibung. Man beachte, daß die Straßenebene eine Ebene (Grundebene) ist, die parallel zu den optischen Achsen von zwei Bildaufnahmevorrichtungen 101 ist.
  • Der Neigungswinkel ist keine Neigung zu einer horizontalen Ebene, sondern eine Neigung zur Straßenebene. Selbst wenn ein Fahrzeug mit der darin angeordneten Bildaufnahmevorrichtung 101 auf einer Straßenebene fährt, die gegen die horizontale Ebene geneigt ist, das heißt Neigung, beträgt der "Neigungswinkel" zwischen der Straßenebene und einer mit dieser parallelen Ebene 0 Grad.
  • Der Steigungswinkel ist ein Neigungswinkel Θ in der vertikalen Richtung und entsteht durch zwei Bildaufnahmevorrichtungen 101, wie in 9 gezeigt. Der Seitenabweichungswinkel ist hier eine Neigung in der horizontalen Richtung, das heißt, der Seitenabweichungswinkel ist 0 Grad, wenn die Straße gerade ist. Der Querneigungswinkel ist eine Neigung zu einer optischen Achse, das heißt, der Querneigungswinkel ist 0 Grad zur horizontalen Ebene.
  • Die Begriffe "Neigungswinkel" und "Neigungsgrad" sind unterschiedlich, und ein Neigungsgrad ändert sich in bezug auf einen Neigungswinkel. Einzelheiten werden später beschrieben.
  • 3-1. THEORIE DES NEIGUNGSGRADBERECHNUNGSTEILS 13
  • Gemäß der affinen GP-Einschränkung in den oben genannten Patentliteraturstellen 1 und 2 (H. Hattori und A. Maki, Stereo without Depth Search and Metric Calibration, in Proc. of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, CVPR 2000, S. 177–184, 2000) kann, was die 3D-Koordinaten eines Punkts auf der Straßenebene betrifft, wo ein Ursprungspunkt ein Mittelpunkt zwischen zwei Kameras ist, die Gleichung 7, die die Beziehung von Korrespondenzpunkten zwischen den stereoskopischen Bildern darstellt, viel einfacher ausgedrückt werden. Dies ist anwendbar unter einer Voraussetzung, daß die Koordinatenwerte in der Richtung der optischen Achse der Kameras hinreichend groß für Koordinatenwerte des Bildes in der vertikalen und horizontalen Richtung sind (z >> x, z >> y, wobei z die Richtung der optischen Achse bezeichnet, x die horizontale Richtung des Bildes bezeichnet und y die vertikale Richtung des Bildes bezeichnet).
  • Das heißt, wenn wir annehmen, daß ein Punkt als ein Ergebnis des Projizierens eines bestimmten Punkts auf der Straßenebene auf das rechte Bild P(u, v) ist und ein mit diesem korrelierender Punkt im linken Bild P'(u', v') ist, wird die Beziehung durch die nachfolgende Gleichung 10 ausgedrückt.
  • Figure 00100001
  • Hierin bezeichnet A eine 2×2-Affintransformationsmatrix, und (tu, tv)T bezeichnet einen Vektor, der die Translation anzeigt. Um diese abzuleiten, werden drei oder mehr Korrespondenzpunktpaare auf der Straßenebene verwendet wie für h in der Gleichung 6. Wenn sie im voraus vor der Hinderniserkennung abgeleitet werden, so lange die Beziehung zwischen den Kameras in Position oder Ausrichtung die gleiche bleibt, müssen sie zur fortlaufenden Hinderniserkennung nicht zweimal abgeleitet werden.
  • Wenn ferner beide Kameras in der Richtung eines Verschwindungspunkts der Straße ausgerichtet sind und wenn die Drehbewegung um die optische Achse der Kamera klein genug ist, kann A durch die nachfolgende Gleichung 11 genähert werden. Die Affintransformationsmatrix A ist nur von λ abhängig.
  • Figure 00110001
  • Die Positionsverschiebung der Korrespondenzpunkte in der horizontalen Richtung im rechten und linken Bild wird als eine Parallaxe d bezeichnet, und wenn man annimmt, daß d = u' – u, ist die Parallaxe d nur von der Bildkoordinate v abhängig. Das kann wie in der nachfolgenden Gleichung einfach ausgedrückt werden. d = λv + tv (12)
  • Nummehr wird ein Verfahren unter Verwendung der Beziehung zur lokalen Schätzung von λ betrachtet.
  • Zunächst wird ein lokaler Ermittlungsbereich bestimmt, und ein Referenzpunkt wird auf o festgelegt. Aus den Koordinaten Vo dieses Punkts wird eine Verschiebung v – vo von neuem auf v festgelegt. Es wird angenommen, daß der Ermittlungsbereich eine Ebene oder ein Teil einer Ebene ist, und λ und v im Ermittlungsbereich um Δλ bzw. Δv verschoben werden. Die dadurch bewirkte resultierende Parallaxe wird von neuem auf d festgelegt, und die nachfolgende Gleichung wird aufgestellt. d = Δλv + Δd (13)
  • Der erste Term auf der rechten Seite von Gleichung 13 Δλxv ist von v abhängig, und der zweite Term Δd ist ein durch Δv erzeugtes, aber nicht von v abhängiges Parallaxenelement und ist im lokalen Bereich konstant.
  • Wenn zwei oder mehr Korrespondenzpunktpaare Pi(ui, vi), Pi'(ui', vi') (i = 1 ...N) verfügbar sind, kann der Schwankungswert Δλ im Ermittlungsbereich λ abgeleitet werden. Im einzelnen werden, wenn Δλ und Δv nicht bekannt sind, die Parallaxe di = ui' – ui und der resultierende Wert vi in die Gleichung 13 eingesetzt, und die simultanen linearen Gleichungen werden infolgedessen gelöst. Der derartig abgeleitete Schwankungswert Δλ ist der "Neigungsgrad", wie später beschrieben wird.
  • Wenn die Merkmalspunkte alle auf der Straßenebene liegen, wird angenommen, daß die Koordinaten der Korrespondenzpunktpaare die Gleichung 10 erfüllen, und der Schwankungswert Δλ ist annähernd gleich 0. Wenn dagegen die Merkmalspunkte nicht auf der Straßenebene, sondern auf einem Hindernis liegen, ist die Gleichung 10 nicht erfüllt und |Δλ| >> 0.
  • Der Schwankungswert Δλ an sich ist ein Faktor zur Bestimmung, ob der Ermittlungsbereich ein Hindernis aufweist oder nicht.
  • 3-2. BESCHREIBUNG DURCH VERANSCHAULICHUNG
  • Mit Bezug auf die schematischen Zeichnungen wird das Prinzip des Neigungsgradberechnungsteils 13 beschrieben.
  • 3-2-1. BERECHNUNG DES SCHWANKUNGSWERTS Δλ
  • 6 ist eine schematische Darstellung, die einen Fall zeigt, wo Bildbereiche R und R' im rechten und linken Bild als die beiden Ermittlungsbereiche zuvor festgelegt worden sind. Beide Ermittlungsbereiche weisen jeweils weiße Linien und ein Verkehrszeichen auf, aber kein Hindernis.
  • Im rechten Bildbereich R sind sechs Merkmalspunkte P1 bis P6 festgestellt worden, und für jeden davon ist ein Korrespondenzpunkt im linken Bildbereich R' abgeleitet worden, nämlich die Punkte P1' bis P6'.
  • Ebenso zeigt 7 ein beispielhafres Ergebnis der Korrespondenzpunktsuche im Bereich R' in bezug auf Merkmalspunkte im Bereich R mit einem Hindernis.
  • Zunächst betrachten wir in 6 ein Liniensegment P2P5 im Bereich R und das Korrespondenzliniensegment P2'P5' im Bereich R'. 8 zeigt eine vergrößerte Version dieser Liniensegmente, nämlich s und s1', wobei s mit P2P5 und s1' mit P2'P5' korrespondiert. Das Liniensegment s' im linken Bereich R' ist ein Ergebnis der Umwandlung des Liniensegments s durch die Affintransformationsgleichung 10 auf Grundlage der Näherung der Gleichung 11. Der Grund, warum das Liniensegment s' im Bild eine andere Neigung als das Liniensegment s hat, ist, daß |λ| nicht 0, sondern groß ist. Durch die Störung, die durch die Verschiebung des Referenzpunkts o oder Verschwindungspunkts bewirkt wird, korrespondiert das Liniensegment s tatsächlich mit einem Liniensegment s1', das sich an einer Position befindet, die um eine Konstante Δd von dieser verschoben ist. Daher führt das Lösen der Gleichung 13, die von den Koordinaten der Merkmalspunkte und ihrem Korrespondenzpunkt, das heißt P2, P5, P2' und P5', abgeleitet ist, zu einer Lösung, bei der Δλ annähernd gleich 0 ist.
  • Als nächstes betrachten wir in 7 ein Liniensegment P1P3 im Bereich R und das Korrespondenzliniensegment P1'P3' im Bereich R'. 8 zeigt eine vergrößerte Version dieser Liniensegmente, nämlich s und s2'. In diesem Fall befindet sich das Liniensegment s nicht auf der Straßenebene, und daher hat das mit ihm korrespondierende Liniensegment s2' einen anderen Winkel als das Liniensegment s', das dadurch abgeleitet ist, daß das Liniensegment s einer Affintransformation unterzogen worden ist. Das heißt, um das Liniensegment s in s2' zu transformieren, sollte die Transformation so ausgeführt werden, daß Punkte auf dem Liniensegment um einen Betrag proportional zu v seitlich verschoben werden. Und das Lösen der Gleichung 13 unter Verwendung der Koordinaten von P1, P3, P1' und P3' führt zu Δλ, das die Bedingung |Δλ| >> 0 erfüllt. In diesem Beispiel wird angenommen, daß der Vorsprung und die Vertiefung hinter dem Hindernis (in Fahrtrichtung) hinreichend kleiner sind als die Entfernung von den Kameras, und eine Hindernisoberfläche wird als eine Ebene (das heißt Ermittlungsebene) und annähernd senkrecht zu den optischen Achsen der Kameras angesehen. Unter solchen Annahmen werden die Liniensegmente s und s2' auf dem Ursprungsbild annähernd parallel zueinander, wodurch Δλ annähernd gleich –λ wird (dabei ist A eine Einheitsmatrix).
  • Oben ist ein Fall der Berechnung von Δλ unter Verwendung eines Liniensegments zwischen zwei Korrespondenzpunkten auf der Ermittlungsebene im Ermittlungsbereich beschrieben.
  • 3-2-2. BERECHNUNG DES NEIGUNGSWINKELS VON DER GRUNDEBENE DER OBJEKTEBENE
  • Der Affintransformationsparameter wird unter Verwendung einer Tatsache abgeleitet, daß die Parallaxe d in der Gleichung 13 nur von einer v-Koordinate eines Merkmalspunkts abhängig ist. Das entspricht der Ableitung eines Steigungswinkels (das heißt Neigungswinkel) von einer Straßenebene (das heißt Grundebene) im Ermittlungsbereich, wobei der Ermittlungsbereich eine Ebene im 3D-Raum oder ein Teil davon ist (dies ist die Ermittlungsebene). Hierin werden bei der Ermittlungsebene der Seitenabweichungs- und Querneigungswinkel, aber nicht der Steigungswinkel als hinreichend klein angenommen.
  • Wir betrachten nummehr 9 und 10, wobei diese beschrieben werden.
  • Der Neigungswinkel der Ermittlungsebene entspricht θ in 9. Eine Näherung, zum Beispiel die Gleichung 11, ist auf einen Fall anwendbar, wo sich nur der Neigungswinkel Θ ändert. Wenn dies der Fall ist, bedeutet die Gleichung 10, daß der rechteckige Ermittlungsbereich im rechten Bild in ein Parallelogramm im linken Bild umgewandelt wird, wie in 10 gezeigt. Eine Verschiebung, die während einer solchen Transformation auftritt, ist unmittelbar von der Größe von λ + Δλ abhängig, und die tatsächliche Ursache dafür ist die Größe von θ. Wenn, wie in 9 gezeigt, ein Verkehrszeichen auf der Neigung in Fahrtrichtung ist und wenn der Ermittlungsbereich rund um das Verkehrszeichen liegt, wird der Ermittlungsbereich in ein Parallelogramm eines Übergangszustands umgewandelt, wobei davon ausgegangen wird, daß die Straße horizontal und das Hindernis vertikal ist. In Abhängigkeit von der Größe von θ nimmt Δλ einen Zwischenwert zwischen 0 und –λ an. Folglich wird durch Lösung der Gleichung 13 der Wert Δλ abgeleitet, der eine monotone Änderung in Abhängigkeit von der Größe des Neigungswinkels θ zeigt.
  • Ferner wird im oben genannten Beispiel das Rechteck unter Verwendung der Näherung der Gleichung 11 in ein Parallelogramm umgewandelt. Folglich sind die Merkmalspunkte und Korrespondenzpunkte nicht unbedingt auf den geraden Linien ausgerichtet, sondern müssen sich nur auf einer Ebene befinden.
  • Daher kann im Beispiel in 6 durch Lösen der Gleichung 13, die von den Paaren von Merkmalspunkten und Korrespondenzpunkten P1,... P6, P1',... P6' abgeleitet ist, Δλ mit höherer Genauigkeit im Vergleich zu einem Fall, wenn ein Liniensegmentpaar verwendet wird, abgeleitet werden. Selbst wenn die Merkmalspunkte und Korrespondenzpunkte auf einem Hindernis mit Vorsprüngen und Vertiefungen festgestellt werden, wird ein solches Hinderis als eine Ebene betrachtet, wenn die Entfernung von der Kamera groß ist. Folglich kann unter Verwendung jedes Merkmalspunkts und Korrespondenzpunkts ein Neigungswinkel der Ermittlungsebene (Hindernisebene in 10) annähernd abgeleitet werden.
  • Somit ist Δλ eine Größe, die in Abhängigkeit vom Neigungswinkel θ der Ermittlungsebene abgeleitet ist, und Δλ kann als der Neigungsgrad an den Ergebnisbestimmungsteil 14 in der nächsten Stufe weitergeleitet werden.
  • Hier ist als der Neigungsgrad ein eindeutiger Wert, der von Δλ abgeleitet werden kann (zum Beispiel |Δλ|), ausreichend.
  • 3-2-3. WEITERES BERECHNUNGSVERFAHREN FÜR Δλ
  • Wenn der Ermittlungsbereich im allgemeinen m Merkmalspunkte und für jeden von diesen maximal n Korrespondenzpunkte aufweist, können maximal mxn Korrespondenzpunktpaare abgeleitet werden. Das Lösen der Gleichung 13, die von einer Vielzahl von Paaren abgeleitet ist, führt zu Δλ. Die Gleichung kann unter Verwendung von zwei Korrespondenzpunktpaaren gelöst werden, aber drei oder mehr Paare machen die Gleichung überflüssig. Daher ist ein statistisches Verfahren, zum Beispiel das der kleinsten Quadrate, effektiv, um Δλ mit höherer Genauigkeit abzuleiten.
  • Ferner muß mit einer Technik wie der Hough-Transformation die Gleichung nicht mehr gelöst werden, um Δλ abzuleiten.
  • Dies ist mit Bezug auf 11 und 12 beschrieben.
  • Das Lösen der Gleichung 13 entspricht dem Ableiten eines Schnittpunkts von Linien, die von einer Vielzahl von Korrespondenzpunktpaaren abgeleitet sind. Die Gleichung 13 wird hier als eine gerade Linie im Raum Δd – Δλ angesehen.
  • Wie in 12 gezeigt, ist der Raum Δd – Δλ in eine Vielzahl von quadratischen Zellen geteilt, und wenn eine Linie durch die Zellen verläuft, werden die Korrespondenzzellen im Wert erhöht. Solch ein Prozeß wird als Entscheidungsprozeß bezeichnet. Nachdem jede mögliche Linie einem solchen Entscheidungsprozeß unterworfen worden ist, führt die Ermittlung einer Zellposition mit dem größten Wert zu Δλ. Ein solches Verfahren ist effektiv, selbst wenn sich nicht alle Linien in einem Punkt schneiden, und wenn eine Vielzahl von Maximalwerten ermittelt wird, führt die Zellposition mit dem größten Wert beispielsweise zu Δλ.
  • Ebenso kann mit Bezug auf die rechte Seite von 12 nach dem Entscheidungsprozeß durch Berechnung eines Profils durch eine Addition von Zellwerten nur von denen, die größer als ein bestimmter Wert in der Querrichtung sind, die Verteilung von Δλ bekannt sein. Das Verteilungsergebnis kann an den nächsten Ergebnisbestimmungsteil 14 als die Verteilung der Neigungsgrade weitergeleitet werden.
  • 3-3. EIN FALL, WO SICH DER ERMITTLUNGSBEREICH ÜBER EIN HINDERNIS UND EINE STRAßENEBENE ERSTRECKT
  • Nunmehr wird ein Fall betrachtet, wo, wie in 13 gezeigt, sich ein Ermittlungsbereich über ein Hindernis und eine Straßenebene erstreckt und Merkmalspunkte und Korrespondenzpunkte sowohl auf dem Hindernis (P1, P3, P6, P1', P3' und P6') als auch auf der Straßenebene (P2, P4, P2' und P4') ermittelt werden oder die Ermittlung einiger Korrespondenzpunkte nicht funktioniert hat(P5 und P5').
  • Wenn man annimmt, daß gerade Linien, die von den Paaren P1 ... P6 und P1' ... P6' zum Raum Δλ – Δd gezogen worden sind, die Linien 1 bis 6 in 14 sind, befindet sich der sich ergebende Schnittpunkt nahe Δλ = –λ. Dieser Schnittpunkt ist von anderen, die von Korrespondenzpunktpaaren auf anderen Straßenebenen oder von falschen Korrespondenzpunktpaaren abgeleitet sind, unterscheidbar.
  • Wenn ferner die Korrespondenzpunktpaare auf dem Hindernis in der Anzahl vorherrschend sind, wird der Entscheidungswert des Schnittpunkts nach der Hough-Transformation hoch.
  • Wenn ein solches Kriterium wie eine Überschneidung näher an Δλ = -λ ist oder ihr Entscheidungswert groß ist, können folglich nur die sich auf dem Hindernis befindlichen Korrespondenzpunktpaare unterschieden werden. Bei dem Beispiel in 13 können nur die Punkte P1, P3, P6, P1', P3' und P6' durch Unterscheidung als zum Hindernis zugehörig ermittelt werden.
  • 4. ERGEBNISBESTIMMUNGSTEIL 14
  • Der Ergebnisbestimmungsteil 14 bezieht sich auf den vom Neigungsgradberechnungsteil 13 abgeleiteten Neigungsgrad des Ermittlungsbereichs oder seine Verteilung und bestimmt, ob der Ermittlungsbereich ein Hindernis aufweist oder nicht.
  • Das vom Neigungsgradberechnungsteil 13 berechnete Δλ zeigt eine monotone Änderung in Abhängigkeit vom Neigungswinkel des Ermittlungsbereichs. Wenn die Ebene im Ermittlungsbereich fast parallel zur Grundebene ist, ist Δλ annähernd gleich 0, und wenn sie senkrecht ist, ist Δλ annähernd gleich –λ.
  • Somit wird auf die einfachste Weise ein Schwellwert im voraus so festgelegt, daß die in 9 gezeigte Neigung ohne Hindernis akzeptiert wird, und es kann durch Vergleich zwischen Δλ und dem Schwellwert bestimmt werden, ob dort ein Hindernis vorliegt.
  • Zum Beispiel wird für einen bestimmten Schwellwert th, wenn |Δλ| > th erfüllt ist, das Vorhandensein eines Hindernisses bestimmt.
  • Wenn der Neigungsgrad als Verteilung verfügbar ist, kann außerdem eine statistische Bestimmung unter Verwendung der Verteilung angewendet werden, um eine solche Bestimmung durchzuführen.
  • Mit Bezug auf die rechte Seite von 12 ist die Fläche über th p1, und die Fläche unter th ist p2, und es wird beispielsweise das Vorhandensein eines Hindernisses bestimmt, wenn p1 > p2 erfüllt ist.
  • Wenn man die Verteilung als Wahrscheinlichkeitsverteilung betrachtet, kann eine A-posteriori-Wahrscheinlichkeit p des Vorhandenseins eines Hindernisses beispielsweise durch p1/(p1 + p2) abgeleitet werden, und wenn p > 0,5 erfüllt ist, kann das Vorhandensein eines Hindernisses bestimmt werden.
  • Wie oben beschrieben, kann unter Verwendung eines vom Neigungsgradberechnungsteil 13 abgeleiteten Neigungsgrads eines Ermittlungsbereichs oder seiner Verteilung durch ein beliebiges Verfahren bestimmt werden, ob ein Hindernis vorliegt.
  • Somit können unter Verwendung einer Vielzahl von in einem Fahrzeug angeordneten oder über einer Straße angebrachten Kameras, selbst wenn die Beziehung zwischen der Straßenebene und den Kameras sich ständig in der relativen Position oder Ausrichtung durch Kameravibration oder eine Änderung der Straßenneigung ändert, auf der Straße befindliche Hindernisse, zum Beispiel andere vorausfahrende Fahrzeuge, geparkte Fahrzeuge und Fußgänger auf der Straße, ermittelt werden, ohne daß diese mit Texturen, einschließlich weißer Linien, Verkehrszeichen, Farbe, Straßenverfärbungen und Schatten von Objekten am Straßenrand, die alle die Fahrt des Fahrzeugs nicht behindern, verwechselt werden. Ferner können unnötige Vorgänge, zum Beispiel fehlerhafte Warnung oder unnötige Fahrzeugsteuerung, in hohem Maß verringert werden.
  • (MODIFIKATIONSBEISPIEL 1)
  • Die vorliegende Erfindung ist hier nicht auf die oben genannte Ausführungsform begrenzt, und es ist verständlich, daß zahlreiche weitere Modifikationen und Änderungen denkbar sind, ohne vom Schutzbereich der Erfindung abzuweichen.
  • Zum Beispiel ist der Ermittlungsbereich in der Ausführungsform ein Quadrat, aber die Form ist nicht darauf beschränkt, und jede beliebige vorbestimmte Form ist geeignet.
  • (MODIFIKATIONSBEISPIEL 2)
  • Wie oben beschrieben, sind die Ermittlungsbereiche R und R' im rechten und linken Kamerabild vorbestimmt. Alternativ kann ein in der Patentliteraturstelle 3 (JP-A-2001-154569) beschriebenes Hinderniserkennungsverfahren für eine Vorverarbeitung verwendet werden, und ein dabei abgeleitetes Ergebnis kann verwendet werden, um Ermittlungsbereiche festzulegen. Um Ermittlungsbereiche festzulegen, kann ein Fahrstreifenerkennungsverfahren verwendet werden, und ein dadurch abgeleitetes Ergebnis kann nach einem vorbestimmten Verfahren verwendet werden.
  • (MODIFIKATIONSBEISPIEL 3)
  • Selbst wenn kein Ermittlungsbereich im voraus festgelegt ist, können das rechte und linke Kamerabild abgetastet werden, und an jeder Abtastposition kann der Arbeitsablauf der Ausführungsform für einen ähnlichen Objekterkennungsprozeß ausgeführt werden.
  • (MODIFIKATIONSBEISPIEL 4)
  • In der vorliegenden Ausführungsform sind die Gleichung 10 und andere Formeln und Zeichnungen, die sich auf die Beziehungen zwischen den Bildern beziehen, zur Umkehrung des rechten Bildbereichs in den linken Bildbereich vorgesehen. Diese sind mit Sicherheit keine Einschränkung, und alle ermöglichen den Wechsel vom linken Bild zum rechten Bild.
  • (MODIFIKATIONSBEISPIEL 5)
  • Oben ist ein Fall beschrieben, wo zwei der Bildaufnahmevorrichtungen, zum Beispiel Kameras, vorgesehen sind. Die Anzahl der Vorrichtungen ist nicht eingeschränkt, und selbst wenn drei oder mehr der Bildaufnahmevorrichtungen vorgesehen sind, ist die Ausführungsform auf eine Kombination von beliebigen zwei Bildaufnahmevorrichtungen anwendbar. Wenn dies der Fall ist, können die von jeder möglichen Kombination abgeleiteten Ergebnisse miteinander integriert werden, um die Objekterkennungsvorrichtung mit einer höheren Genauigkeit zu betreiben.
  • (MODIFIKATIONSBEISPIEL 6)
  • Die Straßenebene wird als eben angenommen. Die vorliegende Ausführungsform ist anwendbar, selbst wenn die Straßenoberfläche gekrümmt ist, sie kann partiell geteilt werden, um sie an die Ebene anzunähern.
  • (MODIFIKATIONSBEISPIEL 7)
  • Die Aufgabe der vorliegenden Erfindung ist nicht darauf beschränkt, das sichere Fahren zu unterstützen und das automatische Fahren des Fahrzeugs zu realisieren, oder darauf, die Anzahl der auf der Straße vorbeifahrenden Fahrzeuge zu zählen oder diese vorbeifahrenden Fahrzeuge in ihrer Fahrt zu beobachten. Das Bereitstellen der Kameras am hinteren Teil des Fahrzeugs ermöglicht eine Beobachtung nach hinten, und für Flugzeuge oder Hubschrauber wird die Objekterkennung während des Startens und Landens ermöglicht. Das Bereitstellen der Kameras in Industrie- oder Haushaltsrobotern ermöglicht auch die Objekterkennung oder -beobachtung für einen automatischen Betrieb. Somit ist die vorliegende Erfindung in vielen verschiedenen Anwendungen anwendbar.
  • INDUSTRIELLE ANWENDBARKEIT
  • Wie aus der vorstehenden Beschreibung bekannt ist, kann die Objektermittlung gemäß der vorliegenden Erfindung, ganz gleich, an welcher Straße eine Hinderniserkennungsvorrichtung aufgestellt ist, oder ganz gleich, auf welcher Straße ein Fahrzeug mit der darin angeordneten Vorrichtung fährt, mit hoher Genauigkeit erreicht werden, und zwar ungeachtet der Vibration während des Betriebs der Vorrichtungen oder des Führens des Fahrzeugs. Die vorliegende Erfindung verhindert insbesondere erfolgreich die herkömmlichen Probleme des Verringerns der Hinderniserkennungsgenauigkeit durch häufige Falscherkennung, insbesondere bei der Textur auf der Straßenebene, zum Beispiel weiße Linien, Verkehrszeichen, Farbe, Straßenverfärbungen, Schatten von Objekten am Straßenrand und von Fahrzeugen und dergleichen. Folglich können nur echte Hindernisse richtig erkannt werden, wobei viele Auswirkungen praktischen Nutzen bringen.

Claims (16)

  1. Vorrichtung zur Hinderniserkennung (10) mit einem Bildeingabemittel (11), gekennzeichnet durch: mindestens zwei Bildaufnahmevorrichtungen (101), von denen jede ein Bild eines voreingestellten gemeinsamen Ermittlungsbereichs aufnimmt, und wobei die Vorrichtung aus den unter Verwendung der Bildaufnahmevorrichtungen aufgenommenen Stereobildern bestimmt, ob sich ein Hindernis im Ermittlungsbereich befindet oder nicht, wobei das Bildeingabemittel (11) zum Empfangen des Bildes von jeder der Bildaufnahmevorrichtungen bestimmt ist; wobei die Vorrichtung ferner umfasst: Übereinstimmungserkennungsmittel (12) zum Ableiten einer Vielzahl von Paaren übereinstimmender Punkte in den Ermittlungsbereichen der beiden empfangenen Stereobilder; Neigungsgradberechnungsmittel (13) zum Berechnen eines Neigungsgrads entsprechend einem Neigungswinkel zwischen einer Grundebene, die parallel zu den optischen Achsen der Bildaufnahmevorrichtungen ist, und einer Ermittlungsebene mit der abgeleiteten Vielzahl übereinstimmender Punkte in den Stereobildern; und Ergebnisbestimmungsmittel (14) zum Bestimmen, daß ein Hindernis vorhanden ist, wenn der Neigungsgrad der Ermittlungsebene größer als ein vorbestimmter Wert ist.
  2. Vorrichtung zur Hinderniserkennung nach Anspruch 1, wobei das Neigungsgradberechnungsmittel (13) den Neigungswinkel als einen Steigungswinkel zwischen der Grundebene und der Ermittlungsebene und einen Parameter einer Affintransformationsmatrix, der eine Beziehung zwischen den übereinstimmenden Punkten in den Bildern anzeigt, oder einen von dem Parameter abgeleiteten eindeutigen Wert als einen Neigungsgrad betrachtet.
  3. Vorrichtung zur Hinderniserkennung nach Anspruch 2, wobei das Neigungsgradberechnungsmittel (13) den Neigungsgrad durch Lösen einer Gleichung auf Grundlage einer Parallaxe und vertikaler Positionen der Vielzahl von Paaren übereinstimmender Punkte berechnet.
  4. Vorrichtung zur Hinderniserkennung nach Anspruch 1, wobei das Neigungsgradberechnungsmittel (13) den Neigungsgrad durch Entscheidungskoordinatenwerte der Vielzahl von Paaren übereinstimmender Punkte in einem Entscheidungsraum auf der Grundlage einer Gleichung berechnet, die durch die Koordinatenwerte erfüllt wird.
  5. Vorrichtung zur Hinderniserkennung nach Anspruch 1, wobei das Neigungsgradberechnungsmittel (13) aus der Vielzahl von Paaren übereinstimmender Punkte nur das Paar übereinstimmender Punkte als ein Hindernis erkennt, das einen Neigungsgrad ergibt, der einen hohen Wert hat.
  6. Verfahren zur Hinderniserkennung unter Verwendung eines Eingabebildes, gekennzeichnet durch Verwendung von mindestens zwei Bildaufnahmevorrichtungen (101), von denen jede ein Bild eines voreingestellten gemeinsamen Ermittlungsbereichs aufnimmt, um aus den unter Verwendung der Bildaufnahmevorrichtungen aufgenommenen Stereobildern zu bestimmen, ob sich ein Hindernis im Ermittlungsbereich befindet, wobei das Verfahren umfasst: einen Bildempfangsschritt zum Empfangen des Bildes von jeder der Bildaufnahmevorrichtungen; einen Korrelationsermittlungsschritt zum Ableiten einer Vielzahl von Paaren übereinstimmender Punkte in den Ermittlungsbereichen der beiden Stereobilder; einen Neigungsgradberechnungsschritt zum Berechnen eines Neigungsgrads entsprechend einem Neigungswinkel zwischen einer Grundebene, die parallel zu den optischen Achsen der Bildaufnahmevorrichtungen ist, und einer Ermittlungsebene mit der abgeleiteten Vielzahl übereinstimmender Punkte in den Stereobildern; und einen Ergebnisbestimmungsschritt zum Bestimmen des Vorhandenseins eines Hindernisses, wenn der Neigungsgrad der Ermittlungsebene größer als ein vorbestimmter Wert ist.
  7. Verfahren zur Hinderniserkennung nach Anspruch 6, wobei im Neigungsgradberechnungsschritt der Neigungswinkel als ein Steigungswinkel zwischen der Grundebene und der Ermittlungsebene betrachtet wird und ein Parameter einer Affintransformationsmatrix, der eine Beziehung zwischen den übereinstimmenden Punkten in den Bildern anzeigt, oder ein von dem Parameter abgeleiteter eindeutiger Wert als ein Neigungsgrad betrachtet wird.
  8. Verfahren zur Hinderniserkennung nach Anspruch 7, wobei im Neigungsgradberechnungsschritt der Neigungsgrad durch Lösen einer Gleichung auf der Grundlage einer Parallaxe und vertikaler Positionen der Vielzahl von Paaren übereinstimmender Punkte berechnet wird.
  9. Verfahren zur Hinderniserkennung nach Anspruch 6, wobei im Neigungsgradberechnungsschritt der Neigungsgrad durch Entscheidungskoordinatenwerte der Vielzahl von Paaren übereinstimmender Punkte in einem Entscheidungsraum auf der Grundlage einer Gleichung berechnet wird, die durch die Koordinatenwerte erfüllt wird.
  10. Verfahren zur Hinderniserkennung nach Anspruch 6, wobei im Neigungsgradberechnungsschritt aus der Vielzahl von Paaren übereinstimmender Punkte nur das Paar übereinstimmender Punkte als ein Hindernis erkannt wird, das einen Neigungsgrad ergibt, der einen hohen Wert hat.
  11. Programm zur Realisierung eines Verfahrens zur Hinderniserkennung durch Ausführung mittels Computer unter Verwendung eines Eingabebildes, gekennzeichnet durch Verwendung von mindestens zwei Bildaufnahmevorrichtungen, von denen jede ein Bild eines voreingestellten gemeinsamen Ermittlungsbereichs aufnimmt, und wobei aus den unter Verwendung der Bildaufnahmevorrichtungen aufgenommenen Stereobildern bestimmt wird, ob der Ermittlungsbereich ein Hindernis aufweist oder nicht, wobei das Programm umfasst: eine Bildeingabefunktion zum Empfangen der Stereobilder von den Bildaufnahmevorrichtungen; eine Übereinstimmungserkennungsfunktion zum Ableiten einer Vielzahl von Paaren übereinstimmender Punkte in den Ermittlungsbereichen der empfangenen Stereobilder; eine Neigungsgradberechnungsfunktion zum Berechnen eines Neigungsgrads entsprechend einem Neigungswinkel zwischen einer Grundebene, die parallel zur optischen Fläche der Bildaufnahmevorrichtungen ist, und einer Ermittlungsebene mit der abgeleiteten Vielzahl übereinstimmender Punkte in den Stereobildern; und eine Ergebnisbestimmungsfunktion zum Bestimmen des Vorhandenseins eines Hindernisses, wenn der Neigungsgrad der Ermittlungsebene größer als ein vorbestimmter Wert ist.
  12. Programm des Verfahrens zur Hinderniserkennung nach Anspruch 11, wobei die Neigungsgradberechnungsfunktion den Neigungswinkel als einen Steigungswinkel zwischen der Grundebene und der Ermittlungsebene und einen Parameter einer Affintransformationsmatrix, der eine Beziehung zwischen den übereinstimmenden Punkten in den Stereobildern anzeigt, oder einen von dem Parameter abgeleiteten eindeutigen Wert als einen Neigungsgrad betrachtet.
  13. Programm des Verfahrens zur Hinderniserkennung nach Anspruch 12, wobei die Neigungsgradberechnungsfunktion den Neigungsgrad durch Lösen einer Gleichung auf Grundlage einer Parallaxe und vertikaler Positionen der Vielzahl von Paaren übereinstimmender Punkte berechnet.
  14. Programm des Verfahrens zur Hinderniserkennung nach Anspruch 11, wobei die Neigungsgradberechnungsfunktion den Neigungsgrad durch Entscheidungskoordinatenwerte der Vielzahl von Paaren übereinstimmender Punkte in einem Entscheidungsraum auf Grundlage einer Gleichung berechnet, die durch die Koordinatenwerte erfüllt wird.
  15. Programm des Verfahrens zur Hinderniserkennung nach Anspruch 11, wobei die Neigungsgradberechnungsfunktion aus der Vielzahl von Paaren übereinstimmender Punkte nur das Paar übereinstimmender Punkte als ein Hindernis erkennt, das einen Neigungsgrad ergibt, der einen hohen Wert hat
  16. Aufzeichnungsmedium, das ein Programm zur Realisierung eines Verfahrens zur Hinderniserkennung durch Ausführung mittels Computer unter Verwendung eines Eingabebildes aufgezeichnet hat, gekennzeichnet durch Verwendung von mindestens zwei Bildaufnahmevorrichtungen, von denen jede ein Bild eines voreingestellten gemeinsamen Ermittlungsbereichs aufnimmt, und wobei aus den unter Verwendung der Bildaufnahmevorrichtungen aufgenommenen Stereobildern bestimmt wird, ob der Ermittlungsbereich ein Hindernis aufweist oder nicht, wobei das Programm umfasst: eine Bildeingabefunktion zum Empfangen der Stereobilder von den Bildaufnahmevorrichtungen; eine Übereinstimmungserkennungsfunktion zum Ableiten einer Vielzahl von Paaren übereinstimmender Punkte in den Ermittlungsbereichen der empfangenen Stereobilder; eine Neigungsgradberechnungsfunktion zum Berechnen eines Neigungsgrads entsprechend einem Neigungswinkel zwischen einer Grundebene, die parallel zu den optischen Achsen der Bildaufnahmevorrichtungen ist, und einer Ermittlungsebene mit der abgeleiteten Vielzahl übereinstimmender Punkte in den Stereobildern; und eine Ergebnisbestimmungsfunktion zum Bestimmen des Vorhandenseins eines Hindernisses, wenn der Neigungsgrad der Ermittlungsebene größer als ein vorbestimmter Wert ist.
DE60308782T 2002-08-28 2003-08-28 Vorrichtung und Methode zur Hinderniserkennung Expired - Lifetime DE60308782T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002249782A JP3895238B2 (ja) 2002-08-28 2002-08-28 障害物検出装置及びその方法
JP2002249782 2002-08-28

Publications (2)

Publication Number Publication Date
DE60308782D1 DE60308782D1 (de) 2006-11-16
DE60308782T2 true DE60308782T2 (de) 2007-09-20

Family

ID=31492590

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60308782T Expired - Lifetime DE60308782T2 (de) 2002-08-28 2003-08-28 Vorrichtung und Methode zur Hinderniserkennung

Country Status (4)

Country Link
US (2) US6906620B2 (de)
EP (1) EP1394761B1 (de)
JP (1) JP3895238B2 (de)
DE (1) DE60308782T2 (de)

Families Citing this family (163)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US5910854A (en) 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US5668663A (en) 1994-05-05 1997-09-16 Donnelly Corporation Electrochromic mirrors and devices
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
US6172613B1 (en) 1998-02-18 2001-01-09 Donnelly Corporation Rearview mirror assembly incorporating vehicle information display
US8294975B2 (en) 1997-08-25 2012-10-23 Donnelly Corporation Automotive rearview mirror assembly
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US6124886A (en) 1997-08-25 2000-09-26 Donnelly Corporation Modular rearview mirror assembly
US6445287B1 (en) 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
US7167796B2 (en) 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
US7855755B2 (en) 2005-11-01 2010-12-21 Donnelly Corporation Interior rearview mirror assembly with display
WO2001064481A2 (en) 2000-03-02 2001-09-07 Donnelly Corporation Video mirror systems incorporating an accessory module
US7581859B2 (en) 2005-09-14 2009-09-01 Donnelly Corp. Display device for exterior rearview mirror
ES2287266T3 (es) 2001-01-23 2007-12-16 Donnelly Corporation Sistema de iluminacion de vehiculos mejorado.
WO2006124682A2 (en) 2005-05-16 2006-11-23 Donnelly Corporation Vehicle mirror assembly with indicia at reflective element
US7255451B2 (en) 2002-09-20 2007-08-14 Donnelly Corporation Electro-optic mirror cell
EP1306805A1 (de) * 2001-10-25 2003-05-02 Mitsubishi Electric Information Technology Centre Europe B.V. Bildanalyse
US6918674B2 (en) 2002-05-03 2005-07-19 Donnelly Corporation Vehicle rearview mirror system
US7038577B2 (en) 2002-05-03 2006-05-02 Donnelly Corporation Object detection system for vehicle
US7329013B2 (en) 2002-06-06 2008-02-12 Donnelly Corporation Interior rearview mirror system with compass
WO2003105099A1 (en) 2002-06-06 2003-12-18 Donnelly Corporation Interior rearview mirror system with compass
US7310177B2 (en) 2002-09-20 2007-12-18 Donnelly Corporation Electro-optic reflective element assembly
WO2004026633A2 (en) 2002-09-20 2004-04-01 Donnelly Corporation Mirror reflective element assembly
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
JP3977776B2 (ja) * 2003-03-13 2007-09-19 株式会社東芝 ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
US7446924B2 (en) 2003-10-02 2008-11-04 Donnelly Corporation Mirror reflective element assembly including electronic component
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
US7343035B1 (en) * 2003-10-20 2008-03-11 Open Invention Network Llc Method and system for three-dimensional feature attribution through synergy of rational polynomial coefficients and projective geometry
US7197388B2 (en) * 2003-11-06 2007-03-27 Ford Global Technologies, Llc Roll stability control system for an automotive vehicle using an external environmental sensing system
DE102004007553A1 (de) * 2004-02-17 2005-09-01 Daimlerchrysler Ag Erfassungsvorrichtung und Sicherheitssystem für ein Kraftfahrzeug
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
JP4443327B2 (ja) * 2004-07-01 2010-03-31 パイオニア株式会社 情報表示装置
JP4406381B2 (ja) * 2004-07-13 2010-01-27 株式会社東芝 障害物検出装置及び方法
JP2006221603A (ja) 2004-08-09 2006-08-24 Toshiba Corp 3次元情報復元装置、3次元情報復元方法および3次元情報復元プログラム
US20060034485A1 (en) * 2004-08-12 2006-02-16 Shahriar Negahdaripour Point location in multi-modality stereo imaging
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
JP2006178696A (ja) * 2004-12-22 2006-07-06 Nippon Telegr & Teleph Corp <Ntt> 平面検出装置および方法並びに平面検出プログラム
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4364275B2 (ja) * 2005-02-23 2009-11-11 富士通株式会社 画像処理方法、画像処理装置及びコンピュータプログラム
JP2006250722A (ja) * 2005-03-10 2006-09-21 Toshiba Corp キャリブレーション装置及びその方法、キャリブレーション用プログラム
FR2884018A1 (fr) * 2005-03-31 2006-10-06 Neavia Technologies Soc Par Ac Procede et systeme de detection de la presence d'un objet genant, et module d'activation pour ce systeme
JP4548181B2 (ja) * 2005-03-31 2010-09-22 日産自動車株式会社 障害物検出装置
JP4659631B2 (ja) * 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
DE102006019833B4 (de) * 2005-05-10 2013-04-11 Denso Corporation Einrichtung zur Entdeckung eines Hindernisses
JP4408095B2 (ja) * 2005-06-03 2010-02-03 本田技研工業株式会社 車両及び路面標示認識装置
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
WO2007015446A1 (ja) * 2005-08-02 2007-02-08 Nissan Motor Co., Ltd. 車両周囲監視装置及び車両周囲監視方法
JP2007148835A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 物体判別装置、報知制御装置、物体判別方法および物体判別プログラム
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
DE102006010295B4 (de) * 2006-03-07 2022-06-30 Conti Temic Microelectronic Gmbh Kamerasystem mit zumindest zwei Bildaufnehmern
US8339526B2 (en) 2006-03-09 2012-12-25 Gentex Corporation Vehicle rearview mirror assembly including a high intensity display
JP4676373B2 (ja) * 2006-04-27 2011-04-27 株式会社デンソー 周辺認識装置、周辺認識方法、プログラム
US8108092B2 (en) 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
JP4973008B2 (ja) * 2006-05-26 2012-07-11 富士通株式会社 車両判別装置及びそのプログラム
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
US7633383B2 (en) * 2006-08-16 2009-12-15 International Business Machines Corporation Systems and arrangements for providing situational awareness to an operator of a vehicle
EP2132707A2 (de) * 2006-12-18 2009-12-16 Koninklijke Philips Electronics N.V. Kalibrierung eines kamerasystems
JP4832321B2 (ja) * 2007-01-26 2011-12-07 三洋電機株式会社 カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
US8300887B2 (en) * 2007-05-10 2012-10-30 Honda Motor Co., Ltd. Object detection apparatus, object detection method and object detection program
JP4809291B2 (ja) * 2007-06-01 2011-11-09 株式会社豊田中央研究所 計測装置及びプログラム
JP2009041972A (ja) * 2007-08-07 2009-02-26 Toshiba Corp 画像処理装置及びその方法
US8131018B2 (en) 2008-02-08 2012-03-06 Tk Holdings Inc. Object detection and recognition system
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
US9520064B2 (en) * 2008-07-10 2016-12-13 Mitsubishi Electric Corporation Train-of-vehicle travel support device, control system and processor unit
US9487144B2 (en) 2008-10-16 2016-11-08 Magna Mirrors Of America, Inc. Interior mirror assembly with display
JP5218168B2 (ja) * 2009-03-11 2013-06-26 ソニー株式会社 撮像装置、動体検知方法、動体検知回路、プログラム、及び監視システム
US20100289874A1 (en) * 2009-05-15 2010-11-18 Fuhua Cheng Square tube mirror-based imaging system
US20120224062A1 (en) 2009-08-07 2012-09-06 Light Blue Optics Ltd Head up displays
JP5713624B2 (ja) * 2009-11-12 2015-05-07 キヤノン株式会社 三次元計測方法
JP5578844B2 (ja) 2009-12-21 2014-08-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5640423B2 (ja) * 2010-03-26 2014-12-17 日本電気株式会社 赤外線撮像装置及び赤外線画像の表示方法
US8964004B2 (en) 2010-06-18 2015-02-24 Amchael Visual Technology Corporation Three channel reflector imaging system
US8717418B1 (en) * 2011-02-08 2014-05-06 John Prince Real time 3D imaging for remote surveillance
KR101257871B1 (ko) 2011-08-05 2013-04-23 엘지전자 주식회사 소실점 및 광류를 기반으로 한 검출 장치 및 검출 방법
US8648808B2 (en) 2011-09-19 2014-02-11 Amchael Visual Technology Corp. Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof
US9019352B2 (en) 2011-11-21 2015-04-28 Amchael Visual Technology Corp. Two-parallel-channel reflector with focal length and disparity control
US10457209B2 (en) 2012-02-22 2019-10-29 Magna Electronics Inc. Vehicle vision system with multi-paned view
US9019603B2 (en) 2012-03-22 2015-04-28 Amchael Visual Technology Corp. Two-parallel-channel reflector with focal length and disparity control
US8768007B2 (en) 2012-03-26 2014-07-01 Tk Holdings Inc. Method of filtering an image
US8824733B2 (en) 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US9319637B2 (en) 2012-03-27 2016-04-19 Magna Electronics Inc. Vehicle vision system with lens pollution detection
US8879139B2 (en) 2012-04-24 2014-11-04 Gentex Corporation Display mirror assembly
US9738253B2 (en) 2012-05-15 2017-08-22 Aps Systems, Llc. Sensor system for motor vehicle
EP2669846B1 (de) * 2012-06-01 2017-11-01 Ricoh Company, Ltd. Zielerkennungssystem, und vom Zielerkennungssystem durchgeführtes Zielerkennungsverfahren, auf dem Zielerkennungssystem ausgeführtes Zielerkennungsprogramm und Aufzeichnungsmedium mit darauf gespeichertem Zielerkennungsprogramm
US9217636B2 (en) * 2012-06-11 2015-12-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and a computer-readable storage medium
US9557634B2 (en) 2012-07-05 2017-01-31 Amchael Visual Technology Corporation Two-channel reflector based single-lens 2D/3D camera with disparity and convergence angle control
US9707896B2 (en) 2012-10-15 2017-07-18 Magna Electronics Inc. Vehicle camera lens dirt protection via air flow
US9349058B2 (en) 2012-10-31 2016-05-24 Tk Holdings, Inc. Vehicular path sensing system and method
JP6376429B2 (ja) * 2012-11-13 2018-08-22 株式会社リコー 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
US9445057B2 (en) 2013-02-20 2016-09-13 Magna Electronics Inc. Vehicle vision system with dirt detection
CN104021368A (zh) * 2013-02-28 2014-09-03 株式会社理光 估计路面高度形状的方法和系统
WO2014152470A2 (en) 2013-03-15 2014-09-25 Tk Holdings, Inc. Path sensing using structured lighting
JP6403750B2 (ja) 2013-03-15 2018-10-10 ジェンテックス コーポレイション 表示ミラーアセンブリ
AU2014326772B2 (en) 2013-09-24 2017-07-20 Gentex Corporation Display mirror assembly
JP6151150B2 (ja) * 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両
US9511715B2 (en) 2014-01-31 2016-12-06 Gentex Corporation Backlighting assembly for display for reducing cross-hatching
DE102014205170A1 (de) * 2014-03-20 2015-11-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Ermitteln einer Trajektorie für ein Fahrzeug
WO2015143333A1 (en) 2014-03-21 2015-09-24 Gentex Corporation Tri-modal display mirror assembly
JP5906272B2 (ja) * 2014-03-28 2016-04-20 富士重工業株式会社 車両用ステレオ画像処理装置
US9834146B2 (en) 2014-04-01 2017-12-05 Gentex Corporation Automatic display mirror assembly
CA2888228C (en) * 2014-09-01 2017-08-22 Komatsu Ltd. Transporter vehicle, dump truck, and transporter vehicle control method
US9694751B2 (en) 2014-09-19 2017-07-04 Gentex Corporation Rearview assembly
JP5959073B2 (ja) 2014-09-30 2016-08-02 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 検出装置、検出方法、及び、プログラム
US9694752B2 (en) 2014-11-07 2017-07-04 Gentex Corporation Full display mirror actuator
EP3218227B1 (de) 2014-11-13 2018-10-24 Gentex Corporation Rückspiegelsystem mit einer anzeige
KR102332752B1 (ko) * 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
JP6553186B2 (ja) 2014-12-03 2019-07-31 ジェンテックス コーポレイション ディスプレイミラーアセンブリ
USD746744S1 (en) 2014-12-05 2016-01-05 Gentex Corporation Rearview device
US9744907B2 (en) 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
JP6720510B2 (ja) * 2015-01-09 2020-07-08 株式会社リコー 移動体システム
US9720278B2 (en) 2015-01-22 2017-08-01 Gentex Corporation Low cost optical film stack
EP3286038A4 (de) 2015-04-20 2018-04-25 Gentex Corporation Rückspiegelanordnung mit applikation
CN107614324B (zh) 2015-05-18 2020-11-27 金泰克斯公司 完整显示后视装置
US11178353B2 (en) 2015-06-22 2021-11-16 Gentex Corporation System and method for processing streamed video images to correct for flicker of amplitude-modulated lights
CN108349435B (zh) 2015-10-30 2021-06-15 金泰克斯公司 切换板
USD797627S1 (en) 2015-10-30 2017-09-19 Gentex Corporation Rearview mirror device
USD798207S1 (en) 2015-10-30 2017-09-26 Gentex Corporation Rearview mirror assembly
CN108349436B (zh) 2015-10-30 2019-12-20 金泰克斯公司 后视装置
USD800618S1 (en) 2015-11-02 2017-10-24 Gentex Corporation Toggle paddle for a rear view device
JP6631261B2 (ja) * 2016-01-14 2020-01-15 セイコーエプソン株式会社 画像認識装置、画像認識方法および画像認識ユニット
USD845851S1 (en) 2016-03-31 2019-04-16 Gentex Corporation Rearview device
USD817238S1 (en) 2016-04-29 2018-05-08 Gentex Corporation Rearview device
US10025138B2 (en) 2016-06-06 2018-07-17 Gentex Corporation Illuminating display with light gathering structure
WO2018037779A1 (ja) * 2016-08-24 2018-03-01 日立オートモティブシステムズ株式会社 認識制御対象車両報知装置
DE102016218852A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
DE102016218853A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Validierung von Objekten aus Bildern einer Kamera
DE102016218849A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Tracking von Objekten aus Bildern einer Kamera
KR20180061686A (ko) * 2016-11-30 2018-06-08 삼성전자주식회사 자율 주행 경로 생성 방법 및 그 장치
USD809984S1 (en) 2016-12-07 2018-02-13 Gentex Corporation Rearview assembly
USD854473S1 (en) 2016-12-16 2019-07-23 Gentex Corporation Rearview assembly
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
EP3562710A4 (de) 2016-12-30 2019-11-13 Gentex Corporation Vollanzeigespiegel mit spotterbetrachtung auf anfrage
WO2018170353A1 (en) 2017-03-17 2018-09-20 Gentex Corporation Dual display reverse camera system
CN106937910B (zh) * 2017-03-20 2019-07-02 杭州视氪科技有限公司 一种障碍物和坡道检测系统及方法
US11158088B2 (en) 2017-09-11 2021-10-26 Tusimple, Inc. Vanishing point computation and online alignment system and method for image guided stereo camera optical axes alignment
US11089288B2 (en) * 2017-09-11 2021-08-10 Tusimple, Inc. Corner point extraction system and method for image guided stereo camera optical axes alignment
US10158215B1 (en) 2017-11-16 2018-12-18 Dean W. French System for protecting wall voids against construction debris
DE102017223160B4 (de) 2017-12-19 2019-10-24 Volkswagen Aktiengesellschaft Verfahren zum Erkennen von zumindest einem an einem Kraftfahrzeug anliegenden Objekt sowie Steuervorrichtung und Kraftfahrzeug
GB201721400D0 (en) 2017-12-20 2018-01-31 Piksel Inc Dynamic advert selection for programme playback
EP3797377A1 (de) * 2018-05-22 2021-03-31 Starship Technologies OÜ Verfahren und system zur analyse von roboterumgebungen
CN109581390A (zh) * 2018-11-27 2019-04-05 北京纵目安驰智能科技有限公司 基于超声波雷达的地形检测方法、系统、终端和存储介质
CN109795494A (zh) * 2019-01-25 2019-05-24 温州大学 一种控制无人驾驶车辆的方法
TWI794486B (zh) * 2019-04-30 2023-03-01 先進光電科技股份有限公司 行動載具輔助系統及其處理方法
CN112208438B (zh) * 2019-07-10 2022-07-29 台湾中华汽车工业股份有限公司 行车辅助影像产生方法及系统
CN112304293B (zh) * 2019-08-02 2022-09-13 北京地平线机器人技术研发有限公司 道路高度检测方法、装置、可读存储介质和电子设备
CN110619270B (zh) * 2019-08-08 2020-10-16 善泊科技(珠海)有限公司 道闸杆异常检测及报警处置方法及系统
CN110517507B (zh) * 2019-08-27 2022-10-11 纵目科技(上海)股份有限公司 基于超声波传感器的车辆位姿检测方法、系统、终端和存储介质
KR20210148756A (ko) * 2020-06-01 2021-12-08 삼성전자주식회사 경사 추정 장치 및 이의 동작 방법
CN112163446B (zh) * 2020-08-12 2023-04-28 浙江吉利汽车研究院有限公司 一种障碍物检测方法、装置、电子设备及存储介质
CN113252939B (zh) * 2021-05-13 2023-12-05 中国长江电力股份有限公司 基于图像识别技术的水轮发电机组蠕动探测方法及装置
CN114857422A (zh) * 2022-04-11 2022-08-05 湖北天存信息技术有限公司 一种基于信息化技术的信息收集上传装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6446875A (en) * 1987-08-17 1989-02-21 Toshiba Corp Object discriminating device
JP3167752B2 (ja) * 1991-10-22 2001-05-21 富士重工業株式会社 車輌用距離検出装置
US5714928A (en) * 1992-12-18 1998-02-03 Kabushiki Kaisha Komatsu Seisakusho System for preventing collision for vehicle
JPH0995194A (ja) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd 車両前方の物体検出装置
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
JP2000293693A (ja) 1999-03-31 2000-10-20 Toshiba Corp 障害物検出方法および装置
JP4256992B2 (ja) 1999-09-09 2009-04-22 株式会社東芝 障害物検出装置
US6963661B1 (en) 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
US6801244B2 (en) * 2000-02-29 2004-10-05 Kabushiki Kaisha Toshiba Obstacle detection apparatus and method
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
JP2003123196A (ja) * 2001-10-10 2003-04-25 Denso Corp 車両の周辺監視装置及びプログラム

Also Published As

Publication number Publication date
US7132933B2 (en) 2006-11-07
US20050169530A1 (en) 2005-08-04
EP1394761A2 (de) 2004-03-03
EP1394761A3 (de) 2005-12-07
EP1394761B1 (de) 2006-10-04
JP3895238B2 (ja) 2007-03-22
US6906620B2 (en) 2005-06-14
US20040096082A1 (en) 2004-05-20
DE60308782D1 (de) 2006-11-16
JP2004086779A (ja) 2004-03-18

Similar Documents

Publication Publication Date Title
DE60308782T2 (de) Vorrichtung und Methode zur Hinderniserkennung
DE19636028C1 (de) Verfahren zur Stereobild-Objektdetektion
DE4235619C2 (de) Entfernungsbestimmungseinrichtung für Automobile
DE102010020867B4 (de) Strassenform-Erkennungsvorrichtung
DE102009005860B4 (de) Umgebungs-Erkennungssystem
DE102009005861B4 (de) Fahrzeugumgebungs-Erkennungssystem
DE102013205950B4 (de) Verfahren zum Detektieren von Straßenrändern
EP2394234B1 (de) Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung
DE60207655T2 (de) Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
DE69932021T2 (de) Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE4446452B4 (de) Fahrleitvorrichtung und Fahrleitverfahren für ein Fahrzeug
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
EP2396746A2 (de) Verfahren zur objektdetektion
DE102015121387B4 (de) Hinderniserkennungseinrichtung und Hinderniserkennungsverfahren
DE102010012262A1 (de) Bildverarbeitungsvorrichtung
DE202017007675U1 (de) Computerprogrammprodukt mit einem Computerprogramm zur Verarbeitung von visuellen Daten einer Straßenoberfläche
DE102005063199A1 (de) Vorrichtung und Verfahren zur Erkennung von Straßenmarkierungen
DE102009050504A1 (de) Verfahren zum Detektieren eines freien Pfads durch eine Analyse einer topografischen Veränderung
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
DE10131196A1 (de) Vorrichtung zur Detektion von Gegenständen, Personen oder dergleichen
DE102012112104A1 (de) Verfahren und vorrichtung zur befahrbarkeitsanalyse
DE112018007485T5 (de) Straßenoberflächen-Detektionsvorrichtung, Bildanzeige-Vorrichtung unter Verwendung einer Straßenoberflächen-Detektionsvorrichtung, Hindernis-Detektionsvorrichtung unter Nutzung einer Straßenoberflächen-Detektionsvorrichtung, Straßenoberflächen-Detektionsverfahren, Bildanzeige-Verfahren unter Verwendung eines Straßenoberflächen-Detektionsverfahrens, und Hindernis-Detektionsverfahren unter Nutzung eines Straßenoberflächen-Detektionsverfahrens
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen

Legal Events

Date Code Title Description
8381 Inventor (new situation)

Inventor name: NAKAI, HIROAKI, TOKYO, JP

Inventor name: HATTORI, HIROSHI, TOKYO, JP

Inventor name: TAKEDA, NOBUYUKI, TOKYO, JP

Inventor name: ONOGUCHI, KAZUNORI, TOKYO, JP

8332 No legal effect for de
8370 Indication of lapse of patent is to be deleted
8364 No opposition during term of opposition