DE69937699T2 - Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges - Google Patents

Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges Download PDF

Info

Publication number
DE69937699T2
DE69937699T2 DE69937699T DE69937699T DE69937699T2 DE 69937699 T2 DE69937699 T2 DE 69937699T2 DE 69937699 T DE69937699 T DE 69937699T DE 69937699 T DE69937699 T DE 69937699T DE 69937699 T2 DE69937699 T2 DE 69937699T2
Authority
DE
Germany
Prior art keywords
wall surface
node
distance
point
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69937699T
Other languages
English (en)
Other versions
DE69937699D1 (de
Inventor
Keiji Hanawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK, Fuji Heavy Industries Ltd filed Critical Fuji Jukogyo KK
Application granted granted Critical
Publication of DE69937699D1 publication Critical patent/DE69937699D1/de
Publication of DE69937699T2 publication Critical patent/DE69937699T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Fahrzeugumfeldüberwachungsvorrichtung und im Spezielleren auf eine Fahrzeugumfeldüberwachungsvorrichtung, die sich dazu eignet, feste Objekte, die aufeinanderfolgend entlang von Straßen angeordnet sind, wie Leitplanken, Seitenbegrenzungen u. dgl. zu erfassen.
  • 2. Stand der Technik
  • Mit einer erhöhten Anzahl von Fahrzeugen und mit einer erhöhten Anzahl von Verkehrsunfällen wird die Vorstellung eines Advanced Safety Vehicle (ASV), also eines Fahrzeugs mit fortschrittlicher Sicherheit, zu einer der primären Strategien bei der Konstruktion eines Fahrzeugs. Insbesondere lässt eine ASV-Technologie den Intelligenzgrad eines Fahrzeugs durch modernste Elektroniktechnologien ansteigen. In den letzten Jahren wurden verschiedene Sicherheitseinrichtungen vorgeschlagen, darunter Alarmgebung, um den Fahrer eines Fahrzeugs über das deutliche Anzeichen einer Kollision zu warnen, Anhalten eines Fahrzeugs, Erhöhen oder Senken der Geschwindigkeit des Fahrzeugs durch Erfassen eines vorausfahrenden Fahrzeugs oder eines Hindernisses durch eine Fernsehkamera, ein Laser-Radar o. dgl.
  • Der Anmelder der vorliegenden Erfindung hat bereits in der japanischen Patentanmeldung mit der Veröffentlichungsnummer Toku-Kai-Hei 5-265547 ein Verfahren vorgeschlagen, bei dem Bilder, die von zwei Stereokameras aufgenommen werden, in Entfernungsbilder umgewandelt werden, wobei diese Entfernungsbilder in gitterartige Kleinbereiche mit einem vorgegebenen Anstand unterteilt werden, um für jeden Kleinbereich fes te Objekte zu erfassen. Darüber hinaus hat der Anmelder in der japanischen Patentanmeldung mit der Veröffentlichungsnummer Toku-Kai-Hei 6-266828 bereits ein Verfahren vorgeschlagen, bei dem auf ähnliche Weise Daten von festen Objekten pro Kleinbereich extrahiert werden, wobei diese Daten durch eine sogenannte "Hough"-Transformationsmethode verarbeitet werden, um die festen Objekte wie Seitenbegrenzungen und Leitplanken zu erfassen, die mit Straßen der Länge nach ausgerichtet sind.
  • Da jedoch nach diesen bekannten technischen Verfahren die Daten fester Objekte durch die "Hough"-Transformationsmethode u. dgl. verarbeitet werden, werden im Ergebnis, was die entlang einer kurvigen Straße vorgesehenen festen Objekte wie Leitplanken betrifft, nur ihre kleinen Abschnitte, die sich in einem relativ kurzen Abstand befinden, als gerade Linien erkannt, und deshalb ist es schwieriger, diese Objekte in der Entfernung zu erkennen.
  • Die US 5,530,420 wird als nächster Stand der Technik erachtet und erläutert eine Überwachungsvorrichtung nach dem Oberbegriff von Anspruch 1. Die US 5,142,659 erörtert eine Vorrichtung zur verbesserten Objekterkennung, die auf seiner Randlinie beruht.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung ist dazu gedacht, das vorstehende Problem aus dem Stand der Technik zu lösen, und eine Aufgabe der vorliegenden Erfindung besteht darin, eine Fahrzeugumfelderfassungsvorrichtung bereitzustellen, die in der Lage ist, eine Reihe von festen Objekten, die eine Begrenzung einer Straße bilden, wie etwa eine Wandfläche, auch dann zu erfassen, wenn die Straße kurvig ist.
  • Um die Aufgabe zu erfüllen, stellt die vorliegende Erfindung eine Fahrzeugumfeldüberwachungsvorrichtung nach dem unabhängigen Anspruch 1 bereit. Bevorzugte Ausführungsformen der Erfindung sind in den abhängigen Ansprüchen wiedergegeben.
  • Die beanspruchte Erfindung lässt sich angesichts der Ausführungsformen einer im Nachstehenden beschriebenen Fahrzeugumfeldüberwachungsvorrichtung besser verstehen. Im Allgemeinen beschreiben die beschriebenen Ausführungsformen bevorzugte Ausfüh rungsformen der Erfindung. Der aufmerksame Leser wird jedoch feststellen, dass sich manche Aspekte der beschriebenen Ausführungsformen über den Rahmen der Ansprüche hinaus erstrecken. Im Hinblick darauf, dass sich die beschriebenen Ausführungsformen tatsächlich über den Rahmen der Ansprüche hinaus erstrecken, sollen die beschriebenen Ausführungsformen als zusätzliche Hintergrundinformation erachtet werden und keine Definitionen der Erfindung an sich bilden. Dies trifft auch auf die anschließende "Kurze Beschreibung der Zeichnungen" wie auch auf die "Ausführliche Beschreibung der bevorzugten Ausführungsformen" zu.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine Gesamtansicht einer in ein Fahrzeug eingebauten Fahrzeugumfeldüberwachungsvorrichtung;
  • 2 ist ein Blockschema einer Fahrzeugumfeldüberwachungsvorrichtung nach der vorliegenden Erfindung;
  • 3 ist ein erstes Ablaufschema, das einen Steuerablauf eines Erfassungsprozesses für eine Gruppe bestehend aus festem Objekt/Seitenwand zeigt;
  • 4 ist ein zweites Ablaufschema, das einen Steuerablauf eines Erfassungsprozesses für eine Gruppe bestehend aus festem Objekt/Seitenwand zeigt;
  • 5 ist ein drittes Ablaufschema, das einen Steuerablauf eines Erfassungsprozesses für eine Gruppe bestehend aus festem Objekt/Seitenwand zeigt;
  • 6 ist ein Ablaufschema, das einen Steuerablauf für einen Wandflächenerfassungsprozess zeigt;
  • 7 ist ein erstes Ablaufschema, das einen Steuerablauf für einen Wandflächenpositionskorrekturprozess zeigt;
  • 8 ist ein zweites Ablaufschema, das einen Steuerablauf für einen Wandflächenpositionskorrekturprozess zeigt;
  • 9 ist eine erläuternde Ansicht, die ein Beispiel von Bildern zeigt, die von Kameras aufgenommen wurden, die in ein Fahrzeug eingebaut sind;
  • 10 ist eine erläuternde Ansicht, die ein Beispiel von in 9 gezeigten Entfernungsbildern zeigt;
  • 11 ist eine erläuternde Ansicht, welche die Position von festen Objekten zeigt, die pro jeweiliger Streifen erfasst wurden;
  • 12 ist eine erläuternde Ansicht, die das Erfassungsergebnis von Seitenwänden zeigt;
  • 13 ist eine erläuternde Ansicht, die das Erfassungsergebnis von Seitenwänden in Bezug auf die X-Z-Ebene zeigt;
  • 14 ist eine Schemaansicht, die ein Wandflächenmodell zeigt;
  • 15 ist eine erläuternde Ansicht, welche die Art und Weise zeigt, ein Wandflächenraster zu suchen;
  • 16 ist eine erläuternde Ansicht, die ein Beispiel eines Rasters eines Gewichtungskoeffizienten zeigt;
  • 17 ist eine erläuternde Ansicht, die das Berechnungsergebnis eines Koinzidenzgrads zeigt;
  • 18 ist eine erläuternde Ansicht, welche die Verbindung von Knoten zeigt;
  • 19 ist eine erläuternde Ansicht, die das Erfassungsergebnis von Wandflächen zeigt; und
  • 20 ist eine erläuternde Ansicht, die das Erfassungsergebnis von Wandflächen in Bezug auf die X-Z-Ebene zeigt.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nunmehr bezeichnet mit Bezug auf 1 die Bezugszahl 1 ein Fahrzeug, in das eine Fahrzeugumfeldüberwachungsvorrichtung 2 eingebaut ist, um Objekte innerhalb eines sichtbaren Bereichs vor dem Fahrzeug abzubilden und die Objekte zur Überwachung zu erkennen. Die Fahrzeugumfeldüberwachungsvorrichtung 2 umfasst ein stereoskopisches optisches System 10, um Objekte aus zwei verschiedenen Positionen aufzunehmen, einen Bildprozessor 20, um Bilder von diesen Objekten zu verarbeiten, um eine dreidimensionale Entfernungsverteilungsinformation zu erhalten, und einen Erkennungs-/Beurteilungscomputer 30, um dreidimensionale Positionen von Straßen und festen Objekten mit hoher Geschwindigkeit auf Grundlage der vom Bildprozessor 20 her eingegebenen Entfernungsinformation zu erfassen, um ein vorausfahrendes Fahrzeug oder ein Hindernis auf Grundlage der Ergebnisse der Erfassung auszumachen und zu beurteilen, ob ein Alarm abgegeben werden sollte oder nicht, um eine Kollision mit dem vorausfahrenden Fahrzeug oder dem Objekt zu vermeiden.
  • Der Erkennungs-/Beurteilungscomputer 30 ist mit Sensoren wie etwa einem Fahrzeuggeschwindigkeitssensor 4, einem Lenkwinkelsensor 5 u. dgl. verbunden, um einen bestehenden Fahrzustand des Fahrzeugs zu erfassen, und ist auch mit einer Anzeige 9 verbunden, die vor dem Fahrer eines Fahrzeugs zur Gefahrmitteilung vorgesehen ist. Darüber hinaus ist der Computer 30 mit einer externen Schnittstelle verbunden, um beispielsweise (nicht gezeigte) Stellglieder zu steuern, die so funktionieren, dass eine Kollision mit dem Hindernis oder dem vorausfahrenden Fahrzeug verhindert wird.
  • Das stereoskopische optische System 10 besteht aus zwei CCD-Kameras (ladungsgekoppelten Kameras) 10a, 10b, und zwar einer linken und einer rechten Kamera. Zwei Stereoskopbilder, die von den CCD-Kameras 10a, 10b aufgenommen wurden, werden im Bild prozessor 20 nach dem Triangulierungsprinzip verarbeitet, um eine dreidimensionale Entfernungsverteilung über ein gesamtes Bild zu erhalten.
  • Der Erkennungs-/Beurteilungscomputer 30 liest die Entfernungsverteilungsinformation aus dem Bildprozessor 20 aus, um dreidimensionale Positionen im Hinblick auf die Zustandsform von Straßen und festen Objekten wie etwa Fahrzeugen und Hindernissen mit hoher Geschwindigkeit zu erfassen, und beurteilt eine Kollisions- oder Kontaktmöglichkeit mit diesen erfassten Objekten auf Grundlage des Fahrzustands des Eigenfahrzeugs, der vom Fahrzeuggeschwindigkeitssensor 4 und dem Lenkwinkelsensor 5 erfasst wird, um dem Fahrer des Fahrzeugs über die Anzeige 9 das Ergebnis der Beurteilung mitzuteilen.
  • 2 zeigt einen Aufbau des Bildprozessors 20 und des Erkennungs-/Beurteilungscomputers 30. Der Bildprozessor 20 umfasst eine Entfernungserfassungsschaltung 20a zum Herstellen von Entfernungsverteilungsinformation, und einen Entfernungsbildspeicher 20b zum Abspeichern dieser Entfernungsverteilungsinformation. Im Spezielleren berechnet die Entfernungserfassungsschaltung 20a eine Entfernung zu einem bestimmten Objekt, indem ein kleiner Bereich, der einen identischen Abschnitt des Objekts abbildet, aus den linken und rechten Stereoskopbildern ausgewählt wird, die jeweils von den CCD-Kameras 10a, 10b aufgenommen wurden, und dann eine Abweichung zwischen diesen beiden kleinen Bereichen ermittelt wird, und gibt diese in Form von dreidimensionaler Entfernungsverteilungsinformation aus.
  • 9 zeigt ein Beispiel eines der Bilder, die von der linken und rechten CCD-Kamera 10a, 10b aufgenommen wurden. Wenn dieses Bild von der Entfernungserfassungsschaltung 20a verarbeitet wird, wird die Entfernungsverteilungsinformation, die aus der Entfernungserfassungsschaltung 20a ausgegeben wird, als ein wie in 10 gezeigtes Entfernungsbild ausgedrückt.
  • Das Beispiel des in 10 gezeigten Entfernungsbilds hat ein Bildformat, das sich aus 600 (in der Seitenrichtung) × 200 (in der Längsrichtung) Bildelementen zusammensetzt. Die Entfernungsdaten sind in weiß gepunkteten Abschnitten enthalten, die den Abschnitten mit einem größeren Helligkeitsunterschied zwischen zwei aneinander angrenzenden Bildelementen entsprechen, die in dem in 9 gezeigten Bild in der linken bzw. rechten Richtung aufgereiht sind. Darüber hinaus behandelt in diesem Beispiel die Entfernungserfassungsschaltung 20a das Entfernungsbild als ein Bild, das sich aus 150 (in der Seitenrichtung) × 50 (in der Längsrichtung) Blöcken, d. h. 4 × 4 Bildelementen für einen Block oder einen kleinen Bereich zusammensetzt. Die Entfernungsberechnung erfolgt für jeden Block des linken und rechten Bilds.
  • Der Erkennungs-/Beurteilungscomputer 30 umfasst einen Mikroprozessor 30a primär zum Erfassen der Straßenzustandsform, einen Mikroprozessor 30b primär zur Erfassung fester Objekte auf Grundlage der erfassten Zustandsform einer Straße, und einen Mikroprozessor 30c primär zum Ausmachen eines vorausfahrenden Fahrzeugs oder eines Hindernisses auf Grundlage der Positionsinformation der erfassten festen Objekte, und zum Beurteilen einer Kollisions- oder Kontaktmöglichkeit mit dem vorausfahrenden Fahrzeug oder dem Hindernis, und diese Mikroprozessoren 30a, 30b und 30c sind über einen Systembus 31 miteinander parallel geschaltet.
  • Der Systembus 31 ist mit einer Schnittstellenschaltung 32, in die das Entfernungsbild aus dem Entfernungsbildspeicher 20b eingegeben wird, einem ROM 33 zum Speichern eines Steuerprogramms, einem RAM 34 zum Abspeichern verschiedener Parameter, die während den Berechnungen hergestellt werden, einem Ausgabespeicher 35 zum Abspeichern des Verarbeitungsergebnisses, einer Anzeigensteuerung 30d zum Steuern der Anzeige 9 und einer E/A-Schnittstellenschaltung 37 verbunden, in die Signale eingegeben werden, die vom Fahrzeuggeschwindigkeitssensor 4 und dem Lenkwinkelsensor 5 stammen.
  • Wie in 9 gezeigt ist, hat das Entfernungsbild ein Koordinatensystem, das sich aus einer Seitenachse i, einer Längsachse j und einer vertikalen Achse dp zusammensetzt, wobei sich der Ausgangspunkt der Koordinaten an der linken unteren Ecke des Entfernungsbilds befindet. Die vertikale Achse dp gibt eine Entfernung zu einem Objekt an, die dem Abweichungsbetrag zwischen Blöcken entspricht. Deshalb wird im Bildverarbeitungscomputer 30 ein Punkt (i, j, dp) auf dem Entfernungsbild in ein im realen Raum vorgesehenes Koordinatensystem umgesetzt, um Prozesse wie Erkennung der Straßenzustandsform, Erfassung der Position von festen Objekten u. dgl. ablaufen zu lassen.
  • Das heißt, dass im Hinblick auf das dreidimensionale Koordinatensystem, das an einem Eigenfahrzeug im realen Raum festgemacht ist, das Ansetzen der X-Achse auf der rechten Seite im Hinblick auf die Fahrtrichtung des Eigenfahrzeugs (Fahrzeug 1), der Y-Achse in der Aufwärtsrichtung des Fahrzeugs 1 und der Z-Achse in der Vorwärtsrichtung des Fahrzeugs, das Anordnen eines Ausgangspunkts der Koordinaten auf der Straßenoberfläche unterhalb der Mitte der beiden CCD-Kameras 10a, 10b, die X-Z-Ebene (Y = 0) mit der Straßenoberfläche zusammenfällt, wenn die Straße eben ist. Dementsprechend kann der Punkt (i, j, dp) auf dem Entfernungsbild wie folgt in einen Punkt (x, y, z) im realen Raum umgesetzt werden: x = CD/2 + z·PW·(i – IV) (1) y = CH + z·PW·(j – JV) (2) z = KS/dp (3),worin CD ein Abstand zwischen den CCD-Kameras 10a, 10b ist; PW ein Sichtbarkeitswinkel pro Bildelement ist; CH eine Höhe der CCD-Kameras von der Straßenoberfläche aus gemessen ist; IV, JV Koordinaten eines unendlichen Punkts direkt vor dem Fahrzeug 1 auf dem Bild sind; und KS ein Entfernungskoeffizient (KS = CD/PW) ist.
  • Ein Umschreiben der vorstehenden Gleichungen (1), (2) und (3) wie folgt ergibt: i = (x – CD/2)/(z·PW) + IV (4) j = (y – CH)/(z·PW) + JV (5) dp = KS/z (6).
  • Als Nächstes werden Prozesse beschrieben, die im Erkennungs-/Beurteilungscomputer 30 ablaufen.
  • Im Mikrocomputer 30a werden zuerst tatsächliche Fahrbahnmarkierungen einer Straße aus der im Entfernungsbild enthaltenen dreidimensionalen Lageinformation, die im Entfernungsbildspeicher 20b gespeichert ist, extrahiert, und dann wird die Zustandsform der Straße erkannt, indem die Parameter eines eingebauten Straßenmodells so abgeändert werden, dass sie mit der tatsächlichen Straßenzustandsform übereinstimmen.
  • Das vorstehend beschriebene Straßenmodell wird durch mehrere dreidimensionale lineare Gleichungen ausgedrückt. Und zwar werden die linken und rechten Fahrbahnmarkierungen der Straße, auf der das Eigenfahrzeug fährt, in mehrere Zwischenräume unterteilt, die entsprechend der Entfernung bestimmt werden, und das Straßenmodell wird durch mehrere unterbrochen Linien gebildet, wovon jede für jeden Zwischenraum in den folgenden dreidimensionalen linearen Gleichungen ausgedrückt wird: x = a·z + b (7) y = c·z + d (8),worin a, b Parameter einer linearen Gleichung sind, die in der horizontalen Richtung im Koordinatensystem des realen Raums erweitert ist, und c, d Parameter einer linearen Gleichung sind, die in der vertikalen Richtung im Koordinatensystem des realen Raums erweitert ist.
  • Im Mikroprozessor 30b, in dem die Erfassung fester Objekte verarbeitet wird, wird das Entfernungsbild in gitterartige Streifen mit einem vorgegebenen Abstand unterteilt, und für jeden Streifen werden Daten von feststehenden Objekten extrahiert. Dann wird ein Histogramm für jeden dieser Streifen auf Grundlage der Daten von festen Objekten erstellt, und die Position in der X-Y-Ebene fester Objekte, welche die jeweiligen Streifen darstellen, und die Entfernung zu diesen werden aus dem Histogramm ermittelt. Dann werden durch einen Vergleich der Bilder aufeinanderfolgend von links nach rechts, die Bilder mit kurzen Entfernungen in der Vorwärts- und Rückwärtsrichtung (Z-Achsenrichtung) und der seitlichen Richtung (X-Achsenrichtung) in dieselbe Gruppe eingestuft. Darüber hinaus wird, wenn die Anordnungsrichtung der Daten geprüft wird, der Ab schnitt, in dem sich die Anordnungsrichtung stark verändert, herausgefunden, wobei die Gruppe in eine andere Gruppe eingeteilt wird.
  • Darüber hinaus werden die Gruppen auf Grundlage der Anordnungsrichtung der Entfernungsdaten der Gesamtgruppen, d. h. des Gradienten im Hinblick auf die Z-Achse, in Festobjektgruppen und Seitenwandgruppen eingestuft. Was die Festobjektgruppen betrifft, so werden Parameter wie mittlere Entfernung, X-Koordinaten des linken und rechten Endes u. dgl. aus den Entfernungsdaten der Gruppe berechnet. Darüber hinaus werden, was die Seitenwandgruppen betrifft, Parameter wie die Anordnungsrichtung (Gradient im Hinblick auf die Z-Achse), die Positionen des vorderen und hinteren Endes in Bezug auf die Z-X-Koordinaten u. dgl. berechnet. Somit werden das vordere Ende, die Seitenfläche und das hintere Ende eines festen Objekts und der Struktur wie etwa einer Leitplanke, die entlang der Straße angeordnet ist, berechnet.
  • Was die Entfernungsbildherstellung anbelangt, wurden der Prozess zum Erfassen der Zustandsform von Straßen aus dem Entfernungsbild und der Prozess der Beurteilung der Kollision oder des Kontakts mit Hindernissen vom Anmelder der vorliegenden Erfindung vorgeschlagen, deren Einzelheiten in den japanischen Patentanmeldungen mit den Veröffentlichungsnummern Toku-Kai-Hei 5-265547 und 6-266828 beschrieben sind, die auch beide vom Anmelder der vorliegenden Erfindung stammen.
  • Die vorliegende Erfindung zeichnet sich dadurch aus, dass auch wenn die Straße kurvig ist, die Wandfläche bis in weite Entfernung entlang der kurvigen Straße erkannt werden kann. Der im Mikroprozessor 30b ablaufende Prozess wird entsprechend den in 3 bis 8 gezeigten Ablaufdiagrammen beschrieben.
  • Die in 3 bis 5 gezeigten Programme, sind Programme zum Einstufen der Festobjektgruppe und der Seitenwandgruppe durch Verarbeitung der Entfernungsdaten, die aus dem Entfernungsbild erhalten wurden. Zuerst wird beim Schritt S101 das Entfernungsbild in gitterartige Streifen mit einem vorgegebenen Abstand (zum Beispiel 8 bis 20 Bildelemente) unterteilt, und bei S102 werden Daten eines festen Objekts für jeden Streifen extrahiert und die Daten des ersten Streifens ausgelesen, um die Entfernung zu dem Objekt zu berechnen.
  • Als Nächstes geht das Programm zu S103 weiter, wo die Daten des ersten Streifens eingesetzt werden, und bei S104 wird die dreidimensionale Position (x, y, z) des Objekts entsprechend den zuvor erwähnten Gleichungen (1) bis (3) ermittelt. Dann geht das Programm zu S105 weiter, wo die Höhe yr der Straßenoberfläche in der Entfernung z entsprechend den linearen Gleichungen (7) und (8) berechnet wird, welche die Straßenzustandsform ausdrückt. Im Falle, dass die Straßenzustandsform nicht erkannt werden kann, zum Beispiel auf einer Straße ohne Fahrbahnmarkierung, wobei davon ausgegangen wird, dass sich die Straßenoberfläche in einem horizontalen Verhältnis zum Fahrzeug 1 befindet, wird die Straßenhöhe beispielsweise als Null festgelegt.
  • Als Nächstes geht das Programm zu S106 weiter, wo die Daten oberhalb der Straßenoberfläche als Festobjektdaten auf Grundlage der Höhe H von der Straßenoberfläche extrahiert werden, die entsprechend der folgenden Gleichung (9) berechnet wird. H = y – yr (9).
  • Falls in diesem Fall die Höhe H des Objekts 0,1 Meter oder kleiner ist, werden die Daten verworfen, weil ein Objekt mit einer solchen Größe als Fahrbahnmarkierung, Fleck oder Schatten auf der Straße angesehen wird. Auf ähnliche Weise wird ein Objekt verworfen, das sich an einer höheren Position als das Eigenfahrzeug befindet, weil dieses Objekt als eine Brücke oder ein Verkehrsschild angesehen wird. Somit werden nur die Daten von Objekten ausgewählt, die als feste Objekte auf der Straße eingeschätzt werden.
  • Danach geht das Programm zu S107 weiter, wo geprüft wird, ob es sich bei den Daten um die letzten Daten des Streifens handelt oder nicht. Falls die Daten, nachdem die nächsten Daten bei S108 eingesetzt werden, keine letzten Daten sind, kehrt das Programm zu S104 zurück, und die entsprechenden Prozesse werden wiederholt, um die Daten oberhalb der Straßenoberfläche zu extrahieren. Wenn darüber hinaus die letzten Daten des Streifens fertig verarbeitet sind, geht das Programm von S107 zu S109 über, wo ein Histogramm erstellt wird. Das Histogramm setzt sich aus einer Anzahl von Daten zusammen, die innerhalb eines vorbestimmten Zwischenraums der Entfernung z enthalten ist, die auf der seitlichen Achse ausgerichtet ist.
  • Beim nächsten Schritt S110 wird beurteilt, falls ein Zwischenraum besteht, in dem die Frequenz (Anzahl von Daten) über einem Schwellenwert liegt und darüber hinaus einen Höchstwert angibt, dass es ein festes Objekt in diesem Zwischenraum gibt, und die Entfernung zu dem Objekt wird erfasst. Das so erstellte Histogramm enthält auch irrtümlich erfasste Daten, und deshalb erscheinen manche Daten an der Stelle, an der gar kein Objekt vorhanden ist. Allerdings sollte festgehalten werden, dass, falls ein Objekt vorhanden ist, das einige Größengrade an einer Stelle hat, die Frequenz an der Stelle einen relativ großen Wert aufweist, und falls kein Objekt vorhanden ist, die Frequenz relativ gering ist.
  • Dementsprechend ist eine Beurteilung zulässig, dass, wenn die Frequenz des Histogramms einen vorbestimmten Schwellenwert überschreitet und außerdem in einem Zwischenraum einen Höchstwert aufweist, ein Objekt in dem Zwischenraum vorhanden ist, und wenn der Höchstwert der Frequenz unter dem Schwellenwert liegt, kein Objekt vorhanden ist. Selbst wenn ein gewisser Rauschbetrag in den Bilddaten enthalten ist, ist es möglich, ein Objekt mit geringster Rauschwirkung zu erfassen.
  • Danach geht das Programm von S111 zu S112 weiter, wo geprüft wird, ob der Prozess einen letzten Streifen erreicht hat oder nicht. Wenn beurteilt wird, dass der Prozess noch keinen letzten Streifen erreicht hat, kehrt das Programm zu S103 zurück und die entsprechenden Prozesse werden wiederholt. Wenn der Prozess den letzten Streifen erreicht, geht das Programm von S112 zu S114 weiter.
  • 11 ist eine Ansicht, welche die Position fester Objekte zeigt, die für jeden Streifen aus dem Originalbild erfasst wurden. Die Entfernungsdaten dieser festen Objekte werden durch die bei den Schritten S114 bis S120 ablaufenden Prozesse in Gruppen mit zueinander nahem Abstand eingeteilt. Die Gruppenbildung wird wie folgt durchgeführt. In diesen Prozessen werden die erfassten Entfernungen der festen Objekte in den jeweiligen Streifen untersucht. Wenn die Differenz der erfassten Entfernungen zu den festen Objekten zwischen aneinander angrenzenden Streifen kleiner ist als ein Schwellenwert, werden diese Objekte als dieselben Objekte erachtet, und wenn hingegen diese Differenz den Schwellenwert überschreitet, werden diese Objekte als unterschiedliche Objekte angesehen.
  • Speziell wird bei S114 der erste Streifen (zum Beispiel ein Streifen am linken Ende) untersucht, und wenn darin ein festes Objekt entdeckt wird, werden die Entfernungsdaten ausgelesen, und dieser Streifen R1 wird in eine Gruppe G1 mit einer Entfernung Z1 eingeteilt. Als Nächstes geht das Programm zu S115 weiter, wo der rechts angrenzende Streifen R2 untersucht wird. Wenn kein festes Objekt im Streifen R2 entdeckt wird, wird beurteilt, dass die Gruppe G1 im Streifen R1 oder in dessen Nachbarschaft vorkommt und die Entfernung Z1 ist. Wird hingegen im Streifen R2 ein festes Objekt entdeckt und die Entfernung zum Objekt ist Z2, wird die Entfernung Z1 des Streifens R1 mit der Entfernung Z2 des Streifens R2 verglichen.
  • Danach geht das Programm zu S116 weiter, wo beurteilt wird, ob die Differenz zwischen den Entfernungen Z1 und Z2 kleiner als ein Schwellenwert ist oder nicht, und wenn die Differenz kleiner als der Schwellenwert ist und nahe angrenzt, wird bei S117 beurteilt, dass das im Streifen R2 entdeckte feste Objekt zu eben dieser als solche bezeichneten Gruppe G1 gehört, und dann geht das Programm zu S119 weiter. Zu diesem Zeitpunkt wird die Entfernung zum Objekt als Mittelwert von Z1 und Z2 festgelegt.
  • Falls hingegen die Differenz der Entfernungen Z1 und Z2 den Schwellenwert überschreitet, geht das Programm von S116 zu S118 über, bei dem unter der Beurteilung, dass das im Streifen R2 entdeckte feste Objekt nicht zur Gruppe G1 gehört, das feste Objekt als zu einer neuen Gruppe, G2, mit einer Entfernung Z2 gehörend gekennzeichnet wird, und geht dann zu S119 weiter.
  • Bei S119 wird untersucht, ob der Prozess einen letzten Streifen erreicht hat oder nicht, und wenn nicht, kehrt das Programm, nachdem die Entfernung des nächsten Streifens bei S120 ausgelesen wurde, zu S115 zurück und danach wird der rechts angrenzende Streifen untersucht. Wenn der Prozess den letzten Streifen erreicht hat, geht der Prozess von S119 zu S121 über.
  • Der folgende Fall sollte noch angemerkt werden. Von einer Situation ausgehend, bei der ein Fahrzeug neben einer Leitplanke parkt, besteht eine Möglichkeit, dass die Entfernungsdaten der Leitplanke als zur selben Gruppe gehörend erachtet werden wie die Ent fernungsdaten des geparkten Fahrzeugs. Um dies zu vermeiden, wird bei S121 bis S131 die Anordnungsrichtung der Entfernungsdaten in der X-Z-Ebene geprüft, um die Gruppe der Anordnungsrichtung in einen mit der Z-Achse parallelen und einen mit der X-Achse parallelen Teil zu unterteilen.
  • Und zwar werden bei S121 die Daten der ersten Gruppe ausgelesen, und bei S122 wird die Anordnungsrichtung der Daten der jeweiligen Streifen berechnet. Darüber hinaus werden bei S123 diese Streifen als "Objekt" bzw. "Seitenwand" gekennzeichnet. Speziell werden die ersten beiden Punkte in der X-Z-Ebene aus den Daten der ersten Gruppe aufgenommen. Ein Punkt (X1, Z1) ist ein Mittelpunkt eines Streifens K1 am linken Ende der ersten Gruppe und der andere Punkt (Xp, Zp) ist ein Mittelpunkt eines Streifens, der vom linken Endstreifen K1 um einen Zwischenraum von N Streifen in der rechten Richtung weit weg ist. Dann wird eine Linie, die diese beiden Punkte verbindet, in die X-Z-Ebene eingezeichnet und ein Gradient A1 der Linie berechnet. Wenn der Gradient A1 mit einem vorgegebenen Wert, zum Beispiel 45 Grad, verglichen wird, wird der Streifen K1, wenn der Gradient A1 größer ist als der Wert, als "Seitenwand" gekennzeichnet, und wenn der Gradient A1 kleiner ist als der Wert, wird der Streifen K1 als "Objekt" gekennzeichnet.
  • Der Zwischenraum N zwischen Streifen ist vorzugsweise N = 2 bis 4. Der Grund dafür ist, dass wenn N = 1 ist, ein angrenzender Streifen nämlich Fluktuationen in der Anordnungsrichtung der Daten aufgrund der erfassten Entfernungsverteilung erzeugen kann und es im Ergebnis schwierig wird, zwischen "Seitenwand" und "Objekt" zu unterscheiden. Deshalb ist es nützlich, nicht einen angrenzenden Streifen, sondern einen ein wenig entfernten Streifen zu verwenden. Im Nachstehenden erfolgt die Kennzeichnung "Seitenwand" oder "Objekt" aufeinanderfolgend ausgehend vom linken Endstreifen bis zu dem Streifen, der um N Streifen auf der linken Seite des rechten Endstreifens entfernt ist.
  • Wenn die Kennzeichnung für jeden Streifen der Gruppe durchgeführt ist, geht das Programm von S123 zu S124 weiter, wo die Kennzeichnung des linken Endstreifens ausgelesen wird und beim nächsten Schritt S125 die Kennzeichnung des rechts angrenzenden Streifens ausgelesen wird. Dann wird untersucht, ob die Kennzeichnung des linken Endstreifens sich von derjenigen des rechts angrenzenden Streifens unterscheidet. Wenn im Ergebnis die Kennzeichnung des linken Endstreifens dieselbe ist wie diejenige des rechts angrenzenden Streifens, springt das Programm zu S128 über, und wenn sie sich unterscheidet, geht das Programm zu S127 weiter, wo der als "Seitenwand" gekennzeichnete Streifen und der als "Objekt" gekennzeichnete Streifen jeweils in verschiedene Gruppen unterteilt werden. Die Unterteilung der Gruppe erfolgt an der Stelle, die um N/2 Streifen auf der rechten Seite von der Stelle entfernt ist, an der die Kennzeichnung von "Seitenwand" zu "Objekt" wechselt und umgekehrt.
  • Um in diesem Fall die Situation zu vermeiden, dass die Kennzeichnung selbst aufgrund der Entfernungsdatenverteilung fälschlich gekennzeichnet wird, wird die Unterteilung nur dann durchgeführt, wenn mehr als drei gleiche Kennzeichnungen aufeinanderfolgen.
  • Bei S128 wird geprüft, ob der Prozess zum letzten Streifen kommt oder nicht, und wenn nicht, kehrt das Programm, nach dem Auslesen der Kennzeichnung des nächsten Streifens bei S129, zu S125 zurück, und danach werden die entsprechenden Prozesse wiederholt. Wenn der Prozess zum letzten Streifen kommt, geht das Programm von S128 zu S130 über, wo untersucht wird, ob der Prozess die letzte Gruppe erreicht oder nicht. Wenn der Prozess die letzte Gruppe noch nicht erreicht, werden die Daten der nächsten Gruppe ausgelesen, und danach werden dieselben Prozesse wiederholt durchgeführt. Wenn der Prozess die letzte Gruppe erreicht, wird die Unterteilung der Gruppen abgeschlossen und das Programm geht von S130 zu S132 über.
  • Die folgenden Schritte S132 bis S137 sind Prozessschritte, bei denen weitere Einstufungen von "Seitenwand" oder "Objekt" vorgenommen werden, um die Genauigkeit der bei S127 durchgeführten Einstufung zu erhöhen. Nachdem die Daten der ersten Gruppe bei S132 ausgelesen wurden, werden bei S133 ungefähre gerade Linien aus den Stellen (Xi, Zi) in der Gruppe entsprechend der Hough-Transformation oder dem linearen Quadratverfahren ermittelt, um einen Gradienten über die gesamte Gruppe zu berechnen.
  • Dann geht das Programm zu S134 weiter, wo die Gruppe neu geordnet wird, und zwar so, dass die Gruppe, die einen zur X-Achse geneigten Gradienten hat, in die Gruppe "Objekt" eingestuft wird, und die Gruppe, die einen zur Z-Achse geneigten Gradienten hat, in die Gruppe "Seitenwand" eingestuft wird. Darüber hinaus werden bei S135 verschiedene Parameter der Gruppe berechnet. Im Hinblick auf die in "Objekt" eingestufte Gruppe umfassen diese Parameter eine mittlere Entfernung, die aus den Entfernungsdaten in der Gruppe, X-Koordinaten am linken und rechten Ende der Gruppe u. dgl. berechnet werden, und im Hinblick auf die als "Seitenwand" eingestufte Gruppe umfassen diese Parameter eine Anordnungsrichtung der Daten (Gradient in Bezug auf die Z-Achse), Z-, X-Koordinaten des vorderen und hinteren Endes der Gruppe u. dgl. Um die Einstufungsgenauigkeit zu erhöhen, wird in dieser Ausführungsform die Gruppe entsprechend dem berechneten Gradienten der Gesamtgruppe neu eingestuft, wobei die Neueinstufung jedoch auch weggelassen werden kann.
  • Darüber hinaus geht das Programm von S135 zu S136 weiter, wo beurteilt wird, ob der Prozess die letzte Gruppe erreicht hat oder nicht. Handelt es sich nicht um die letzte Gruppe, geht das Programm zu S137 weiter, in dem die Daten der nächsten Gruppe ausgelesen werden, und kehrt zu S133 zurück, um eben diese Prozesse zu wiederholen. Wenn der Prozess die letzte Gruppe erreicht hat, verlässt das Programm die Routine.
  • 12 zeigt ein Ergebnis der Erfassung der Seitenwand. Wenn die Daten der Gruppen, wie in 13 gezeigt, in der X-Z-Ebene dargestellt werden, werden sie als "Seitenwand"-Gruppen erkannt. In diesem Fall werden Abschnitte entlang einer kurvigen Straße nicht erkannt. Das in 6 gezeigte Programm soll die Wandfläche entlang der kurvigen Straße unter Verwendung der Daten der Gruppe "Seitenwand" erkennen, die durch das vorstehend beschriebene Programm erhalten wurden.
  • Zuerst werden bei S201 Gruppen, die als Wandfläche eingeschätzt werden, aus den als "Seitenwand" eingestuften Gruppen ausgewählt, und bei den Schritten nach S202 wird eine Wandfläche auf Grundlage der Daten der "Seitenwand"-Gruppen unter Verwendung des folgenden Wandflächenmodells gesucht.
  • Das Wandflächenmodell ist in 14 gezeigt, worin die Wandflächen als Grenzlinien ausgedrückt sind, die eine Verbindung zwischen Knoten herstellen, die in einem festgelegten Abstand innerhalb eines bestimmten Bereichs vorgesehen sind. Beispielsweise ist die Grenzlinie durch 41 Knoten gebildet, die in einem Abstand von 2 Metern innerhalb eines Bereichs von 10 bis 90 Metern vor dem Eigenfahrzeug angeordnet sind. Die jeweili gen Knoten haben aufeinanderfolgende Bezugszahlen, die von der Eigenfahrzeugseite ausgehen. Die Z-Koordinaten der jeweiligen Knoten sind im Hinblick auf die Fahrzeugposition feststehend, und ihre X-Koordinaten werden entsprechend der Vorgehensweise bestimmt, die im Nachstehenden beschrieben wird.
  • Bei S202 wird ein Knoten Ns, der einem Endpunkt auf der Fahrzeugseite der ausgewählten Seitenwandgruppe entspricht, auf Grundlage der Z-Koordinate des Endpunkts festgelegt, und die X-Koordinate des Knotens Ns wird festgelegt, wobei sie auf die X-Koordinate des Endpunkts eingestellt wird. Als Nächstes geht das Programm zu S203 weiter, wo der nächste Knoten Ns+1, in der Richtung des Gradienten der Seitenwandgruppe festgelegt wird. Als Nächstes wird, wenn der Knoten Ns+i (i ≥ 2) bestimmt wird, seine Richtung entlang einer Richtung des zweiten vorherigen Knotens festgelegt.
  • Dann geht das Programm zu S204 weiter, wo, wie in 15 gezeigt, die Position der Wandfläche mit einem sogenannten "Rasterabgleich" innerhalb eines fest umrissenen Suchbereichs gesucht wird, um ein festes Objekt Pi innerhalb des Suchbereichs für jeden Streifen zu extrahieren. Zum Beispiel hat der Suchbereich in der X-Achsenrichtung ±3 bis 5 Meter in der X-Achsenrichtung und ±1 Meter in der Y-Achsenrichtung, wobei sich seine Mitte an einer Koordinate (Xns+i, Zns+i) des Knotens Ns+i befindet, der bei S203 festgelegt wurde.
  • Der Abgleich des Wandflächenrasters mit dem festen Objekt Pi erfolgt innerhalb des Suchbereichs. 16 zeigt ein Beispiel des Wandflächenrasters (Gewichtungskoeffizientenraster), das zum Rasterabgleich verwendet wird. Das in 16 gezeigte Wandflächenraster ist ein Raster für die Wandfläche auf der linken Seite, und ein zu diesem Raster symmetrisches Raster wird für die Wandfläche auf der rechten Seite verwendet. Die Seitenachse dieses Wandflächenrasters fällt mit der Entfernung in der X-Achsenrichtung zusammen, und die Längsachse gibt einen Gewichtungskoeffizienten an. Ein höchster Punkt eines Koinzidenzgrads wird gesucht, während der Mittelpunkt des Wandflächenrasters zur X-Achse hin verschoben wird. Im Speziellen wird, wie in 17 gezeigt, eine Gewichtung Wi im Hinblick auf die Abweichung des festen Objekts Pi in der X-Achsenrichtung ausgehend vom Mittelpunkt des Wandflächenrasters ermittelt, um die Summe der Gewichtung Wi als Koinzidenzgrad F zu berechnen. Darüber hinaus wird, wenn der Koinzidenzgrad F am größten wird, die Position des Mittelpunkts des Wandflächenrasters als Wandfläche erkannt. Wenn der Höchstwert des Koinzidenzgrads F kleiner ist als ein Schwellenwert, wird beurteilt, dass es keine Wandfläche gibt.
  • Wenn der Prozess des Schritts S204 zu Ende geht, geht das Programm zu S205 weiter, bei dem eine X-Koordinate Xpw des Mittelpunkts des Wandflächenrasters am höchsten Punkt des Koinzidenzgrads F als X-Koordinate des Wandflächenrasters festgelegt wird, die dem Knoten Ns+i entspricht.
  • Dann geht das Programm zu S206 weiter, wo geprüft wird, ob der Knoten der letzte der ausgewählten Seitenwandgruppe ist oder nicht, und wenn er nicht der letzte Knoten ist, geht das Programm zu S203 zurück und eben diese Prozesse werden wiederholt. Wenn der Prozess den letzten Knoten erreicht, geht das Programm zu S207 weiter, wo der Knoten mit der kleinsten Bezugszahl (der Knoten, der sich dem Eigenfahrzeug am nächsten befindet) bzw. der Knoten mit der größten Bezugszahl (der Knoten, der vom Eigenfahrzeug am weitesten weg ist) gesucht wird, und dann wird die Routine verlassen, nachdem die Knoten als Anfangpunkt Ns bzw. Endpunkt Ne bezeichnet wurden.
  • Nachdem dieses Programm an den Seitenwandgruppen auf der linken Seite abgelaufen ist, läuft es an den Seitenwandgruppen auf der rechten Seite ab. In dem in 14 gezeigten Beispiel wird die Wandfläche vom 9. bis 26. Knoten auf der rechten Seite des Eigenfahrzeugs erfasst, und der 9. Knoten wird als Anfangpunkt Ns bezeichnet, und der 26. Knoten wird als Endpunkt Ne bezeichnet. Diese Knoten werden als für spätere Prozesse nutzbare Knoten verwendet.
  • Die so verarbeitete Position der Wandfläche wird durch ein in 7 und 8 gezeigtes Programm weiter korrigiert, indem neue Daten verwendet werden, die aus den in den 3 bis 5 gezeigten Programmen erhalten werden.
  • Bei den in 7 und 8 gezeigten Programmen handelt es sich um ein Programm zum Korrigieren der Wandfläche. Bei S301 wird untersucht, ob der Anfangspunkt Ns der Nutzknoten größer ist als der erste Knoten N1 des Wandflächenmodells. Wenn Ns = N1 ist, d. h. die Wandfläche bereits bis zum ersten Knoten N1 erfasst wurde, geht das Pro gramm zu S306 über. Wenn Ns > N1 ist, geht das Programm zu S302 weitet, wo der vorherige Knoten Ns-1 (i = 1, 2, 3, usw.) festgelegt wird. Dann wird bei S303 das Wandflächenraster gesucht, und bei S304 wird die X-Koordinate der Wandfläche auf Grundlage des Suchergebnisses bestimmt.
  • Als Nächstes geht das Programm von S304 zu S305 über, wo untersucht wird, ob der Prozess den ersten Knoten erreicht hat oder nicht. Wurde der erste Knoten N1 noch nicht erreicht, werden die Schritte S302 bis S304 wiederholt, um die Suche der Wandflächenposition bis zum Knoten N1 fortzusetzen. Wenn die Prozesse bis zum ersten Knoten N1 abgeschlossen sind, geht das Programm zu S306 weiter, wo geprüft wird, ob der Endpunkt Ne der Nutzknoten kleiner ist als der letzte Knoten Nse des Wandflächenmodells (zum Beispiel der Knoten N41 im Falle des aus 41 Knoten bestehenden Wandflächenmodells).
  • Als Ergebnis davon springt das Programm, wenn Ne = Nse ist, das heißt, die Wandfläche bereits bis zum letzten Knoten erfasst wurde, von S306 zu S311 über. Wenn Ne < Nse ist, geht das Programm von S306 zu S307 über, wo der Knoten Ne+i nach dem Endpunkt Ne sukzessive festgelegt und weiter bei S308 der Rasterabgleich der Wandfläche durchgeführt wird. Entsprechend dem Ergebnis des Rasterabgleichs wird bei S309 die X-Koordinate der Wandfläche bestimmt, und dann wird bei S310 geprüft, ob der Prozess den letzten Knoten Nse erreicht hat oder nicht. Der Abgleich der Wandflächenposition wird bis zum letzten Knoten Nse fortgesetzt, und wenn die Prozesse bis zum letzten Nse abgeschlossen sind, geht das Programm zu S311 weiter.
  • Diese Prozesses des Festlegens der Knoten, des Abgleichens des Wandflächenrasters und des Bestimmens der X-Koordinate bei den Schritten S302 bis S304 und den Schritten S307 bis S309 sind dieselben wie die Prozesse bei den Schritten S203, S204 und S205 im zuvor erwähnten Programm des Wandflächenerfassungsprozesses.
  • Die Prozesse nach S311 sind zum Korrigieren der Position (X-Koordinate) jeweiliger Knoten vom ersten Knoten N1 bis zum letzten Knoten Nse vorgesehen. Zuerst werden bei S311 die Daten des ersten Knotens N1 eingesetzt, und das Programm geht zu S312 weiter.
  • Die Prozesse von S312 bis S321 laufen wiederholt ab, indem sukzessive die Daten des nächsten Knotens eingesetzt werden.
  • Bei S312 wird die Wandfläche am Knoten Ni gesucht, und bei S313 wird geprüft, ob die Wandfläche durch den Rastabgleich erfasst wird oder nicht. Wenn beurteilt wird, dass die Wandfläche erfasst ist, geht das Programm von S313 zu S314 weiter, wo untersucht wird, ob die Differenz zwischen der Position Xpw der Wandfläche und der Position Xni des Knotens innerhalb eines vorgegebenen Betrags, zum Beispiel ± 1 Meter liegt oder nicht. Wenn die Differenz innerhalb des Werts liegt, geht das Programm zu S315 weiter, wo der Knoten zu der Position der Wandfläche bewegt wird (Xni ← Xpw), und wenn die Differenz außerhalb des Werts liegt, geht das Programm zu S316 weiter, wo der Knoten um einen fest umrissenen Betrag, z. B. ± 0,3 Meter zur Wandfläche hin bewegt wird (Xni ← Xni ± 0,3 Meter).
  • Ist hingegen die Wandfläche nicht durch den Rasterabgleich erfasst, weicht das Programm von S313 zu S317 ab, wo die Anzahl Co der Daten Xpi der festen Objekte, die sich auf der linken Seite des Knotens Xni befinden (Xni < Xpi) bzw. die Anzahl C1 der Daten Xpi der festen Objekte, die sich auf der rechten Seite des Knotens Xni befinden (Xni > Xpi), gezählt wird. Dann wird der Knoten bei S318 zu der Seite bewegt, die um einen fest umrissenen Betrag mehr Daten fester Objekte, zum Beispiel 0,8 Meter (Xni ← Xni ± 0,8 Meter) aufweist.
  • Somit kann man sich im Falle, dass kein Wandflächenraster nahe am Knoten erfasst wird, der Position des Knotens in der Richtung annähern, wo die Wandfläche wahrscheinlich besteht, auch wenn der Koten von der Wandfläche sehr weit weg ist.
  • Wenn die Position des Knotens durch einen der Schritte S315, S316 oder S318 bewegt wurde, geht das Programm zu S319 weiter, wo eine Position Xc eines Mittelpunkts einer geraden Linie, die einen Knoten Ni+1 (angrenzenden Knoten auf der fernen Seite) und einen Knoten Ni-1 (angrenzenden Knoten auf der nahen Seite) verbindet, ermittelt wird, und geht dann zu S320 weiter, wo, wie in 18 gezeigt, der Knoten Ni zum Mittelpunkt Xc bewegt wird, genauso als würde der Mittelpunkt Xc den Knoten Ni durch eine Feder kraft anziehen. Der Betrag der Bewegung sollte bis zu 1/2 bis 1/5 der Länge zwischen dem Knoten Ni und dem Mittelpunkt Xc gehalten werden.
  • Und zwar enthält die Wandfläche, die durch den Rasterabgleich erfasst wird, im Allgemeinen aufgrund der Auswirkung der Datenverteilung eine Unregelmäßigkeit, in den meisten Fällen ist aber eine reale Leitplanke oder eine reale Seitenwand entlang der Straße stetig gekrümmt. Der Prozess bei S320 ist ein Mittel, um eine glatte Kurve zu erhalten, indem eine wie vorstehend beschriebene Federwirkung angelegt wird. Als ein herkömmliches Verfahren zum Glätten der aus Knoten bestehenden Auslegung ist eine Fehlerquadratmethode hinlänglich bekannt, jedoch ist die vorstehende Methode, die eine Federwirkung nutzt, bei den Berechnungsgeschwindigkeiten vorteilhafter als solch eine herkömmliche Methode.
  • Danach geht das Programm zu S321 weiter, wo untersucht wird, ob der Prozess den letzten Knoten Nse erreicht hat oder nicht, und wenn er den letzten Knotenpunkt nicht erreicht hat, kehrt das Programm zu S321 zurück, nachdem die Daten des nächsten Knotens bei S322 eingesetzt wurden, und eben diese Prozesse werden wiederholt. Wenn der Prozess beim letzten Knoten Nse zu Ende geht, geht das Programm von S321 zu S323 über, wo geprüft wird, ob der Betrag der Bewegung für alle Punkte in einen Schwellenwert (z. B. ± 0,1 Meter) fällt oder nicht.
  • Darüber hinaus geht das Programm, wenn ein Knoten gefunden wird, der den Schwellenwert überschreitet, zu S311 zurück, und danach werden die Korrekturprozesse für alle Knoten, ab dem ersten bis zum letzten Knoten wiederholt. Wenn der Betrag der Bewegung für alle Knotenpunkte in den Schwellenwert fällt, werden der Anfangspunkt NS und der Endpunkt Ne innerhalb des Erfassungsbereichs der Knoten ermittelt, und das Programm verlässt die Routine. Durch ein so aufgebautes Programm werden fälschlich erfasste und andere Daten während einer wiederholten Verarbeitung korrigiert, und im Ergebnis wird die Zustandsform der Wand erhalten, die der tatsächlichen Wandoberfläche entspricht. Nachdem das Programm abgeschlossen wurde, um im Hinblick auf die Seitenwandgruppen auf der linken Seite abzulaufen, läuft es im Hinblick auf diejenigen auf der rechten Seite ab.
  • 19 zeigt ein Ergebnis der Erfassung der Wandfläche, die sich entlang einer kurvigen Straße von der Nähe bis in die Ferne befindet, auf der Grundlage des in 9 gezeigten Originalbilds, und das korrigierte Wandflächenmodell, das in einer X-Z-Ebene ausgedrückt ist, ist in 20 gezeigt. Wenn man dieses Wandflächenmodell mit dem in Form gerader Linien erfassten, wie in 13 gezeigten Wandflächenmodell vergleicht, wird klar, dass die Wandfläche bis in die Ferne erkannt werden kann.
  • Dieses Wandflächenmodell lässt sich nicht nur auf eine Leitplanke, sondern auch auf eine Baumreihe, Hausmauern, eine Reihe geparkter Autos und andere feste Objekte anwenden, die entlang einer Straße aufgereiht sind, und diese Objekte können als eine Reihe von Wandflächen erfasst werden. Deshalb ist es möglich, die Zustandsform einer Straße, zum Beispiel einer schneebedeckten Straße, auch dann zu erkennen, wenn deren Fahrbahnmarkierungen nicht zu erkennen sind.
  • Obwohl die gegenwärtig bevorzugte Ausführungsform der vorliegenden Erfindung aufgezeigt und beschrieben wurde, sollte klar sein, dass die Offenbarung zu Darstellungszwecken erfolgte und verschiedene Änderungen und Modifizierungen vorgenommen werden können, ohne dabei von dem wie in den beigefügten Ansprüchen dargelegten Rahmen der Erfindung abzuweichen.

Claims (4)

  1. Fahrzeugumfeldüberwachungsvorrichtung (2) mit einer Stereoskopbilderfassungseinheit (10) zum Erfassen eines Stereoskopbilds von festen Objekten um ein Eigenfahrzeug, einem Bildprozessor (20), um das Stereoskopbild zu einem Entfernungsbild zu verarbeiten, und mehreren Mikroprozessoren (30a, 30b, 30c), die auf dem Entfernungsbild aufbauen, um die festen Objekte zu erkennen, Folgendes umfassend: eine Wandflächenerfassungseinrichtung, um aus dem Entfernungsbild diejenigen Objekte, die sich entlang der Fahrtrichtung des Fahrzeugs erstrecken, durch Erfassen eines ersten Punkts am Objekt und eines zweiten Punkts am Objekt zu bestimmen, der vom ersten Punkt weit weg ist, und das Objekt auf Grundlage eines Gradienten einer den ersten Punkt und den zweiten Punkt verbindenden Linie als Wandfläche einzustufen, eine Wandflächenmodellherstellungseinrichtung, um ein Modell als Umriss der Wandfläche durch eine Reihe von Knoten herzustellen, die in einem festgelegten Entfernungsintervall vorgesehen werden, der die horizontale Position und die Entfernungsposition anzeigt, und eine Wandflächenmodellkorrektureinrichtung, um das Wandflächenmodell auf Grundlage der als Wandfläche eingestuften Objekte zu korrigieren, dadurch gekennzeichnet, dass die Wandflächenmodellkorrektureinrichtung eine versuchsweise Position jedes Knoten aus der horizontalen Position und dem Entfernungsgradienten des vorherigen Knotens extrapoliert und eine Position jedes Knoten auf Grundlage von Positionen der als Wandfläche eingestuften Objekte innerhalb eines Bereichs bestimmt, in dem der versuchsweise Knoten ein zentraler Punkt von diesem ist, indem ein Gewichtungskoeffizientenraster an Positionen der als Wandfläche einge stuften Objekte innerhalb des Bereichs angelegt wird und diese summiert werden, wobei dieser Prozess wiederholt wird, während der zentrale Punkt der Gewichtungsfunktion zur horizontalen Richtung hin verschoben wird, wodurch eine Position des zentralen Punkts, an welcher der summierte Wert am größten ist, als die Position des Knoten bestimmt wird.
  2. Vorrichtung nach Anspruch 1, wobei das Gewichtungskoeffizientenraster eine Schlangenkurvenform verfolgt, wobei der Nullpunkt deren Mittelpunkt ist, und der positive Bereich der Kurve sich auf der linken Seite des Nullpunkts befindet, wenn das Gewichtungskoeffizientenraster an Wandflächen auf der linken Seite des Entfernungsbilds angelegt wird, und der positive Bereich der Kurve sich auf der rechten Seite des Nullpunkts befindet, wenn das Gewichtungskoeffizientenraster an Wandflächen auf der rechten Seite des Entfernungsbilds angelegt wird.
  3. Vorrichtung nach Anspruch 1, wobei die Wandflächenmodellkorrektureinrichtung die Koordinaten der entsprechenden Knoten in der Richtung, in der die Positionsdaten der Objekte teilweise vorkommen, wenn die Wandflächenmodellherstellungseinrichtung keine Wandfläche erfasst, korrigiert.
  4. Vorrichtung nach Anspruch 3, wobei die Wandflächenmodellkorrektureinrichtung darüber hinaus die Koordinaten der jeweiligen Knoten in der Richtung korrigiert, in der sie nahe an eine gerade Linie gebracht werden, die einen angrenzenden Knoten und den anderen angrenzenden Knoten verbindet, um Fehler zu reduzieren, die während der Knotenbestimmung von der Wandflächemodelleinrichtung gemacht wurden.
DE69937699T 1998-01-30 1999-01-29 Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges Expired - Lifetime DE69937699T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP01843898A JP3516856B2 (ja) 1998-01-30 1998-01-30 車外監視装置
JP1843898 1998-01-30

Publications (2)

Publication Number Publication Date
DE69937699D1 DE69937699D1 (de) 2008-01-24
DE69937699T2 true DE69937699T2 (de) 2008-11-27

Family

ID=11971657

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69937699T Expired - Lifetime DE69937699T2 (de) 1998-01-30 1999-01-29 Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges

Country Status (4)

Country Link
US (2) US6370261B1 (de)
EP (1) EP0933725B1 (de)
JP (1) JP3516856B2 (de)
DE (1) DE69937699T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014208967A1 (de) * 2014-05-13 2015-11-19 Bayerische Motoren Werke Aktiengesellschaft Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
DE19926559A1 (de) * 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
US6542840B2 (en) * 2000-01-27 2003-04-01 Matsushita Electric Industrial Co., Ltd. Calibration system, target apparatus and calibration method
US6515597B1 (en) * 2000-01-31 2003-02-04 Matsushita Electric Industrial Co. Ltd. Vicinity display for car
JP4414054B2 (ja) * 2000-03-27 2010-02-10 本田技研工業株式会社 物体認識装置
JP4953498B2 (ja) 2000-07-12 2012-06-13 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
JP4925498B2 (ja) * 2000-07-12 2012-04-25 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
US7375728B2 (en) * 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
JP3733875B2 (ja) * 2000-09-29 2006-01-11 日産自動車株式会社 道路白線認識装置
JP2002189075A (ja) * 2000-12-20 2002-07-05 Fujitsu Ten Ltd 道路上方静止物検知方法
JP3736346B2 (ja) * 2000-12-26 2006-01-18 日産自動車株式会社 車線検出装置
DE10103870B4 (de) * 2001-01-30 2004-02-05 Daimlerchrysler Ag Verfahren zur Bilderkennung bei Kraftfahrzeugen
US20020134151A1 (en) * 2001-02-05 2002-09-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for measuring distances
JP2002374441A (ja) * 2001-06-13 2002-12-26 Mitsubishi Electric Corp 車窓内センサ
US7552008B2 (en) * 2001-07-18 2009-06-23 Regents Of The University Of Minnesota Populating geospatial database for onboard intelligent vehicle applications
DE10141220A1 (de) * 2001-08-23 2003-04-10 Valeo Schalter & Sensoren Gmbh Umfelderkennungssystem
JP3909691B2 (ja) * 2002-09-12 2007-04-25 株式会社日立製作所 車載用画像処理装置
JP4176430B2 (ja) * 2002-09-18 2008-11-05 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP4231320B2 (ja) * 2003-03-31 2009-02-25 本田技研工業株式会社 移動体の検出装置
JP4235051B2 (ja) * 2003-08-29 2009-03-04 トヨタ自動車株式会社 駐車支援装置
DE10346336A1 (de) * 2003-10-06 2005-04-21 Bosch Gmbh Robert Multisensor-Ortungsgerät
US7409294B2 (en) * 2003-10-17 2008-08-05 Applied Concepts, Inc. Traffic alert police radar
JP3941770B2 (ja) * 2003-10-28 2007-07-04 株式会社デンソー 衝突可能性判定装置
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置
JP4638143B2 (ja) * 2003-12-26 2011-02-23 富士重工業株式会社 車両用運転支援装置
US7406182B2 (en) * 2004-03-31 2008-07-29 Fujifilm Corporation Image capturing apparatus, image capturing method, and machine readable medium storing thereon image capturing program
US8862379B2 (en) * 2004-09-20 2014-10-14 The Boeing Company Vehicle collision shield
DE102004047485A1 (de) * 2004-09-30 2006-04-06 Robert Bosch Gmbh Fahrerassistenzsystem
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
JP4659631B2 (ja) * 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
JP4513691B2 (ja) * 2005-08-23 2010-07-28 株式会社デンソー 撮像モジュール
JP2007091025A (ja) * 2005-09-28 2007-04-12 Fuji Heavy Ind Ltd 車両の前方監視装置
FR2893173B1 (fr) * 2005-11-10 2008-01-18 Valeo Vision Sa Procede d'evaluation, par un vehicule automobile, des caracteristiques d'un element frontal.
JP2007147458A (ja) * 2005-11-28 2007-06-14 Fujitsu Ltd 位置検出装置、位置検出方法、位置検出プログラムおよび記録媒体
JP4632987B2 (ja) * 2006-03-28 2011-02-16 株式会社パスコ 道路画像解析装置及び道路画像解析方法
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
JP4902368B2 (ja) * 2007-01-24 2012-03-21 三洋電機株式会社 画像処理装置及び画像処理方法
JP4914234B2 (ja) * 2007-01-31 2012-04-11 富士重工業株式会社 先行車両検出装置
CN101458078A (zh) * 2007-12-10 2009-06-17 鸿富锦精密工业(深圳)有限公司 一种汽车防撞系统及方法
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
JP4876080B2 (ja) * 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
JP5089545B2 (ja) 2008-09-17 2012-12-05 日立オートモティブシステムズ株式会社 道路境界検出判断装置
JP5074365B2 (ja) * 2008-11-28 2012-11-14 日立オートモティブシステムズ株式会社 カメラ装置
JP5385009B2 (ja) 2009-05-29 2014-01-08 日立オートモティブシステムズ株式会社 車両制御装置および車両制御方法
US20110153266A1 (en) * 2009-12-23 2011-06-23 Regents Of The University Of Minnesota Augmented vehicle location system
JP5325765B2 (ja) 2009-12-28 2013-10-23 日立オートモティブシステムズ株式会社 路肩検出装置及び路肩検出装置を用いた車両
JP5276637B2 (ja) * 2010-09-08 2013-08-28 富士重工業株式会社 車線推定装置
CN103348393B (zh) * 2010-11-04 2015-08-19 丰田自动车株式会社 道路形状推定装置及其推定方法
JP2012141691A (ja) * 2010-12-28 2012-07-26 Fujitsu Ten Ltd 映像処理装置
JP5386539B2 (ja) * 2011-05-12 2014-01-15 富士重工業株式会社 環境認識装置
JP5276140B2 (ja) * 2011-05-19 2013-08-28 富士重工業株式会社 環境認識装置および環境認識方法
US10188856B1 (en) 2011-12-07 2019-01-29 Cyberonics, Inc. Implantable device for providing electrical stimulation of cervical vagus nerves for treatment of chronic cardiac dysfunction
JP5863105B2 (ja) * 2011-12-13 2016-02-16 アルパイン株式会社 車両移動量推定装置および障害物検出装置
US9452290B2 (en) 2012-11-09 2016-09-27 Cyberonics, Inc. Implantable neurostimulator-implemented method for managing tachyarrhythmia through vagus nerve stimulation
US9643008B2 (en) 2012-11-09 2017-05-09 Cyberonics, Inc. Implantable neurostimulator-implemented method for enhancing post-exercise recovery through vagus nerve stimulation
US8923964B2 (en) 2012-11-09 2014-12-30 Cyberonics, Inc. Implantable neurostimulator-implemented method for enhancing heart failure patient awakening through vagus nerve stimulation
JP6376429B2 (ja) * 2012-11-13 2018-08-22 株式会社リコー 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
JP6344638B2 (ja) * 2013-03-06 2018-06-20 株式会社リコー 物体検出装置、移動体機器制御システム及び物体検出用プログラム
US9643011B2 (en) 2013-03-14 2017-05-09 Cyberonics, Inc. Implantable neurostimulator-implemented method for managing tachyarrhythmic risk during sleep through vagus nerve stimulation
US9830681B2 (en) 2014-01-31 2017-11-28 Hover Inc. Multi-dimensional model dimensioning and scale error correction
JP2015210661A (ja) * 2014-04-25 2015-11-24 日立建機株式会社 鉱山用作業車両用の路面推定装置および路面推定システム
JP2016103249A (ja) * 2014-11-28 2016-06-02 富士通株式会社 運転支援装置および運転支援方法
US9576185B1 (en) * 2015-09-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Classifying objects detected by 3D sensors for autonomous vehicle operation
JP6623729B2 (ja) * 2015-12-04 2019-12-25 株式会社ソシオネクスト 測距システム、移動体及び部品
EP3293668B1 (de) * 2016-09-13 2023-08-30 Arriver Software AB Sichtsystem und -verfahren für ein kraftfahrzeug
EP3330892A1 (de) 2016-11-30 2018-06-06 Ricoh Company Ltd. Informationsverarbeitungsvorrichtung, bildgebungsvorrichtung, vorrichtungssteuerungssystem, mobiles objekt, informationsverarbeitungsverfahren und trägeranordnung
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
US10740627B2 (en) 2017-05-10 2020-08-11 Fotonation Limited Multi-camera vision system and method of monitoring
US11615566B2 (en) 2017-05-10 2023-03-28 Fotonation Limited Multi-camera vehicle vision system and method
US10331960B2 (en) 2017-05-10 2019-06-25 Fotonation Limited Methods for detecting, identifying and displaying object information with a multi-camera vision system
JP7296340B2 (ja) * 2018-08-07 2023-06-22 住友建機株式会社 ショベル

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5142659A (en) * 1989-04-18 1992-08-25 Texas Instruments Incorporated Estimation of local surface geometry from relative range images for object recognition
JP2671615B2 (ja) * 1991-02-18 1997-10-29 三菱電機株式会社 ガードレール検出装置
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP3324821B2 (ja) * 1993-03-12 2002-09-17 富士重工業株式会社 車輌用車外監視装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
JP3212218B2 (ja) * 1994-05-26 2001-09-25 三菱電機株式会社 車両用障害物検出装置
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
JPH1031799A (ja) * 1996-07-15 1998-02-03 Toyota Motor Corp 自動走行制御装置
JP3337197B2 (ja) * 1997-04-04 2002-10-21 富士重工業株式会社 車外監視装置
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
US6429789B1 (en) * 1999-08-09 2002-08-06 Ford Global Technologies, Inc. Vehicle information acquisition and display assembly

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014208967A1 (de) * 2014-05-13 2015-11-19 Bayerische Motoren Werke Aktiengesellschaft Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf
US10286901B2 (en) 2014-05-13 2019-05-14 Bayerische Motoren Werke Aktiengesellschaft Map of the surroundings for driving areas with random altitude profile

Also Published As

Publication number Publication date
EP0933725A3 (de) 2004-05-06
US20030099377A1 (en) 2003-05-29
EP0933725B1 (de) 2007-12-12
JP3516856B2 (ja) 2004-04-05
US6370261B1 (en) 2002-04-09
EP0933725A2 (de) 1999-08-04
DE69937699D1 (de) 2008-01-24
US6888953B2 (en) 2005-05-03
JPH11213138A (ja) 1999-08-06

Similar Documents

Publication Publication Date Title
DE69937699T2 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges
DE102013205950B4 (de) Verfahren zum Detektieren von Straßenrändern
DE112012002885B4 (de) Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
DE60308782T2 (de) Vorrichtung und Methode zur Hinderniserkennung
DE102006057552B4 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
EP2394234B1 (de) Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung
DE69736764T2 (de) Lokales Positionierungsgerät und Verfahren dafür
DE10029866B4 (de) Objekterkennungssystem
DE102008030555B4 (de) Vorrichtung zur Verarbeitung von Stereobildern
DE10043467B4 (de) System und Verfahren zum Ermitteln einer Straßenmarkierungslinie
DE4308776C2 (de) Einrichtung zum Überwachen des Außenraums eines Fahrzeugs
DE102016200828B4 (de) Objekterfassungsvorrichtung und Objekterfassungsverfahren
DE102006005512B4 (de) System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
WO2010091818A2 (de) Verfahren zur objektdetektion
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
DE10228638A1 (de) Fahrzeugzonen-Überwachungsvorrichtung
EP1928687A1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
EP2629243A1 (de) Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen
DE102011117554A1 (de) Fahrumgebungserfassungsvorrichtung
DE102015203016A1 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
EP2707862B1 (de) Abstandsbestimmung mittels eines kamerasensors
DE102008027588A1 (de) Vorrichtung zur Erfassung von Fußgängern
DE102018123393A1 (de) Erkennung von Parkflächen
DE102011005969A1 (de) In einem Fahrzeug montierte Vorrichtung zur Erfassung einer Linienmarkierung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition