DE10026586A1 - Objekterfassungssystem - Google Patents

Objekterfassungssystem

Info

Publication number
DE10026586A1
DE10026586A1 DE10026586A DE10026586A DE10026586A1 DE 10026586 A1 DE10026586 A1 DE 10026586A1 DE 10026586 A DE10026586 A DE 10026586A DE 10026586 A DE10026586 A DE 10026586A DE 10026586 A1 DE10026586 A1 DE 10026586A1
Authority
DE
Germany
Prior art keywords
physical object
window
area
detection
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10026586A
Other languages
English (en)
Other versions
DE10026586B4 (de
Inventor
Morimichi Nishigaki
Masakazu Saka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE10026586A1 publication Critical patent/DE10026586A1/de
Application granted granted Critical
Publication of DE10026586B4 publication Critical patent/DE10026586B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K31/00Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator
    • B60K31/0008Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator including means for detecting potential obstacles in vehicle path
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Ein Objekterfassungssystem umfasst: eine Erkennungseinheit für körperliche Objekte, welche körperliche Objekte außerhalb des Fahrzeugs erkennt, und einen Speicher für körperliche Objekte, welcher körperliche Objekte betreffende Information speichert. DOLLAR A Eine Steuer/Regeleinrichtung erkennt das Vorhandensein eines körperlichen Objekts, wenn das körperliche Objekt von einem oder mehreren Sensoren eine vorbestimmte Anzahl von Malen erfasst wird, welche für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für einen Randabschnitt des Erfassungsbereichs. Das System umfasst einen Speicher zum Speichern von Information über die körperlichen Objekte. Die Steuer/Regeleinrichtung hält das körperliche Objekt in dem Speicher gespeichert, was anzeigt, dass das körperliche Objekt vorhanden ist, bis die Steuer/Regeleinrichtung das Vorhandensein des entsprechenden körperlichen Objekts eine vorbestimmte Anzahl von Erkennungszyklen nicht mehr erkennt.

Description

Technisches Gebiet der Erfindung
Die vorliegende Erfindung betrifft ein optisches Objekterfassungssystem, welches außerhalb eines fahrenden Fahrzeugs befindliche körperliche Objekte erfasst.
Hintergrund der Erfindung
Vorrichtungen, welche Laserradar zur Erfassung vor oder hinter einem betriebenen Fahrzeug befindlicher Fahrzeuge oder körperlicher Objekte verwenden, wurden in der Vergangenheit vorgeschlagen. Zum Beispiel wird in der japanischen Patentanmeldung Kokai Nr. Hei 06-150196 ein Verfahren beschrieben. Sich bewegende, vor dem das System tragenden Fahrzeug befindliche körperliche Objekte werden mit Laserradar erfasst. Information betreffend die erfassten sich bewegenden körperlichen Ob­ jekte wird in einem Speicher gespeichert, und eine Steuerung/Regelung, wie z. B. ein Kursverfolgungsbetrieb etc. wird ausgeführt. Insbesondere wenn ein im Speicher gespeichertes körperliches Objekt aus irgend ei­ nem Grund nicht im laufenden Erfassungsprozess erfasst wird, wird die Information betreffend das sich bewegende körperliche Objekt im Spei­ cher für einen Erfassungsfehler gehalten, bis ein vorbestimmte Anzahl von Malen eine Nichterfassung auftritt. Wenn ein solcher Fehler eine vorbestimmte Anzahl von Malen aufgetreten ist, wird dann die Informati­ on betreffend dieses sich bewegende körperliche Objekt, aus dem Spei­ cher gelöscht.
Wenn jedoch in einem solchen Verfahren die Anzahl von Malen, dass ein körperliches Objekt, das nicht erfasst wird, im Speicher gehalten wird ohne aus dem Speicher gelöscht zu werden, (z. B. die Anzahl von Malen der Interpolation) zunimmt, entsteht das folgende Problem. Obwohl näm­ lich eine solche Zunahme es möglich macht, die Erkennung von externen körperlichen Objekten in einer mehr kontinuierlichen Weise fortzusetzen, verursacht die Interpolationsbehandlung falsche Erkennung, welche es erscheinen lässt, als wäre ein externes körperliches Objekt im Erfas­ sungsbereich des Systems vorhanden, selbst wenn sich das externe körperliche Objekt bereits aus dem Erfassungsbereich herausbewegt hat. Umgekehrt, wenn die Anzahl von Malen der Interpolation abnimmt, wird die Erkennung von körperlichen Objekten als Ergebnis eines Erfas­ sungsfehlers durch das System intermittierend.
Zusammenfassung der Erfindung
Nach einem Aspekt der Erfindung ist ein Objekterfassungssystem der Erfindung an einem Fahrzeug angebracht und umfasst eine Erkennungs­ einheit für körperliche Objekte, welche körperliche Objekte außerhalb des Fahrzeugs erkennt, und einen Speicher für körperliche Objekte, wel­ cher Information in Bezug auf die körperlichen Objekte speichert. Eine Steuer/Regeleinrichtung erkennt das Vorhandensein eines körperlichen Objekts, wenn das körperliche Objekt von einem oder mehreren Senso­ ren eine vorbestimmte Anzahl von Malen erfasst wird, welche für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für einen Randabschnitt des Erfassungsbereichs.
Die Häufigkeit falscher Erkennung aufgrund falscher Erfassung wird re­ duziert, verglichen mit Fällen, in welchen die Erkennung der körperlichen Objekte mit einer festen Anzahl von Malen der Erfassung ungeachtet des Erfassungsbereichs erfolgt. Körperliche Objekte, welche in die Grenzab­ schnitte des Erfassungsbereichs eintreten, können schnell erkannt wer­ den. Wenn ein vor dem Fahrzeug innerhalb des Erfassungsbereichs be­ findliches körperliches Objekt erfasst wird, ist es unmöglich für das kör­ perliche Objekt, plötzlich im Zentrum des Bereichs zu erscheinen. Um­ gekehrt, kann an den Rändern des Erfassungsbereichs ein körperliches Objekt manchmal plötzlich innerhalb des Erfassungsbereichs erschei­ nen, wie durch die Sensoren betrachtet, als Ergebnis eines sich bewe­ genden körperlichen Objekts, welches von außen ins Innere des Erfas­ sungsbereichs eintritt. Im Hinblick auf solche realen Bedingungen wird die Anzahl von Malen der Erfassung, welche für eine Erkennung erfor­ derlich ist, im Zentrum des Erfassungsbereichs auf einen großen Wert festgesetzt, um fehlerhafte Erkennung zu verhindern. Auf der anderen Seite wird die Anzahl von Malen der Erfassung, welche zur Erkennung eines körperlichen Objekts erforderlich ist, auf einen kleinen Wert fest­ gesetzt, da als Ergebnis der Bewegung sich bewegender körperlicher Objekte oder des Verhaltens des das System tragenden Fahrzeugs kör­ perliche Objekte plötzlich an den Rändern des Erfassungsbereichs er­ scheinen können.
Nach einem anderen Aspekt der Erfindung umfasst ein Objekterfas­ sungssystem der Erfindung wenigstens einen Sensor zum Erfassen ei­ nes körperlichen Objekts in einem vorbestimmten Erfassungsbereich, eine Steuer/Regeleinrichtung zum Erkennen des Vorhandenseins eines körperlichen Objekts basierend auf der Ausgabe des Sensors, und einen Speicher zum Speichern von Information über das körperliche Objekt, welches durch die Steuer/Regeleinrichtung erkannt wurde. Die Steu­ er/Regeleinrichtung hält das körperliche Objekt im Speicher gespeichert, was anzeigt, dass das körperliche Objekt vorhanden ist, bis die Steu­ er/Regeleinrichtung das Vorhandensein des entsprechenden körperli­ chen Objekts eine vorbestimmte Anzahl von Erkennungszyklen nicht mehr erkennt.
Die vorbestimmte Anzahl von Malen ist größer für den zentralen Ab­ schnitt des Erfassungsbereichs, in dem das Vorhandensein körperlicher Objekte, wie z. B. anderer Fahrzeuge außerhalb des das System tragen­ den Fahrzeugs (typischerweise vor oder hinter dem Fahrzeug) während des Betriebs des Fahrzeugs normalerweise stabil ist, als die vorbe­ stimmte Anzahl von Malen für die Randabschnitte des Erfassungsbe­ reichs, wo eine Möglichkeit des häufigen Ein- und Austritts von sich be­ wegenden körperlichen Objekten besteht. Folglich kann der Austritt von körperlichen Objekten im zentralen Abschnitt des Erfassungsbereichs verhindert werden und falsche Erkennung von körperlichen Objekten, welche nicht in den Randabschnitten des Erfassungsbereichs vorhanden sind, kann reduziert werden.
Kurzbeschreibung der Zeichnungen
Fig. 1 ist ein Blockdiagramm, welches die Gesamtkonstruktion einer Ausführungsform der vorliegenden Erfindung darstellt.
Fig. 2 ist ein Diagramm, welches das Triangulationsverfahren zur Ab­ standsmessung darstellt.
Fig. 3 ist ein schematisches Diagramm, welches die Erfassung kör­ perlicher Objekte, basierend auf von einem Bildsensor aufge­ nommen Bildern, darstellt.
Fig. 4 ist ein Blockdiagramm, welches Einzelheiten der in Fig. 1 ge­ zeigten Erkennungseinheit 14 für körperliche Objekte zeigt.
Fig. 5 ist ein Diagramm, welches den Erfassungsbereich und die Aufteilung des Erfassungsbereichs darstellt.
Fig. 6 ist ein Blockdiagramm, welches Einzelheiten der in Fig. 1 ge­ zeigten Interpolationssteuer/-regeleinrichtung 15 zeigt.
Fig. 7 ist ein Diagramm, welches das Format der von der Erken­ nungseinheit 14 für körperliche Objekte an die Interpolations­ steuer/-regeleinrichtung 15 übertragenen Daten zeigt.
Fig. 8 ist ein Diagramm, welches ein Beispiel der im Speicher 16 für körperliche Objekte gespeicherten Tabelle zeigt.
Beschreibung der bevorzugten Ausführung
Die Erfindung wird im Folgenden an bevorzugten Ausführungsformen näher erläutert. Fig. 1 ist ein Gesamtblockdiagramm eines Objekterfas­ sungssystems nach einer Ausführungsform der vorliegenden Erfindung. Außer den Sensoren 3 und 3' können alle Blöcke in Fig. 1 in einer Steuer/Regeleinrichtung enthalten sein, welche eine integrierte Einzel­ chip- oder Mehrfachchip-Halbleiterschaltung umfasst. So zeigt Fig. 1 funktionale Blöcke der Steuer/Regeleinrichtung. Jeweilige Funktionen der Blöcke werden durch Ausführung der jeweiligen im ROM der Steu­ er/Regeleinrichtung gespeicherten Programme ausgeführt. Fig. 2 ist ein Diagramm, welches das Abstandsmessungsprinzip darstellt, welches auf dem in der vorliegenden Ausführungsform verwendeten Triangulations­ verfahren basiert. Zuerst wird ein Abstandsmessungsverfahren, welches ein Paar von Bildaufnahmevorrichtungen verwendet, mit Bezug zu Fig. 2 beschrieben.
Fig. 2 ist ein Diagramm, welches das Abstandsmessungsprinzip dar­ stellt, welches auf dem in der vorliegenden Ausführungsform verwende­ tenjriangulationsverfahren basiert. Zuerst wird ein Abstandsmessungs­ verfahren, welches ein Paar von Bildaufnahmevorrichtungen verwendet, mit Bezug zu Fig. 2 beschrieben. Ein Liniensensor 21 und eine Linse 23, die eines des oben erwähnten Paares von Bildsensoren bilden, sind in einem vorbestimmten Abstand, d. h. in einem Abstand gleich der Ba­ sislinienlänge B in der horizontalen oder vertikalen Richtung von dem Liniensensor 22 und einer Linse 24, welche den anderen Bildsensor des anderen Paares bilden, angeordnet. Die Liniensensoren 21 und 22 sind typischerweise eindimensionale CCD's, können aber auch linear ange­ ordnete Photosensorfelder sein. Betrachtet man eine Verwendung bei Nacht, sind Infrarotlicht verwendende Bildsensoren ratsam. In diesem Fall ist es ratsam, infrarotdurchlässige Filter vor den Linsen 23 und 24 zu installieren und das System so zu bauen, dass ein Objekt 20, welches zu vorbestimmten Zeitintervallen mittels einer Infrarotquelle beleuchtet wird. Vom Objekt 20 reflektiertes Infrarotlicht wird durch die Liniensenso­ ren 21 und 22 erfasst.
Die Liniensensoren 21 und 22 sind jeweils in den Brennweiten "f" der Linsen 23 und 24 positioniert. Wenn man annimmt, dass ein Bild eines im Abstand "a" von der Ebene der Linsen 23 und 24 lokalisierten Objekts an einer Stelle gebildet wird, welche im Fall des Liniensensors 21 um den Abstand X1 von der optischen Achse der Linse 23 verschoben ist, und im Fall des Liniensensors 22 an einer Stelle gebildet wird, welche um den Abstand X2 von der optischen Achse der Linse 24 verschoben ist, dann wird nach dem Triangulationsprinzip der Abstand a zum Objekt 20 von der Ebene der Linsen 23 und 24 durch die Gleichung: a = B.f/(X1 + X2) bestimmt.
In der vorliegenden Ausführungsform werden die Bilder digitalisiert. Und folglich wird der Abstand (X1 + X2) digital berechnet. Die Summe der ab­ soluten Werte der Differenzen zwischen den digitalen Werten, welche die Helligkeit der entsprechenden Bildpunkte beider von den Liniensen­ soren 21 und 22 erhaltenen Bilder darstellt, wird bestimmt, während ei­ nes oder beide der Bilder verschoben werden, und diese Summe wird als Korrelationswert genommen. Der Betrag der Verschiebung der Bilder stellt, wenn dieser Korrelationswert in einem Minimum ist, die Positions­ abweichung zwischen den zwei Bildern, d. h. (X1 + X2) dar. In idealisier­ ten Termen muss der Abstand, durch welchen die Bilder von den Linien­ sensoren 21 und 22 verschoben werden, damit die Bilder überlappen, wie in Fig. 2 gezeigt, (X1 + X2) sein.
Hier wurden um der Einfachheit wegen die Bildsensoren als eindimensi­ onale Liniensensoren 21 und 22 beschrieben. Jedoch werden in einer Ausführungsform der vorliegenden Erfindung, wie im Folgenden be­ schrieben wird, zweidimensionale CCD's oder zweidimensionale Photo­ sensorfelder als Bildsensoren verwendet. In diesem Fall werden die gleichen Korrelationsberechnungen wie die oben beschriebenen durch relative Verschiebung der von den zwei Bildsensoren erhaltenen zwei­ dimensionalen Bilder ausgeführt. Der Betrag der Verschiebung an dem Punkt, wo der Korrelationswert ein Minimum erreicht, entspricht (X1 + X2).
Der in Fig. 1 gezeigte Bildsensor 3 entspricht einem der Bildsensoren in Fig. 2, bestehend aus der Linse 23 und dem Liniensensor 21, wobei der Bildsensor 3' dem anderen Bildsensor in Fig. 2 entspricht, der aus der Linse 24 und dem Liniensensor 22 besteht. In dieser Ausführungs­ form, wie in Fig. 3 (b) gezeigt ist, wird der abgebildete Bereich in eine Mehrzahl von Fenstern (kleine Abschnitte) W11, W12, . . . unterteilt, und der Abstand wird für jedes Fenster gemessen. Folglich ist ein zweidi­ mensionales Bild des gesamten Objekts erforderlich. Folglich ist jeder der Bildsensoren 3 und 3' aus einem zweidimensionalen CCD-Feld oder einem zweidimensionalen Photosensorfeld gebildet.
Fig. 3 (a) zeigt ein Beispiel des Bildes, welches man erhält, wenn ein anderes Fahrzeug vor dem Fahrzeug fährt, in welches das System der vorliegenden Erfindung eingebaut ist, und durch einen der Bildsensoren 3 oder 3' abgebildet wird. Fig. 3 (b) weist Reihen in der vertikalen Richtung und Spalten in horizontaler Richtung auf. Der Einfachheit we­ gen ist das Bild aufgeteilt in 10 Reihen × 15 Spalten von Fenstern ge­ zeigt. Bezugszeichen sind den entsprechenden Fenstern zugeordnet. Zum Beispiel stellt W12 das Fenster in Reihe 1, Spalte 2 dar.
Bezogen auf Fig. 1 werden die von den Objekten durch die Bildsenso­ ren 3 und 3' aufgenommenen Bilder in digitale Daten durch Ana­ log/Digitalwandler (A/D Wandler) 4 und 4' umgewandelt und in Bildspei­ chern 5 und 5' gespeichert. Die dem Fenster W11 entsprechenden Bild­ abschnitte werden aus den Bildspeichern 5 und 5' durch einen Fenster­ ausschneideteil 13 ausgeschnitten und zu einem Korrelationsberech­ nungsteil 6 gesendet. Der Korrelationsberechnungsteil verschiebt die zwei ausgeschnittenen Bilder gleichzeitig um eine vorbestimmte Einheit und führt die obenerwähnten Korrelationsberechnungen aus. Der Betrag der Verschiebung an dem Punkt, in dem der Korrelationswert ein Mini­ mum erreicht, entspricht (X1 + X2). Der Korrelationsberechnungsteil 6 sendet den so bestimmten Wert von (X1 + X2) an einen Abstandsberech­ nungsteil 7.
Der Abstandsberechnungsteil 7 bestimmt den Abstand a" zum Objekt im Fenster W11 unter Verwendung der obenerwähnten Formel: a = B.f/(X1 + X2). Der so bestimmte Abstand a" wird in einem Abstandsspeicher 8 gespeichert. Ein ähnlicher Berechnungsprozess wird hintereinander für die jeweiligen Fenster ausgeführt und die resultierenden Abstände a11, a12, . . . werden im Abstandsspeicher 8 gespeichert. Der für jedes Fenster berechnete Abstand zu einem erfassten Objekt, wird als der gemessene Abstand des Fensters bezeichnet.
In den Bilddaten, welche in den obengenannten Korrelationsberechnun­ gen verwendet werden, bestimmt die Teilung der Elemente in dem Abbil­ dungselementfeld die Auflösung. Wenn folglich ein lichtempfangendes Element wie z. B. ein Photosensorfeld verwendet wird, welche eine relativ große Teilung hat, ist es vorzuziehen, die Dichte der Bilddaten durch Ausführen von Zwischenteilungs-Interpolationsberechnungen zu erhö­ hen. Korrelationsberechnungen können für Bilddaten, deren Dichte so erhöht wurde, ausgeführt werden.
Um Abweichungen in den Charakteristiken des Bildelementfelds infolge der Temperatur zu korrigieren, kann ein Temperatursensor in der Nähe des Bildelementfelds installiert werden, und die Abstandsberechnungen werden basierend auf vom Temperatursensor erhaltenen Temperaturin­ formationen korrigiert.
Die Erkennungseinheit 14 für körperliche Objekte, in Fig. 1 gezeigt, erkennt körperliche Objekte basierend auf dem Abstand der entspre­ chenden Fenster, welche im Abstandsspeicher 8 gespeichert sind, und Bilddaten, welche vom Bildspeicher 5' geliefert werden. Fig. 4 ist ein Blockdiagramm, welches den Aufbau der körperlichen Objekterken­ nungseinheit 14 veranschaulicht. Die Erkennungseinheit 14 für körperli­ che Objekte verwendet in dieser Ausführungsform ein Verfahren, in wel­ chem Straßenbereiche nach dem Bild beurteilt werden, und körperliche Objekte, welche keine Straßenbereiche sind, als körperliche Objekte be­ urteilt werden.
Als nächstes wird die Beurteilung von Straßenbereichen im Bild mit Be­ zug zu den Fig. 1 und 4 beschrieben. Wie oben erwähnt wurde, ist Fig. 3 (b) in 10 Reihen × 15 Spalten für die Anschaulichkeit der Be­ schreibung aufgeteilt. In Wirklichkeit jedoch, ist der Bildbereich extrem fein aufgeteilt. Für Hochpräzisionsbestimmung des Straßenbereichs, kann jedes Fenster aus einem einzelnen Bildpunkt bestehen. Alternativ kann eine Mehrzahl von Bildpunkten kombiniert werden, um ein einzel­ nes Fenster zu bilden. Die entsprechenden Fenster sind vorzugsweise gleich groß. Fenster von unterschiedlicher Größe können auch verwen­ det werden.
Wenn das vom Bildsensor 3' erhaltene und in digitale Daten umgewan­ delte Bild im Bildspeicher 5' gespeichert wird, schneidet die in Fig. 1 gezeigte Fensterausschneideeinheit 13 eine Mehrzahl von Fenstern aus, welche den unmittelbar vor dem Fahrzeug befindlichen Straßenbereich enthalten. Die Helligkeitsextraktionseinheit 31 erfasst eine Mehrzahl von Helligkeitswerten der ausgeschnittenen Fenster.
Helligkeitswerte von Fenstern, welche den unmittelbar vor dem Fahrzeug befindlichen Straßenbereich enthalten, werden erfasst, da eine extrem hohe Wahrscheinlichkeit besteht, dass der unmittelbar vor dem Fahr­ zeug befindliche Straßenbereich eine Straße ist. Folglich wird eine Mehrzahl von Helligkeitswerten erfasst, um die Erfassung der wesentli­ chen Straßenhelligkeitswerte zu ermöglichen, selbst wenn markierte Be­ reiche, wie z. B. Zeichen oder weiße Linien und ähnliches, auf der Stra­ ßenoberfläche vorhanden sind. Die Frage, welche Fenster des Ein­ gangsbildes als die Mehrzahl von Fenstern, welche unmittelbar vor dem das System tragenden Fahrzeug befindlichen Straßenbereich enthalten, erfasst werden, wird vorher in Übereinstimmung mit der Größe des Fahr­ zeugs und der Position der Bildsensoren innerhalb des Fahrzeugs be­ stimmt.
Als nächstes werden, um die wesentlichen Helligkeitswerte der Straße zu extrahieren, die Helligkeitswerte der Fenster, welche markierte Berei­ che auf der Straßenoberfläche enthalten, gelöscht. Zum Beispiel tritt in Fällen, in denen verschiedene Fenster, welche Markierungen auf der Straßenoberfläche enthalten, in der unteren Reihe der Fenster in dem Bild enthalten sind, eine geringe Abweichung in den Helligkeitswerten der Fenster dieser Reihe auf, da die Helligkeit der Markierungen auf der Straßenoberfläche sich allgemein sehr von der Helligkeit der Straßen­ oberfläche unterscheidet. Folglich können die Helligkeitswerte der Fenster in dieser Reihe gemittelt werden und können Helligkeitswerte, welche sich vom Durchschnittswert um einen vorbestimmten Wert oder mehr unterscheiden, gelöscht werden.
Alternativ können Helligkeitswerte, welche weiß oder gelb entsprechen, gelöscht werden, da Markierungen auf der Straßenoberfläche haupt­ sächlich weiß oder gelb sind und sich somit deutlich von der Straßenfar­ be selbst unterscheiden. Man kann auch, basierend auf einem aus dem vorherigen Eingangsbild extrahierten Referenzwert, folgern, ob Hellig­ keitswerte vom gegenwärtigen Eingangsbild wesentliche Helligkeitswerte der Straße sind oder ob nicht.
Nachdem die Helligkeitswerte der Fenster, welche Markierungen auf der Straßenoberfläche enthalten, gelöscht sind, extrahiert die Helligkeitsex­ traktionseinheit 31 einen Referenzhelligkeitswert basierend auf den verbleibenden Helligkeitswerten und speichert diesen Referenzhellig­ keitswert im Helligkeitsspeicher 32. Ein Helligkeitswert oder mehrere Helligkeitswerte können von den verbleibenden Helligkeitswerten aus­ gewählt und als Referenzhelligkeitswerte gespeichert werden. Alternativ kann ein Wert, welcher durch Mittelung einer Mehrzahl von Helligkeits­ werten erhalten wird, als ein Einzelreferenzhelligkeitswert gespeichert werden. Zum Beispiel können die Helligkeitswerte als digitale Daten mit 256 Stufen (von reinem schwarz "0" zu reinem weiß "255") ausgedrückt werden.
Dann schneidet die Fensterausschneideeinheit 13 (Fig. 1) andere Fenster vom Bild aus, und die Helligkeitsextraktionseinheit 31 extrahiert die Helligkeitswerte dieser Fenster. Die Helligkeitsvergleichseinheit 31 vergleicht die extrahierten Helligkeitswerte mit dem/den Referenzhellig­ keitswert(en), welche im Helligkeitsspeicher 32 gespeichert sind.
In Fällen, in denen jedes Fenster eine Mehrzahl von Bildpunkten um­ fasst, kann ein Mittel der Summe der Helligkeitswerte der entsprechen­ den Bildpunkte genommen werden, und dieser Mittelwert kann als der Helligkeitswert des Fensters extrahiert werden. Der Prozess des Extra­ hierens und Vergleichens der Helligkeitswerte kann parallel zu dem Pro­ zess der oben beschriebenen Abstandsberechnung ausgeführt werden.
Die Straßenbereichsbeurteilungseinheit 34 beurteilt Straßenbereiche basierend auf den von der Helligkeitsvergleichseinheit 33 empfangenen vergleichenden Ergebnissen. Wenn die Ergebnisse des Vergleichs in­ nerhalb einer vorbestimmten Spanne liegen, wird das Fenster als Stra­ ßenbereich beurteilt. Dies geschieht, weil der Straßenbereich ähnliche Helligkeit im ganzen Bereich aufweist, welcher sich von der Helligkeit eines Fahrzeugs oder anderer vor dem das System tragenden Fahrzeug fahrender Objekte unterscheidet. Ein Helligkeitswert oder mehrere Hel­ ligkeitswerte der als Straßenbereich beurteilten Fenster werden im Hel­ ligkeitsspeicher als neue Helligkeitswerte gespeichert.
Als nächstes wird ein Beispiel der Beurteilung von Straßenbereichen ba­ sierend auf Helligkeitswerten mit Bezug zu Fig. 3 (b) beschrieben. Die Fenster WA7 und WA9 (durch Schattierung dargestellte Fenster), welche den Bildbereich unmittelbar vor dem Fahrzeug enthalten, werden durch die Fensterausschneideeinheit 13 ausgeschnitten. Dann extrahiert die Helligkeitsextraktionseinheit 31 die Helligkeitswerte L1 und L2 der jewei­ ligen Fenster und speichert diese Werte im Helligkeitsspeicher 32 als Referenzhelligkeitswerte. Danach wird das Fenster WA6, welches sich neben dem Fenster WA7 befindet, ausgeschnitten, und die Helligkeitsex­ traktionseinheit 31 extrahiert den Helligkeitswert des Fensters WA6. Die Helligkeitsvergleichseinheit 33 vergleicht den extrahierten Helligkeits­ wert mit dem Referenzhelligkeitswert L1. Wenn die Ergebnisse dieses Vergleichs innerhalb einer vorbestimmten Spanne liegt (z. B. kann eine Spanne von ± 3 relativ zu dem Referenzhelligkeitswert als diese vorbe­ stimmte Spanne bezeichnet werden), urteilt die Straßenbereichsbeurtei­ lungseinheit 34, dass das Fenster WA6 ein Straßenbereich ist, und der Helligkeitswert des Fensters WA6 wird im Helligkeitsspeicher 32 als neu­ er Referenzhelligkeitswert L3 gespeichert.
Dann wird das Fenster WA5, welches sich neben dem Fenster WA6 befin­ det, ausgeschnitten und der Helligkeitswert des Fensters WA5 wird durch die Helligkeitsextraktionseinheit 31 extrahiert. Die Helligkeitsvergleichs­ einheit 33 vergleicht den extrahierten Helligkeitswert mit dem Referenz­ helligkeitswert L3. Wenn die Ergebnisse dieses Vergleichs innerhalb eines vorbestimmten Bereichs liegen, urteilt die Straßenbereichsbeur­ teilungseinheit 34, dass das Fenster WA5 ein Straßenbereich ist, und der Helligkeitswert des Fensters WA5 wird im Helligkeitsspeicher 32 als neu­ er Referenzhelligkeitswert L4 gespeichert. So werden die Fenster hin­ tereinander aus dem Bild ausgeschnitten, und Straßenbereiche werden durch Vergleichen der Helligkeitswerte für jedes Fenster beurteilt.
Vorzugsweise sind die durch die Fensterausschneideeinheit 13 ausge­ schnittenen Fenster in der Umgebung der Fenster angeordnet, welche Referenzhelligkeitswerte aufweisen. Insbesondere werden, falls der Re­ ferenzhelligkeitswert der Helligkeitswert des Fensters WA6 ist, vorzugs­ weise Fenster, die zu der gleichen Reihe wie das Fenster WA6 gehören, oder Fenster, die zu einer angrenzenden Reihe gehören, ausgeschnit­ ten, um die Helligkeitswerte dieser Fenster zu vergleichen. Wenn näm­ lich die Differenz in den gemessenen Abständen von dem Fahrzeug der zwei zu vergleichenden Fenster zu groß ist, können sich die Helligkeits­ werte der Fenster wesentlich unterscheiden, selbst wenn beide Fenster die gleiche Straßenoberfläche enthalten. In der vorliegenden Ausfüh­ rungsform können Straßenbereiche genau selbst in Fällen erfasst wer­ den, in denen die Helligkeit der Straßenoberfläche innerhalb des Bildes entsprechend den Abständen von dem das System tragenden Fahrzeug variiert.
Es wäre auch möglich, Helligkeitswerte (L1 und L2 im oberen Beispiel), welche am Anfang von Fenstern extrahiert wurden, welche unmittelbar vor dem Fahrzeug befindliche Straßenbereiche enthalten, als feste Refe­ renzhelligkeitswerte zu verwenden, ohne als Fahrbahnbereiche beur­ teilte Helligkeitswerte als neue Helligkeitswerte zu verwenden, wie in der oberen Ausführungsform, und Straßenbereiche durch Vergleichen der Helligkeitswerte der jeweiligen Fenster des Bildes mit diesen Hellig­ keitswerten zu beurteilen.
In der oben beschriebenen Ausführungsform wurden Helligkeitswerte basierend auf einem vom Einzelbildsensor 3' aufgenommenen Einzelbild extrahiert. Es wäre jedoch auch möglich, diese Extraktion unter Verwen­ dung von zwei oder mehr Bildern auszuführen, die von den für die oben erwähnte Abstandsmessung erforderlichen zwei oder mehr Bildsensoren erhalten werden. Zum Beispiel wäre es möglich, den Referenzhellig­ keitswert L2 von dem Bild zu extrahieren, welches vom Bildsensor 3 auf­ genommen wurde, und den Referenzhelligkeitswert L1 von dem Bild zu extrahieren, welches vom Bildsensor 3' aufgenommen wurde.
Vorzugsweise wird der Prozess zum Beurteilen von Straßenbereichen durch Vergleichen von Helligkeitswerten parallel zu einem oder mehre­ renanderen Prozessen ausgeführt. Zum Beispiel können die Fenster in Reiheneinheiten bearbeitet werden. Zum Beispiel können die Hellig­ keitswerte der Fenster WA1 bis WA6 und W91 bis W97 mit dem Referenz­ helligkeitswert L1 zu einer Zeit verglichen werden, und die Helligkeits­ werte der Fenster W81 bis W87 können dann mit einem neuen Referenz­ helligkeitswert des Fensters W93 zu einer Zeit verglichen werden, wenn dieser der neue Referenzhelligkeitswert in dem vorhergehenden Ver­ gleich wird. Um eine Hochgeschwindigkeitsbearbeitung zu erreichen, werden vorzugsweise die Fenster der linken Hälfte des Bildes unter Verwendung des Referenzhelligkeitswertes L1 als einen Basispunkt be­ arbeitet, und die Fenster in der rechten Hälfte des Bildes werden unter Verwendung des Referenzhelligkeitswertes L2 als Basispunkt bearbeitet, wobei beide Fenstereinheiten parallel bearbeitet werden.
Ferner können Bereiche, welche von Bildbereichen umgeben sind, die als zum Straßenbereich gehörend beurteilt wurden, automatisch als zum Straßenbereich gehörend beurteilt werden. Auf diese Weise können Be­ reiche, welche von den Bereichen umgeben sind, die als zum Straßenbe­ reich gehörend beurteilt wurden, als zum Straßenbereich gehörend be­ urteilt werden, selbst wenn die umgebenden Bereiche markierte Berei­ che sind, die eine sich von der Straße unterscheidende Helligkeit auf­ weisen. Die Größe von solchen Bereichen, welche von Straßenbereichen umgeben sind, die zum Straßenbereich gehörend beurteilt werden kön­ nen, wird basierend auf der Größe der zu erfassenden körperlichen Ob­ jekte bestimmt.
Da so die Straßenoberfläche selbst basierend auf den Helligkeitswerten erfasst wird, können Straßenbereiche beurteilt werden, selbst wenn das das System tragende Fahrzeug als Ergebnis von Nicken oder Rollen ge­ neigt wird oder auf einem Gefälle oder einer Überhöhung fährt, und es kann beurteilt werden, dass keine anderen Fahrzeuge oder körperliche Objekte in den so beurteilten Straßenbereichen vorhanden sind.
Hier können markierte Bereiche auf der Straßenoberfläche unter Ver­ wendung der gemessenen Abstände der Fenster genau extrahiert wer­ den. Die Straßenbereichsbeurteilungseinheit 34 holt vom Abstandsspei­ cher 8 die gemessenen Abstände der Fenster, für welche die Ergebnisse des oben beschriebenen Vergleichs nicht innerhalb der vorbestimmten Spanne liegen, und beurteilt, ob diese Abstände Abstände zur Straße sind oder ob nicht. Wenn dann diese Abstände Abstände zur Straße sind, werden diese Fenster als zu markierten Bereichen auf der Stra­ ßenoberfläche gehörend beurteilt.
Die Abstände der Fenster zur Straße können aus den gemessenen Ab­ ständen (z. B. gemessenen Abstände zur Straße) anderer Fenster ge­ wonnen werden, welche als zum Straßenbereich gehörend beurteilt wur­ den. Zum Beispiel kann daraus geschlossen werden, dass die Abstände zur Straße für alle in der Reihe enthaltenen Fenster, zu welcher diese anderen Fenster gehören, die gleichen sind. Der Abstand zur Straße kann für jede Reihe der Fenster aus den gemessenen Abständen der Fenster gewonnen werden, welche als zum Straßenbereich gehörend beurteilt wurden. Folglich kann die Straßenbereichsbeurteilungseinheit 34 durch Vergleichen der tatsächlich gemessenen Abstände für die Fenster mit den gewonnenen Abständen zur Straße beurteilen, ob die Bildbereiche der Fenster markierte Bereiche auf der Straßenoberfläche sind oder nicht.
Zum Beispiel enthält das Fenster W95, wie in Fig. 3 (b) gezeigt, ein Zei­ chen, welches auf die Straßenoberfläche gezeichnet ist. Die Straßenbe­ reichsbeurteilungseinheit 34 empfängt die vergleichenden Ergebnisse für das Fenster W95. Da die vergleichenden Ergebnisse nicht innerhalb der vorbestimmten Spanne liegen, holt sich die Straßenbereichsbeurtei­ lungseinheit 34 den gemessenen Abstand des Fensters W95 vom Ab­ standsspeicher 8. Die Straßenbereichsbeurteilungseinheit 34 holt sich vom Abstandsspeicher 8 auch die gemessenen Abstände eines anderen Fensters W93, welches zur gleichen Reihe wie das Fenster W95 gehört und welches als zum Straßenbereich gehörend beurteilt wurde. Da die Ergebnisse eines Vergleichs der zwei Abstände zeigen, dass die Ab­ stände im wesentlichen die gleichen sind, wird der Bildbereich des Fensters W95 als markierter Bereich auf der Straßenoberfläche beurteilt. Die Markierung "60" auf der Straßenoberfläche, gezeigt in Fig. 3 (b), kann durch Wiederholen solcher Beurteilungen erkannt werden.
Da, wie oben beschrieben, markierte Bereiche auf der Straßenoberfläche unter Verwendung von gemessenen Abständen extrahiert und erkannt werden können, kann das Fahrzeug auch gesteuert/geregelt werden, um zum Beispiel den Fahrer über Geschwindigkeits- und Spurwechsel und ähnliches aufmerksam zu machen.
Die Beurteilung von insoweit beschriebenen Straßenbereichen kann für alle Bereiche der Bildeingabe vom Bildsensor ausgeführt werden oder kann nur für einige dieser Bereiche ausgeführt werden. Zum Beispiel kann die Beurteilungsbearbeitung nur für Bildbereiche ausgeführt wer­ den, welche als neue Bilder in Bezug zu vorhergehend eingegebenen Bildern eingegeben werden (wenn das das System tragende Fahrzeug fährt). Ferner können Straßenbereiche auch unter Verwendung des vor­ gegebenen Straßenmodells eines Autonavigationssystems beurteilt wer­ den. So können die Beurteilungen von Straßenbereichen durch Begren­ zen der Bildbereiche, für welche Beurteilungen gemacht werden, effi­ zient erfolgen.
Wenn der Straßenbereich bestimmt ist, können die Fenster innerhalb des Bildes in die Fenster, welche den Straßenbereich repräsentieren, und in die Fenster, welche andere Dinge repräsentieren, klassifiziert werden. Wenn notwendig, kann die Straßenbereichsbeurteilungseinheit 34 den Straßenbereich, welcher aus Fenstern aufgebaut ist, die als zum Straßenbereich gehörend beurteilt wurden, in Form eines Bildes ausge­ ben. Fig. 3 (c) zeigt ein Beispiel eines solchen Ausgabebildes. Der er­ fasste Straßenbereich ist durch Schattierung dargestellt.
Die Erfassungseinheit 35 für körperliche Objekte erfasst körperliche Objekte auf der Straßenoberfläche basierend auf den durch die Stra­ ßenbereichsbeurteilungseinheit 34 beurteilten Straßenbereichen. Wenn der Straßenbereich bestimmt ist, können körperliche Objekte durch Ext­ rahieren von Fenstern, welche vor den Straßenbereichen angeordnet sind und welche nicht als zum Straßenbereich gehörend beurteilt wur­ den, erfasst werden.
Wenn, wie in Fig. 3 (c) gezeigt, zum Beispiel der gesamte Straßenbe­ reich bestimmt ist, werden die Fenster W57, W58 und W59 durch Verfolgen des Straßenbereichs davor und Identifizieren der Fenster, welche nicht als zum Straßenbereich gehörend bestimmt wurden, extrahiert. Wie in Fig. 3 (b) gezeigt, enthalten solche Fenster ein anderes Fahrzeug, wel­ ches davor fährt. Die Erfassungseinheit 35 für körperliche Objekte holt die gemessenen Abstände dieser Fenster vom Abstandsspeicher 8. Der Abstand vom das System tragenden Fahrzeug zu dem anderen Fahrzeug kann aus so erhaltenen gemessenen Abständen erfasst werden. Aus den Positionen der Fenster W57, W58 und W59 (welche Bereiche körperlicher Objekte repräsentieren) relativ zu den Fenstern W66 bis W6A, welche als Straßenbereich bestimmt wurden, kann der Standort des anderen Fahr­ zeugs in der Spur bestimmt werden.
Da somit die Erfassungseinheit 35 für körperliche Objekte die Zwi­ schenfahrzeugabstände zu anderen davor fahrenden Fahrzeugen basie­ rend auf Abständen zu erfassten körperlichen Objekten erfassen kann, kann der Fahrer auf solche Zwischenfahrzeugabstände aufmerksam ge­ macht werden. In Fällen, wo sich körperliche Objekte, welche den Be­ trieb des Fahrzeugs stören würden, auf der Straßenoberfläche davor be­ finden, kann der Fahrer durch ertönen eines Alarmsignals darauf auf­ merksam gemacht werden.
Zurück zu Fig. 1. Das System kann so aufgebaut werden, dass die Er­ kennungseinheit 14 für körperliche Objekte körperliche Objekte erkennt, die auf die Erfassung körperlicher Objekte eine vorbestimmte Anzahl von Malen in jeweiligen Abschnitten des Erfassungsbereichs reagieren, wie in Fig. 5 gezeigt. Fig. 5 (b) zeigt den Erfassungsbereich zur Erfassung körperlicher Objekte durch das Objekterfassungssystem in einer Ausfüh­ rungsform der vorliegenden Erfindung. Der Erfassungsbereich kann als ein fester Bereich festgesetzt werden, z. B. mit dem auf 60 Meter festge­ setzten Abstandsbereich und dem auf 30 Grad festgesetzten Winkelbe­ reich. Der Bereich kann vorzugsweise dynamisch in Übereinstimmung mit der Fahrzeuggeschwindigkeit festgesetzt werden. In solch einem Fall ist das System so programmiert, dass der Abstandsbereich zunimmt und der Winkelbereich abnimmt, wenn die Fahrzeuggeschwindigkeit zu­ nimmt.
Fig. 5 (b) zeigt ein Beispiel der Unterteilung eines festen Erfassungs­ bereichs. In diesem Beispiel ist der Erfassungsbereich in Blöcke S1 bis S12 eingeteilt. Falls sich der Erfassungsbereich dynamisch ändert, än­ dern sich die Blöcke S1 bis S12 proportional zur Veränderung des Er­ fassungsbereichs. Wenn der Winkelbereich kleiner als ungefähr 20 Grad wird, wenn die Geschwindigkeit des das System tragenden Fahrzeugs zunimmt, wird die Unterteilung in Querrichtung relativ zum Winkelbereich zu fein. Folglich werden die Blöcke S5 und S12 an beiden Seiten weg­ gelassen.
Die Anzahl von Malen der Erfassung für die Blöcke S1, S2 und S4 ist festgesetzt auf 2, die Anzahl von Malen der Erfassung für die Blöcke S3, S5, S6, S8 und S12 ist festgesetzt auf 3, die Anzahl von Malen der Er­ fassung für die Blöcke S7, S9 und S11 ist festgesetzt auf 4 und die An­ zahl von Malen der Erfassung für den Block S10 ist festgesetzt auf 5. Die Anzahl von Malen der Erfassung für die Blöcke S1, S2, S3, S4, S5, S6, S8 und S12, welche die Endabschnitte des Bereichs bilden, sind festgesetzt auf kleinere Werte als die Anzahl von Malen der Erfassung für die Blöcke S4, S9 und S11, welche die zentralen Abschnitte des Be­ reichs bilden. Dies basiert auf der empirischen Regel, dass die Verände­ rung von sich bewegenden körperlichen Objekten (Fahrzeugen), welche in diesen äußeren Blöcken erfasst werden, groß ist, während die Verän­ derung von sich bewegenden körperlichen Objekten, welche in den zent­ ralen Blöcken erfasst werden, klein ist. Mit anderen Worten ist in den äußeren Bereichen, in denen es einen hohen Grad der Veränderung gibt, vom Eintritt und Austritt der Fahrzeuge her gesehen, die Anzahl von Maien der Erfassung auf einen kleinen Wert festgesetzt, so dass sich die Veränderung der Fahrzeuge schnell im Fahrzeugerfassungszustand wi­ derspiegelt. Im zentralen Bereich, in dem es kleine Veränderungen gibt, vom Eintritt und Austritt der Fahrzeuge her gesehen, ist die Anzahl von Malen der Erfassung auf einen großen Wert festgesetzt, so dass ein stabiler Fahrzeugerfassungszustand erreicht werden kann.
Nach einem Aspekt der vorliegenden Erfindung führt die Interpolations­ steuer/-regeleinrichtung 15, anstelle des Variierens der Anzahl von Ma­ len der Erfassung, die Interpolation von Informationen der körperlichen Objekte aus, wenn Informationen bezüglich der erfassten körperlichen Objekte im Speicher für körperliche Objekte 16 gespeichert ist.
In dieser Ausführungsform ist die Anzahl von Malen der Interpolation für die Blöcke S1, S2 und S4 festgesetzt auf 2, die Anzahl von Malen der Interpolation für die Blöcke S3, S5, S6, S8 und S12 ist festgesetzt auf 3, die Anzahl von Malen der Interpolation für die Blöcke S7, S9 und S11 ist festgesetzt auf 4 und die Anzahl von Malen der Interpolation für den Block S10 ist festgesetzt auf 5. Die Anzahl von Malen der Interpolation für die Blöcke S1, S2, S3, S4, S5, S6, S8 und S12, welche die äußeren Abschnitte des Bereichs bilden, sind auf einen kleineren Wert festge­ setzt als die Anzahl von Malen der Interpolation für die Blöcke S4, S9 und S11, welche die zentralen Abschnitte des Bereichs bilden. Dies ba­ siert auf der oben erwähnten empirischen Regel. In den äußeren Berei­ chen, in denen es einen hohen Grad der Veränderung gibt, vom Eintritt und Austritt der Fahrzeuge her gesehen, ist die Anzahl von Malen der Interpolation auf einen kleinen Wert festgesetzt, so dass sich die Verän­ derung der Fahrzeuge schnell im Fahrzeugerfassungszustand wider­ spiegelt. Im zentralen Bereich, in dem es kleine Veränderungen gibt, vom Eintritt und Austritt der Fahrzeuge her gesehen, ist die Anzahl von Malen der Interpolation auf einen großen Wert festgesetzt, so dass ein stabiler Fahrzeugerfassungszustand erreicht werden kann.
Der Erfassungsbetrieb für körperliche Objekte wird zum Beispiel ausge­ führt mit einem Zyklus von 100 Millisekunden, so dass der Inhalt des Speichers 16 für körperliche Objekte über die Interpolationssteuer/- regeleinrichtung 15 jede 100 Millisekunden aktualisiert wird. Fig. 6 ist ein Blockdiagramm der Interpolationssteuer/-regeleinrichtung 15. Wenn das Erfassungssystem ein Bild erhält, so wie das in Fig. 3 (a) gezeigte, erkennt die Erkennungseinheit für körperliche Objekte 14 das Vorhan­ densein von körperlichen Objekten in den Fenstern W37, W38, W39, W47, W48, W49, W57, W58 und W59 durch das beschriebene Verfahren mit Be­ zug zu Fig. 4. Die Erkennungseinheit für körperliche Objekte 14 er­ kennt, dass die Abstände zu den körperlichen Objekten dieser Fenster die gleichen sind. Basierend auf dieser Erkennung urteilt die Erken­ nungseinheit für körperliche Objekte 14, dass die körperlichen Objekte, die in diesen Fenstern vorhanden sind, ein einzelnes integrales körperli­ ches Objekt bilden, und sendet dies an die Erfassungsblockbeurtei­ lungseinheit 41 der Interpolationssteuer/-regeleinrichtung als ein erstes körperliches Objekt, zusammen mit zugehöriger Fensterinformation und Abstandsinformation. Wenn zweite und dritte körperliche Objekte vom Bild erfasst werden, wird ähnliche Information für diese körperlichen Objekte an die Erfassungsblockbeurteilungseinheit 41 gesendet.
Ein Beispiel für das Format, welches für diesen Zweck verwendet wird, ist in Fig. 7 gezeigt. Das körperliche Objekt ID (Identifikation) Feld wird verwendet, um eine körperliche Objekt ID einzutragen, welche zwischen einer Mehrzahl von körperlichen Objekten unterscheidet. Ein Code kann verwendet werden, in welchem das erste körperliche Objekt als 001 i­ dentifiziert wird, das zweite körperliche Objekt als 010 identifiziert wird und das dritte körperliche Objekt als 011 identifiziert wird. Ein Wert, wel­ cher den Abstand zum körperlichen Objekt in Metereinheiten anzeigt, wird in das Abstandsfeld des Formats eingetragen. Ein Code, welcher die Mehrzahl der Fenster identifiziert, in welchen das körperliche Objekt im Zweifel erfasst wird, wird in das Fenster ID Feld eingetragen.
Die Erfassungsblockbeurteilungseinheit 41 (Fig. 6) vergleicht den Er­ fassungsbereich mit der Fensterinformation und Abstandsinformation, welche von der Erkennungseinheit für körperliche Objekte 14 gesendet werden, und bestimmt, dass zum Beispiel das erste körperliche Objekt in Block S8 des Erfassungsbereichs ist.
Der Speicher für körperliche Objekte 16 (Fig. 1) umfasst eine Tabelle, bestehend aus einem Direktzugriffsspeicher und enthält Information, welche das Vorhandensein oder die Abwesenheit eines körperlichen Objekts für jeweilige Blöcke des Erfassungsbereichs anzeigt, Informati­ on, welche die relative Geschwindigkeit zwischen dem das System tra­ genden Fahrzeug und dem körperlichen Objekt anzeigt, Information, welche die feste Anzahl von Malen der Interpolation für die jeweiligen Blöcke anzeigt und Information, welche die verbleibende Anzahl von Malen, dass die Interpolation auszuführen ist, anzeigt. Das übliche For­ mat dieser Tabelle ist in Fig. 8 gezeigt. In Fig. 8 ist das erste körperli­ che Objekt 1 (Code 001) in Block S8, und der Abstand vom das System tragenden Fahrzeug zu diesem körperlichen Objekt 1 beträgt 15 Meter. Die relative Geschwindigkeit zwischen dem das System tragenden Fahr­ zeug und dem körperlichen Objekt 1 beträgt + 3 km/h, die Anzahl von Malen der Interpolation für diese Blöcke beträgt 3, die verbleibende An­ zahl von Malen der Interpolation für das körperliche Objekt 1 beträgt 2. Dies zeigt an, dass die erste Interpolation ausgeführt wurde, wobei als Ergebnis kein körperliches Objekt in diesem Block in dem vorhergehen­ den Erfassungszyklus erfasst wurde, in welchem das Schreiben der Ta­ belle stattfand.
Die Datenaktualisierungssteuer/-regeleinrichtung 42, gezeigt in Fig. 6, empfängt Information, welche das Vorhandensein oder die Abwesenheit von körperlichen Objekten für jeden Block der Erfassungsblockbeurtei­ lungseinheit 41 anzeigt. Als Antwort auf diese Information liest die Da­ tenaktualisierungssteuerl-regeleinrichtung 42 Informationen für die ent­ sprechenden Blöcke aus der Tabelle des Speichers für körperliche Ob­ jekte 16 (Fig. 8) aus. Abhängig von der Information der Erfassungs­ blockbeurteilungseinheit 41 und der Information, welche aus der Tabelle ausgelesen wird, führt die Datenaktualisierungssteuer/-regeleinrichtung 42 den folgenden Prozess für die jeweiligen Blöcke aus:
  • 1. In Fällen, in denen Information die Abwesenheit eines körperlichen Objekts, welches von der Erfassungsblockbeurteilungseinheit 41 emp­ fangen wird, anzeigt, und Information vom körperlichen Objekt nicht in dem entsprechenden Block der Tabelle gespeichert wird:
    In solchen Fällen fährt die Datenaktualisierungssteuer/-regeleinrichtung 42 mit der Bearbeitung des nächsten Erfassungsblocks fort.
  • 2. In Fällen, in denen Information die Abwesenheit eines körperlichen Objekts, welches von der Erfassungsblockbeurteilungseinheit 42 emp­ fangen wird, anzeigt, und Information vom körperlichen Objekt in dem entsprechenden Block der Tabelle gespeichert wird:
    Wenn zum Beispiel Information die Abwesenheit eines körperlichen Ob­ jekts, welches von der Erfassungsblockbeurteilungseinheit 41 empfan­ gen wird, für den Block S8 anzeigt und die Aufzeichnung für Block S8 mit dem in Fig. 8 gezeigten Inhalt aus der Tabelle ausgelesen wird, trägt die Datenaktualisierungssteuer/-regeleinrichtung einen Wert ein, wel­ cher durch Subtrahieren von 1 vom Wert des verbleibenden Anzahl von Malen-Felds der Aufzeichnung in dem verbleibende Anzahl von Malen- Feld erhalten wird, und überschreibt die Aufzeichnung des Blocks S8 in der Tabelle ohne Aktualisierung der Daten anderer Felder. Als Ergebnis wird das verbleibende Anzahl von Malen-Feld des Blocks S8 zu 1.
    Wenn der Wert des "verbleibende Anzahl von Malen" Felds der Auf­ zeichnung von Block S8 zu Beginn des Prozesses 0 beträgt, setzt die Datenaktualisierungssteuer/-regeleinrichtung 42 andere Daten als das "Anzahl von Malen der Interpolation" Feld der Aufzeichnung von Block S8 auf einen Nullzustand oder alle auf "0" oder alle auf "1" (diese Zu­ stände werden gemeinsam als "Nullzustand" bezeichnet), und über­ schreibt die Aufzeichnung nach zurücksetzen in der Tabelle. Als Ergeb­ nis beträgt in der Aufzeichnung von Block S8 der Wert des "Anzahl von Malen der Interpolation" Felds 3, und die anderen Felder sind alle in ei­ nem Nullzustand.
  • 3. In Fällen, in denen Information das Vorhandensein eines körperlichen Objekts, welches von der Erfassungsblockbeurteilungseinheit 41 emp­ fangen wird, anzeigt und es keine Informationen des körperlichen Ob­ jekts in der Aufzeichnung des entsprechenden Blocks der Tabelle gibt:
    Die Datenaktualisierungssteuer/-regeleinrichtung 42 trägt körperliche Objekt ID's und Abstandsdaten, welche von der Erfassungsblockbeur­ teilungseinheit 41 empfangen werden, in das "körperliche Objekt" Feld und das "Abstand" Feld der Aufzeichnung des entsprechenden Blocks ein und überschreibt die Tabelle mit der Aufzeichnung, welche so aktua­ lisiert wurde. Wie aus der vorangegangenen Beschreibung klar ist, funk­ tioniert das "verbleibende Anzahl von Malen" Feld als Abwärtszähler.
  • 4. In Fällen, in denen Information das Vorhandensein eines körperlichen Objekts, welches von der Erfassungsblockbeurteilungseinheit 41 emp­ fangen wird, anzeigt und es Informationen des körperlichen Objekts in der Aufzeichnung des entsprechenden Blocks der Tabelle gibt:
    Die Datenaktualisierungssteuer/-regeleinrichtung 42 sendet Abstands­ information (gegenwärtige Abstandsinformation), welche von der Erfas­ sungsblockbeurteilungseinheit empfangen wird, und Abstandsinformation (frühere Abstandsinformation), welche von der Aufzeichnung des ent­ sprechenden Blocks der Tabelle ausgelesen wird, zur Relativgeschwin­ digkeitsberechnungseinheit 43. Als Antwort berechnet die Relativge­ schwindigkeitsberechnungseinheit 43 die Relativgeschwindigkeit zwi­ schen dem körperlichen Objekt und dem das System tragenden Fahr­ zeug unter Verwendung der Berechnungsformel:
    Relativgeschwindigkeit = (gegenwärtiger Abstand - früherer Abstand)/Er­ fassungszeitintervall.
Das Erfassungszeitintervall ist die Zeitdifferenz zwischen der früheren Messung und der gegenwärtigen Messung. Diese Zeitdifferenz umfasst in der vorliegenden Ausführungsform 100 Millisekunden. Die Relativge­ schwindigkeitsberechnungseinheit 43 wandelt den so erhaltenen Wert in km/h um und sendet ihn an die Datenaktualisierungssteuer/-re­ geleinrichtung 42.
Die Datenaktualisierungssteuer/-regeleinrichtung 42 ersetzt das "körperliche Objekt" Feld und das "Abstand" Feld der Aufzeichnung des entsprechenden von der Tabelle empfangenen Blocks durch von der Er­ fassungsblockbeurteilungseinheit 41 empfangene Daten. Die Datenaktu­ alisierungssteuer/-regeleinrichtung 42 trägt den von der Relativge­ schwindigkeitsberechnungseinheit 43 empfangenen Wert in das "Relativgeschwindigkeits" Feld ein und dekrementiert den Wert in dem "verbleibende Anzahl von Malen" Feld. Die Aufzeichnung des entspre­ chenden Blocks der Tabelle wird mit der so erhaltenen aktualisierten Aufzeichnung überschrieben.
So wird Information der körperlichen Objekte des Typs, wie in der Ta­ belle in Fig. 8 gezeigt, im Speicher für körperliche Objekte 16, gezeigt in Fig. 1, gespeichert. Die Fahrzeugsteuer/-regeleinrichtung 18 führt Steuerungs-/Regelungsfunktionen aus, wie z. B. automatische Fahrsteue­ rung/-regelung mit Fahrzeugkursverfolgungsfunktion, Aktivierung eines Alarms im Fall von zu kleinem Zwischenfahrzeugabstand, und eine au­ tomatische Geschwindigkeitsreduzierungssteuerung/-regelung und ähn­ liches, basierend auf der Information, welche im Speicher für körperliche Objekte 16 gespeichert ist, und Information, welche von dem Fahrzeug­ geschwindigkeitserfassungssystem 19 und dem Gierratenerfassungs­ system 2 und ähnlichem empfangen wird.
Die Korrelationsberechnungseinheit 6, die Abstandsmessungseinheit 7, der Abstandsspeicher 8, die Fensterausschneideeinheit 13, die Erken­ nungseinheit 14 für körperliche Objekte, die Interpolationssteuer/-re­ geleinrichtung 15, der Speicher für körperliche Objekte 16, die Rela­ tivgeschwindigkeitsberechnungseinheit 17 und die Fahrzeugsteuer/-re­ geleinrichtung 18 können konstruiert werden, unter Verwendung einer Zentralrecheneinheit (CPU), eines Festwertspeichers mit darin unterge­ brachten Steuerungs-/Regelungsprogrammen und Steuerungs-/Re­ gelungsdaten sowie eines Direktzugriffsspeichers (RAM), welcher einen Betriebsarbeitsbereich für die CPU vorsieht und welcher vorüber­ gehend verschiedene Datentypen speichert. Der Abstandsspeicher 8 und die Erkennungseinheit 14 für körperliche Objekte können unter Verwen­ dung jeweils verschiedener Speicherbereiche eines Einzel-RAMs reali­ siert werden. Außerdem können vorübergehende Speicherbereiche für Daten, welche verschiedene Typen von Operationen erfordern, auch unter Verwendung von Abschnitten des gleichen RAMs realisiert werden.
Überdies kann das Objekterfassungssystem der vorliegenden Erfindung mit einer elektronischen Motor-Steuerungs-/Regelungseinheit (ECU), Bremssteuerungs-/regelungs ECU oder anderer ECUs LAN-verbunden sein und die Ausgabe von diesem Objekterfassungssystem kann für die gesamte Steuer/Regeleinrichtung des Fahrzeugs verwendet werden.
Somit wurde gezeigt, dass in diesem System der Erfindung die Häufig­ keit von falscher Erkennung aufgrund falscher Erfassung reduziert wird, verglichen mit Fällen, in welchen die Erkennung der körperlichen Ob­ jekte mit einer festen Anzahl von Malen der Erfassung ungeachtet des Erfassungsbereichs ausgeführt wird. Außerdem können körperliche Ob­ jekte, welche in die Grenzabschnitte des Erfassungsbereichs eintreten, schnell erkannt werden.
Der Ausfall von körperlichen Objekten im zentralen Abschnitt des Erfas­ sungsbereichs kann verhindert werden, und eine falsche Bearbeitung, welche das Vorhandensein von körperlichen Objekten anzeigt, die ei­ gentlich nicht in den Randabschnitten des Erfassungsbereichs vorhan­ den sind, kann reduziert werden.
Obwohl die Erfindung mit Bezug zu bestimmten Ausführungsformen ge­ zeigt und beschrieben wurde, ist es verständlich, dass beliebige Modifi­ kationen und Veränderungen zugelassen sind, vorausgesetzt sie entfer­ nen sich nicht vom Schutzbereich der angefügten Ansprüche.
Ein Objekterfassungssystem umfasst: eine Erkennungseinheit für kör­ perliche Objekte, welche körperliche Objekte außerhalb des Fahrzeugs erkennt, und einen Speicher für körperliche Objekte, welcher körperliche Objekte betreffende Information speichert.
Eine Steuer/Regeleinrichtung erkennt das Vorhandensein eines körperli­ chen Objekts, wenn das körperliche Objekt von einem oder mehreren Sensoren eine vorbestimmte Anzahl von Malen erfasst wird, welche für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für ei­ nen Randabschnitt des Erfassungsbereichs. Das System umfasst einen Speicher zum Speichern von Information über die körperlichen Objekte. Die Steuer/Regeleinrichtung hält das körperliche Objekt in dem Speicher gespeichert, was anzeigt, dass das körperliche Objekt vorhanden ist, bis die Steuer/Regeleinrichtung das Vorhandensein des entsprechenden körperlichen Objekts eine vorbestimmte Anzahl von Erkennungszyklen nicht mehr erkennt.

Claims (19)

1. An einem Fahrzeug angebrachtes Objekterkennungssystem, umfas­ send:
wenigstens einen Sensor zum Erfassen eines körperlichen Objekts in einem vorbestimmten Erfassungsbereich; und
eine Steuer/Regeleinrichtung zum Erkennen des Vorhandenseins eines körperlichen Objekts, wenn das körperliche Objekt von dem Sensor eine vorbestimmte Anzahl von Malen erkannt wird, wobei die vorbestimmte Anzahl von Malen für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für einen Randabschnitt des Erfassungsbereichs.
2. System nach Anspruch 1, wobei der wenigstens eine Sensor zwei Bildsensoren zum Aufnehmen eines Bildes des Erfassungsbereichs umfasst.
3. System nach Anspruch 2, wobei die Steuer/Regeleinrichtung einen Straßenbereich auf Grundlage von Helligkeitswerten jeweiliger Fenster des aufgenommenen Bildes bestimmt.
4. System nach Anspruch 3, wobei die Steuer/Regeleinrichtung fort­ schreitend Helligkeitswerte jeweiliger Fenster vergleicht, indem sie ein Fenster, welches einem Bereich nahe dem Fahrzeug entspricht, als Referenzfenster verwendet, wobei das Referenzfenster fort­ schreitend durch ein Fenster ersetzt wird, welches neuerlich als zum Straßenbereich gehörend identifiziert ist.
5. System nach Anspruch 4, wobei die Steuer/Regeleinrichtung ein Fenster als zu einem körperlichen Objekt oder einer Markierung auf der Straße gehörend identifiziert, dessen Helligkeitswert sich von dem des fortschreitend ersetzten Referenzfensters um mehr als ei­ nen vorbestimmten Wert unterscheidet.
6. An einem Fahrzeug angebrachtes Objekterfassungssystem, umfas­ send:
wenigstens einen Sensor zum Erfassen eines körperlichen Objekts in einem vorbestimmten Erfassungsbereich;
eine Steuer/Regeleinrichtung zum Erkennen des Vorhandenseins eines körperlichen Objekts auf Grundlage einer Ausgabe des Sen­ sors; und
einen Speicher zum Speichern von Information über das von der Steuer/Regeleinrichtung erkannte körperliche Objekt;
wobei die Steuer/Regeleinrichtung das körperliche Objekt im Spei­ cher gespeichert hält, was anzeigt, dass das körperliche Objekt vorhanden ist, bis die Steuer/Regeleinrichtung das Vorhandensein des entsprechenden körperlichen Objekts eine vorbestimmte Anzahl von Erkennungszyklen nicht mehr erkennt.
7. System nach Anspruch 6, wobei die vorbestimmte Anzahl von Er­ kennungszyklen für ein im zentralen Abschnitt des Erfassungsbe­ reichs befindliches körperliches Objekt größer ist als für ein im Randabschnitt des Erfassungsbereichs befindliches körperliches Objekt.
8. System nach Anspruch 7, wobei der Erfassungsbereich in eine Mehrzahl von Blöcken unterteilt ist und jedem Block die vorbe­ stimmte Anzahl von Erkennungszyklen zugeordnet ist, und wobei Information über das erkannte körperliche Objekt in dem Speicher in Bezug auf den Block, in dem das körperliche Objekt erkannt ist, gespeichert ist.
9. System nach Anspruch 6, wobei die Steuer/Regeleinrichtung fort­ schreitend Helligkeitswerte jeweiliger Fenster vergleicht, indem sie ein Fenster, welches einem Bereich nahe dem Fahrzeug entspricht, als Referenzfenster verwendet, wobei das Referenzfenster fort­ schreitend durch ein Fenster ersetzt wird, welches neuerlich als zum Straßenbereich gehörend identifiziert ist.
10. System nach Anspruch 9, wobei die Steuer/Regeleinrichtung ein Fenster als zu einem körperlichen Objekt oder einer Markierung auf der Straße gehörend identifiziert, dessen Helligkeitswert sich von dem des fortschreitend ersetzten Referenzfensters um mehr als ei­ nen vorbestimmten Wert unterscheidet.
11. Verfahren zum Erkennen eines Objekts aus einem fahrenden Fahr­ zeug, welches die Schritte umfasst:
Aufnehmen eines Bildes eines vorbestimmten Erfassungsbereichs;
Verarbeiten des Bildes, um ein körperliches Objekt von einem Stra­ ßenbereich zu unterscheiden; und
Erkennen des Vorhandenseins eines körperlichen Objekts; wenn das körperliche Objekt eine vorbestimmte Anzahl von Malen erfasst wird, wobei die vorbestimmte Anzahl von Malen für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für einen Randab­ schnitt des Erfassungsbereichs.
12. Verfahren nach Anspruch 11, wobei das körperliche Objekt von dem Straßenbereich auf Grundlage von Helligkeitswerten jeweiliger Fenster des aufgenommenen Bildes unterschieden wird.
13. Verfahren nach Anspruch 11, wobei der Schritt der Verarbeitung den Schritt des fortschreitenden Vergleichens von Helligkeitswerten jeweiliger Fenster umfasst, wobei ein Fenster, welches einem Be­ reich nahe dem Fahrzeug entspricht, als Referenzfenster verwendet wird, wobei das Referenzfenster fortschreitend durch ein Fenster ersetzt wird, welches neuerlich als zum Straßenbereich gehörend i­ dentifiziert ist.
14. Verfahren nach Anspruch 13, wobei der Schritt der Verarbeitung den Schritt der Identifizierung eines Fensters als zu einem körperli­ chen Objekt oder einer Markierung auf der Straße gehörend um­ fasst, dessen Helligkeitswert sich von dem des fortschreitend er­ setzten Referenzfensters um mehr als einen vorbestimmten Wert unterscheidet.
15. Verfahren zum Erfassen eines Objekts aus einem fahrenden Fahr­ zeug, die Schritte umfassend:
Aufnehmen eines Bildes eines vorbestimmten Erfassungsbereichs;
Verarbeiten des aufgenommenen Bildes, um ein körperliches Objekt von einem Straßenbereich zu unterscheiden;
Speichern von Information über das unterschiedene körperliche Objekt in einem Speicher; und
gespeichert Halten des körperlichen Objekts im Speicher, was an­ zeigt, dass das körperliche Objekt vorhanden ist, bis das körperli­ che Objekt eine vorbestimmte Anzahl von Erfassungszyklen nicht mehr erfasst wird.
16. Verfahren nach Anspruch 15, wobei die vorbestimmte Anzahl der Erfassungszyklen für einen zentralen Abschnitt des Erfassungsbe­ reichs größer ist als für einen Randbereich des Erfassungsbereichs.
17. Verfahren nach Anspruch 16, wobei der Erfassungsbereich in eine Mehrzahl von Blöcken unterteilt ist und jedem Block die vorbe­ stimmte Anzahl von Erfassungszyklen zugeordnet ist, und wobei Information über das erfasste körperliche Objekt in dem Speicher in Bezug auf den Block, in dem das körperliche Objekt erfasst ist, ge­ speichert wird.
18. Verfahren nach Anspruch 15, wobei der Schritt der Verarbeitung den Schritt des fortschreitenden Vergleichens von Helligkeitswerten jeweiliger Fenster umfasst, wobei ein Fenster, welches einem Be­ reich nahe dem Fahrzeug entspricht, als Referenzfenster verwendet wird, wobei das Referenzfenster fortschreitend durch ein Fenster ersetzt wird, welches neuerlich als zum Straßenbereich gehörend i­ dentifiziert ist.
19. Verfahren nach Anspruch 18, wobei der Schritt der Verarbeitung den Schritt der Identifizierung eines Fensters als zu einem kprperli­ chen Objekt oder einer Markierung auf der Straße gehörend um­ fasst, dessen Helligkeitswert sich von dem des fortschreitend er­ setzten Referenzfensters um mehr als einen vorbestimmten Wert unterscheidet.
DE10026586A 1999-05-27 2000-05-29 Objekterfassungssystem Expired - Lifetime DE10026586B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPP11-148303 1999-05-27
JP14830399A JP4028135B2 (ja) 1999-05-27 1999-05-27 物体検出装置

Publications (2)

Publication Number Publication Date
DE10026586A1 true DE10026586A1 (de) 2000-11-30
DE10026586B4 DE10026586B4 (de) 2010-04-01

Family

ID=15449780

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10026586A Expired - Lifetime DE10026586B4 (de) 1999-05-27 2000-05-29 Objekterfassungssystem

Country Status (3)

Country Link
US (2) US6683969B1 (de)
JP (1) JP4028135B2 (de)
DE (1) DE10026586B4 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1405752A1 (de) * 2002-10-01 2004-04-07 Robert Bosch Gmbh Einrichtung zur Erzeugung von Stellsignalen in einem Kraftfahrzeug
EP1470977A1 (de) * 2003-04-23 2004-10-27 Volkswagen Aktiengesellschaft Park- und Fahrhilfe für ein Kraftfahrzeuge
DE10343479A1 (de) * 2003-09-19 2005-04-28 Bosch Gmbh Robert Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug
DE10029866B4 (de) * 1999-06-16 2006-06-08 Honda Giken Kogyo K.K. Objekterkennungssystem
WO2016020342A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum erzeugen einer umgebungskarte sowie fahrerassistenzsystem

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5910854A (en) 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
US5668663A (en) 1994-05-05 1997-09-16 Donnelly Corporation Electrochromic mirrors and devices
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US6124886A (en) * 1997-08-25 2000-09-26 Donnelly Corporation Modular rearview mirror assembly
US8294975B2 (en) 1997-08-25 2012-10-23 Donnelly Corporation Automotive rearview mirror assembly
US6172613B1 (en) 1998-02-18 2001-01-09 Donnelly Corporation Rearview mirror assembly incorporating vehicle information display
US6445287B1 (en) 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
US7167796B2 (en) * 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
AU2001243285A1 (en) * 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
KR100391442B1 (ko) * 2000-12-27 2003-07-12 현대자동차주식회사 차선 이탈 방지용 영상 처리방법
US7581859B2 (en) 2005-09-14 2009-09-01 Donnelly Corp. Display device for exterior rearview mirror
EP1363810B1 (de) 2001-01-23 2007-05-30 Donnelly Corporation Verbessertes fahrzeugbeleuchtungssystem
US7255451B2 (en) 2002-09-20 2007-08-14 Donnelly Corporation Electro-optic mirror cell
US7429843B2 (en) * 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
JP2002374441A (ja) * 2001-06-13 2002-12-26 Mitsubishi Electric Corp 車窓内センサ
US6882287B2 (en) 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
US6918674B2 (en) * 2002-05-03 2005-07-19 Donnelly Corporation Vehicle rearview mirror system
US7636455B2 (en) * 2002-06-04 2009-12-22 Raytheon Company Digital image edge detection and road network tracking method and system
WO2003105099A1 (en) 2002-06-06 2003-12-18 Donnelly Corporation Interior rearview mirror system with compass
US7329013B2 (en) 2002-06-06 2008-02-12 Donnelly Corporation Interior rearview mirror system with compass
JP4155780B2 (ja) * 2002-09-19 2008-09-24 富士通テン株式会社 画像処理方法
WO2004026633A2 (en) 2002-09-20 2004-04-01 Donnelly Corporation Mirror reflective element assembly
US7310177B2 (en) 2002-09-20 2007-12-18 Donnelly Corporation Electro-optic reflective element assembly
JP4100250B2 (ja) * 2003-05-19 2008-06-11 日産自動車株式会社 障害物検出装置および障害物検出方法
US7289037B2 (en) 2003-05-19 2007-10-30 Donnelly Corporation Mirror assembly for vehicle
US7446924B2 (en) * 2003-10-02 2008-11-04 Donnelly Corporation Mirror reflective element assembly including electronic component
US7308341B2 (en) * 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
KR100543709B1 (ko) * 2003-12-23 2006-01-20 삼성전자주식회사 이동체의 회전 이동량 이용 방법과 장치 및 컴퓨터프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록 매체
ITMO20040245A1 (it) * 2004-09-24 2004-12-24 Meta System Spa Sistema e metodo di rilevamento degli ostacoli in particolare per sistemi di agevolazione del parcheggio di veicoli.
ITMO20040244A1 (it) * 2004-09-24 2004-12-24 Meta System Spa 'sistema e metodo di rilevamento degli ostacoli in particolare per sistemi di agevolazioni del parcheggio di veicoli'.
US7590263B2 (en) * 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4461091B2 (ja) * 2004-11-30 2010-05-12 本田技研工業株式会社 位置検出装置及びその補正方法
US7599521B2 (en) * 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4032052B2 (ja) * 2004-11-30 2008-01-16 本田技研工業株式会社 位置検出装置及びその補正方法
JP4224449B2 (ja) * 2004-11-30 2009-02-12 本田技研工業株式会社 画像抽出装置
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
ATE517368T1 (de) 2005-05-16 2011-08-15 Donnelly Corp Fahrzeugspiegelanordnung mit zeichen am reflektierenden teil
CN101535087B (zh) * 2005-11-01 2013-05-15 唐纳利公司 具有显示装置的内部后视镜
JP4426535B2 (ja) * 2006-01-17 2010-03-03 本田技研工業株式会社 車両の周辺監視装置
DE102006004193A1 (de) * 2006-01-27 2007-08-16 Sick Ag Vorrichtung zur optoelektronischen Überwachung von Objekten
EP1818747A1 (de) * 2006-02-09 2007-08-15 Leica Geosystems AG Ausbringungssteuereinheit
JP5577038B2 (ja) 2006-03-09 2014-08-20 ジェンテックス コーポレイション 高輝度ディスプレイを含む車両リアビューアセンブリ
EP1971862B1 (de) 2006-04-11 2010-11-10 Arena Pharmaceuticals, Inc. Verfahren zur verwendung des gpr119-rezeptors zur identifizierung von verbindungen zur erhöhung der knochenmasse bei einer person
PE20071221A1 (es) 2006-04-11 2007-12-14 Arena Pharm Inc Agonistas del receptor gpr119 en metodos para aumentar la masa osea y para tratar la osteoporosis y otras afecciones caracterizadas por masa osea baja, y la terapia combinada relacionada a estos agonistas
EP2063390B1 (de) * 2006-09-14 2016-08-03 Fujitsu Limited Bildverarbeitungseinrichtung und programm dafür
DE102006054220A1 (de) * 2006-11-15 2008-05-21 Robert Bosch Gmbh Verfahren und Vorrichtung zur Regelung der Geschwindigkeit eines Kraftfahrzeugs
JP4281817B2 (ja) * 2007-03-28 2009-06-17 トヨタ自動車株式会社 撮像システム
JP4909790B2 (ja) * 2007-04-04 2012-04-04 本田技研工業株式会社 車両用走行制御装置
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
US9487144B2 (en) * 2008-10-16 2016-11-08 Magna Mirrors Of America, Inc. Interior mirror assembly with display
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
TWI436242B (zh) * 2010-01-11 2014-05-01 Pixart Imaging Inc 移動偵測裝置
US9342500B2 (en) 2010-03-15 2016-05-17 Michael V. Liguori Object memory management system
US8879139B2 (en) 2012-04-24 2014-11-04 Gentex Corporation Display mirror assembly
US8831285B2 (en) 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
KR101881346B1 (ko) 2013-03-15 2018-07-24 젠텍스 코포레이션 디스플레이 미러 어셈블리
DE202014010751U1 (de) 2013-09-24 2016-07-18 Gentex Corporation Anzeigespiegelbaugruppe
US9511715B2 (en) 2014-01-31 2016-12-06 Gentex Corporation Backlighting assembly for display for reducing cross-hatching
US10705332B2 (en) 2014-03-21 2020-07-07 Gentex Corporation Tri-modal display mirror assembly
DE102014206086A1 (de) * 2014-03-31 2015-10-01 Robert Bosch Gmbh Verfahren zum Betreiben einer selbstbeweglichen mobilen Plattform
EP3126195B1 (de) 2014-04-01 2019-06-05 Gentex Corporation Automatische anzeigespiegelanordnung
DE102014106939A1 (de) * 2014-05-16 2015-11-19 Huf Hülsbeck & Fürst Gmbh & Co. Kg Elektronische Baugruppe zum Beleuchten eines einen Detektionsbereich eines Sensors markierenden Zielbereiches
WO2016044746A1 (en) 2014-09-19 2016-03-24 Gentex Corporation Rearview assembly
CN107000642B (zh) 2014-11-07 2020-03-27 金泰克斯公司 全显示镜致动器
CN107000649B (zh) 2014-11-13 2020-04-14 金泰克斯公司 具有显示装置的后视镜系统
US10131279B2 (en) 2014-12-03 2018-11-20 Gentex Corporation Display mirror assembly with an RF shield bezel
USD746744S1 (en) 2014-12-05 2016-01-05 Gentex Corporation Rearview device
US9744907B2 (en) 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
US9720278B2 (en) 2015-01-22 2017-08-01 Gentex Corporation Low cost optical film stack
CN107531183B (zh) 2015-04-20 2021-09-03 金泰克斯公司 具有贴花的后视总成
CN107614324B (zh) 2015-05-18 2020-11-27 金泰克斯公司 完整显示后视装置
KR102135427B1 (ko) 2015-06-22 2020-07-17 젠텍스 코포레이션 진폭-변조된 광의 깜박임을 보정하기 위해 스트리밍된 비디오 이미지를 처리하는 시스템 및 방법
EP3341704A1 (de) 2015-08-28 2018-07-04 Marx, Jürgen Verfahren und vorrichtung zur erfassung der oberflächenstruktur und beschaffenheit einer probe
USD797627S1 (en) 2015-10-30 2017-09-19 Gentex Corporation Rearview mirror device
USD798207S1 (en) 2015-10-30 2017-09-26 Gentex Corporation Rearview mirror assembly
WO2017075473A1 (en) 2015-10-30 2017-05-04 Gentex Corporation Rearview device
US10685623B2 (en) 2015-10-30 2020-06-16 Gentex Corporation Toggle paddle
USD800618S1 (en) 2015-11-02 2017-10-24 Gentex Corporation Toggle paddle for a rear view device
USD845851S1 (en) 2016-03-31 2019-04-16 Gentex Corporation Rearview device
USD817238S1 (en) 2016-04-29 2018-05-08 Gentex Corporation Rearview device
US10025138B2 (en) 2016-06-06 2018-07-17 Gentex Corporation Illuminating display with light gathering structure
USD809984S1 (en) 2016-12-07 2018-02-13 Gentex Corporation Rearview assembly
USD854473S1 (en) 2016-12-16 2019-07-23 Gentex Corporation Rearview assembly
WO2018125898A1 (en) 2016-12-30 2018-07-05 Gentex Corporation Full display mirror with on-demand spotter view
WO2018140402A1 (en) * 2017-01-27 2018-08-02 Gentex Corporation Image compensation for motorcycle banking
CN110312641A (zh) 2017-03-17 2019-10-08 金泰克斯公司 双显示倒车摄像系统
JP2021099331A (ja) * 2019-12-20 2021-07-01 株式会社デンソー レーダ装置
US11873000B2 (en) 2020-02-18 2024-01-16 Toyota Motor North America, Inc. Gesture detection for transport control
US11055998B1 (en) 2020-02-27 2021-07-06 Toyota Motor North America, Inc. Minimizing traffic signal delays with transports
US11290856B2 (en) 2020-03-31 2022-03-29 Toyota Motor North America, Inc. Establishing connections in transports
US11994272B2 (en) 2021-08-20 2024-05-28 Gentex Corporation Lighting assembly and illumination system having a lighting assembly

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6045377B2 (ja) * 1976-08-03 1985-10-09 日産自動車株式会社 衝突防止装置
US4308536A (en) * 1979-02-26 1981-12-29 Collision Avoidance Systems Anti-collision vehicular radar system
JPS59180956U (ja) * 1983-05-23 1984-12-03 日産自動車株式会社 車両走行制御装置
JPH04147400A (ja) * 1990-10-11 1992-05-20 Matsushita Electric Ind Co Ltd 車両検出装置
US5515448A (en) * 1992-07-28 1996-05-07 Yazaki Corporation Distance measuring apparatus of a target tracking type
JP3065822B2 (ja) 1992-11-06 2000-07-17 株式会社豊田中央研究所 移動物体検出装置
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
US6088468A (en) * 1995-05-17 2000-07-11 Hitachi Denshi Kabushiki Kaisha Method and apparatus for sensing object located within visual field of imaging device
JPH0979821A (ja) 1995-09-12 1997-03-28 Suzuki Motor Corp 障害物認識装置
TW349211B (en) * 1996-01-12 1999-01-01 Sumitomo Electric Industries Method snd apparatus traffic jam measurement, and method and apparatus for image processing
US6201236B1 (en) * 1997-11-13 2001-03-13 Auto Sense Ltd. Detection system with improved noise tolerance

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10029866B4 (de) * 1999-06-16 2006-06-08 Honda Giken Kogyo K.K. Objekterkennungssystem
EP1405752A1 (de) * 2002-10-01 2004-04-07 Robert Bosch Gmbh Einrichtung zur Erzeugung von Stellsignalen in einem Kraftfahrzeug
EP1470977A1 (de) * 2003-04-23 2004-10-27 Volkswagen Aktiengesellschaft Park- und Fahrhilfe für ein Kraftfahrzeuge
DE10343479A1 (de) * 2003-09-19 2005-04-28 Bosch Gmbh Robert Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug
WO2016020342A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum erzeugen einer umgebungskarte sowie fahrerassistenzsystem
US10688987B2 (en) 2014-08-05 2020-06-23 Valeo Schalter Und Sensoren Gmbh Method for generating a surroundings map, and driver assistance system

Also Published As

Publication number Publication date
JP2000339597A (ja) 2000-12-08
JP4028135B2 (ja) 2007-12-26
DE10026586B4 (de) 2010-04-01
US20040022417A1 (en) 2004-02-05
US6683969B1 (en) 2004-01-27
US6987864B2 (en) 2006-01-17

Similar Documents

Publication Publication Date Title
DE10026586A1 (de) Objekterfassungssystem
DE10029866B4 (de) Objekterkennungssystem
EP1298454B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE69302975T2 (de) Fahrzeugpositionserfassungsanlage auf einer Spur
DE10030421B4 (de) Fahrzeugumgebungsüberwachungssystem
DE69310758T2 (de) Verfahren und vorrichtung zum klassifizieren der bewegung von objekten entlang einem durchgang
DE10228638B4 (de) Fahrzeugzonen-Überwachungsvorrichtung
DE10029423B4 (de) Objekterkennungssystem
DE4410406C2 (de) Optoelektronische Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
DE10247371B4 (de) Fahrzeuginformation-Bereitstellungsvorrichtung
DE69937699T2 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges
DE10251880B4 (de) Bilderkennungsvorrichtung
DE10115080A1 (de) Objekterkennungssystem
DE4308776C2 (de) Einrichtung zum Überwachen des Außenraums eines Fahrzeugs
DE69433317T2 (de) Videoteststreifenleser und Verfahren zur Bewertung von Teststreifen
DE10301469A1 (de) Infrarotbildverarbeitungsvorrichtung
DE69115772T2 (de) Verfahren und Vorrichtung zur Distanzbestimmung für ein Fahrzeug
WO2002103385A1 (de) Verfahren zur bereitstellung von bildinformationen
DE19507956A1 (de) Einrichtung zur Bestimmung des Fahrzeugabstandes von einer seitlichen Fahrbahnmarkierung
DE102005026875A1 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE69738270T2 (de) Erfassungssystem
DE10019462B4 (de) Straßensensorsystem, Straßenerfassungssystem und Verfahren zur Bestimmung der Straßenfläche
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP1306690A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE19730534A1 (de) Entfernungsmeßvorrichtung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R071 Expiry of right