DE10026586A1 - Objekterfassungssystem - Google Patents
ObjekterfassungssystemInfo
- Publication number
- DE10026586A1 DE10026586A1 DE10026586A DE10026586A DE10026586A1 DE 10026586 A1 DE10026586 A1 DE 10026586A1 DE 10026586 A DE10026586 A DE 10026586A DE 10026586 A DE10026586 A DE 10026586A DE 10026586 A1 DE10026586 A1 DE 10026586A1
- Authority
- DE
- Germany
- Prior art keywords
- physical object
- window
- area
- detection
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K31/00—Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator
- B60K31/0008—Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator including means for detecting potential obstacles in vehicle path
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Chemical & Material Sciences (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Ein Objekterfassungssystem umfasst: eine Erkennungseinheit für körperliche Objekte, welche körperliche Objekte außerhalb des Fahrzeugs erkennt, und einen Speicher für körperliche Objekte, welcher körperliche Objekte betreffende Information speichert. DOLLAR A Eine Steuer/Regeleinrichtung erkennt das Vorhandensein eines körperlichen Objekts, wenn das körperliche Objekt von einem oder mehreren Sensoren eine vorbestimmte Anzahl von Malen erfasst wird, welche für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für einen Randabschnitt des Erfassungsbereichs. Das System umfasst einen Speicher zum Speichern von Information über die körperlichen Objekte. Die Steuer/Regeleinrichtung hält das körperliche Objekt in dem Speicher gespeichert, was anzeigt, dass das körperliche Objekt vorhanden ist, bis die Steuer/Regeleinrichtung das Vorhandensein des entsprechenden körperlichen Objekts eine vorbestimmte Anzahl von Erkennungszyklen nicht mehr erkennt.
Description
Die vorliegende Erfindung betrifft ein optisches Objekterfassungssystem,
welches außerhalb eines fahrenden Fahrzeugs befindliche körperliche
Objekte erfasst.
Vorrichtungen, welche Laserradar zur Erfassung vor oder hinter einem
betriebenen Fahrzeug befindlicher Fahrzeuge oder körperlicher Objekte
verwenden, wurden in der Vergangenheit vorgeschlagen. Zum Beispiel
wird in der japanischen Patentanmeldung Kokai Nr. Hei 06-150196 ein
Verfahren beschrieben. Sich bewegende, vor dem das System tragenden
Fahrzeug befindliche körperliche Objekte werden mit Laserradar erfasst.
Information betreffend die erfassten sich bewegenden körperlichen Ob
jekte wird in einem Speicher gespeichert, und eine Steuerung/Regelung,
wie z. B. ein Kursverfolgungsbetrieb etc. wird ausgeführt. Insbesondere
wenn ein im Speicher gespeichertes körperliches Objekt aus irgend ei
nem Grund nicht im laufenden Erfassungsprozess erfasst wird, wird die
Information betreffend das sich bewegende körperliche Objekt im Spei
cher für einen Erfassungsfehler gehalten, bis ein vorbestimmte Anzahl
von Malen eine Nichterfassung auftritt. Wenn ein solcher Fehler eine
vorbestimmte Anzahl von Malen aufgetreten ist, wird dann die Informati
on betreffend dieses sich bewegende körperliche Objekt, aus dem Spei
cher gelöscht.
Wenn jedoch in einem solchen Verfahren die Anzahl von Malen, dass ein
körperliches Objekt, das nicht erfasst wird, im Speicher gehalten wird
ohne aus dem Speicher gelöscht zu werden, (z. B. die Anzahl von Malen
der Interpolation) zunimmt, entsteht das folgende Problem. Obwohl näm
lich eine solche Zunahme es möglich macht, die Erkennung von externen
körperlichen Objekten in einer mehr kontinuierlichen Weise fortzusetzen,
verursacht die Interpolationsbehandlung falsche Erkennung, welche es
erscheinen lässt, als wäre ein externes körperliches Objekt im Erfas
sungsbereich des Systems vorhanden, selbst wenn sich das externe
körperliche Objekt bereits aus dem Erfassungsbereich herausbewegt
hat. Umgekehrt, wenn die Anzahl von Malen der Interpolation abnimmt,
wird die Erkennung von körperlichen Objekten als Ergebnis eines Erfas
sungsfehlers durch das System intermittierend.
Nach einem Aspekt der Erfindung ist ein Objekterfassungssystem der
Erfindung an einem Fahrzeug angebracht und umfasst eine Erkennungs
einheit für körperliche Objekte, welche körperliche Objekte außerhalb
des Fahrzeugs erkennt, und einen Speicher für körperliche Objekte, wel
cher Information in Bezug auf die körperlichen Objekte speichert. Eine
Steuer/Regeleinrichtung erkennt das Vorhandensein eines körperlichen
Objekts, wenn das körperliche Objekt von einem oder mehreren Senso
ren eine vorbestimmte Anzahl von Malen erfasst wird, welche für einen
zentralen Abschnitt des Erfassungsbereichs größer ist als für einen
Randabschnitt des Erfassungsbereichs.
Die Häufigkeit falscher Erkennung aufgrund falscher Erfassung wird re
duziert, verglichen mit Fällen, in welchen die Erkennung der körperlichen
Objekte mit einer festen Anzahl von Malen der Erfassung ungeachtet des
Erfassungsbereichs erfolgt. Körperliche Objekte, welche in die Grenzab
schnitte des Erfassungsbereichs eintreten, können schnell erkannt wer
den. Wenn ein vor dem Fahrzeug innerhalb des Erfassungsbereichs be
findliches körperliches Objekt erfasst wird, ist es unmöglich für das kör
perliche Objekt, plötzlich im Zentrum des Bereichs zu erscheinen. Um
gekehrt, kann an den Rändern des Erfassungsbereichs ein körperliches
Objekt manchmal plötzlich innerhalb des Erfassungsbereichs erschei
nen, wie durch die Sensoren betrachtet, als Ergebnis eines sich bewe
genden körperlichen Objekts, welches von außen ins Innere des Erfas
sungsbereichs eintritt. Im Hinblick auf solche realen Bedingungen wird
die Anzahl von Malen der Erfassung, welche für eine Erkennung erfor
derlich ist, im Zentrum des Erfassungsbereichs auf einen großen Wert
festgesetzt, um fehlerhafte Erkennung zu verhindern. Auf der anderen
Seite wird die Anzahl von Malen der Erfassung, welche zur Erkennung
eines körperlichen Objekts erforderlich ist, auf einen kleinen Wert fest
gesetzt, da als Ergebnis der Bewegung sich bewegender körperlicher
Objekte oder des Verhaltens des das System tragenden Fahrzeugs kör
perliche Objekte plötzlich an den Rändern des Erfassungsbereichs er
scheinen können.
Nach einem anderen Aspekt der Erfindung umfasst ein Objekterfas
sungssystem der Erfindung wenigstens einen Sensor zum Erfassen ei
nes körperlichen Objekts in einem vorbestimmten Erfassungsbereich,
eine Steuer/Regeleinrichtung zum Erkennen des Vorhandenseins eines
körperlichen Objekts basierend auf der Ausgabe des Sensors, und einen
Speicher zum Speichern von Information über das körperliche Objekt,
welches durch die Steuer/Regeleinrichtung erkannt wurde. Die Steu
er/Regeleinrichtung hält das körperliche Objekt im Speicher gespeichert,
was anzeigt, dass das körperliche Objekt vorhanden ist, bis die Steu
er/Regeleinrichtung das Vorhandensein des entsprechenden körperli
chen Objekts eine vorbestimmte Anzahl von Erkennungszyklen nicht
mehr erkennt.
Die vorbestimmte Anzahl von Malen ist größer für den zentralen Ab
schnitt des Erfassungsbereichs, in dem das Vorhandensein körperlicher
Objekte, wie z. B. anderer Fahrzeuge außerhalb des das System tragen
den Fahrzeugs (typischerweise vor oder hinter dem Fahrzeug) während
des Betriebs des Fahrzeugs normalerweise stabil ist, als die vorbe
stimmte Anzahl von Malen für die Randabschnitte des Erfassungsbe
reichs, wo eine Möglichkeit des häufigen Ein- und Austritts von sich be
wegenden körperlichen Objekten besteht. Folglich kann der Austritt von
körperlichen Objekten im zentralen Abschnitt des Erfassungsbereichs
verhindert werden und falsche Erkennung von körperlichen Objekten,
welche nicht in den Randabschnitten des Erfassungsbereichs vorhanden
sind, kann reduziert werden.
Fig. 1 ist ein Blockdiagramm, welches die Gesamtkonstruktion einer
Ausführungsform der vorliegenden Erfindung darstellt.
Fig. 2 ist ein Diagramm, welches das Triangulationsverfahren zur Ab
standsmessung darstellt.
Fig. 3 ist ein schematisches Diagramm, welches die Erfassung kör
perlicher Objekte, basierend auf von einem Bildsensor aufge
nommen Bildern, darstellt.
Fig. 4 ist ein Blockdiagramm, welches Einzelheiten der in Fig. 1 ge
zeigten Erkennungseinheit 14 für körperliche Objekte zeigt.
Fig. 5 ist ein Diagramm, welches den Erfassungsbereich und die
Aufteilung des Erfassungsbereichs darstellt.
Fig. 6 ist ein Blockdiagramm, welches Einzelheiten der in Fig. 1 ge
zeigten Interpolationssteuer/-regeleinrichtung 15 zeigt.
Fig. 7 ist ein Diagramm, welches das Format der von der Erken
nungseinheit 14 für körperliche Objekte an die Interpolations
steuer/-regeleinrichtung 15 übertragenen Daten zeigt.
Fig. 8 ist ein Diagramm, welches ein Beispiel der im Speicher 16 für
körperliche Objekte gespeicherten Tabelle zeigt.
Die Erfindung wird im Folgenden an bevorzugten Ausführungsformen
näher erläutert. Fig. 1 ist ein Gesamtblockdiagramm eines Objekterfas
sungssystems nach einer Ausführungsform der vorliegenden Erfindung.
Außer den Sensoren 3 und 3' können alle Blöcke in Fig. 1 in einer
Steuer/Regeleinrichtung enthalten sein, welche eine integrierte Einzel
chip- oder Mehrfachchip-Halbleiterschaltung umfasst. So zeigt Fig. 1
funktionale Blöcke der Steuer/Regeleinrichtung. Jeweilige Funktionen
der Blöcke werden durch Ausführung der jeweiligen im ROM der Steu
er/Regeleinrichtung gespeicherten Programme ausgeführt. Fig. 2 ist ein
Diagramm, welches das Abstandsmessungsprinzip darstellt, welches auf
dem in der vorliegenden Ausführungsform verwendeten Triangulations
verfahren basiert. Zuerst wird ein Abstandsmessungsverfahren, welches
ein Paar von Bildaufnahmevorrichtungen verwendet, mit Bezug zu Fig.
2 beschrieben.
Fig. 2 ist ein Diagramm, welches das Abstandsmessungsprinzip dar
stellt, welches auf dem in der vorliegenden Ausführungsform verwende
tenjriangulationsverfahren basiert. Zuerst wird ein Abstandsmessungs
verfahren, welches ein Paar von Bildaufnahmevorrichtungen verwendet,
mit Bezug zu Fig. 2 beschrieben. Ein Liniensensor 21 und eine Linse
23, die eines des oben erwähnten Paares von Bildsensoren bilden, sind
in einem vorbestimmten Abstand, d. h. in einem Abstand gleich der Ba
sislinienlänge B in der horizontalen oder vertikalen Richtung von dem
Liniensensor 22 und einer Linse 24, welche den anderen Bildsensor des
anderen Paares bilden, angeordnet. Die Liniensensoren 21 und 22 sind
typischerweise eindimensionale CCD's, können aber auch linear ange
ordnete Photosensorfelder sein. Betrachtet man eine Verwendung bei
Nacht, sind Infrarotlicht verwendende Bildsensoren ratsam. In diesem
Fall ist es ratsam, infrarotdurchlässige Filter vor den Linsen 23 und 24
zu installieren und das System so zu bauen, dass ein Objekt 20, welches
zu vorbestimmten Zeitintervallen mittels einer Infrarotquelle beleuchtet
wird. Vom Objekt 20 reflektiertes Infrarotlicht wird durch die Liniensenso
ren 21 und 22 erfasst.
Die Liniensensoren 21 und 22 sind jeweils in den Brennweiten "f" der
Linsen 23 und 24 positioniert. Wenn man annimmt, dass ein Bild eines
im Abstand "a" von der Ebene der Linsen 23 und 24 lokalisierten Objekts
an einer Stelle gebildet wird, welche im Fall des Liniensensors 21 um
den Abstand X1 von der optischen Achse der Linse 23 verschoben ist,
und im Fall des Liniensensors 22 an einer Stelle gebildet wird, welche
um den Abstand X2 von der optischen Achse der Linse 24 verschoben
ist, dann wird nach dem Triangulationsprinzip der Abstand a zum Objekt
20 von der Ebene der Linsen 23 und 24 durch die Gleichung: a = B.f/(X1 + X2)
bestimmt.
In der vorliegenden Ausführungsform werden die Bilder digitalisiert. Und
folglich wird der Abstand (X1 + X2) digital berechnet. Die Summe der ab
soluten Werte der Differenzen zwischen den digitalen Werten, welche
die Helligkeit der entsprechenden Bildpunkte beider von den Liniensen
soren 21 und 22 erhaltenen Bilder darstellt, wird bestimmt, während ei
nes oder beide der Bilder verschoben werden, und diese Summe wird als
Korrelationswert genommen. Der Betrag der Verschiebung der Bilder
stellt, wenn dieser Korrelationswert in einem Minimum ist, die Positions
abweichung zwischen den zwei Bildern, d. h. (X1 + X2) dar. In idealisier
ten Termen muss der Abstand, durch welchen die Bilder von den Linien
sensoren 21 und 22 verschoben werden, damit die Bilder überlappen,
wie in Fig. 2 gezeigt, (X1 + X2) sein.
Hier wurden um der Einfachheit wegen die Bildsensoren als eindimensi
onale Liniensensoren 21 und 22 beschrieben. Jedoch werden in einer
Ausführungsform der vorliegenden Erfindung, wie im Folgenden be
schrieben wird, zweidimensionale CCD's oder zweidimensionale Photo
sensorfelder als Bildsensoren verwendet. In diesem Fall werden die
gleichen Korrelationsberechnungen wie die oben beschriebenen durch
relative Verschiebung der von den zwei Bildsensoren erhaltenen zwei
dimensionalen Bilder ausgeführt. Der Betrag der Verschiebung an dem
Punkt, wo der Korrelationswert ein Minimum erreicht, entspricht (X1 + X2).
Der in Fig. 1 gezeigte Bildsensor 3 entspricht einem der Bildsensoren
in Fig. 2, bestehend aus der Linse 23 und dem Liniensensor 21, wobei
der Bildsensor 3' dem anderen Bildsensor in Fig. 2 entspricht, der aus
der Linse 24 und dem Liniensensor 22 besteht. In dieser Ausführungs
form, wie in Fig. 3 (b) gezeigt ist, wird der abgebildete Bereich in eine
Mehrzahl von Fenstern (kleine Abschnitte) W11, W12, . . . unterteilt, und
der Abstand wird für jedes Fenster gemessen. Folglich ist ein zweidi
mensionales Bild des gesamten Objekts erforderlich. Folglich ist jeder
der Bildsensoren 3 und 3' aus einem zweidimensionalen CCD-Feld oder
einem zweidimensionalen Photosensorfeld gebildet.
Fig. 3 (a) zeigt ein Beispiel des Bildes, welches man erhält, wenn ein
anderes Fahrzeug vor dem Fahrzeug fährt, in welches das System der
vorliegenden Erfindung eingebaut ist, und durch einen der Bildsensoren
3 oder 3' abgebildet wird. Fig. 3 (b) weist Reihen in der vertikalen
Richtung und Spalten in horizontaler Richtung auf. Der Einfachheit we
gen ist das Bild aufgeteilt in 10 Reihen × 15 Spalten von Fenstern ge
zeigt. Bezugszeichen sind den entsprechenden Fenstern zugeordnet.
Zum Beispiel stellt W12 das Fenster in Reihe 1, Spalte 2 dar.
Bezogen auf Fig. 1 werden die von den Objekten durch die Bildsenso
ren 3 und 3' aufgenommenen Bilder in digitale Daten durch Ana
log/Digitalwandler (A/D Wandler) 4 und 4' umgewandelt und in Bildspei
chern 5 und 5' gespeichert. Die dem Fenster W11 entsprechenden Bild
abschnitte werden aus den Bildspeichern 5 und 5' durch einen Fenster
ausschneideteil 13 ausgeschnitten und zu einem Korrelationsberech
nungsteil 6 gesendet. Der Korrelationsberechnungsteil verschiebt die
zwei ausgeschnittenen Bilder gleichzeitig um eine vorbestimmte Einheit
und führt die obenerwähnten Korrelationsberechnungen aus. Der Betrag
der Verschiebung an dem Punkt, in dem der Korrelationswert ein Mini
mum erreicht, entspricht (X1 + X2). Der Korrelationsberechnungsteil 6
sendet den so bestimmten Wert von (X1 + X2) an einen Abstandsberech
nungsteil 7.
Der Abstandsberechnungsteil 7 bestimmt den Abstand a" zum Objekt im
Fenster W11 unter Verwendung der obenerwähnten Formel: a = B.f/(X1 + X2).
Der so bestimmte Abstand a" wird in einem Abstandsspeicher
8 gespeichert. Ein ähnlicher Berechnungsprozess wird hintereinander für
die jeweiligen Fenster ausgeführt und die resultierenden Abstände a11,
a12, . . . werden im Abstandsspeicher 8 gespeichert. Der für jedes Fenster
berechnete Abstand zu einem erfassten Objekt, wird als der gemessene
Abstand des Fensters bezeichnet.
In den Bilddaten, welche in den obengenannten Korrelationsberechnun
gen verwendet werden, bestimmt die Teilung der Elemente in dem Abbil
dungselementfeld die Auflösung. Wenn folglich ein lichtempfangendes
Element wie z. B. ein Photosensorfeld verwendet wird, welche eine relativ
große Teilung hat, ist es vorzuziehen, die Dichte der Bilddaten durch
Ausführen von Zwischenteilungs-Interpolationsberechnungen zu erhö
hen. Korrelationsberechnungen können für Bilddaten, deren Dichte so
erhöht wurde, ausgeführt werden.
Um Abweichungen in den Charakteristiken des Bildelementfelds infolge
der Temperatur zu korrigieren, kann ein Temperatursensor in der Nähe
des Bildelementfelds installiert werden, und die Abstandsberechnungen
werden basierend auf vom Temperatursensor erhaltenen Temperaturin
formationen korrigiert.
Die Erkennungseinheit 14 für körperliche Objekte, in Fig. 1 gezeigt,
erkennt körperliche Objekte basierend auf dem Abstand der entspre
chenden Fenster, welche im Abstandsspeicher 8 gespeichert sind, und
Bilddaten, welche vom Bildspeicher 5' geliefert werden. Fig. 4 ist ein
Blockdiagramm, welches den Aufbau der körperlichen Objekterken
nungseinheit 14 veranschaulicht. Die Erkennungseinheit 14 für körperli
che Objekte verwendet in dieser Ausführungsform ein Verfahren, in wel
chem Straßenbereiche nach dem Bild beurteilt werden, und körperliche
Objekte, welche keine Straßenbereiche sind, als körperliche Objekte be
urteilt werden.
Als nächstes wird die Beurteilung von Straßenbereichen im Bild mit Be
zug zu den Fig. 1 und 4 beschrieben. Wie oben erwähnt wurde, ist
Fig. 3 (b) in 10 Reihen × 15 Spalten für die Anschaulichkeit der Be
schreibung aufgeteilt. In Wirklichkeit jedoch, ist der Bildbereich extrem
fein aufgeteilt. Für Hochpräzisionsbestimmung des Straßenbereichs,
kann jedes Fenster aus einem einzelnen Bildpunkt bestehen. Alternativ
kann eine Mehrzahl von Bildpunkten kombiniert werden, um ein einzel
nes Fenster zu bilden. Die entsprechenden Fenster sind vorzugsweise
gleich groß. Fenster von unterschiedlicher Größe können auch verwen
det werden.
Wenn das vom Bildsensor 3' erhaltene und in digitale Daten umgewan
delte Bild im Bildspeicher 5' gespeichert wird, schneidet die in Fig. 1
gezeigte Fensterausschneideeinheit 13 eine Mehrzahl von Fenstern aus,
welche den unmittelbar vor dem Fahrzeug befindlichen Straßenbereich
enthalten. Die Helligkeitsextraktionseinheit 31 erfasst eine Mehrzahl von
Helligkeitswerten der ausgeschnittenen Fenster.
Helligkeitswerte von Fenstern, welche den unmittelbar vor dem Fahrzeug
befindlichen Straßenbereich enthalten, werden erfasst, da eine extrem
hohe Wahrscheinlichkeit besteht, dass der unmittelbar vor dem Fahr
zeug befindliche Straßenbereich eine Straße ist. Folglich wird eine
Mehrzahl von Helligkeitswerten erfasst, um die Erfassung der wesentli
chen Straßenhelligkeitswerte zu ermöglichen, selbst wenn markierte Be
reiche, wie z. B. Zeichen oder weiße Linien und ähnliches, auf der Stra
ßenoberfläche vorhanden sind. Die Frage, welche Fenster des Ein
gangsbildes als die Mehrzahl von Fenstern, welche unmittelbar vor dem
das System tragenden Fahrzeug befindlichen Straßenbereich enthalten,
erfasst werden, wird vorher in Übereinstimmung mit der Größe des Fahr
zeugs und der Position der Bildsensoren innerhalb des Fahrzeugs be
stimmt.
Als nächstes werden, um die wesentlichen Helligkeitswerte der Straße
zu extrahieren, die Helligkeitswerte der Fenster, welche markierte Berei
che auf der Straßenoberfläche enthalten, gelöscht. Zum Beispiel tritt in
Fällen, in denen verschiedene Fenster, welche Markierungen auf der
Straßenoberfläche enthalten, in der unteren Reihe der Fenster in dem
Bild enthalten sind, eine geringe Abweichung in den Helligkeitswerten
der Fenster dieser Reihe auf, da die Helligkeit der Markierungen auf der
Straßenoberfläche sich allgemein sehr von der Helligkeit der Straßen
oberfläche unterscheidet. Folglich können die Helligkeitswerte der
Fenster in dieser Reihe gemittelt werden und können Helligkeitswerte,
welche sich vom Durchschnittswert um einen vorbestimmten Wert oder
mehr unterscheiden, gelöscht werden.
Alternativ können Helligkeitswerte, welche weiß oder gelb entsprechen,
gelöscht werden, da Markierungen auf der Straßenoberfläche haupt
sächlich weiß oder gelb sind und sich somit deutlich von der Straßenfar
be selbst unterscheiden. Man kann auch, basierend auf einem aus dem
vorherigen Eingangsbild extrahierten Referenzwert, folgern, ob Hellig
keitswerte vom gegenwärtigen Eingangsbild wesentliche Helligkeitswerte
der Straße sind oder ob nicht.
Nachdem die Helligkeitswerte der Fenster, welche Markierungen auf der
Straßenoberfläche enthalten, gelöscht sind, extrahiert die Helligkeitsex
traktionseinheit 31 einen Referenzhelligkeitswert basierend auf den
verbleibenden Helligkeitswerten und speichert diesen Referenzhellig
keitswert im Helligkeitsspeicher 32. Ein Helligkeitswert oder mehrere
Helligkeitswerte können von den verbleibenden Helligkeitswerten aus
gewählt und als Referenzhelligkeitswerte gespeichert werden. Alternativ
kann ein Wert, welcher durch Mittelung einer Mehrzahl von Helligkeits
werten erhalten wird, als ein Einzelreferenzhelligkeitswert gespeichert
werden. Zum Beispiel können die Helligkeitswerte als digitale Daten mit
256 Stufen (von reinem schwarz "0" zu reinem weiß "255") ausgedrückt
werden.
Dann schneidet die Fensterausschneideeinheit 13 (Fig. 1) andere
Fenster vom Bild aus, und die Helligkeitsextraktionseinheit 31 extrahiert
die Helligkeitswerte dieser Fenster. Die Helligkeitsvergleichseinheit 31
vergleicht die extrahierten Helligkeitswerte mit dem/den Referenzhellig
keitswert(en), welche im Helligkeitsspeicher 32 gespeichert sind.
In Fällen, in denen jedes Fenster eine Mehrzahl von Bildpunkten um
fasst, kann ein Mittel der Summe der Helligkeitswerte der entsprechen
den Bildpunkte genommen werden, und dieser Mittelwert kann als der
Helligkeitswert des Fensters extrahiert werden. Der Prozess des Extra
hierens und Vergleichens der Helligkeitswerte kann parallel zu dem Pro
zess der oben beschriebenen Abstandsberechnung ausgeführt werden.
Die Straßenbereichsbeurteilungseinheit 34 beurteilt Straßenbereiche
basierend auf den von der Helligkeitsvergleichseinheit 33 empfangenen
vergleichenden Ergebnissen. Wenn die Ergebnisse des Vergleichs in
nerhalb einer vorbestimmten Spanne liegen, wird das Fenster als Stra
ßenbereich beurteilt. Dies geschieht, weil der Straßenbereich ähnliche
Helligkeit im ganzen Bereich aufweist, welcher sich von der Helligkeit
eines Fahrzeugs oder anderer vor dem das System tragenden Fahrzeug
fahrender Objekte unterscheidet. Ein Helligkeitswert oder mehrere Hel
ligkeitswerte der als Straßenbereich beurteilten Fenster werden im Hel
ligkeitsspeicher als neue Helligkeitswerte gespeichert.
Als nächstes wird ein Beispiel der Beurteilung von Straßenbereichen ba
sierend auf Helligkeitswerten mit Bezug zu Fig. 3 (b) beschrieben. Die
Fenster WA7 und WA9 (durch Schattierung dargestellte Fenster), welche
den Bildbereich unmittelbar vor dem Fahrzeug enthalten, werden durch
die Fensterausschneideeinheit 13 ausgeschnitten. Dann extrahiert die
Helligkeitsextraktionseinheit 31 die Helligkeitswerte L1 und L2 der jewei
ligen Fenster und speichert diese Werte im Helligkeitsspeicher 32 als
Referenzhelligkeitswerte. Danach wird das Fenster WA6, welches sich
neben dem Fenster WA7 befindet, ausgeschnitten, und die Helligkeitsex
traktionseinheit 31 extrahiert den Helligkeitswert des Fensters WA6. Die
Helligkeitsvergleichseinheit 33 vergleicht den extrahierten Helligkeits
wert mit dem Referenzhelligkeitswert L1. Wenn die Ergebnisse dieses
Vergleichs innerhalb einer vorbestimmten Spanne liegt (z. B. kann eine
Spanne von ± 3 relativ zu dem Referenzhelligkeitswert als diese vorbe
stimmte Spanne bezeichnet werden), urteilt die Straßenbereichsbeurtei
lungseinheit 34, dass das Fenster WA6 ein Straßenbereich ist, und der
Helligkeitswert des Fensters WA6 wird im Helligkeitsspeicher 32 als neu
er Referenzhelligkeitswert L3 gespeichert.
Dann wird das Fenster WA5, welches sich neben dem Fenster WA6 befin
det, ausgeschnitten und der Helligkeitswert des Fensters WA5 wird durch
die Helligkeitsextraktionseinheit 31 extrahiert. Die Helligkeitsvergleichs
einheit 33 vergleicht den extrahierten Helligkeitswert mit dem Referenz
helligkeitswert L3. Wenn die Ergebnisse dieses Vergleichs innerhalb
eines vorbestimmten Bereichs liegen, urteilt die Straßenbereichsbeur
teilungseinheit 34, dass das Fenster WA5 ein Straßenbereich ist, und der
Helligkeitswert des Fensters WA5 wird im Helligkeitsspeicher 32 als neu
er Referenzhelligkeitswert L4 gespeichert. So werden die Fenster hin
tereinander aus dem Bild ausgeschnitten, und Straßenbereiche werden
durch Vergleichen der Helligkeitswerte für jedes Fenster beurteilt.
Vorzugsweise sind die durch die Fensterausschneideeinheit 13 ausge
schnittenen Fenster in der Umgebung der Fenster angeordnet, welche
Referenzhelligkeitswerte aufweisen. Insbesondere werden, falls der Re
ferenzhelligkeitswert der Helligkeitswert des Fensters WA6 ist, vorzugs
weise Fenster, die zu der gleichen Reihe wie das Fenster WA6 gehören,
oder Fenster, die zu einer angrenzenden Reihe gehören, ausgeschnit
ten, um die Helligkeitswerte dieser Fenster zu vergleichen. Wenn näm
lich die Differenz in den gemessenen Abständen von dem Fahrzeug der
zwei zu vergleichenden Fenster zu groß ist, können sich die Helligkeits
werte der Fenster wesentlich unterscheiden, selbst wenn beide Fenster
die gleiche Straßenoberfläche enthalten. In der vorliegenden Ausfüh
rungsform können Straßenbereiche genau selbst in Fällen erfasst wer
den, in denen die Helligkeit der Straßenoberfläche innerhalb des Bildes
entsprechend den Abständen von dem das System tragenden Fahrzeug
variiert.
Es wäre auch möglich, Helligkeitswerte (L1 und L2 im oberen Beispiel),
welche am Anfang von Fenstern extrahiert wurden, welche unmittelbar
vor dem Fahrzeug befindliche Straßenbereiche enthalten, als feste Refe
renzhelligkeitswerte zu verwenden, ohne als Fahrbahnbereiche beur
teilte Helligkeitswerte als neue Helligkeitswerte zu verwenden, wie in der
oberen Ausführungsform, und Straßenbereiche durch Vergleichen der
Helligkeitswerte der jeweiligen Fenster des Bildes mit diesen Hellig
keitswerten zu beurteilen.
In der oben beschriebenen Ausführungsform wurden Helligkeitswerte
basierend auf einem vom Einzelbildsensor 3' aufgenommenen Einzelbild
extrahiert. Es wäre jedoch auch möglich, diese Extraktion unter Verwen
dung von zwei oder mehr Bildern auszuführen, die von den für die oben
erwähnte Abstandsmessung erforderlichen zwei oder mehr Bildsensoren
erhalten werden. Zum Beispiel wäre es möglich, den Referenzhellig
keitswert L2 von dem Bild zu extrahieren, welches vom Bildsensor 3 auf
genommen wurde, und den Referenzhelligkeitswert L1 von dem Bild zu
extrahieren, welches vom Bildsensor 3' aufgenommen wurde.
Vorzugsweise wird der Prozess zum Beurteilen von Straßenbereichen
durch Vergleichen von Helligkeitswerten parallel zu einem oder mehre
renanderen Prozessen ausgeführt. Zum Beispiel können die Fenster in
Reiheneinheiten bearbeitet werden. Zum Beispiel können die Hellig
keitswerte der Fenster WA1 bis WA6 und W91 bis W97 mit dem Referenz
helligkeitswert L1 zu einer Zeit verglichen werden, und die Helligkeits
werte der Fenster W81 bis W87 können dann mit einem neuen Referenz
helligkeitswert des Fensters W93 zu einer Zeit verglichen werden, wenn
dieser der neue Referenzhelligkeitswert in dem vorhergehenden Ver
gleich wird. Um eine Hochgeschwindigkeitsbearbeitung zu erreichen,
werden vorzugsweise die Fenster der linken Hälfte des Bildes unter
Verwendung des Referenzhelligkeitswertes L1 als einen Basispunkt be
arbeitet, und die Fenster in der rechten Hälfte des Bildes werden unter
Verwendung des Referenzhelligkeitswertes L2 als Basispunkt bearbeitet,
wobei beide Fenstereinheiten parallel bearbeitet werden.
Ferner können Bereiche, welche von Bildbereichen umgeben sind, die
als zum Straßenbereich gehörend beurteilt wurden, automatisch als zum
Straßenbereich gehörend beurteilt werden. Auf diese Weise können Be
reiche, welche von den Bereichen umgeben sind, die als zum Straßenbe
reich gehörend beurteilt wurden, als zum Straßenbereich gehörend be
urteilt werden, selbst wenn die umgebenden Bereiche markierte Berei
che sind, die eine sich von der Straße unterscheidende Helligkeit auf
weisen. Die Größe von solchen Bereichen, welche von Straßenbereichen
umgeben sind, die zum Straßenbereich gehörend beurteilt werden kön
nen, wird basierend auf der Größe der zu erfassenden körperlichen Ob
jekte bestimmt.
Da so die Straßenoberfläche selbst basierend auf den Helligkeitswerten
erfasst wird, können Straßenbereiche beurteilt werden, selbst wenn das
das System tragende Fahrzeug als Ergebnis von Nicken oder Rollen ge
neigt wird oder auf einem Gefälle oder einer Überhöhung fährt, und es
kann beurteilt werden, dass keine anderen Fahrzeuge oder körperliche
Objekte in den so beurteilten Straßenbereichen vorhanden sind.
Hier können markierte Bereiche auf der Straßenoberfläche unter Ver
wendung der gemessenen Abstände der Fenster genau extrahiert wer
den. Die Straßenbereichsbeurteilungseinheit 34 holt vom Abstandsspei
cher 8 die gemessenen Abstände der Fenster, für welche die Ergebnisse
des oben beschriebenen Vergleichs nicht innerhalb der vorbestimmten
Spanne liegen, und beurteilt, ob diese Abstände Abstände zur Straße
sind oder ob nicht. Wenn dann diese Abstände Abstände zur Straße
sind, werden diese Fenster als zu markierten Bereichen auf der Stra
ßenoberfläche gehörend beurteilt.
Die Abstände der Fenster zur Straße können aus den gemessenen Ab
ständen (z. B. gemessenen Abstände zur Straße) anderer Fenster ge
wonnen werden, welche als zum Straßenbereich gehörend beurteilt wur
den. Zum Beispiel kann daraus geschlossen werden, dass die Abstände
zur Straße für alle in der Reihe enthaltenen Fenster, zu welcher diese
anderen Fenster gehören, die gleichen sind. Der Abstand zur Straße
kann für jede Reihe der Fenster aus den gemessenen Abständen der
Fenster gewonnen werden, welche als zum Straßenbereich gehörend
beurteilt wurden. Folglich kann die Straßenbereichsbeurteilungseinheit
34 durch Vergleichen der tatsächlich gemessenen Abstände für die
Fenster mit den gewonnenen Abständen zur Straße beurteilen, ob die
Bildbereiche der Fenster markierte Bereiche auf der Straßenoberfläche
sind oder nicht.
Zum Beispiel enthält das Fenster W95, wie in Fig. 3 (b) gezeigt, ein Zei
chen, welches auf die Straßenoberfläche gezeichnet ist. Die Straßenbe
reichsbeurteilungseinheit 34 empfängt die vergleichenden Ergebnisse
für das Fenster W95. Da die vergleichenden Ergebnisse nicht innerhalb
der vorbestimmten Spanne liegen, holt sich die Straßenbereichsbeurtei
lungseinheit 34 den gemessenen Abstand des Fensters W95 vom Ab
standsspeicher 8. Die Straßenbereichsbeurteilungseinheit 34 holt sich
vom Abstandsspeicher 8 auch die gemessenen Abstände eines anderen
Fensters W93, welches zur gleichen Reihe wie das Fenster W95 gehört
und welches als zum Straßenbereich gehörend beurteilt wurde. Da die
Ergebnisse eines Vergleichs der zwei Abstände zeigen, dass die Ab
stände im wesentlichen die gleichen sind, wird der Bildbereich des
Fensters W95 als markierter Bereich auf der Straßenoberfläche beurteilt.
Die Markierung "60" auf der Straßenoberfläche, gezeigt in Fig. 3 (b),
kann durch Wiederholen solcher Beurteilungen erkannt werden.
Da, wie oben beschrieben, markierte Bereiche auf der Straßenoberfläche
unter Verwendung von gemessenen Abständen extrahiert und erkannt
werden können, kann das Fahrzeug auch gesteuert/geregelt werden, um
zum Beispiel den Fahrer über Geschwindigkeits- und Spurwechsel und
ähnliches aufmerksam zu machen.
Die Beurteilung von insoweit beschriebenen Straßenbereichen kann für
alle Bereiche der Bildeingabe vom Bildsensor ausgeführt werden oder
kann nur für einige dieser Bereiche ausgeführt werden. Zum Beispiel
kann die Beurteilungsbearbeitung nur für Bildbereiche ausgeführt wer
den, welche als neue Bilder in Bezug zu vorhergehend eingegebenen
Bildern eingegeben werden (wenn das das System tragende Fahrzeug
fährt). Ferner können Straßenbereiche auch unter Verwendung des vor
gegebenen Straßenmodells eines Autonavigationssystems beurteilt wer
den. So können die Beurteilungen von Straßenbereichen durch Begren
zen der Bildbereiche, für welche Beurteilungen gemacht werden, effi
zient erfolgen.
Wenn der Straßenbereich bestimmt ist, können die Fenster innerhalb
des Bildes in die Fenster, welche den Straßenbereich repräsentieren,
und in die Fenster, welche andere Dinge repräsentieren, klassifiziert
werden. Wenn notwendig, kann die Straßenbereichsbeurteilungseinheit
34 den Straßenbereich, welcher aus Fenstern aufgebaut ist, die als zum
Straßenbereich gehörend beurteilt wurden, in Form eines Bildes ausge
ben. Fig. 3 (c) zeigt ein Beispiel eines solchen Ausgabebildes. Der er
fasste Straßenbereich ist durch Schattierung dargestellt.
Die Erfassungseinheit 35 für körperliche Objekte erfasst körperliche
Objekte auf der Straßenoberfläche basierend auf den durch die Stra
ßenbereichsbeurteilungseinheit 34 beurteilten Straßenbereichen. Wenn
der Straßenbereich bestimmt ist, können körperliche Objekte durch Ext
rahieren von Fenstern, welche vor den Straßenbereichen angeordnet
sind und welche nicht als zum Straßenbereich gehörend beurteilt wur
den, erfasst werden.
Wenn, wie in Fig. 3 (c) gezeigt, zum Beispiel der gesamte Straßenbe
reich bestimmt ist, werden die Fenster W57, W58 und W59 durch Verfolgen
des Straßenbereichs davor und Identifizieren der Fenster, welche nicht
als zum Straßenbereich gehörend bestimmt wurden, extrahiert. Wie in
Fig. 3 (b) gezeigt, enthalten solche Fenster ein anderes Fahrzeug, wel
ches davor fährt. Die Erfassungseinheit 35 für körperliche Objekte holt
die gemessenen Abstände dieser Fenster vom Abstandsspeicher 8. Der
Abstand vom das System tragenden Fahrzeug zu dem anderen Fahrzeug
kann aus so erhaltenen gemessenen Abständen erfasst werden. Aus den
Positionen der Fenster W57, W58 und W59 (welche Bereiche körperlicher
Objekte repräsentieren) relativ zu den Fenstern W66 bis W6A, welche als
Straßenbereich bestimmt wurden, kann der Standort des anderen Fahr
zeugs in der Spur bestimmt werden.
Da somit die Erfassungseinheit 35 für körperliche Objekte die Zwi
schenfahrzeugabstände zu anderen davor fahrenden Fahrzeugen basie
rend auf Abständen zu erfassten körperlichen Objekten erfassen kann,
kann der Fahrer auf solche Zwischenfahrzeugabstände aufmerksam ge
macht werden. In Fällen, wo sich körperliche Objekte, welche den Be
trieb des Fahrzeugs stören würden, auf der Straßenoberfläche davor be
finden, kann der Fahrer durch ertönen eines Alarmsignals darauf auf
merksam gemacht werden.
Zurück zu Fig. 1. Das System kann so aufgebaut werden, dass die Er
kennungseinheit 14 für körperliche Objekte körperliche Objekte erkennt,
die auf die Erfassung körperlicher Objekte eine vorbestimmte Anzahl von
Malen in jeweiligen Abschnitten des Erfassungsbereichs reagieren, wie
in Fig. 5 gezeigt. Fig. 5 (b) zeigt den Erfassungsbereich zur Erfassung
körperlicher Objekte durch das Objekterfassungssystem in einer Ausfüh
rungsform der vorliegenden Erfindung. Der Erfassungsbereich kann als
ein fester Bereich festgesetzt werden, z. B. mit dem auf 60 Meter festge
setzten Abstandsbereich und dem auf 30 Grad festgesetzten Winkelbe
reich. Der Bereich kann vorzugsweise dynamisch in Übereinstimmung
mit der Fahrzeuggeschwindigkeit festgesetzt werden. In solch einem Fall
ist das System so programmiert, dass der Abstandsbereich zunimmt und
der Winkelbereich abnimmt, wenn die Fahrzeuggeschwindigkeit zu
nimmt.
Fig. 5 (b) zeigt ein Beispiel der Unterteilung eines festen Erfassungs
bereichs. In diesem Beispiel ist der Erfassungsbereich in Blöcke S1 bis
S12 eingeteilt. Falls sich der Erfassungsbereich dynamisch ändert, än
dern sich die Blöcke S1 bis S12 proportional zur Veränderung des Er
fassungsbereichs. Wenn der Winkelbereich kleiner als ungefähr 20 Grad
wird, wenn die Geschwindigkeit des das System tragenden Fahrzeugs
zunimmt, wird die Unterteilung in Querrichtung relativ zum Winkelbereich
zu fein. Folglich werden die Blöcke S5 und S12 an beiden Seiten weg
gelassen.
Die Anzahl von Malen der Erfassung für die Blöcke S1, S2 und S4 ist
festgesetzt auf 2, die Anzahl von Malen der Erfassung für die Blöcke S3,
S5, S6, S8 und S12 ist festgesetzt auf 3, die Anzahl von Malen der Er
fassung für die Blöcke S7, S9 und S11 ist festgesetzt auf 4 und die An
zahl von Malen der Erfassung für den Block S10 ist festgesetzt auf 5.
Die Anzahl von Malen der Erfassung für die Blöcke S1, S2, S3, S4, S5,
S6, S8 und S12, welche die Endabschnitte des Bereichs bilden, sind
festgesetzt auf kleinere Werte als die Anzahl von Malen der Erfassung
für die Blöcke S4, S9 und S11, welche die zentralen Abschnitte des Be
reichs bilden. Dies basiert auf der empirischen Regel, dass die Verände
rung von sich bewegenden körperlichen Objekten (Fahrzeugen), welche
in diesen äußeren Blöcken erfasst werden, groß ist, während die Verän
derung von sich bewegenden körperlichen Objekten, welche in den zent
ralen Blöcken erfasst werden, klein ist. Mit anderen Worten ist in den
äußeren Bereichen, in denen es einen hohen Grad der Veränderung
gibt, vom Eintritt und Austritt der Fahrzeuge her gesehen, die Anzahl von
Maien der Erfassung auf einen kleinen Wert festgesetzt, so dass sich die
Veränderung der Fahrzeuge schnell im Fahrzeugerfassungszustand wi
derspiegelt. Im zentralen Bereich, in dem es kleine Veränderungen gibt,
vom Eintritt und Austritt der Fahrzeuge her gesehen, ist die Anzahl von
Malen der Erfassung auf einen großen Wert festgesetzt, so dass ein
stabiler Fahrzeugerfassungszustand erreicht werden kann.
Nach einem Aspekt der vorliegenden Erfindung führt die Interpolations
steuer/-regeleinrichtung 15, anstelle des Variierens der Anzahl von Ma
len der Erfassung, die Interpolation von Informationen der körperlichen
Objekte aus, wenn Informationen bezüglich der erfassten körperlichen
Objekte im Speicher für körperliche Objekte 16 gespeichert ist.
In dieser Ausführungsform ist die Anzahl von Malen der Interpolation für
die Blöcke S1, S2 und S4 festgesetzt auf 2, die Anzahl von Malen der
Interpolation für die Blöcke S3, S5, S6, S8 und S12 ist festgesetzt auf 3,
die Anzahl von Malen der Interpolation für die Blöcke S7, S9 und S11 ist
festgesetzt auf 4 und die Anzahl von Malen der Interpolation für den
Block S10 ist festgesetzt auf 5. Die Anzahl von Malen der Interpolation
für die Blöcke S1, S2, S3, S4, S5, S6, S8 und S12, welche die äußeren
Abschnitte des Bereichs bilden, sind auf einen kleineren Wert festge
setzt als die Anzahl von Malen der Interpolation für die Blöcke S4, S9
und S11, welche die zentralen Abschnitte des Bereichs bilden. Dies ba
siert auf der oben erwähnten empirischen Regel. In den äußeren Berei
chen, in denen es einen hohen Grad der Veränderung gibt, vom Eintritt
und Austritt der Fahrzeuge her gesehen, ist die Anzahl von Malen der
Interpolation auf einen kleinen Wert festgesetzt, so dass sich die Verän
derung der Fahrzeuge schnell im Fahrzeugerfassungszustand wider
spiegelt. Im zentralen Bereich, in dem es kleine Veränderungen gibt,
vom Eintritt und Austritt der Fahrzeuge her gesehen, ist die Anzahl von
Malen der Interpolation auf einen großen Wert festgesetzt, so dass ein
stabiler Fahrzeugerfassungszustand erreicht werden kann.
Der Erfassungsbetrieb für körperliche Objekte wird zum Beispiel ausge
führt mit einem Zyklus von 100 Millisekunden, so dass der Inhalt des
Speichers 16 für körperliche Objekte über die Interpolationssteuer/-
regeleinrichtung 15 jede 100 Millisekunden aktualisiert wird. Fig. 6 ist
ein Blockdiagramm der Interpolationssteuer/-regeleinrichtung 15. Wenn
das Erfassungssystem ein Bild erhält, so wie das in Fig. 3 (a) gezeigte,
erkennt die Erkennungseinheit für körperliche Objekte 14 das Vorhan
densein von körperlichen Objekten in den Fenstern W37, W38, W39, W47,
W48, W49, W57, W58 und W59 durch das beschriebene Verfahren mit Be
zug zu Fig. 4. Die Erkennungseinheit für körperliche Objekte 14 er
kennt, dass die Abstände zu den körperlichen Objekten dieser Fenster
die gleichen sind. Basierend auf dieser Erkennung urteilt die Erken
nungseinheit für körperliche Objekte 14, dass die körperlichen Objekte,
die in diesen Fenstern vorhanden sind, ein einzelnes integrales körperli
ches Objekt bilden, und sendet dies an die Erfassungsblockbeurtei
lungseinheit 41 der Interpolationssteuer/-regeleinrichtung als ein erstes
körperliches Objekt, zusammen mit zugehöriger Fensterinformation und
Abstandsinformation. Wenn zweite und dritte körperliche Objekte vom
Bild erfasst werden, wird ähnliche Information für diese körperlichen
Objekte an die Erfassungsblockbeurteilungseinheit 41 gesendet.
Ein Beispiel für das Format, welches für diesen Zweck verwendet wird,
ist in Fig. 7 gezeigt. Das körperliche Objekt ID (Identifikation) Feld wird
verwendet, um eine körperliche Objekt ID einzutragen, welche zwischen
einer Mehrzahl von körperlichen Objekten unterscheidet. Ein Code kann
verwendet werden, in welchem das erste körperliche Objekt als 001 i
dentifiziert wird, das zweite körperliche Objekt als 010 identifiziert wird
und das dritte körperliche Objekt als 011 identifiziert wird. Ein Wert, wel
cher den Abstand zum körperlichen Objekt in Metereinheiten anzeigt,
wird in das Abstandsfeld des Formats eingetragen. Ein Code, welcher
die Mehrzahl der Fenster identifiziert, in welchen das körperliche Objekt
im Zweifel erfasst wird, wird in das Fenster ID Feld eingetragen.
Die Erfassungsblockbeurteilungseinheit 41 (Fig. 6) vergleicht den Er
fassungsbereich mit der Fensterinformation und Abstandsinformation,
welche von der Erkennungseinheit für körperliche Objekte 14 gesendet
werden, und bestimmt, dass zum Beispiel das erste körperliche Objekt in
Block S8 des Erfassungsbereichs ist.
Der Speicher für körperliche Objekte 16 (Fig. 1) umfasst eine Tabelle,
bestehend aus einem Direktzugriffsspeicher und enthält Information,
welche das Vorhandensein oder die Abwesenheit eines körperlichen
Objekts für jeweilige Blöcke des Erfassungsbereichs anzeigt, Informati
on, welche die relative Geschwindigkeit zwischen dem das System tra
genden Fahrzeug und dem körperlichen Objekt anzeigt, Information,
welche die feste Anzahl von Malen der Interpolation für die jeweiligen
Blöcke anzeigt und Information, welche die verbleibende Anzahl von
Malen, dass die Interpolation auszuführen ist, anzeigt. Das übliche For
mat dieser Tabelle ist in Fig. 8 gezeigt. In Fig. 8 ist das erste körperli
che Objekt 1 (Code 001) in Block S8, und der Abstand vom das System
tragenden Fahrzeug zu diesem körperlichen Objekt 1 beträgt 15 Meter.
Die relative Geschwindigkeit zwischen dem das System tragenden Fahr
zeug und dem körperlichen Objekt 1 beträgt + 3 km/h, die Anzahl von
Malen der Interpolation für diese Blöcke beträgt 3, die verbleibende An
zahl von Malen der Interpolation für das körperliche Objekt 1 beträgt 2.
Dies zeigt an, dass die erste Interpolation ausgeführt wurde, wobei als
Ergebnis kein körperliches Objekt in diesem Block in dem vorhergehen
den Erfassungszyklus erfasst wurde, in welchem das Schreiben der Ta
belle stattfand.
Die Datenaktualisierungssteuer/-regeleinrichtung 42, gezeigt in Fig. 6,
empfängt Information, welche das Vorhandensein oder die Abwesenheit
von körperlichen Objekten für jeden Block der Erfassungsblockbeurtei
lungseinheit 41 anzeigt. Als Antwort auf diese Information liest die Da
tenaktualisierungssteuerl-regeleinrichtung 42 Informationen für die ent
sprechenden Blöcke aus der Tabelle des Speichers für körperliche Ob
jekte 16 (Fig. 8) aus. Abhängig von der Information der Erfassungs
blockbeurteilungseinheit 41 und der Information, welche aus der Tabelle
ausgelesen wird, führt die Datenaktualisierungssteuer/-regeleinrichtung
42 den folgenden Prozess für die jeweiligen Blöcke aus:
- 1. In Fällen, in denen Information die Abwesenheit eines körperlichen
Objekts, welches von der Erfassungsblockbeurteilungseinheit 41 emp
fangen wird, anzeigt, und Information vom körperlichen Objekt nicht in
dem entsprechenden Block der Tabelle gespeichert wird:
In solchen Fällen fährt die Datenaktualisierungssteuer/-regeleinrichtung 42 mit der Bearbeitung des nächsten Erfassungsblocks fort. - 2. In Fällen, in denen Information die Abwesenheit eines körperlichen
Objekts, welches von der Erfassungsblockbeurteilungseinheit 42 emp
fangen wird, anzeigt, und Information vom körperlichen Objekt in dem
entsprechenden Block der Tabelle gespeichert wird:
Wenn zum Beispiel Information die Abwesenheit eines körperlichen Ob jekts, welches von der Erfassungsblockbeurteilungseinheit 41 empfan gen wird, für den Block S8 anzeigt und die Aufzeichnung für Block S8 mit dem in Fig. 8 gezeigten Inhalt aus der Tabelle ausgelesen wird, trägt die Datenaktualisierungssteuer/-regeleinrichtung einen Wert ein, wel cher durch Subtrahieren von 1 vom Wert des verbleibenden Anzahl von Malen-Felds der Aufzeichnung in dem verbleibende Anzahl von Malen- Feld erhalten wird, und überschreibt die Aufzeichnung des Blocks S8 in der Tabelle ohne Aktualisierung der Daten anderer Felder. Als Ergebnis wird das verbleibende Anzahl von Malen-Feld des Blocks S8 zu 1.
Wenn der Wert des "verbleibende Anzahl von Malen" Felds der Auf zeichnung von Block S8 zu Beginn des Prozesses 0 beträgt, setzt die Datenaktualisierungssteuer/-regeleinrichtung 42 andere Daten als das "Anzahl von Malen der Interpolation" Feld der Aufzeichnung von Block S8 auf einen Nullzustand oder alle auf "0" oder alle auf "1" (diese Zu stände werden gemeinsam als "Nullzustand" bezeichnet), und über schreibt die Aufzeichnung nach zurücksetzen in der Tabelle. Als Ergeb nis beträgt in der Aufzeichnung von Block S8 der Wert des "Anzahl von Malen der Interpolation" Felds 3, und die anderen Felder sind alle in ei nem Nullzustand. - 3. In Fällen, in denen Information das Vorhandensein eines körperlichen
Objekts, welches von der Erfassungsblockbeurteilungseinheit 41 emp
fangen wird, anzeigt und es keine Informationen des körperlichen Ob
jekts in der Aufzeichnung des entsprechenden Blocks der Tabelle gibt:
Die Datenaktualisierungssteuer/-regeleinrichtung 42 trägt körperliche Objekt ID's und Abstandsdaten, welche von der Erfassungsblockbeur teilungseinheit 41 empfangen werden, in das "körperliche Objekt" Feld und das "Abstand" Feld der Aufzeichnung des entsprechenden Blocks ein und überschreibt die Tabelle mit der Aufzeichnung, welche so aktua lisiert wurde. Wie aus der vorangegangenen Beschreibung klar ist, funk tioniert das "verbleibende Anzahl von Malen" Feld als Abwärtszähler. - 4. In Fällen, in denen Information das Vorhandensein eines körperlichen
Objekts, welches von der Erfassungsblockbeurteilungseinheit 41 emp
fangen wird, anzeigt und es Informationen des körperlichen Objekts in
der Aufzeichnung des entsprechenden Blocks der Tabelle gibt:
Die Datenaktualisierungssteuer/-regeleinrichtung 42 sendet Abstands information (gegenwärtige Abstandsinformation), welche von der Erfas sungsblockbeurteilungseinheit empfangen wird, und Abstandsinformation (frühere Abstandsinformation), welche von der Aufzeichnung des ent sprechenden Blocks der Tabelle ausgelesen wird, zur Relativgeschwin digkeitsberechnungseinheit 43. Als Antwort berechnet die Relativge schwindigkeitsberechnungseinheit 43 die Relativgeschwindigkeit zwi schen dem körperlichen Objekt und dem das System tragenden Fahr zeug unter Verwendung der Berechnungsformel:
Relativgeschwindigkeit = (gegenwärtiger Abstand - früherer Abstand)/Er fassungszeitintervall.
Das Erfassungszeitintervall ist die Zeitdifferenz zwischen der früheren
Messung und der gegenwärtigen Messung. Diese Zeitdifferenz umfasst
in der vorliegenden Ausführungsform 100 Millisekunden. Die Relativge
schwindigkeitsberechnungseinheit 43 wandelt den so erhaltenen Wert in
km/h um und sendet ihn an die Datenaktualisierungssteuer/-re
geleinrichtung 42.
Die Datenaktualisierungssteuer/-regeleinrichtung 42 ersetzt das
"körperliche Objekt" Feld und das "Abstand" Feld der Aufzeichnung des
entsprechenden von der Tabelle empfangenen Blocks durch von der Er
fassungsblockbeurteilungseinheit 41 empfangene Daten. Die Datenaktu
alisierungssteuer/-regeleinrichtung 42 trägt den von der Relativge
schwindigkeitsberechnungseinheit 43 empfangenen Wert in das
"Relativgeschwindigkeits" Feld ein und dekrementiert den Wert in dem
"verbleibende Anzahl von Malen" Feld. Die Aufzeichnung des entspre
chenden Blocks der Tabelle wird mit der so erhaltenen aktualisierten
Aufzeichnung überschrieben.
So wird Information der körperlichen Objekte des Typs, wie in der Ta
belle in Fig. 8 gezeigt, im Speicher für körperliche Objekte 16, gezeigt
in Fig. 1, gespeichert. Die Fahrzeugsteuer/-regeleinrichtung 18 führt
Steuerungs-/Regelungsfunktionen aus, wie z. B. automatische Fahrsteue
rung/-regelung mit Fahrzeugkursverfolgungsfunktion, Aktivierung eines
Alarms im Fall von zu kleinem Zwischenfahrzeugabstand, und eine au
tomatische Geschwindigkeitsreduzierungssteuerung/-regelung und ähn
liches, basierend auf der Information, welche im Speicher für körperliche
Objekte 16 gespeichert ist, und Information, welche von dem Fahrzeug
geschwindigkeitserfassungssystem 19 und dem Gierratenerfassungs
system 2 und ähnlichem empfangen wird.
Die Korrelationsberechnungseinheit 6, die Abstandsmessungseinheit 7,
der Abstandsspeicher 8, die Fensterausschneideeinheit 13, die Erken
nungseinheit 14 für körperliche Objekte, die Interpolationssteuer/-re
geleinrichtung 15, der Speicher für körperliche Objekte 16, die Rela
tivgeschwindigkeitsberechnungseinheit 17 und die Fahrzeugsteuer/-re
geleinrichtung 18 können konstruiert werden, unter Verwendung einer
Zentralrecheneinheit (CPU), eines Festwertspeichers mit darin unterge
brachten Steuerungs-/Regelungsprogrammen und Steuerungs-/Re
gelungsdaten sowie eines Direktzugriffsspeichers (RAM), welcher
einen Betriebsarbeitsbereich für die CPU vorsieht und welcher vorüber
gehend verschiedene Datentypen speichert. Der Abstandsspeicher 8 und
die Erkennungseinheit 14 für körperliche Objekte können unter Verwen
dung jeweils verschiedener Speicherbereiche eines Einzel-RAMs reali
siert werden. Außerdem können vorübergehende Speicherbereiche für
Daten, welche verschiedene Typen von Operationen erfordern, auch
unter Verwendung von Abschnitten des gleichen RAMs realisiert werden.
Überdies kann das Objekterfassungssystem der vorliegenden Erfindung
mit einer elektronischen Motor-Steuerungs-/Regelungseinheit (ECU),
Bremssteuerungs-/regelungs ECU oder anderer ECUs LAN-verbunden
sein und die Ausgabe von diesem Objekterfassungssystem kann für die
gesamte Steuer/Regeleinrichtung des Fahrzeugs verwendet werden.
Somit wurde gezeigt, dass in diesem System der Erfindung die Häufig
keit von falscher Erkennung aufgrund falscher Erfassung reduziert wird,
verglichen mit Fällen, in welchen die Erkennung der körperlichen Ob
jekte mit einer festen Anzahl von Malen der Erfassung ungeachtet des
Erfassungsbereichs ausgeführt wird. Außerdem können körperliche Ob
jekte, welche in die Grenzabschnitte des Erfassungsbereichs eintreten,
schnell erkannt werden.
Der Ausfall von körperlichen Objekten im zentralen Abschnitt des Erfas
sungsbereichs kann verhindert werden, und eine falsche Bearbeitung,
welche das Vorhandensein von körperlichen Objekten anzeigt, die ei
gentlich nicht in den Randabschnitten des Erfassungsbereichs vorhan
den sind, kann reduziert werden.
Obwohl die Erfindung mit Bezug zu bestimmten Ausführungsformen ge
zeigt und beschrieben wurde, ist es verständlich, dass beliebige Modifi
kationen und Veränderungen zugelassen sind, vorausgesetzt sie entfer
nen sich nicht vom Schutzbereich der angefügten Ansprüche.
Ein Objekterfassungssystem umfasst: eine Erkennungseinheit für kör
perliche Objekte, welche körperliche Objekte außerhalb des Fahrzeugs
erkennt, und einen Speicher für körperliche Objekte, welcher körperliche
Objekte betreffende Information speichert.
Eine Steuer/Regeleinrichtung erkennt das Vorhandensein eines körperli
chen Objekts, wenn das körperliche Objekt von einem oder mehreren
Sensoren eine vorbestimmte Anzahl von Malen erfasst wird, welche für
einen zentralen Abschnitt des Erfassungsbereichs größer ist als für ei
nen Randabschnitt des Erfassungsbereichs. Das System umfasst einen
Speicher zum Speichern von Information über die körperlichen Objekte.
Die Steuer/Regeleinrichtung hält das körperliche Objekt in dem Speicher
gespeichert, was anzeigt, dass das körperliche Objekt vorhanden ist, bis
die Steuer/Regeleinrichtung das Vorhandensein des entsprechenden
körperlichen Objekts eine vorbestimmte Anzahl von Erkennungszyklen
nicht mehr erkennt.
Claims (19)
1. An einem Fahrzeug angebrachtes Objekterkennungssystem, umfas
send:
wenigstens einen Sensor zum Erfassen eines körperlichen Objekts in einem vorbestimmten Erfassungsbereich; und
eine Steuer/Regeleinrichtung zum Erkennen des Vorhandenseins eines körperlichen Objekts, wenn das körperliche Objekt von dem Sensor eine vorbestimmte Anzahl von Malen erkannt wird, wobei die vorbestimmte Anzahl von Malen für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für einen Randabschnitt des Erfassungsbereichs.
wenigstens einen Sensor zum Erfassen eines körperlichen Objekts in einem vorbestimmten Erfassungsbereich; und
eine Steuer/Regeleinrichtung zum Erkennen des Vorhandenseins eines körperlichen Objekts, wenn das körperliche Objekt von dem Sensor eine vorbestimmte Anzahl von Malen erkannt wird, wobei die vorbestimmte Anzahl von Malen für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für einen Randabschnitt des Erfassungsbereichs.
2. System nach Anspruch 1, wobei der wenigstens eine Sensor zwei
Bildsensoren zum Aufnehmen eines Bildes des Erfassungsbereichs
umfasst.
3. System nach Anspruch 2, wobei die Steuer/Regeleinrichtung einen
Straßenbereich auf Grundlage von Helligkeitswerten jeweiliger
Fenster des aufgenommenen Bildes bestimmt.
4. System nach Anspruch 3, wobei die Steuer/Regeleinrichtung fort
schreitend Helligkeitswerte jeweiliger Fenster vergleicht, indem sie
ein Fenster, welches einem Bereich nahe dem Fahrzeug entspricht,
als Referenzfenster verwendet, wobei das Referenzfenster fort
schreitend durch ein Fenster ersetzt wird, welches neuerlich als
zum Straßenbereich gehörend identifiziert ist.
5. System nach Anspruch 4, wobei die Steuer/Regeleinrichtung ein
Fenster als zu einem körperlichen Objekt oder einer Markierung auf
der Straße gehörend identifiziert, dessen Helligkeitswert sich von
dem des fortschreitend ersetzten Referenzfensters um mehr als ei
nen vorbestimmten Wert unterscheidet.
6. An einem Fahrzeug angebrachtes Objekterfassungssystem, umfas
send:
wenigstens einen Sensor zum Erfassen eines körperlichen Objekts in einem vorbestimmten Erfassungsbereich;
eine Steuer/Regeleinrichtung zum Erkennen des Vorhandenseins eines körperlichen Objekts auf Grundlage einer Ausgabe des Sen sors; und
einen Speicher zum Speichern von Information über das von der Steuer/Regeleinrichtung erkannte körperliche Objekt;
wobei die Steuer/Regeleinrichtung das körperliche Objekt im Spei cher gespeichert hält, was anzeigt, dass das körperliche Objekt vorhanden ist, bis die Steuer/Regeleinrichtung das Vorhandensein des entsprechenden körperlichen Objekts eine vorbestimmte Anzahl von Erkennungszyklen nicht mehr erkennt.
wenigstens einen Sensor zum Erfassen eines körperlichen Objekts in einem vorbestimmten Erfassungsbereich;
eine Steuer/Regeleinrichtung zum Erkennen des Vorhandenseins eines körperlichen Objekts auf Grundlage einer Ausgabe des Sen sors; und
einen Speicher zum Speichern von Information über das von der Steuer/Regeleinrichtung erkannte körperliche Objekt;
wobei die Steuer/Regeleinrichtung das körperliche Objekt im Spei cher gespeichert hält, was anzeigt, dass das körperliche Objekt vorhanden ist, bis die Steuer/Regeleinrichtung das Vorhandensein des entsprechenden körperlichen Objekts eine vorbestimmte Anzahl von Erkennungszyklen nicht mehr erkennt.
7. System nach Anspruch 6, wobei die vorbestimmte Anzahl von Er
kennungszyklen für ein im zentralen Abschnitt des Erfassungsbe
reichs befindliches körperliches Objekt größer ist als für ein im
Randabschnitt des Erfassungsbereichs befindliches körperliches
Objekt.
8. System nach Anspruch 7, wobei der Erfassungsbereich in eine
Mehrzahl von Blöcken unterteilt ist und jedem Block die vorbe
stimmte Anzahl von Erkennungszyklen zugeordnet ist, und wobei
Information über das erkannte körperliche Objekt in dem Speicher
in Bezug auf den Block, in dem das körperliche Objekt erkannt ist,
gespeichert ist.
9. System nach Anspruch 6, wobei die Steuer/Regeleinrichtung fort
schreitend Helligkeitswerte jeweiliger Fenster vergleicht, indem sie
ein Fenster, welches einem Bereich nahe dem Fahrzeug entspricht,
als Referenzfenster verwendet, wobei das Referenzfenster fort
schreitend durch ein Fenster ersetzt wird, welches neuerlich als
zum Straßenbereich gehörend identifiziert ist.
10. System nach Anspruch 9, wobei die Steuer/Regeleinrichtung ein
Fenster als zu einem körperlichen Objekt oder einer Markierung auf
der Straße gehörend identifiziert, dessen Helligkeitswert sich von
dem des fortschreitend ersetzten Referenzfensters um mehr als ei
nen vorbestimmten Wert unterscheidet.
11. Verfahren zum Erkennen eines Objekts aus einem fahrenden Fahr
zeug, welches die Schritte umfasst:
Aufnehmen eines Bildes eines vorbestimmten Erfassungsbereichs;
Verarbeiten des Bildes, um ein körperliches Objekt von einem Stra ßenbereich zu unterscheiden; und
Erkennen des Vorhandenseins eines körperlichen Objekts; wenn das körperliche Objekt eine vorbestimmte Anzahl von Malen erfasst wird, wobei die vorbestimmte Anzahl von Malen für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für einen Randab schnitt des Erfassungsbereichs.
Aufnehmen eines Bildes eines vorbestimmten Erfassungsbereichs;
Verarbeiten des Bildes, um ein körperliches Objekt von einem Stra ßenbereich zu unterscheiden; und
Erkennen des Vorhandenseins eines körperlichen Objekts; wenn das körperliche Objekt eine vorbestimmte Anzahl von Malen erfasst wird, wobei die vorbestimmte Anzahl von Malen für einen zentralen Abschnitt des Erfassungsbereichs größer ist als für einen Randab schnitt des Erfassungsbereichs.
12. Verfahren nach Anspruch 11, wobei das körperliche Objekt von dem
Straßenbereich auf Grundlage von Helligkeitswerten jeweiliger
Fenster des aufgenommenen Bildes unterschieden wird.
13. Verfahren nach Anspruch 11, wobei der Schritt der Verarbeitung
den Schritt des fortschreitenden Vergleichens von Helligkeitswerten
jeweiliger Fenster umfasst, wobei ein Fenster, welches einem Be
reich nahe dem Fahrzeug entspricht, als Referenzfenster verwendet
wird, wobei das Referenzfenster fortschreitend durch ein Fenster
ersetzt wird, welches neuerlich als zum Straßenbereich gehörend i
dentifiziert ist.
14. Verfahren nach Anspruch 13, wobei der Schritt der Verarbeitung
den Schritt der Identifizierung eines Fensters als zu einem körperli
chen Objekt oder einer Markierung auf der Straße gehörend um
fasst, dessen Helligkeitswert sich von dem des fortschreitend er
setzten Referenzfensters um mehr als einen vorbestimmten Wert
unterscheidet.
15. Verfahren zum Erfassen eines Objekts aus einem fahrenden Fahr
zeug, die Schritte umfassend:
Aufnehmen eines Bildes eines vorbestimmten Erfassungsbereichs;
Verarbeiten des aufgenommenen Bildes, um ein körperliches Objekt von einem Straßenbereich zu unterscheiden;
Speichern von Information über das unterschiedene körperliche Objekt in einem Speicher; und
gespeichert Halten des körperlichen Objekts im Speicher, was an zeigt, dass das körperliche Objekt vorhanden ist, bis das körperli che Objekt eine vorbestimmte Anzahl von Erfassungszyklen nicht mehr erfasst wird.
Aufnehmen eines Bildes eines vorbestimmten Erfassungsbereichs;
Verarbeiten des aufgenommenen Bildes, um ein körperliches Objekt von einem Straßenbereich zu unterscheiden;
Speichern von Information über das unterschiedene körperliche Objekt in einem Speicher; und
gespeichert Halten des körperlichen Objekts im Speicher, was an zeigt, dass das körperliche Objekt vorhanden ist, bis das körperli che Objekt eine vorbestimmte Anzahl von Erfassungszyklen nicht mehr erfasst wird.
16. Verfahren nach Anspruch 15, wobei die vorbestimmte Anzahl der
Erfassungszyklen für einen zentralen Abschnitt des Erfassungsbe
reichs größer ist als für einen Randbereich des Erfassungsbereichs.
17. Verfahren nach Anspruch 16, wobei der Erfassungsbereich in eine
Mehrzahl von Blöcken unterteilt ist und jedem Block die vorbe
stimmte Anzahl von Erfassungszyklen zugeordnet ist, und wobei
Information über das erfasste körperliche Objekt in dem Speicher in
Bezug auf den Block, in dem das körperliche Objekt erfasst ist, ge
speichert wird.
18. Verfahren nach Anspruch 15, wobei der Schritt der Verarbeitung
den Schritt des fortschreitenden Vergleichens von Helligkeitswerten
jeweiliger Fenster umfasst, wobei ein Fenster, welches einem Be
reich nahe dem Fahrzeug entspricht, als Referenzfenster verwendet
wird, wobei das Referenzfenster fortschreitend durch ein Fenster
ersetzt wird, welches neuerlich als zum Straßenbereich gehörend i
dentifiziert ist.
19. Verfahren nach Anspruch 18, wobei der Schritt der Verarbeitung
den Schritt der Identifizierung eines Fensters als zu einem kprperli
chen Objekt oder einer Markierung auf der Straße gehörend um
fasst, dessen Helligkeitswert sich von dem des fortschreitend er
setzten Referenzfensters um mehr als einen vorbestimmten Wert
unterscheidet.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPP11-148303 | 1999-05-27 | ||
JP14830399A JP4028135B2 (ja) | 1999-05-27 | 1999-05-27 | 物体検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10026586A1 true DE10026586A1 (de) | 2000-11-30 |
DE10026586B4 DE10026586B4 (de) | 2010-04-01 |
Family
ID=15449780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10026586A Expired - Lifetime DE10026586B4 (de) | 1999-05-27 | 2000-05-29 | Objekterfassungssystem |
Country Status (3)
Country | Link |
---|---|
US (2) | US6683969B1 (de) |
JP (1) | JP4028135B2 (de) |
DE (1) | DE10026586B4 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1405752A1 (de) * | 2002-10-01 | 2004-04-07 | Robert Bosch Gmbh | Einrichtung zur Erzeugung von Stellsignalen in einem Kraftfahrzeug |
EP1470977A1 (de) * | 2003-04-23 | 2004-10-27 | Volkswagen Aktiengesellschaft | Park- und Fahrhilfe für ein Kraftfahrzeuge |
DE10343479A1 (de) * | 2003-09-19 | 2005-04-28 | Bosch Gmbh Robert | Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug |
DE10029866B4 (de) * | 1999-06-16 | 2006-06-08 | Honda Giken Kogyo K.K. | Objekterkennungssystem |
WO2016020342A1 (de) * | 2014-08-05 | 2016-02-11 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum erzeugen einer umgebungskarte sowie fahrerassistenzsystem |
Families Citing this family (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5910854A (en) | 1993-02-26 | 1999-06-08 | Donnelly Corporation | Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices |
US5668663A (en) | 1994-05-05 | 1997-09-16 | Donnelly Corporation | Electrochromic mirrors and devices |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
US6326613B1 (en) | 1998-01-07 | 2001-12-04 | Donnelly Corporation | Vehicle interior mirror assembly adapted for containing a rain sensor |
US6124886A (en) * | 1997-08-25 | 2000-09-26 | Donnelly Corporation | Modular rearview mirror assembly |
US8294975B2 (en) | 1997-08-25 | 2012-10-23 | Donnelly Corporation | Automotive rearview mirror assembly |
US6172613B1 (en) | 1998-02-18 | 2001-01-09 | Donnelly Corporation | Rearview mirror assembly incorporating vehicle information display |
US6445287B1 (en) | 2000-02-28 | 2002-09-03 | Donnelly Corporation | Tire inflation assistance monitoring system |
US8288711B2 (en) | 1998-01-07 | 2012-10-16 | Donnelly Corporation | Interior rearview mirror system with forwardly-viewing camera and a control |
US6693517B2 (en) | 2000-04-21 | 2004-02-17 | Donnelly Corporation | Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants |
US6477464B2 (en) | 2000-03-09 | 2002-11-05 | Donnelly Corporation | Complete mirror-based global-positioning system (GPS) navigation solution |
US6329925B1 (en) | 1999-11-24 | 2001-12-11 | Donnelly Corporation | Rearview mirror assembly with added feature modular display |
US7167796B2 (en) * | 2000-03-09 | 2007-01-23 | Donnelly Corporation | Vehicle navigation system for use with a telematics system |
AU2001243285A1 (en) * | 2000-03-02 | 2001-09-12 | Donnelly Corporation | Video mirror systems incorporating an accessory module |
US7370983B2 (en) | 2000-03-02 | 2008-05-13 | Donnelly Corporation | Interior mirror assembly with display |
KR100391442B1 (ko) * | 2000-12-27 | 2003-07-12 | 현대자동차주식회사 | 차선 이탈 방지용 영상 처리방법 |
US7581859B2 (en) | 2005-09-14 | 2009-09-01 | Donnelly Corp. | Display device for exterior rearview mirror |
EP1363810B1 (de) | 2001-01-23 | 2007-05-30 | Donnelly Corporation | Verbessertes fahrzeugbeleuchtungssystem |
US7255451B2 (en) | 2002-09-20 | 2007-08-14 | Donnelly Corporation | Electro-optic mirror cell |
US7429843B2 (en) * | 2001-06-12 | 2008-09-30 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
JP2002374441A (ja) * | 2001-06-13 | 2002-12-26 | Mitsubishi Electric Corp | 車窓内センサ |
US6882287B2 (en) | 2001-07-31 | 2005-04-19 | Donnelly Corporation | Automotive lane change aid |
US6918674B2 (en) * | 2002-05-03 | 2005-07-19 | Donnelly Corporation | Vehicle rearview mirror system |
US7636455B2 (en) * | 2002-06-04 | 2009-12-22 | Raytheon Company | Digital image edge detection and road network tracking method and system |
WO2003105099A1 (en) | 2002-06-06 | 2003-12-18 | Donnelly Corporation | Interior rearview mirror system with compass |
US7329013B2 (en) | 2002-06-06 | 2008-02-12 | Donnelly Corporation | Interior rearview mirror system with compass |
JP4155780B2 (ja) * | 2002-09-19 | 2008-09-24 | 富士通テン株式会社 | 画像処理方法 |
WO2004026633A2 (en) | 2002-09-20 | 2004-04-01 | Donnelly Corporation | Mirror reflective element assembly |
US7310177B2 (en) | 2002-09-20 | 2007-12-18 | Donnelly Corporation | Electro-optic reflective element assembly |
JP4100250B2 (ja) * | 2003-05-19 | 2008-06-11 | 日産自動車株式会社 | 障害物検出装置および障害物検出方法 |
US7289037B2 (en) | 2003-05-19 | 2007-10-30 | Donnelly Corporation | Mirror assembly for vehicle |
US7446924B2 (en) * | 2003-10-02 | 2008-11-04 | Donnelly Corporation | Mirror reflective element assembly including electronic component |
US7308341B2 (en) * | 2003-10-14 | 2007-12-11 | Donnelly Corporation | Vehicle communication system |
KR100543709B1 (ko) * | 2003-12-23 | 2006-01-20 | 삼성전자주식회사 | 이동체의 회전 이동량 이용 방법과 장치 및 컴퓨터프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록 매체 |
ITMO20040245A1 (it) * | 2004-09-24 | 2004-12-24 | Meta System Spa | Sistema e metodo di rilevamento degli ostacoli in particolare per sistemi di agevolazione del parcheggio di veicoli. |
ITMO20040244A1 (it) * | 2004-09-24 | 2004-12-24 | Meta System Spa | 'sistema e metodo di rilevamento degli ostacoli in particolare per sistemi di agevolazioni del parcheggio di veicoli'. |
US7590263B2 (en) * | 2004-11-30 | 2009-09-15 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
JP4461091B2 (ja) * | 2004-11-30 | 2010-05-12 | 本田技研工業株式会社 | 位置検出装置及びその補正方法 |
US7599521B2 (en) * | 2004-11-30 | 2009-10-06 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
JP4032052B2 (ja) * | 2004-11-30 | 2008-01-16 | 本田技研工業株式会社 | 位置検出装置及びその補正方法 |
JP4224449B2 (ja) * | 2004-11-30 | 2009-02-12 | 本田技研工業株式会社 | 画像抽出装置 |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
ATE517368T1 (de) | 2005-05-16 | 2011-08-15 | Donnelly Corp | Fahrzeugspiegelanordnung mit zeichen am reflektierenden teil |
CN101535087B (zh) * | 2005-11-01 | 2013-05-15 | 唐纳利公司 | 具有显示装置的内部后视镜 |
JP4426535B2 (ja) * | 2006-01-17 | 2010-03-03 | 本田技研工業株式会社 | 車両の周辺監視装置 |
DE102006004193A1 (de) * | 2006-01-27 | 2007-08-16 | Sick Ag | Vorrichtung zur optoelektronischen Überwachung von Objekten |
EP1818747A1 (de) * | 2006-02-09 | 2007-08-15 | Leica Geosystems AG | Ausbringungssteuereinheit |
JP5577038B2 (ja) | 2006-03-09 | 2014-08-20 | ジェンテックス コーポレイション | 高輝度ディスプレイを含む車両リアビューアセンブリ |
EP1971862B1 (de) | 2006-04-11 | 2010-11-10 | Arena Pharmaceuticals, Inc. | Verfahren zur verwendung des gpr119-rezeptors zur identifizierung von verbindungen zur erhöhung der knochenmasse bei einer person |
PE20071221A1 (es) | 2006-04-11 | 2007-12-14 | Arena Pharm Inc | Agonistas del receptor gpr119 en metodos para aumentar la masa osea y para tratar la osteoporosis y otras afecciones caracterizadas por masa osea baja, y la terapia combinada relacionada a estos agonistas |
EP2063390B1 (de) * | 2006-09-14 | 2016-08-03 | Fujitsu Limited | Bildverarbeitungseinrichtung und programm dafür |
DE102006054220A1 (de) * | 2006-11-15 | 2008-05-21 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Regelung der Geschwindigkeit eines Kraftfahrzeugs |
JP4281817B2 (ja) * | 2007-03-28 | 2009-06-17 | トヨタ自動車株式会社 | 撮像システム |
JP4909790B2 (ja) * | 2007-04-04 | 2012-04-04 | 本田技研工業株式会社 | 車両用走行制御装置 |
US8154418B2 (en) | 2008-03-31 | 2012-04-10 | Magna Mirrors Of America, Inc. | Interior rearview mirror system |
US9487144B2 (en) * | 2008-10-16 | 2016-11-08 | Magna Mirrors Of America, Inc. | Interior mirror assembly with display |
JP4788798B2 (ja) * | 2009-04-23 | 2011-10-05 | トヨタ自動車株式会社 | 物体検出装置 |
TWI436242B (zh) * | 2010-01-11 | 2014-05-01 | Pixart Imaging Inc | 移動偵測裝置 |
US9342500B2 (en) | 2010-03-15 | 2016-05-17 | Michael V. Liguori | Object memory management system |
US8879139B2 (en) | 2012-04-24 | 2014-11-04 | Gentex Corporation | Display mirror assembly |
US8831285B2 (en) | 2012-07-26 | 2014-09-09 | Hewlett-Packard Development Company, L.P. | Detecting objects with a depth sensor |
KR101881346B1 (ko) | 2013-03-15 | 2018-07-24 | 젠텍스 코포레이션 | 디스플레이 미러 어셈블리 |
DE202014010751U1 (de) | 2013-09-24 | 2016-07-18 | Gentex Corporation | Anzeigespiegelbaugruppe |
US9511715B2 (en) | 2014-01-31 | 2016-12-06 | Gentex Corporation | Backlighting assembly for display for reducing cross-hatching |
US10705332B2 (en) | 2014-03-21 | 2020-07-07 | Gentex Corporation | Tri-modal display mirror assembly |
DE102014206086A1 (de) * | 2014-03-31 | 2015-10-01 | Robert Bosch Gmbh | Verfahren zum Betreiben einer selbstbeweglichen mobilen Plattform |
EP3126195B1 (de) | 2014-04-01 | 2019-06-05 | Gentex Corporation | Automatische anzeigespiegelanordnung |
DE102014106939A1 (de) * | 2014-05-16 | 2015-11-19 | Huf Hülsbeck & Fürst Gmbh & Co. Kg | Elektronische Baugruppe zum Beleuchten eines einen Detektionsbereich eines Sensors markierenden Zielbereiches |
WO2016044746A1 (en) | 2014-09-19 | 2016-03-24 | Gentex Corporation | Rearview assembly |
CN107000642B (zh) | 2014-11-07 | 2020-03-27 | 金泰克斯公司 | 全显示镜致动器 |
CN107000649B (zh) | 2014-11-13 | 2020-04-14 | 金泰克斯公司 | 具有显示装置的后视镜系统 |
US10131279B2 (en) | 2014-12-03 | 2018-11-20 | Gentex Corporation | Display mirror assembly with an RF shield bezel |
USD746744S1 (en) | 2014-12-05 | 2016-01-05 | Gentex Corporation | Rearview device |
US9744907B2 (en) | 2014-12-29 | 2017-08-29 | Gentex Corporation | Vehicle vision system having adjustable displayed field of view |
US9720278B2 (en) | 2015-01-22 | 2017-08-01 | Gentex Corporation | Low cost optical film stack |
CN107531183B (zh) | 2015-04-20 | 2021-09-03 | 金泰克斯公司 | 具有贴花的后视总成 |
CN107614324B (zh) | 2015-05-18 | 2020-11-27 | 金泰克斯公司 | 完整显示后视装置 |
KR102135427B1 (ko) | 2015-06-22 | 2020-07-17 | 젠텍스 코포레이션 | 진폭-변조된 광의 깜박임을 보정하기 위해 스트리밍된 비디오 이미지를 처리하는 시스템 및 방법 |
EP3341704A1 (de) | 2015-08-28 | 2018-07-04 | Marx, Jürgen | Verfahren und vorrichtung zur erfassung der oberflächenstruktur und beschaffenheit einer probe |
USD797627S1 (en) | 2015-10-30 | 2017-09-19 | Gentex Corporation | Rearview mirror device |
USD798207S1 (en) | 2015-10-30 | 2017-09-26 | Gentex Corporation | Rearview mirror assembly |
WO2017075473A1 (en) | 2015-10-30 | 2017-05-04 | Gentex Corporation | Rearview device |
US10685623B2 (en) | 2015-10-30 | 2020-06-16 | Gentex Corporation | Toggle paddle |
USD800618S1 (en) | 2015-11-02 | 2017-10-24 | Gentex Corporation | Toggle paddle for a rear view device |
USD845851S1 (en) | 2016-03-31 | 2019-04-16 | Gentex Corporation | Rearview device |
USD817238S1 (en) | 2016-04-29 | 2018-05-08 | Gentex Corporation | Rearview device |
US10025138B2 (en) | 2016-06-06 | 2018-07-17 | Gentex Corporation | Illuminating display with light gathering structure |
USD809984S1 (en) | 2016-12-07 | 2018-02-13 | Gentex Corporation | Rearview assembly |
USD854473S1 (en) | 2016-12-16 | 2019-07-23 | Gentex Corporation | Rearview assembly |
WO2018125898A1 (en) | 2016-12-30 | 2018-07-05 | Gentex Corporation | Full display mirror with on-demand spotter view |
WO2018140402A1 (en) * | 2017-01-27 | 2018-08-02 | Gentex Corporation | Image compensation for motorcycle banking |
CN110312641A (zh) | 2017-03-17 | 2019-10-08 | 金泰克斯公司 | 双显示倒车摄像系统 |
JP2021099331A (ja) * | 2019-12-20 | 2021-07-01 | 株式会社デンソー | レーダ装置 |
US11873000B2 (en) | 2020-02-18 | 2024-01-16 | Toyota Motor North America, Inc. | Gesture detection for transport control |
US11055998B1 (en) | 2020-02-27 | 2021-07-06 | Toyota Motor North America, Inc. | Minimizing traffic signal delays with transports |
US11290856B2 (en) | 2020-03-31 | 2022-03-29 | Toyota Motor North America, Inc. | Establishing connections in transports |
US11994272B2 (en) | 2021-08-20 | 2024-05-28 | Gentex Corporation | Lighting assembly and illumination system having a lighting assembly |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6045377B2 (ja) * | 1976-08-03 | 1985-10-09 | 日産自動車株式会社 | 衝突防止装置 |
US4308536A (en) * | 1979-02-26 | 1981-12-29 | Collision Avoidance Systems | Anti-collision vehicular radar system |
JPS59180956U (ja) * | 1983-05-23 | 1984-12-03 | 日産自動車株式会社 | 車両走行制御装置 |
JPH04147400A (ja) * | 1990-10-11 | 1992-05-20 | Matsushita Electric Ind Co Ltd | 車両検出装置 |
US5515448A (en) * | 1992-07-28 | 1996-05-07 | Yazaki Corporation | Distance measuring apparatus of a target tracking type |
JP3065822B2 (ja) | 1992-11-06 | 2000-07-17 | 株式会社豊田中央研究所 | 移動物体検出装置 |
JP3522317B2 (ja) * | 1993-12-27 | 2004-04-26 | 富士重工業株式会社 | 車輌用走行案内装置 |
US6088468A (en) * | 1995-05-17 | 2000-07-11 | Hitachi Denshi Kabushiki Kaisha | Method and apparatus for sensing object located within visual field of imaging device |
JPH0979821A (ja) | 1995-09-12 | 1997-03-28 | Suzuki Motor Corp | 障害物認識装置 |
TW349211B (en) * | 1996-01-12 | 1999-01-01 | Sumitomo Electric Industries | Method snd apparatus traffic jam measurement, and method and apparatus for image processing |
US6201236B1 (en) * | 1997-11-13 | 2001-03-13 | Auto Sense Ltd. | Detection system with improved noise tolerance |
-
1999
- 1999-05-27 JP JP14830399A patent/JP4028135B2/ja not_active Expired - Lifetime
-
2000
- 2000-05-10 US US09/568,447 patent/US6683969B1/en not_active Expired - Lifetime
- 2000-05-29 DE DE10026586A patent/DE10026586B4/de not_active Expired - Lifetime
-
2003
- 2003-07-30 US US10/631,455 patent/US6987864B2/en not_active Expired - Lifetime
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10029866B4 (de) * | 1999-06-16 | 2006-06-08 | Honda Giken Kogyo K.K. | Objekterkennungssystem |
EP1405752A1 (de) * | 2002-10-01 | 2004-04-07 | Robert Bosch Gmbh | Einrichtung zur Erzeugung von Stellsignalen in einem Kraftfahrzeug |
EP1470977A1 (de) * | 2003-04-23 | 2004-10-27 | Volkswagen Aktiengesellschaft | Park- und Fahrhilfe für ein Kraftfahrzeuge |
DE10343479A1 (de) * | 2003-09-19 | 2005-04-28 | Bosch Gmbh Robert | Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug |
WO2016020342A1 (de) * | 2014-08-05 | 2016-02-11 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum erzeugen einer umgebungskarte sowie fahrerassistenzsystem |
US10688987B2 (en) | 2014-08-05 | 2020-06-23 | Valeo Schalter Und Sensoren Gmbh | Method for generating a surroundings map, and driver assistance system |
Also Published As
Publication number | Publication date |
---|---|
JP2000339597A (ja) | 2000-12-08 |
JP4028135B2 (ja) | 2007-12-26 |
DE10026586B4 (de) | 2010-04-01 |
US20040022417A1 (en) | 2004-02-05 |
US6683969B1 (en) | 2004-01-27 |
US6987864B2 (en) | 2006-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10026586A1 (de) | Objekterfassungssystem | |
DE10029866B4 (de) | Objekterkennungssystem | |
EP1298454B1 (de) | Verfahren zur Erkennung und Verfolgung von Objekten | |
DE69302975T2 (de) | Fahrzeugpositionserfassungsanlage auf einer Spur | |
DE10030421B4 (de) | Fahrzeugumgebungsüberwachungssystem | |
DE69310758T2 (de) | Verfahren und vorrichtung zum klassifizieren der bewegung von objekten entlang einem durchgang | |
DE10228638B4 (de) | Fahrzeugzonen-Überwachungsvorrichtung | |
DE10029423B4 (de) | Objekterkennungssystem | |
DE4410406C2 (de) | Optoelektronische Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs | |
DE10247371B4 (de) | Fahrzeuginformation-Bereitstellungsvorrichtung | |
DE69937699T2 (de) | Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges | |
DE10251880B4 (de) | Bilderkennungsvorrichtung | |
DE10115080A1 (de) | Objekterkennungssystem | |
DE4308776C2 (de) | Einrichtung zum Überwachen des Außenraums eines Fahrzeugs | |
DE69433317T2 (de) | Videoteststreifenleser und Verfahren zur Bewertung von Teststreifen | |
DE10301469A1 (de) | Infrarotbildverarbeitungsvorrichtung | |
DE69115772T2 (de) | Verfahren und Vorrichtung zur Distanzbestimmung für ein Fahrzeug | |
WO2002103385A1 (de) | Verfahren zur bereitstellung von bildinformationen | |
DE19507956A1 (de) | Einrichtung zur Bestimmung des Fahrzeugabstandes von einer seitlichen Fahrbahnmarkierung | |
DE102005026875A1 (de) | Fahrzeugumgebungs-Überwachungsvorrichtung | |
DE69738270T2 (de) | Erfassungssystem | |
DE10019462B4 (de) | Straßensensorsystem, Straßenerfassungssystem und Verfahren zur Bestimmung der Straßenfläche | |
EP1298012B1 (de) | Verfahren zur Erkennung und Verfolgung von Objekten | |
EP1306690A2 (de) | Verfahren zur Erkennung und Verfolgung von Objekten | |
DE19730534A1 (de) | Entfernungsmeßvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8364 | No opposition during term of opposition | ||
R071 | Expiry of right |