DE10059313A1 - Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs - Google Patents
Anordnung und Verfahren zur Überwachung des Umfelds eines FahrzeugsInfo
- Publication number
- DE10059313A1 DE10059313A1 DE10059313A DE10059313A DE10059313A1 DE 10059313 A1 DE10059313 A1 DE 10059313A1 DE 10059313 A DE10059313 A DE 10059313A DE 10059313 A DE10059313 A DE 10059313A DE 10059313 A1 DE10059313 A1 DE 10059313A1
- Authority
- DE
- Germany
- Prior art keywords
- sensors
- information
- vehicle
- processing
- arrangement according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012544 monitoring process Methods 0.000 title claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 31
- 230000003287 optical effect Effects 0.000 claims abstract description 17
- 230000003595 spectral effect Effects 0.000 claims description 14
- 238000001514 detection method Methods 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 241000251468 Actinopterygii Species 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Abstract
Die Erfindung betrifft eine Anordnung zur Überwachung des Umfelds eines Fahrzeugs (10) mit Sensoren (12, 14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) zum Erfassen von Eigenschaften des Umfelds und Mitteln (36) zum Verarbeiten der erfassten Information, wobei die Sensoren (12, 14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) optische Sensoren sind, mindestens zwei Sensoren (14, 16, 18, 20, 22, 24) vorgesehen sind, die Sensoren (12, 14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) im Weitwinkelbereich arbeiten und die Mittel (36) zum Verarbeiten der erfassten Informationen räumliche Informationen ausgeben. Die Erfindung betrifft ferner ein Verfahren zur Überwachung des Umfelds eines Fahrzeugs.
Description
Die Erfindung betrifft eine Anordnung zur Überwachung des
Umfelds eines Fahrzeugs mit Sensoren zum Erfassen von Ei
genschaften des Umfelds und Mitteln zum Verarbeiten der
erfassten Information. Die Erfindung betrifft ferner ein
Verfahren zur Überwachung des Umfelds eines Fahrzeugs mit
den Schritten: Erfassen von Eigenschaften des Umfelds und
Verarbeiten der erfassten Information.
Zur Überwachung des Umfelds eines Fahrzeugs sind zahlrei
che Systeme bekannt. Derartige Systeme dienen beispiels
weise der Realisierung einer Unfallverhütung ("Pre
crash"), einer automatischen Fahrsteuerung ("Automatic
Cruise Control" (ACC)) oder auch der Beobachtung des to
ten Winkels bezüglich des Gesichtsfeld des Fahrers. Es
kommen Systeme zum Einsatz, welche sich unterschiedlichen
Sensoren bedienen. Bekannt sind zum Beispiel Radarsenso
ren, Lidarsensoren, Ultraschallsensoren und Videosenso
ren. Beispielsweise werden Radarsensoren verwendet, um
die genaue Lage eines Objektes zu bestimmen, welches sich
im Umfeld des Fahrzeugs befindet. Ein bekanntes Verfahren
für diese Lagebestimmung ist die Triangulation. Bei dem
Einsatz der verschiedenen Sensoren ist allerdings zu be
achten, dass sie wegen der zugrundeliegenden physikali
schen Vorgänge unterschiedliche Erfassungsbereiche haben.
Daher ist es häufig sinnvoll, die unterschiedlichen Sen
soren zu kombinieren. Insgesamt entstehen komplexe Syste
me, da die unterschiedlichen Sensormessdaten kombiniert
werden müssen.
Ferner ist zu bemerken, dass die meisten Systeme nicht in
der Lage sind, Objekte, welche sich im Fahrzeugumfeld be
finden, zu klassifizieren. Ein Radarsensor ist im allge
meinen nicht in der Lage, zwischen einem lebenden Objekt,
beispielsweise einem Fußgänger, und einem Gegenstand zu
unterscheiden. Ferner haben Radarsensoren und auch Ultra
schallsensoren im unmittelbaren Fahrzeugumfeld den Nach
teil, dass sie aufgrund ihres geringen Öffnungswinkels
nur einen kleinen Bereich des Umfelds erfassen können.
Will man also das gesamte Fahrzeugumfeld mit derartigen
Sensoren erfassen, so ist eine große Anzahl von Sensoren
erforderlich.
Die Erfindung baut auf der gattungsgemäßen Anordnung da
durch auf, dass die Sensoren optische Sensoren sind, dass
mindestens zwei Sensoren vorgesehen sind, dass die Senso
ren im Weitwinkelbereich arbeiten und dass die Mittel zum
Verarbeiten der erfassten Information räumliche Informa
tion ausgeben. Optische Sensoren haben gegenüber den an
deren genannten Sensoren den Vorteil, dass die Möglichkeit
besteht, Objekte im Fahrzeugumfeld zu klassifizie
ren. Beispielsweise ist es möglich, zwischen einem Ge
genstand und einem belebten Objekt zu unterscheiden. Auf
grund der Tatsache, dass mindestens zwei Sensoren vorge
sehen sind, wird eine räumliche Erfassung des Fahrzeugum
felds ermöglicht. Die beiden optischen Sensoren wirken
als Stereokamerapaar. Aufgrund der Erfassung eines Weit
winkelbereichs der Sensoren, wobei die Sensoren grund
sätzlich unterschiedliche Eigenschaften haben können,
lässt sich ein großer Teil des Fahrzeugumfelds erfassen.
Aufgrund der Tatsache, dass die Mittel zum Verarbeiten
der erfassten Information räumliche Information ausgeben,
kann eine Person, beispielsweise der Fahrer des Fahr
zeugs, detailliert über die Eigenschaften des Fahrzeugum
felds informiert werden. Die Verarbeitung in den Mitteln
zum Verarbeiten erfolgt mittels Algorithmen der digitalen
Bildverarbeitung und mit sonstigen Algorithmen zur Aus
wertung der Sensoren. Insgesamt erzielt man auf der
Grundlage der Erfindung eine Einsparung von Kosten, da
man auf eine Vielzahl von Einzelsensoren zur zufrieden
stellenden Erfassung des Umfeldes verzichten kann. Neben
der Einsparung einer Vielzahl von Einzelsensoren kann
auch die Systemkomplexität reduziert werden. Dies hat den
Grund, dass keine Vernetzung einer großen Anzahl von Sen
soren erforderlich ist.
Bevorzugt weist mindestens einer der Sensoren eine Fish
eye-Optik auf. Fisheye-Optiken sind geeignet, einen gro
ßen Raumwinkel zu erfassen, wobei dieser etwa im Bereich
von 220° liegt. Somit kann ein großer Teil des Umfelds
des Kraftfahrzeugs erfasst werden. Bei der Verwendung
mehrerer Sensoren ist es möglich, räumliche Information
über das gesamte Fahrzeugumfeld auszugeben.
Ebenfalls kann es vorteilhaft sein, dass mindestens einer
der Sensoren eine Optik zur Erfassung eines Sichtwinkels
von 360° aufweist, insbesondere eine Parabol- oder Para
boloidspiegeloptik.
Besonders vorteilhaft ist es, dass weitere Sensoren zum
Erfassen weiterer Eigenschaften des Umfelds vorgesehen
sind, wobei die den Eigenschaften entsprechende Informa
tion den Mitteln zum Verarbeiten der erfassten Informati
on zuführbar ist. Die erfindungsgemäße Anordnung kann
demnach die Information aus zusätzlichen Informations
quellen verarbeiten. Dabei kommen unterschiedlichste Sen
soren in Betracht, etwa auch Radar- oder Ultraschallsen
soren. Ebenfalls ist es denkbar, dass Informationen zur
Verfügung gestellt werden, welche nicht das Fahrzeugum
feld betreffen. Beispielsweise können Lenkwinkelsensoren,
Gierwinkelsensoren, eine Überwachung der Fahrzeugschlös
ser und Erschütterungssensoren als weitere Informations
quellen für die erfindungsgemäße Anordnung in Betracht
gezogen werden.
Besonders vorteilhaft ist es, wenn weitere optische Sen
soren vorgesehen sind. Hierdurch kann die Erfassung des
Fahrzeugumfelds verbessert werden. Beispielsweise können
tote. Winkel vermieden werden.
Es ist ebenfalls vorteilhaft, wenn die Mittel zum Verar
beiten der erfassten Informationen einen Controller auf
weisen. Der Controller ist in der Lage, sämtliche Informationen
der beteiligten Informationsquellen zu Erfassen,
zu Verarbeiten und entsprechende räumliche Informationen
auszugeben. Dabei bedient sich der Controller Algorithmen
der digitalen Bildverarbeitung und sonstigen Algorithmen
zur Auswertung der Sensoren.
Vorzugsweise geben die Mittel zum Verarbeiten der erfass
ten Informationen diese an ein Fahrerinformationssystem
aus. Das Fahrerinformationssystem kann die Informationen
dem Fahrer in geeigneter Weise präsentieren. Die Informa
tionspräsentation kann optisch, akustisch oder haptisch
erfolgen.
Ebenfalls kann es nützlich sein, wenn die Mittel zum Ver
arbeiten der erfassten Information diese an eine Aktorik
ausgeben. Es ist somit möglich, aktiv in den Fahrzeugzu
stand einzugreifen. Beispielsweise sind Eingriffe in die
Motorsteuerung, die Bremsen, die Kupplung oder die Alarm
anlage denkbar.
Vorzugsweise sind Mittel zum Erzeugen von Licht im infra
roten Spektralbereich vorgesehen, und das Licht kann über
die Sensoroptik in das Umfeld des Fahrzeugs ausgesendet
werden. Somit ist es möglich, auch bei nicht ausreichen
dem Umgebungslicht eine Erfassung des Fahrzeugumfeldes
durchzuführen. Zu diesem Zwecke müssen auch die optischen
Sensoren so ausgelegt sein, dass sie in der Lage sind,
eine Erfassung im infraroten Spektralbereich zu realisie
ren. Dies hat auch unabhängig von der separaten Erzeugung
von Licht im infraroten Spektralbereich den Vorteil, dass
infrarote Strahlung in der Umgebung ausgewertet werden
kann.
Da die Sensoroptik sowohl für das Erfassen des vom Umfeld
abgegebenen Lichtes als auch für das Aussenden des im
Fahrzeug erzeugten infraroten Lichtes verwendet werden
kann, ist eine besonders rationelle Anordnung gegeben.
LEDs können als kostengünstige Quellen für Licht im inf
raroten Spektralbereich herangezogen werden.
Besonders vorteilhaft ist es, wenn ein Imager-Chip vorge
sehen ist, welcher im nahen infraroten Spektralbereich
empfindlich ist. Auf diese Weise ist die Möglichkeit ei
ner Erfassung im infraroten Spektralbereich gegeben. Ver
wendet man einen solchen Imager-Chip beispielsweise in
Verbindung mit einer Paraboloidoptik, so wird auf dem
Imager-Chip eine annähernd kreisringförmige Abbildung er
zeugt. Dann wird vorteilhafter Weise nur dieser beleuch
tete Bereich des Imager-Chips aus lichtempfindlichem Ma
terial ausgelegt, wobei der übrige Bereich des Imager-
Chips zum Beispiel für die Auswertelogik verwendet werden
kann.
Vorzugsweise sind die Sensoren auf dem Dach eines Fahr
zeugs angeordnet. Hierdurch ist die Überwachung des ge
samten Fahrzeugumfeldes mit nur einer Kamera und/oder ei
nem Kamerapaar möglich. Es ist aber auch möglich, die
Sensoren im vorderen Fahrzeugbereich mit optionaler Er
gänzung durch eine weitere Kamera am Fahrzeugheck anzu
bringen. Dies kann beispielsweise Vorteile im Hinblick
auf die Funktion ACC Stop & Go haben. Auch die Anbringung
eines Stereokamerapaares am Fahrzeugheck ist denkbar, wo
bei es hier besonders sinnvoll ist, eine weitere Kamera
im vorderen Fahrzeugbereich anzubringen. Diese Anordnung
eignet sich besonderes für heckorientierte Anwendungen,
wie zum Beispiel für die Anwendung als Rückfahrkamera.
Besonders nützlich ist es, dass die Sensoren im Seitenbe
reich ein freies Sichtfeld haben. Bringt man die Sensoren
beispielsweise auf dem Fahrzeugdach nebeneinander an, so
deckt der eine Sensor das Gesichtsfeld des anderen Sen
sors in seitlicher Richtung ab. Hierdurch entstehen tote
Winkel im Seitenbereich des Fahrzeugs, welche besonders
problematisch sind. Diesem Umstand kann man begegnen, in
dem man die Sensoren versetzt anordnet, so dass im Sei
tenbereich des Fahrzeugs freie Sichtfelder vorliegen.
Dies ist besonders im Hinblick auf die Erfassung des to
ten Winkels des Gesichtsfelds des Fahrers sinnvoll.
Die Erfindung baut auf dem gattungsgemäßen Verfahren da
durch auf, dass die Eigenschaften optisch erfasst werden,
dass mindestens zwei Sensoren zum Erfassen der Eigen
schaften vorgesehen sind, dass die Sensoren im Weitwin
kelbereich arbeiten und dass die Mittel zum Verarbeiten
der erfassten Information räumliche Information ausgeben.
Der erfasste Winkel kann dabei eine Größe bis zur Rundum
sicht annehmen. Optische Sensoren haben gegenüber den an
deren genannten Sensoren den Vorteil, dass die Möglich
keit besteht, Objekte im Fahrzeugumfeld zu klassifizie
ren. Beispielsweise ist es möglich, zwischen einem Ge
genstand und einem belebten Objekt zu unterscheiden. Auf
grund der Tatsache, dass mindestens zwei Sensoren vorge
sehen sind, wird eine räumliche Erfassung des Fahrzeugum
felds ermöglicht. Die beiden optischen Sensoren wirken
als Stereokamerapaar. Aufgrund der Erfassung eines Weit
winkelbereichs der Sensoren, wobei die Sensoren grundsätzlich
unterschiedliche Eigenschaften haben können,
lässt sich ein großer Teil des Fahrzeugumfelds erfassen.
Aufgrund der Tatsache, dass die Mittel zum Verarbeiten
der erfassten Information räumliche Information ausgeben
kann eine Person, beispielsweise der Fahrer des Fahr
zeugs, detailliert über die Eigenschaften des Fahrzeugum
felds informiert werden. Die Verarbeitung in den Mitteln
zum Verarbeiten erfolgt mittels Algorithmen der digitalen
Bildverarbeitung und mit sonstigen Algorithmen zur Aus
wertung der Sensoren. Insgesamt erzielt man auf der
Grundlage der Erfindung eine Einsparung von Kosten, da
man auf eine Vielzahl von Einzelsensoren zur zufrieden
stellenden Erfassung des Umfeldes verzichten kann. Neben
der Einsparung einer Vielzahl von Einzelsensoren kann
auch die Systemkomplexität reduziert werden. Dies hat den
Grund, dass keine Vernetzung einer großen Anzahl von Sen
soren erforderlich ist.
Bevorzugt weist mindestens einer der Sensoren eine Fish
eye-Optik auf. Fisheye-Optiken sind geeignet, einen gro
ßen Raumwinkel zu erfassen, wobei dieser etwa im Bereich
von 220° liegt. Somit kann ein großer Teil des Umfelds
des Kraftfahrzeugs erfasst werden. Bei der Verwendung
mehrerer Sensoren ist es möglich, räumliche Information
über das gesamte Fahrzeugumfeld auszugeben.
Besonders vorteilhaft ist es, wenn mindestens einer der
Sensoren eine Optik zur Erfassung eines Sichtwinkels von
360° aufweist, insbesondere eine Parabol- oder Parabo
loidspiegelopitk.
Es ist bevorzugt, dass weitere Sensoren zum Erfassen wei
terer Eigenschaften des Umfelds vorgesehen sind, wobei
die den Eigenschaften entsprechende Information den Mit
teln zum Verarbeiten der erfassten Information zugeführt
werden. Das erfindungsgemäße Verfahren kann demnach die
Information aus zusätzlichen Informationsquellen verar
beiten. Dabei kommen unterschiedlichste Sensoren in Be
tracht, etwa auch Radar- oder Ultraschallsensoren. Eben
falls ist es denkbar, dass Informationen zur Verfügung
gestellt werden, welche nicht das Fahrzeugumfeld betref
fen. Beispielsweise können Lenkwinkelsensoren, Gierwin
kelsensoren, eine Überwachung der Fahrzeugschlösser und
Erschütterungssensoren als weitere Informationsquellen
für die erfindungsgemäße Anordnung in Betracht gezogen
werden.
Das Verfahren ist besonders vorteilhaft durchführbar,
wenn weitere optische Sensoren vorgesehen sind. Hierdurch
kann die Erfassung des Fahrzeugumfelds verbessert werden.
Beispielsweise können tote Winkel vermieden werden.
Ebenfalls ist es nützlich, dass das Verarbeiten der er
fassten Information in einem Controller erfolgt. Der
Controller ist in der Lage, sämtliche Informationen der
beteiligten Informationsquellen zu Erfassen, zu Verarbei
ten und entsprechende räumliche Informationen auszugeben.
Dabei bedient sich der Controller Algorithmen der digita
len Bildverarbeitung und sonstigen Algorithmen zur Aus
wertung der Sensoren.
Das erfindungsgemäße Verfahren ist in vorteilhafter Weise
dadurch weitergebildet, dass die verarbeitete Information
an ein Fahrerinformationssystem ausgegeben wird. Das Fah
rerinformationssystem kann die Informationen dem Fahrer
in geeigneter Weise präsentieren. Die Informationspräsen
tation kann optisch, akustisch oder haptisch erfolgen.
Weiterhin sind Vorteile dadurch gegeben, dass die verar
beitete erfasste Information an eine Aktorik ausgegeben
wird. Es ist somit möglich, aktiv in den Fahrzeugzustand
einzugreifen. Beispielsweise sind Eingriffe in die Mo
torsteuerung, die Bremsen, die Kupplung oder die Alarman
lage denkbar.
Das Verfahren ist ferner dadurch vorteilhaft, dass Licht
im infraroten Spektralbereich erzeugt wird und dass das
Licht über die Sensoroptik in das Umfeld des Fahrzeugs
ausgesendet wird. Somit ist es möglich, auch bei nicht
ausreichendem Umgebungslicht eine Erfassung des Fahrzeug
umfeldes durchzuführen. Zu diesem Zwecke müssen auch die
optischen Sensoren so ausgelegt sein, dass sie in der La
ge sind, eine Erfassung im infraroten Spektralbereich zu
realisieren. Dies hat auch unabhängig von der separaten
Erzeugung von Licht im infraroten Spektralbereich den
Vorteil, dass infrarote Strahlung in der Umgebung ausge
wertet werden kann. Die Aussendung des Lichtes im infra
roten Spektralbereich kann auch über andere Lichtquellen
beziehungsweise Optiken in das Umfeld erfolgen.
Der Erfindung liegt die überraschende Kenntnis zugrunde,
dass die gesamte Bandbreite der zur Verfügung stehenden
Algorithmen der digitalen Bildverarbeitung im Bereich der
Stereo-Umfeldvermessung angewendet werden kann. Insbeson
dere die Möglichkeit, das gesamte erfassbare Fahrzeugumfeld
dreidimensional zu vermessen, bietet zahlreiche Vor
teile. Basierend auf der Vermessung des Umfeldes können
beispielsweise Objekte erkannt, Verkehrszeichen klassifi
ziert, Fahrbahnbegrenzungen gefunden und Menschen im
Fahrzeugumfeld detektiert werden. Ebenfalls können mit
einem solchen System eine Vielzahl von Assistenten,
Diensten und Applikationen für den Fahrer zur Verfügung
gestellt werden. Denkbar sind Anwendungen aus dem Bereich
aktiven Fahrzeugsicherheit. Beispielsweise kann hier eine
Precrash-Sensorik, die Berechnung und Ausführung von
Brems- und Ausweichmanövern, Unterstützung von Stop & Go,
Fahrspurerkennung, ACC-Unterstützung und eine automati
sche Notbremse realisiert werden. Auch Assistenzsysteme
wie Verkehrszeichenerkennung und Einparkhilfe lassen sich
realisieren. Auf der Grundlage der vorliegenden Erfindung
lässt sich auch ein Sicherheitssystem unterstützen, wel
ches als Diebstahlwarngerät arbeitet. Hierzu erkennt der
Controller sich bewegende Objekte im Fahrzeugumfeld und
schlägt Alarm, falls ein nichtidentifizierbares Objekt
erscheint, welches versucht, das Fahrzeug zu öffnen.
Ebenfalls ist vorteilhaft zu nennen, dass sich mit der
optischen Information Objekte im Fahrzeugumfeld klassifi
zieren lassen. Auf dieser Grundlage können dem Fahrer
beispielsweise Videobilder nicht nur in direkter Form
sondern auch in modifizierter Form angezeigt werden. Bei
der modifizierten Anzeige können die Bilder beispielswei
se entzerrt werden, oder erkannte Objekte können je nach
ihrer Bedeutung hervorgehoben werden.
Die Erfindung wird nun mit Bezug auf die begleitenden
Zeichnungen anhand bevorzugter Ausführungsformen bei
spielhaft erläutert.
Dabei zeigt:
Fig. 1 eine Draufsicht auf ein Kraftfahrzeug mit einem
Sensor;
Fig. 2 eine Draufsicht auf ein Kraftfahrzeug mit zwei
Sensoren;
Fig. 3 eine weitere Draufsicht auf ein Fahrzeug mit
zwei Sensoren;
Fig. 4 eine Draufsicht auf ein Fahrzeug mit beispiel
haften Anordnungen von Sensoren;
Fig. 5 ein Blockschaltbild zur Erläuterung einer er
findungsgemäßen Anordnung;
Fig. 6 eine schematische Darstellung einer speziellen
Optik für eine erfindungsgemäße Anordnung; und
Fig. 7 eine weitere schematische Darstellung einer
speziellen Optik für eine erfindungsgemäße An
ordnung.
In Fig. 1 ist eine Draufsicht auf ein Kraftfahrzeug 10
dargestellt. Auf dem Dach 48 des Kraftfahrzeugs 10 ist
ein optischer Sensor 12 angeordnet. Der Sensor 12 hat ein
Gesichtsfeld 50 von 360°. Die Darstellung des Gesichts
felds 50 ist nicht maßstabsgetreu. Mit einem einzelnen
optischen Sensor 12 lässt sich ein zweidimensionales Bild
erzeugen, so dass eine räumliche Auflösung des Fahrzeug
umfelds mit einer Anordnung gemäß Fig. 1 nicht möglich
ist.
In Fig. 2 ist ein Kraftfahrzeug 10 mit zwei Sensoren 14,
16 dargestellt, welche auf dem Dach 48 des Fahrzeugs 10
angeordnet sind.
Fig. 3 zeigt ebenfalls ein Fahrzeug 10 mit zwei Sensoren
18, 20 auf dem Fahrzeugdach 48, wobei hier zusätzlich
durch Kreise 52, 54 dargestellt ist, dass beide Sensoren
18, 20 einen Öffnungswinkel von 360° haben. Da die beiden
Sensoren 18, 20 einen Abstand zueinander aufweisen, sind
auch die Gesichtsfelder der beiden Sensoren 18, 20, wel
che durch die Kreise 52, 54 symbolisiert sind, gegenein
ander versetzt. Im Schnittbereich der beiden Kreise 52,
54 ist eine Stereovermessung des Umfeldes möglich. Folg
lich erlaubt die Anordnung gemäß Fig. 3 zahlreiche An
wendungen, bei denen es auf eine räumliche Auflösung an
kommt. Auf der Achse der Verbindungslinie zwischen den
Sensoren 18, 20 kommt es aufgrund der gegenseitigen Ab
schattung zu toten Winkeln 56, 58 im seitlichen Bereich
des Fahrzeugs. In diesen toten Winkeln ist keine Stereovermessung
möglich, da jeweils eine der Kameras 18, 20
abgeschattet ist.
Fig. 4 zeigt unter anderem eine Möglichkeit, diese seit
liche Abschattung zu vermeiden. In einer Draufsicht sind
die Anordnungen mehrerer Sensoren 22, 24, 26, 28, 30, 32,
34 auf einem Kraftfahrzeug 10 dargestellt. Durch die An
ordnung der beiden Sensoren 22, 24, welche zusätzlich zu
den anderen dargestellten Sensoren 26, 28, 30, 32, 34 o
der ohne diese vorgesehen sein können, lässt sich eine
seitliche Abschattung vermeiden. Somit kann durch das
versetzte Anordnen der Sensoren 22, 24 auch im Seitenbe
reich des Kraftfahrzeugs 10 eine Stereovermessung statt
finden. Dies ist insbesondere in Hinblick auf die Erfas
sung des toten Winkels bezüglich des Gesichtsfeldes des
Fahrers nützlich. Beispielhaft sind zwei weitere Kameras
26, 28 im vorderen Bereich des Kraftfahrzeugs gezeigt,
welche in vorteilhafter Weise mit einem Sensor 34 am Heck
des Kraftfahrzeugs kombiniert werden. Mit einer solchen
Anordnung lässt sich besonders gut eine Steuerung für ACC
Stop & Go realisieren. Zusätzlich ist zu erwähnen, dass
durch die Verwendung von drei Kameras, das heißt einer
zusätzlichen Kamera im Vergleich zu den Ausführungsformen
gemäß Fig. 2 und Fig. 3, die dreidimensionale Modellie
rung des Fahrzeugumfelds noch verbessert werden kann. In
ähnlicher Weise besteht die Möglichkeit, weitere Kameras
30, 32 am Heck des Kraftfahrzeugs 10 anzuordnen, wobei
dies für Anwendungen besonders geeignet ist, die das
Heckfeld erfassen sollen. Auch diese Kameras 30, 32 kön
nen mit weiteren Kameras beispielsweise im vorderen Be
reich des Kraftfahrzeugs 10 kombiniert werden.
Fig. 5 zeigt ein Blockschaltbild zur Erläuterung der
vorliegenden Erfindung. Es sind beispielhaft drei Kameras
26, 28, 34 vorgesehen, welche beispielsweise im vorderen
Bereich und im Heckbereich eines Kraftfahrzeugs angeord
net sind. Jede dieser Kameras ist mit einer Optik 38 aus
gestattet. Die von den Kameras 26, 28, 34 erfassten In
formationen werden einem Controller 36 übermittelt. Dem
Controller 36 können ferner Informationen von weiteren
Informationsquellen 60 übertragen werden, beispielsweise
von einem Lenkwinkelsensor. Der Controller 36 verarbeitet
diese Informationen unter Verwendung von Algorithmen der
digitalen Bildverarbeitung und sonstiger Algorithmen zur
Auswertung der Information des Sensors 60. Die Ergebnisse
dieser Auswertungen werden an ein Fahrzeuginformations
system 40 ausgegeben. Dieses kann die Informationen einem
Fahrer in geeigneter Weise präsentieren. Die Informati
onspräsentation kann optisch, akustisch oder haptisch er
folgen. Der Controller 36 kann auch aktiv in den Fahr
zeugzustand eingreifen, indem er eine oder mehrere Akto
riken 42 ansteuert. Dabei sind Eingriffe in die Mo
torsteuerung, die Bremse, die Kupplung oder eine Alarman
lage denkbar, um nur einige Beispiele zu nennen.
In Fig. 4 ist die Optik eines Sensors für eine erfin
dungsgemäße Anordnung schematisch dargestellt. Es ist
beispielhaft eine Paraboloidspiegelopitk 38 vorgesehen,
welche ein im wesentlichen ringförmiges Bild erzeugt.
Dieses Bild wird auf ein Imager-Chip 46 projiziert. Im
unteren Teil der Figur ist der Imager-Chip 46 mit dem
ringförmigen Bereich 62 dargestellt. Vorzugsweise werden
die Bereiche, welche innerhalb des ringförmigen Bereiches
62 liegen und welche außerhalb des ringförmigen Bereiches
62 liegen für andere Aufgaben verwendet, beispielsweise
für eine Auswertelogik.
In Fig. 7 ist ebenfalls eine Optik dargestellt, welche
im Rahmen der vorliegenden Erfindung Verwendung finden
kann. Wiederum handelt es sich um eine Paraboloidspiege
loptik 38. In diesem Beispiel gemäß Fig. 7 wird die Pa
raboloidspiegeloptik 38 dazu benutzt, Licht, welches von
einer LED 64 erzeugt wird, in das Umfeld abzustrahlen.
Somit findet eine Beleuchtung es Umfelds statt. Dieselbe
beispielhafte Paraboloidspiegeloptik 38 wird dann zur
Aufnahme der Bilder des Umfeldes verwendet. Es ist beson
ders vorteilhaft, wenn die LED 64 in der Lage ist, Licht
abzustrahlen, welches im infraroten Spektralbereich
liegt. Damit ist eine Ausleuchtung einer Umgebungsszene
bei Nacht möglich, wobei die Detektion von einfallendem
infraroten Licht auch unabhängig von der Lichtquelle 64
erfolgen kann.
Die vorhergehende Beschreibung der Ausführungsbeispiele
gemäß der vorliegenden Erfindung dient nur zu illustrati
ven Zwecken und nicht zum Zwecke der Beschränkung der Er
findung. Im Rahmen der Erfindung sind verschiedene Ände
rungen und Modifikationen möglich, ohne den Umfang der
Erfindung sowie die Äquivalente zu verlassen.
Claims (21)
1. Anordnung zur Überwachung des Umfelds eines Fahrzeugs
(10) mit
Sensoren (14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) zum Erfassen von Eigenschaften des Umfelds und
Mitteln (36) zum Verarbeiten der erfassten Informati on,
dadurch gekennzeichnet,
dass die Sensoren (14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) optische Sensoren sind,
dass mindestens zwei Sensoren (14, 1618, 2022, 24) vorgesehen sind,
dass die Sensoren (14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) im Weitwinkelbereich arbeiten und
dass die Mittel (36) zum Verarbeiten der erfassten Information räumliche Information ausgeben.
Sensoren (14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) zum Erfassen von Eigenschaften des Umfelds und
Mitteln (36) zum Verarbeiten der erfassten Informati on,
dadurch gekennzeichnet,
dass die Sensoren (14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) optische Sensoren sind,
dass mindestens zwei Sensoren (14, 1618, 2022, 24) vorgesehen sind,
dass die Sensoren (14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) im Weitwinkelbereich arbeiten und
dass die Mittel (36) zum Verarbeiten der erfassten Information räumliche Information ausgeben.
2. Anordnung nach Anspruch 1, dadurch gekennzeichnet,
dass mindestens einer der Sensoren eine Fisheye-Optik
aufweist.
3. Anordnung nach Anspruch 1 oder 2, dadurch gekennzeich
net, dass mindestens einer der Sensoren (18, 20) eine Op
tik zur Erfassung eines Sichtwinkels von 360°, insbeson
dere eine Parabol- oder Paraboloidspiegeloptik (38) auf
weist.
4. Anordnung nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, dass weitere Sensoren (26, 28, 30,
32, 34) zum Erfassen weiterer Eigenschaften des Umfelds
vorgesehen sind, wobei die den Eigenschaften entsprechen
de Information den Mitteln (36) zum Verarbeiten der er
fassten Information zuführbar ist.
5. Anordnung nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, dass weitere optischen Sensoren
(26, 28, 30, 32, 34) vorgesehen sind.
6. Anordnung nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, dass die Mittel (36) zum Verarbei
ten der erfassten Information einen Controller aufweisen.
7. Anordnung nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, dass die Mittel (36) zum Verarbei
ten der erfassten Information diese an ein
Fahrerinformationssystem (40) ausgeben.
8. Anordnung nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, dass die Mittel (36) zum Verarbei
ten der erfassten Information diese an eine Aktorik (42)
ausgeben.
9. Anordnung nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet,
dass Mittel (64) zum Erzeugen von Licht im infraroten
Spektralbereich vorgesehen sind und
dass das Licht über die Sensoroptik (38) in das Um
feld des Fahrzeugs (10) ausgesendet wird.
10. Anordnung nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, dass ein Imager-Chip (46) vorgese
hen ist, welcher im nahen Infrarotspektralbereich emp
findlich ist.
11. Anordnung nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, dass die Sensoren (14, 16, 18, 20,
22, 24) auf dem Dach (48) eines Fahrzeugs (10) angeordnet
sind.
12. Anordnung nach einem der vorangehenden Ansprüche, da
durch gekennzeichnet, dass die Sensoren (22, 24) im Sei
tenbereich des Fahrzeugs (10) ein freies Sichtfeld haben.
13. Verfahren zur Überwachung des Umfelds eines Fahrzeugs
(10) mit den Schritten:
Erfassen von Eigenschaften des Umfelds und
Verarbeiten der erfassten Information,
dadurch gekennzeichnet,
dass die Eigenschaften optisch erfasst werden,
dass mindestens zwei Sensoren (14, 16, 18, 20, 22, 24) zum Erfassen der Eigenschaften vorgesehen sind,
dass die Sensoren (14, 16, 18, 20, 22, 24) im Weit winkelbereich arbeiten und
dass die Mittel zum Verarbeiten der erfassten Infor mation räumliche Information ausgeben.
Erfassen von Eigenschaften des Umfelds und
Verarbeiten der erfassten Information,
dadurch gekennzeichnet,
dass die Eigenschaften optisch erfasst werden,
dass mindestens zwei Sensoren (14, 16, 18, 20, 22, 24) zum Erfassen der Eigenschaften vorgesehen sind,
dass die Sensoren (14, 16, 18, 20, 22, 24) im Weit winkelbereich arbeiten und
dass die Mittel zum Verarbeiten der erfassten Infor mation räumliche Information ausgeben.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet,
dass mindestens einer der Sensoren eine Fisheye-Optik
aufweist.
15. Verfahren nach Anspruch 13 oder 14, dadurch gekenn
zeichnet, dass mindestens einer der Sensoren (18, 20) ei
ne Optik zur Erfassung eines Sichtwinkels von 360°, ins
besondere eine Parabol- oder Paraboloidspiegeloptik auf
weist.
16. Verfahren nach einem der Ansprüche 13 bis 15, dadurch
gekennzeichnet, dass weitere Sensoren (26, 28, 30, 32,
34) zum Erfassen weiterer Eigenschaften des Umfelds vor
gesehen sind, wobei die den Eigenschaften entsprechende
Information den Mitteln (36) zu verarbeiten der erfassten
Information zugeführt werden.
17. Verfahren nach einem der Ansprüche 13 bis 16, dadurch
gekennzeichnet, dass weitere optische Sensoren (26, 28,
30, 32, 34) vorgesehen sind.
18. Verfahren nach einem der Ansprüche 13 bis 17, dadurch
gekennzeichnet, dass das Verarbeiten der erfassten Infor
mation in einem Controller (36) erfolgt.
19. Verfahren nach einem der Ansprüche 13 bis 18, dadurch
gekennzeichnet, dass die Verarbeitete erfasste Informati
on an ein Fahrerinformationssystem (40) ausgegeben wird.
20. Verfahren nach einem der Ansprüche 13 bis 19, dadurch
gekennzeichnet, dass die verarbeitete erfasste Informati
on an ein Aktorik (42) ausgegeben wird.
21. Verfahren nach einem der Ansprüche 13 bis 20, dadurch
gekennzeichnet,
dass Licht im infraroten Spektralbereich erzeugt wird und
dass das Licht über die Sensoroptik (38) in das Um feld des Fahrzeugs (10) ausgesendet wird.
dass Licht im infraroten Spektralbereich erzeugt wird und
dass das Licht über die Sensoroptik (38) in das Um feld des Fahrzeugs (10) ausgesendet wird.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10059313A DE10059313A1 (de) | 2000-11-29 | 2000-11-29 | Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs |
PCT/DE2001/003931 WO2002043982A1 (de) | 2000-11-29 | 2001-10-13 | Anordnung und verfahren zur überwachung des umfelds eines fahrzeugs |
DE50112771T DE50112771D1 (de) | 2000-11-29 | 2001-10-13 | Anordnung zur überwachung des umfelds eines fahrzeugs |
JP2002545938A JP3844737B2 (ja) | 2000-11-29 | 2001-10-13 | 車両の周囲を監視するための方法及び装置 |
US10/432,883 US7362215B2 (en) | 2000-11-29 | 2001-10-13 | System and method for monitoring the surroundings of a vehicle |
EP01998458A EP1339561B1 (de) | 2000-11-29 | 2001-10-13 | Anordnung zur überwachung des umfelds eines fahrzeugs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10059313A DE10059313A1 (de) | 2000-11-29 | 2000-11-29 | Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10059313A1 true DE10059313A1 (de) | 2002-06-13 |
Family
ID=7665142
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10059313A Ceased DE10059313A1 (de) | 2000-11-29 | 2000-11-29 | Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs |
DE50112771T Expired - Lifetime DE50112771D1 (de) | 2000-11-29 | 2001-10-13 | Anordnung zur überwachung des umfelds eines fahrzeugs |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE50112771T Expired - Lifetime DE50112771D1 (de) | 2000-11-29 | 2001-10-13 | Anordnung zur überwachung des umfelds eines fahrzeugs |
Country Status (5)
Country | Link |
---|---|
US (1) | US7362215B2 (de) |
EP (1) | EP1339561B1 (de) |
JP (1) | JP3844737B2 (de) |
DE (2) | DE10059313A1 (de) |
WO (1) | WO2002043982A1 (de) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10227221A1 (de) * | 2002-06-18 | 2004-01-15 | Daimlerchrysler Ag | Verfahren zur Überwachung des Innen- bzw. Außenraums eines Fahrzeugs sowie ein Fahrzeug mit wenigstens einer Rundsichtkamera |
DE10300612A1 (de) * | 2003-01-10 | 2004-07-22 | Hella Kg Hueck & Co. | Nachtsichtsystem für Kraftfahrzeuge |
EP1441528A1 (de) * | 2001-10-10 | 2004-07-28 | Matsushita Electric Industrial Co., Ltd. | Bildprozessor |
DE10326001A1 (de) * | 2003-02-26 | 2004-09-09 | Volkswagen Ag | Verfahren und Einrichtung zur Ansteuerung einer Sicherheitseinrichtung bei einem Kraftfahrzeug |
DE10310698A1 (de) * | 2003-03-12 | 2004-09-23 | Valeo Schalter Und Sensoren Gmbh | Optisches Erfassungssystem für Kraftfahrzeuge |
DE102004027693A1 (de) * | 2004-04-08 | 2005-10-27 | Daimlerchrysler Ag | Verfahren zum Steuern von Insassenrückhaltemitteln und Steuereinheit für Insassenrückhaltemittel in einem Fahrzeug |
DE102005006287A1 (de) * | 2005-02-11 | 2006-08-17 | Bayerische Motoren Werke Ag | Verfahren und Vorrichtung zum Überwachen des Umfelds eines Fahrzeugs |
DE102004046101A1 (de) * | 2004-09-23 | 2006-09-21 | Daimlerchrysler Ag | Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen |
DE102006052083A1 (de) * | 2006-11-04 | 2008-05-08 | Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr | Verfahren und Vorrichtung zur Umfeldüberwachung eines Fahrzeuges |
DE102009057336A1 (de) | 2008-12-12 | 2010-07-22 | Technische Universität München | Vorrichtung zur Überwachung eines Raumbereichs außerhalb eines Fahrzeugs |
DE102010064080A1 (de) | 2010-12-23 | 2012-06-28 | Robert Bosch Gmbh | Kameraabasiertes Fahrerassistenzsystem für ein Fahrzeug |
DE102012000630A1 (de) * | 2012-01-14 | 2013-07-18 | Volkswagen Aktiengesellschaft | System zur Erfassung eines Hindernisses für ein Fahrzeug |
DE102013210591A1 (de) * | 2013-06-07 | 2014-12-11 | Continental Automotive Gmbh | Bewegungserkennung eines fahrzeugs mittels mehrerer kameras |
DE102004045813B4 (de) * | 2004-09-22 | 2017-09-28 | Robert Bosch Gmbh | System und Verfahren für ein vorrausschauendes Detektieren einer Unfallgefahrensituation |
EP3123097B1 (de) | 2014-03-28 | 2018-05-09 | Safran Electronics & Defense | Optoelektronischer geschützturm |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1497160B2 (de) * | 2002-04-19 | 2010-07-21 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | Sicherheitsvorrichtung für ein fahrzeug |
GB0213464D0 (en) | 2002-06-12 | 2002-07-24 | Black & Decker Inc | Hammer |
DE10251949A1 (de) * | 2002-11-08 | 2004-05-19 | Robert Bosch Gmbh | Fahrdynamikregelung mit Bildsensorsystem |
JP4453514B2 (ja) * | 2004-06-09 | 2010-04-21 | 日産自動車株式会社 | 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両 |
DE102005046019A1 (de) * | 2005-09-26 | 2007-04-05 | Hella Kgaa Hueck & Co. | Überwachungseinrichtung für den Innenraum eines Kraftfahrzeugs |
US7348538B2 (en) * | 2006-02-03 | 2008-03-25 | Ge Infrastructure Sensing, Inc. | Methods and systems for detecting proximity of an object |
US7407323B2 (en) * | 2006-02-03 | 2008-08-05 | Ge Infrastructure Sensing Inc. | Methods and systems for determining temperature of an object |
EP2008245A4 (de) * | 2006-04-04 | 2013-01-23 | Bae Sys Inf & Elect Sys Integ | Verfahren und vorrichtung zum schutz von truppen |
DE102006047634A1 (de) * | 2006-10-09 | 2008-04-10 | Robert Bosch Gmbh | Verfahren zum Erfassen eines Umfelds eines Fahrzeugs |
US20090115847A1 (en) * | 2007-11-07 | 2009-05-07 | Anderson Leroy E | Electronic automobile proximity viewer |
EP2070774B1 (de) | 2007-12-14 | 2012-11-07 | SMR Patents S.à.r.l. | Sicherheitssystem und Verfahren zur Ableitung eines Sicherheitssignals |
ES2446591T3 (es) * | 2008-04-18 | 2014-03-10 | Bae Systems Plc | Mejoras en LIDARS |
JP5444338B2 (ja) * | 2009-05-25 | 2014-03-19 | パナソニック株式会社 | 車両周囲監視装置 |
JP5503259B2 (ja) * | 2009-11-16 | 2014-05-28 | 富士通テン株式会社 | 車載照明装置、画像処理装置及び画像表示システム |
US8384534B2 (en) * | 2010-01-14 | 2013-02-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | Combining driver and environment sensing for vehicular safety systems |
US10643467B2 (en) | 2010-03-28 | 2020-05-05 | Roadmetric Ltd. | System and method for detecting and recording traffic law violation events |
JP5269026B2 (ja) * | 2010-09-29 | 2013-08-21 | 日立建機株式会社 | 作業機械の周囲監視装置 |
US8836784B2 (en) | 2010-10-27 | 2014-09-16 | Intellectual Ventures Fund 83 Llc | Automotive imaging system for recording exception events |
KR101315218B1 (ko) * | 2011-08-02 | 2013-10-08 | 엘지전자 주식회사 | 단말기 및 그 단말기에서 신호등의 신호 정보를 출력하기 위한 방법 |
DE102011109459A1 (de) * | 2011-08-04 | 2013-02-07 | Man Truck & Bus Ag | Verfahren zum Erfassen von Objekten seitlich eines Nutzfahrzeugs und Nutzfahrzeug mit einem Erfassungssystem zum Ausführen des Verfahrens |
GB2494414A (en) * | 2011-09-06 | 2013-03-13 | Land Rover Uk Ltd | Terrain visualisation for vehicle using combined colour camera and time of flight (ToF) camera images for augmented display |
SE536586C2 (sv) * | 2012-07-02 | 2014-03-11 | Scania Cv Ab | Anordning och förfarande för att bedöma olycksrisk vid framförande av ett fordon |
PL2789741T5 (pl) * | 2013-04-12 | 2019-05-31 | Voegele Ag J | Wykańczarka z urządzeniem termograficznym |
DE102014211543A1 (de) | 2013-06-21 | 2014-12-24 | Ifm Electronic Gmbh | Verfahren und Anordnung zur Erkennung von Gesten in einer Fahrzeugumgebung |
DE102014013431A1 (de) | 2014-09-10 | 2016-03-24 | Audi Ag | Verfahren zum Betreiben eines Kraftwagens und Kraftwagen |
JP6623729B2 (ja) * | 2015-12-04 | 2019-12-25 | 株式会社ソシオネクスト | 測距システム、移動体及び部品 |
DE102018002177A1 (de) * | 2018-03-14 | 2019-09-19 | 3Dvisionlabs Gmbh | System zur visuellen dreidimensionalen Überwachung von Räumen |
CN111315938A (zh) * | 2018-03-20 | 2020-06-19 | 住友建机株式会社 | 挖土机 |
US10656647B2 (en) * | 2018-06-27 | 2020-05-19 | Aptiv Technologies Limited | Verification of vehicle operator awareness before transition from autonomous-mode to manual-mode |
KR20210030523A (ko) * | 2019-09-09 | 2021-03-18 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5675326A (en) * | 1990-04-11 | 1997-10-07 | Auto-Sense, Ltd. | Method of determining optimal detection beam locations using reflective feature mapping |
FR2674198B1 (fr) | 1991-03-22 | 1993-05-28 | Renault | Procede et dispositif d'amelioration de la vision automobile de nuit. |
US5381072A (en) | 1992-02-25 | 1995-01-10 | Varian Associates, Inc. | Linear accelerator with improved input cavity structure and including tapered drift tubes |
US6150930A (en) | 1992-08-14 | 2000-11-21 | Texas Instruments Incorporated | Video equipment and method to assist motor vehicle operators |
US5670935A (en) | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
JPH0668989U (ja) * | 1993-03-12 | 1994-09-27 | クラリオン株式会社 | 後方監視カメラシステム |
JPH07159190A (ja) * | 1993-12-09 | 1995-06-23 | Zanabui Informatics:Kk | 車載用音響装置統合システム |
JP3431678B2 (ja) * | 1994-02-14 | 2003-07-28 | 三菱自動車工業株式会社 | 車両用周囲状況表示装置 |
US5473364A (en) * | 1994-06-03 | 1995-12-05 | David Sarnoff Research Center, Inc. | Video technique for indicating moving objects from a movable platform |
FR2730035B1 (fr) | 1995-01-30 | 1997-04-18 | Valeo Vision | Projecteur infrarouge pour systeme d'aide a la vision pour vehicule automobile et systeme d'aide a la vision le comportant |
JP3630833B2 (ja) * | 1996-03-28 | 2005-03-23 | 富士重工業株式会社 | 車輛の外界監視装置用カメラ |
JPH11205817A (ja) * | 1998-01-13 | 1999-07-30 | Nippon Hoso Kyokai <Nhk> | 広視野画像作成・表示システム |
DE19801884A1 (de) | 1998-01-20 | 1999-07-22 | Mannesmann Vdo Ag | Überwachungssystem für Fahrzeuge |
JP3600422B2 (ja) * | 1998-01-30 | 2004-12-15 | 株式会社リコー | ステレオ画像表示方法及び装置 |
JP4184485B2 (ja) | 1998-07-01 | 2008-11-19 | 株式会社東海理化電機製作所 | カメラ付ドアミラー及び車両周辺認識システム |
JP3327255B2 (ja) | 1998-08-21 | 2002-09-24 | 住友電気工業株式会社 | 安全運転支援システム |
JP2000225970A (ja) * | 1998-11-30 | 2000-08-15 | Tuner Kk | 車載用画像記録システム |
DE19932779A1 (de) | 1999-07-14 | 2001-01-25 | Daimler Chrysler Ag | Rückfahrhilfe |
AU2001259640A1 (en) * | 2000-05-08 | 2001-11-20 | Automotive Technologies International, Inc. | Vehicular blind spot identification and monitoring system |
JP3627914B2 (ja) * | 2000-05-23 | 2005-03-09 | シャープ株式会社 | 車両の周囲監視システム |
-
2000
- 2000-11-29 DE DE10059313A patent/DE10059313A1/de not_active Ceased
-
2001
- 2001-10-13 JP JP2002545938A patent/JP3844737B2/ja not_active Expired - Fee Related
- 2001-10-13 US US10/432,883 patent/US7362215B2/en not_active Expired - Lifetime
- 2001-10-13 EP EP01998458A patent/EP1339561B1/de not_active Expired - Lifetime
- 2001-10-13 DE DE50112771T patent/DE50112771D1/de not_active Expired - Lifetime
- 2001-10-13 WO PCT/DE2001/003931 patent/WO2002043982A1/de active IP Right Grant
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1441528A1 (de) * | 2001-10-10 | 2004-07-28 | Matsushita Electric Industrial Co., Ltd. | Bildprozessor |
EP1441528A4 (de) * | 2001-10-10 | 2005-01-12 | Matsushita Electric Ind Co Ltd | Bildprozessor |
DE10227221A1 (de) * | 2002-06-18 | 2004-01-15 | Daimlerchrysler Ag | Verfahren zur Überwachung des Innen- bzw. Außenraums eines Fahrzeugs sowie ein Fahrzeug mit wenigstens einer Rundsichtkamera |
DE10300612A1 (de) * | 2003-01-10 | 2004-07-22 | Hella Kg Hueck & Co. | Nachtsichtsystem für Kraftfahrzeuge |
DE10326001A1 (de) * | 2003-02-26 | 2004-09-09 | Volkswagen Ag | Verfahren und Einrichtung zur Ansteuerung einer Sicherheitseinrichtung bei einem Kraftfahrzeug |
DE10326001B4 (de) * | 2003-02-26 | 2014-02-13 | Volkswagen Ag | Verfahren und Einrichtung zur Ansteuerung einer Sicherheitseinrichtung bei einem Kraftfahrzeug |
DE10310698A1 (de) * | 2003-03-12 | 2004-09-23 | Valeo Schalter Und Sensoren Gmbh | Optisches Erfassungssystem für Kraftfahrzeuge |
DE102004027693A1 (de) * | 2004-04-08 | 2005-10-27 | Daimlerchrysler Ag | Verfahren zum Steuern von Insassenrückhaltemitteln und Steuereinheit für Insassenrückhaltemittel in einem Fahrzeug |
DE102004045813B4 (de) * | 2004-09-22 | 2017-09-28 | Robert Bosch Gmbh | System und Verfahren für ein vorrausschauendes Detektieren einer Unfallgefahrensituation |
DE102004046101A1 (de) * | 2004-09-23 | 2006-09-21 | Daimlerchrysler Ag | Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen |
DE102004046101B4 (de) * | 2004-09-23 | 2007-01-18 | Daimlerchrysler Ag | Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen |
DE102005006287A1 (de) * | 2005-02-11 | 2006-08-17 | Bayerische Motoren Werke Ag | Verfahren und Vorrichtung zum Überwachen des Umfelds eines Fahrzeugs |
US8031907B2 (en) | 2005-02-11 | 2011-10-04 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for monitoring vehicle surroundings |
DE102006052083A1 (de) * | 2006-11-04 | 2008-05-08 | Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr | Verfahren und Vorrichtung zur Umfeldüberwachung eines Fahrzeuges |
DE102006052083B4 (de) * | 2006-11-04 | 2009-06-10 | Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr | Verfahren und Vorrichtung zur Umfeldüberwachung eines Fahrzeuges |
DE102009057336A1 (de) | 2008-12-12 | 2010-07-22 | Technische Universität München | Vorrichtung zur Überwachung eines Raumbereichs außerhalb eines Fahrzeugs |
DE102010064080A1 (de) | 2010-12-23 | 2012-06-28 | Robert Bosch Gmbh | Kameraabasiertes Fahrerassistenzsystem für ein Fahrzeug |
DE102012000630A1 (de) * | 2012-01-14 | 2013-07-18 | Volkswagen Aktiengesellschaft | System zur Erfassung eines Hindernisses für ein Fahrzeug |
DE102012000630B4 (de) * | 2012-01-14 | 2020-08-13 | Volkswagen Aktiengesellschaft | System zur Erfassung eines Hindernisses für ein Fahrzeug sowie Fahrzeug mit einem System zur Erfassung eines Hindernisses |
DE102013210591A1 (de) * | 2013-06-07 | 2014-12-11 | Continental Automotive Gmbh | Bewegungserkennung eines fahrzeugs mittels mehrerer kameras |
EP3123097B1 (de) | 2014-03-28 | 2018-05-09 | Safran Electronics & Defense | Optoelektronischer geschützturm |
Also Published As
Publication number | Publication date |
---|---|
WO2002043982A1 (de) | 2002-06-06 |
EP1339561B1 (de) | 2007-07-25 |
JP2004514384A (ja) | 2004-05-13 |
DE50112771D1 (de) | 2007-09-06 |
EP1339561A1 (de) | 2003-09-03 |
US7362215B2 (en) | 2008-04-22 |
US20040075544A1 (en) | 2004-04-22 |
JP3844737B2 (ja) | 2006-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10059313A1 (de) | Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs | |
DE60020420T2 (de) | Situationsdarstellungs-Anzeigesystem | |
EP2427855B1 (de) | Verfahren zur darstellung von objekten aus der umgebung eines fahrzeugs auf der anzeige einer anzeigevorrichtung | |
DE60124345T2 (de) | Bildzusammensetzungssystem und -verfahren | |
DE60126382T2 (de) | Verfahren und Gerät zur Erkennung von Gegenständen | |
DE102017113572A1 (de) | Spurerkennungssysteme und -verfahren | |
EP2455250B1 (de) | Verfahren zur Erfassung der Umgebung eines Fahrzeugs | |
DE102020002994B4 (de) | Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung | |
EP1567888B1 (de) | Verfahren zur erfassung der vorausliegenden umgebung eines strassenfahrzeugs mittels eines umgebungserfassungssystems | |
DE102007019491B4 (de) | Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm | |
DE102006010295B4 (de) | Kamerasystem mit zumindest zwei Bildaufnehmern | |
DE102017115318A1 (de) | Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität | |
EP1506893A2 (de) | Kraftfahrzeug mit Erfassung und Analyse der Objekten in dem Umfeld des Fahrzeugs | |
DE102008001991A1 (de) | System zur Vermeidung von Seitenkollisionen | |
DE102009029439A1 (de) | Verfahren und Vorrichtung zur Darstellung von Hindernissen in einem Einparkhilfesystem von Kraftfahrzeugen | |
DE102012223481A1 (de) | Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs | |
EP1628141A1 (de) | Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge | |
DE102009014437B4 (de) | Objekterkennungssystem und -verfahren | |
DE102007013664A1 (de) | Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger | |
EP3078015B1 (de) | Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung | |
WO2019201537A1 (de) | Verfahren und steuergerät zum kennzeichnen einer person | |
DE102009007408A1 (de) | Vorrichtung zur Umfelderfassung eines Kraftfahrzeugs | |
DE102012018556B4 (de) | Assistenzsystem zur Ermöglichung einer erweiterten Vorausschau für nachfolgende Verkehrsteilnehmer | |
DE102019116058A1 (de) | Verfahren und vorrichtung zur objekterkennung in kamera-blindzonen | |
DE102005056976A1 (de) | Einrichtung zur Umfelderfassung für ein Fahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |