DE10059313A1 - Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs - Google Patents

Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs

Info

Publication number
DE10059313A1
DE10059313A1 DE10059313A DE10059313A DE10059313A1 DE 10059313 A1 DE10059313 A1 DE 10059313A1 DE 10059313 A DE10059313 A DE 10059313A DE 10059313 A DE10059313 A DE 10059313A DE 10059313 A1 DE10059313 A1 DE 10059313A1
Authority
DE
Germany
Prior art keywords
sensors
information
vehicle
processing
arrangement according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10059313A
Other languages
English (en)
Inventor
Holger Janssen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE10059313A priority Critical patent/DE10059313A1/de
Priority to PCT/DE2001/003931 priority patent/WO2002043982A1/de
Priority to DE50112771T priority patent/DE50112771D1/de
Priority to JP2002545938A priority patent/JP3844737B2/ja
Priority to US10/432,883 priority patent/US7362215B2/en
Priority to EP01998458A priority patent/EP1339561B1/de
Publication of DE10059313A1 publication Critical patent/DE10059313A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

Die Erfindung betrifft eine Anordnung zur Überwachung des Umfelds eines Fahrzeugs (10) mit Sensoren (12, 14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) zum Erfassen von Eigenschaften des Umfelds und Mitteln (36) zum Verarbeiten der erfassten Information, wobei die Sensoren (12, 14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) optische Sensoren sind, mindestens zwei Sensoren (14, 16, 18, 20, 22, 24) vorgesehen sind, die Sensoren (12, 14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) im Weitwinkelbereich arbeiten und die Mittel (36) zum Verarbeiten der erfassten Informationen räumliche Informationen ausgeben. Die Erfindung betrifft ferner ein Verfahren zur Überwachung des Umfelds eines Fahrzeugs.

Description

Die Erfindung betrifft eine Anordnung zur Überwachung des Umfelds eines Fahrzeugs mit Sensoren zum Erfassen von Ei­ genschaften des Umfelds und Mitteln zum Verarbeiten der erfassten Information. Die Erfindung betrifft ferner ein Verfahren zur Überwachung des Umfelds eines Fahrzeugs mit den Schritten: Erfassen von Eigenschaften des Umfelds und Verarbeiten der erfassten Information.
Stand der Technik
Zur Überwachung des Umfelds eines Fahrzeugs sind zahlrei­ che Systeme bekannt. Derartige Systeme dienen beispiels­ weise der Realisierung einer Unfallverhütung ("Pre­ crash"), einer automatischen Fahrsteuerung ("Automatic Cruise Control" (ACC)) oder auch der Beobachtung des to­ ten Winkels bezüglich des Gesichtsfeld des Fahrers. Es kommen Systeme zum Einsatz, welche sich unterschiedlichen Sensoren bedienen. Bekannt sind zum Beispiel Radarsenso­ ren, Lidarsensoren, Ultraschallsensoren und Videosenso­ ren. Beispielsweise werden Radarsensoren verwendet, um die genaue Lage eines Objektes zu bestimmen, welches sich im Umfeld des Fahrzeugs befindet. Ein bekanntes Verfahren für diese Lagebestimmung ist die Triangulation. Bei dem Einsatz der verschiedenen Sensoren ist allerdings zu be­ achten, dass sie wegen der zugrundeliegenden physikali­ schen Vorgänge unterschiedliche Erfassungsbereiche haben. Daher ist es häufig sinnvoll, die unterschiedlichen Sen­ soren zu kombinieren. Insgesamt entstehen komplexe Syste­ me, da die unterschiedlichen Sensormessdaten kombiniert werden müssen.
Ferner ist zu bemerken, dass die meisten Systeme nicht in der Lage sind, Objekte, welche sich im Fahrzeugumfeld be­ finden, zu klassifizieren. Ein Radarsensor ist im allge­ meinen nicht in der Lage, zwischen einem lebenden Objekt, beispielsweise einem Fußgänger, und einem Gegenstand zu unterscheiden. Ferner haben Radarsensoren und auch Ultra­ schallsensoren im unmittelbaren Fahrzeugumfeld den Nach­ teil, dass sie aufgrund ihres geringen Öffnungswinkels nur einen kleinen Bereich des Umfelds erfassen können. Will man also das gesamte Fahrzeugumfeld mit derartigen Sensoren erfassen, so ist eine große Anzahl von Sensoren erforderlich.
Vorteile der Erfindung
Die Erfindung baut auf der gattungsgemäßen Anordnung da­ durch auf, dass die Sensoren optische Sensoren sind, dass mindestens zwei Sensoren vorgesehen sind, dass die Senso­ ren im Weitwinkelbereich arbeiten und dass die Mittel zum Verarbeiten der erfassten Information räumliche Informa­ tion ausgeben. Optische Sensoren haben gegenüber den an­ deren genannten Sensoren den Vorteil, dass die Möglichkeit besteht, Objekte im Fahrzeugumfeld zu klassifizie­ ren. Beispielsweise ist es möglich, zwischen einem Ge­ genstand und einem belebten Objekt zu unterscheiden. Auf­ grund der Tatsache, dass mindestens zwei Sensoren vorge­ sehen sind, wird eine räumliche Erfassung des Fahrzeugum­ felds ermöglicht. Die beiden optischen Sensoren wirken als Stereokamerapaar. Aufgrund der Erfassung eines Weit­ winkelbereichs der Sensoren, wobei die Sensoren grund­ sätzlich unterschiedliche Eigenschaften haben können, lässt sich ein großer Teil des Fahrzeugumfelds erfassen. Aufgrund der Tatsache, dass die Mittel zum Verarbeiten der erfassten Information räumliche Information ausgeben, kann eine Person, beispielsweise der Fahrer des Fahr­ zeugs, detailliert über die Eigenschaften des Fahrzeugum­ felds informiert werden. Die Verarbeitung in den Mitteln zum Verarbeiten erfolgt mittels Algorithmen der digitalen Bildverarbeitung und mit sonstigen Algorithmen zur Aus­ wertung der Sensoren. Insgesamt erzielt man auf der Grundlage der Erfindung eine Einsparung von Kosten, da man auf eine Vielzahl von Einzelsensoren zur zufrieden­ stellenden Erfassung des Umfeldes verzichten kann. Neben der Einsparung einer Vielzahl von Einzelsensoren kann auch die Systemkomplexität reduziert werden. Dies hat den Grund, dass keine Vernetzung einer großen Anzahl von Sen­ soren erforderlich ist.
Bevorzugt weist mindestens einer der Sensoren eine Fish­ eye-Optik auf. Fisheye-Optiken sind geeignet, einen gro­ ßen Raumwinkel zu erfassen, wobei dieser etwa im Bereich von 220° liegt. Somit kann ein großer Teil des Umfelds des Kraftfahrzeugs erfasst werden. Bei der Verwendung mehrerer Sensoren ist es möglich, räumliche Information über das gesamte Fahrzeugumfeld auszugeben.
Ebenfalls kann es vorteilhaft sein, dass mindestens einer der Sensoren eine Optik zur Erfassung eines Sichtwinkels von 360° aufweist, insbesondere eine Parabol- oder Para­ boloidspiegeloptik.
Besonders vorteilhaft ist es, dass weitere Sensoren zum Erfassen weiterer Eigenschaften des Umfelds vorgesehen sind, wobei die den Eigenschaften entsprechende Informa­ tion den Mitteln zum Verarbeiten der erfassten Informati­ on zuführbar ist. Die erfindungsgemäße Anordnung kann demnach die Information aus zusätzlichen Informations­ quellen verarbeiten. Dabei kommen unterschiedlichste Sen­ soren in Betracht, etwa auch Radar- oder Ultraschallsen­ soren. Ebenfalls ist es denkbar, dass Informationen zur Verfügung gestellt werden, welche nicht das Fahrzeugum­ feld betreffen. Beispielsweise können Lenkwinkelsensoren, Gierwinkelsensoren, eine Überwachung der Fahrzeugschlös­ ser und Erschütterungssensoren als weitere Informations­ quellen für die erfindungsgemäße Anordnung in Betracht gezogen werden.
Besonders vorteilhaft ist es, wenn weitere optische Sen­ soren vorgesehen sind. Hierdurch kann die Erfassung des Fahrzeugumfelds verbessert werden. Beispielsweise können tote. Winkel vermieden werden.
Es ist ebenfalls vorteilhaft, wenn die Mittel zum Verar­ beiten der erfassten Informationen einen Controller auf­ weisen. Der Controller ist in der Lage, sämtliche Informationen der beteiligten Informationsquellen zu Erfassen, zu Verarbeiten und entsprechende räumliche Informationen auszugeben. Dabei bedient sich der Controller Algorithmen der digitalen Bildverarbeitung und sonstigen Algorithmen zur Auswertung der Sensoren.
Vorzugsweise geben die Mittel zum Verarbeiten der erfass­ ten Informationen diese an ein Fahrerinformationssystem aus. Das Fahrerinformationssystem kann die Informationen dem Fahrer in geeigneter Weise präsentieren. Die Informa­ tionspräsentation kann optisch, akustisch oder haptisch erfolgen.
Ebenfalls kann es nützlich sein, wenn die Mittel zum Ver­ arbeiten der erfassten Information diese an eine Aktorik ausgeben. Es ist somit möglich, aktiv in den Fahrzeugzu­ stand einzugreifen. Beispielsweise sind Eingriffe in die Motorsteuerung, die Bremsen, die Kupplung oder die Alarm­ anlage denkbar.
Vorzugsweise sind Mittel zum Erzeugen von Licht im infra­ roten Spektralbereich vorgesehen, und das Licht kann über die Sensoroptik in das Umfeld des Fahrzeugs ausgesendet werden. Somit ist es möglich, auch bei nicht ausreichen­ dem Umgebungslicht eine Erfassung des Fahrzeugumfeldes durchzuführen. Zu diesem Zwecke müssen auch die optischen Sensoren so ausgelegt sein, dass sie in der Lage sind, eine Erfassung im infraroten Spektralbereich zu realisie­ ren. Dies hat auch unabhängig von der separaten Erzeugung von Licht im infraroten Spektralbereich den Vorteil, dass infrarote Strahlung in der Umgebung ausgewertet werden kann.
Da die Sensoroptik sowohl für das Erfassen des vom Umfeld abgegebenen Lichtes als auch für das Aussenden des im Fahrzeug erzeugten infraroten Lichtes verwendet werden kann, ist eine besonders rationelle Anordnung gegeben. LEDs können als kostengünstige Quellen für Licht im inf­ raroten Spektralbereich herangezogen werden.
Besonders vorteilhaft ist es, wenn ein Imager-Chip vorge­ sehen ist, welcher im nahen infraroten Spektralbereich empfindlich ist. Auf diese Weise ist die Möglichkeit ei­ ner Erfassung im infraroten Spektralbereich gegeben. Ver­ wendet man einen solchen Imager-Chip beispielsweise in Verbindung mit einer Paraboloidoptik, so wird auf dem Imager-Chip eine annähernd kreisringförmige Abbildung er­ zeugt. Dann wird vorteilhafter Weise nur dieser beleuch­ tete Bereich des Imager-Chips aus lichtempfindlichem Ma­ terial ausgelegt, wobei der übrige Bereich des Imager- Chips zum Beispiel für die Auswertelogik verwendet werden kann.
Vorzugsweise sind die Sensoren auf dem Dach eines Fahr­ zeugs angeordnet. Hierdurch ist die Überwachung des ge­ samten Fahrzeugumfeldes mit nur einer Kamera und/oder ei­ nem Kamerapaar möglich. Es ist aber auch möglich, die Sensoren im vorderen Fahrzeugbereich mit optionaler Er­ gänzung durch eine weitere Kamera am Fahrzeugheck anzu­ bringen. Dies kann beispielsweise Vorteile im Hinblick auf die Funktion ACC Stop & Go haben. Auch die Anbringung eines Stereokamerapaares am Fahrzeugheck ist denkbar, wo­ bei es hier besonders sinnvoll ist, eine weitere Kamera im vorderen Fahrzeugbereich anzubringen. Diese Anordnung eignet sich besonderes für heckorientierte Anwendungen, wie zum Beispiel für die Anwendung als Rückfahrkamera.
Besonders nützlich ist es, dass die Sensoren im Seitenbe­ reich ein freies Sichtfeld haben. Bringt man die Sensoren beispielsweise auf dem Fahrzeugdach nebeneinander an, so deckt der eine Sensor das Gesichtsfeld des anderen Sen­ sors in seitlicher Richtung ab. Hierdurch entstehen tote Winkel im Seitenbereich des Fahrzeugs, welche besonders problematisch sind. Diesem Umstand kann man begegnen, in­ dem man die Sensoren versetzt anordnet, so dass im Sei­ tenbereich des Fahrzeugs freie Sichtfelder vorliegen. Dies ist besonders im Hinblick auf die Erfassung des to­ ten Winkels des Gesichtsfelds des Fahrers sinnvoll.
Die Erfindung baut auf dem gattungsgemäßen Verfahren da­ durch auf, dass die Eigenschaften optisch erfasst werden, dass mindestens zwei Sensoren zum Erfassen der Eigen­ schaften vorgesehen sind, dass die Sensoren im Weitwin­ kelbereich arbeiten und dass die Mittel zum Verarbeiten der erfassten Information räumliche Information ausgeben. Der erfasste Winkel kann dabei eine Größe bis zur Rundum­ sicht annehmen. Optische Sensoren haben gegenüber den an­ deren genannten Sensoren den Vorteil, dass die Möglich­ keit besteht, Objekte im Fahrzeugumfeld zu klassifizie­ ren. Beispielsweise ist es möglich, zwischen einem Ge­ genstand und einem belebten Objekt zu unterscheiden. Auf­ grund der Tatsache, dass mindestens zwei Sensoren vorge­ sehen sind, wird eine räumliche Erfassung des Fahrzeugum­ felds ermöglicht. Die beiden optischen Sensoren wirken als Stereokamerapaar. Aufgrund der Erfassung eines Weit­ winkelbereichs der Sensoren, wobei die Sensoren grundsätzlich unterschiedliche Eigenschaften haben können, lässt sich ein großer Teil des Fahrzeugumfelds erfassen. Aufgrund der Tatsache, dass die Mittel zum Verarbeiten der erfassten Information räumliche Information ausgeben kann eine Person, beispielsweise der Fahrer des Fahr­ zeugs, detailliert über die Eigenschaften des Fahrzeugum­ felds informiert werden. Die Verarbeitung in den Mitteln zum Verarbeiten erfolgt mittels Algorithmen der digitalen Bildverarbeitung und mit sonstigen Algorithmen zur Aus­ wertung der Sensoren. Insgesamt erzielt man auf der Grundlage der Erfindung eine Einsparung von Kosten, da man auf eine Vielzahl von Einzelsensoren zur zufrieden­ stellenden Erfassung des Umfeldes verzichten kann. Neben der Einsparung einer Vielzahl von Einzelsensoren kann auch die Systemkomplexität reduziert werden. Dies hat den Grund, dass keine Vernetzung einer großen Anzahl von Sen­ soren erforderlich ist.
Bevorzugt weist mindestens einer der Sensoren eine Fish­ eye-Optik auf. Fisheye-Optiken sind geeignet, einen gro­ ßen Raumwinkel zu erfassen, wobei dieser etwa im Bereich von 220° liegt. Somit kann ein großer Teil des Umfelds des Kraftfahrzeugs erfasst werden. Bei der Verwendung mehrerer Sensoren ist es möglich, räumliche Information über das gesamte Fahrzeugumfeld auszugeben.
Besonders vorteilhaft ist es, wenn mindestens einer der Sensoren eine Optik zur Erfassung eines Sichtwinkels von 360° aufweist, insbesondere eine Parabol- oder Parabo­ loidspiegelopitk.
Es ist bevorzugt, dass weitere Sensoren zum Erfassen wei­ terer Eigenschaften des Umfelds vorgesehen sind, wobei die den Eigenschaften entsprechende Information den Mit­ teln zum Verarbeiten der erfassten Information zugeführt werden. Das erfindungsgemäße Verfahren kann demnach die Information aus zusätzlichen Informationsquellen verar­ beiten. Dabei kommen unterschiedlichste Sensoren in Be­ tracht, etwa auch Radar- oder Ultraschallsensoren. Eben­ falls ist es denkbar, dass Informationen zur Verfügung gestellt werden, welche nicht das Fahrzeugumfeld betref­ fen. Beispielsweise können Lenkwinkelsensoren, Gierwin­ kelsensoren, eine Überwachung der Fahrzeugschlösser und Erschütterungssensoren als weitere Informationsquellen für die erfindungsgemäße Anordnung in Betracht gezogen werden.
Das Verfahren ist besonders vorteilhaft durchführbar, wenn weitere optische Sensoren vorgesehen sind. Hierdurch kann die Erfassung des Fahrzeugumfelds verbessert werden. Beispielsweise können tote Winkel vermieden werden.
Ebenfalls ist es nützlich, dass das Verarbeiten der er­ fassten Information in einem Controller erfolgt. Der Controller ist in der Lage, sämtliche Informationen der beteiligten Informationsquellen zu Erfassen, zu Verarbei­ ten und entsprechende räumliche Informationen auszugeben. Dabei bedient sich der Controller Algorithmen der digita­ len Bildverarbeitung und sonstigen Algorithmen zur Aus­ wertung der Sensoren.
Das erfindungsgemäße Verfahren ist in vorteilhafter Weise dadurch weitergebildet, dass die verarbeitete Information an ein Fahrerinformationssystem ausgegeben wird. Das Fah­ rerinformationssystem kann die Informationen dem Fahrer in geeigneter Weise präsentieren. Die Informationspräsen­ tation kann optisch, akustisch oder haptisch erfolgen.
Weiterhin sind Vorteile dadurch gegeben, dass die verar­ beitete erfasste Information an eine Aktorik ausgegeben wird. Es ist somit möglich, aktiv in den Fahrzeugzustand einzugreifen. Beispielsweise sind Eingriffe in die Mo­ torsteuerung, die Bremsen, die Kupplung oder die Alarman­ lage denkbar.
Das Verfahren ist ferner dadurch vorteilhaft, dass Licht im infraroten Spektralbereich erzeugt wird und dass das Licht über die Sensoroptik in das Umfeld des Fahrzeugs ausgesendet wird. Somit ist es möglich, auch bei nicht ausreichendem Umgebungslicht eine Erfassung des Fahrzeug­ umfeldes durchzuführen. Zu diesem Zwecke müssen auch die optischen Sensoren so ausgelegt sein, dass sie in der La­ ge sind, eine Erfassung im infraroten Spektralbereich zu realisieren. Dies hat auch unabhängig von der separaten Erzeugung von Licht im infraroten Spektralbereich den Vorteil, dass infrarote Strahlung in der Umgebung ausge­ wertet werden kann. Die Aussendung des Lichtes im infra­ roten Spektralbereich kann auch über andere Lichtquellen beziehungsweise Optiken in das Umfeld erfolgen.
Der Erfindung liegt die überraschende Kenntnis zugrunde, dass die gesamte Bandbreite der zur Verfügung stehenden Algorithmen der digitalen Bildverarbeitung im Bereich der Stereo-Umfeldvermessung angewendet werden kann. Insbeson­ dere die Möglichkeit, das gesamte erfassbare Fahrzeugumfeld dreidimensional zu vermessen, bietet zahlreiche Vor­ teile. Basierend auf der Vermessung des Umfeldes können beispielsweise Objekte erkannt, Verkehrszeichen klassifi­ ziert, Fahrbahnbegrenzungen gefunden und Menschen im Fahrzeugumfeld detektiert werden. Ebenfalls können mit einem solchen System eine Vielzahl von Assistenten, Diensten und Applikationen für den Fahrer zur Verfügung gestellt werden. Denkbar sind Anwendungen aus dem Bereich aktiven Fahrzeugsicherheit. Beispielsweise kann hier eine Precrash-Sensorik, die Berechnung und Ausführung von Brems- und Ausweichmanövern, Unterstützung von Stop & Go, Fahrspurerkennung, ACC-Unterstützung und eine automati­ sche Notbremse realisiert werden. Auch Assistenzsysteme wie Verkehrszeichenerkennung und Einparkhilfe lassen sich realisieren. Auf der Grundlage der vorliegenden Erfindung lässt sich auch ein Sicherheitssystem unterstützen, wel­ ches als Diebstahlwarngerät arbeitet. Hierzu erkennt der Controller sich bewegende Objekte im Fahrzeugumfeld und schlägt Alarm, falls ein nichtidentifizierbares Objekt erscheint, welches versucht, das Fahrzeug zu öffnen. Ebenfalls ist vorteilhaft zu nennen, dass sich mit der optischen Information Objekte im Fahrzeugumfeld klassifi­ zieren lassen. Auf dieser Grundlage können dem Fahrer beispielsweise Videobilder nicht nur in direkter Form sondern auch in modifizierter Form angezeigt werden. Bei der modifizierten Anzeige können die Bilder beispielswei­ se entzerrt werden, oder erkannte Objekte können je nach ihrer Bedeutung hervorgehoben werden.
Zeichnungen
Die Erfindung wird nun mit Bezug auf die begleitenden Zeichnungen anhand bevorzugter Ausführungsformen bei­ spielhaft erläutert.
Dabei zeigt:
Fig. 1 eine Draufsicht auf ein Kraftfahrzeug mit einem Sensor;
Fig. 2 eine Draufsicht auf ein Kraftfahrzeug mit zwei Sensoren;
Fig. 3 eine weitere Draufsicht auf ein Fahrzeug mit zwei Sensoren;
Fig. 4 eine Draufsicht auf ein Fahrzeug mit beispiel­ haften Anordnungen von Sensoren;
Fig. 5 ein Blockschaltbild zur Erläuterung einer er­ findungsgemäßen Anordnung;
Fig. 6 eine schematische Darstellung einer speziellen Optik für eine erfindungsgemäße Anordnung; und
Fig. 7 eine weitere schematische Darstellung einer speziellen Optik für eine erfindungsgemäße An­ ordnung.
Beschreibung der Ausführungsbeispiele
In Fig. 1 ist eine Draufsicht auf ein Kraftfahrzeug 10 dargestellt. Auf dem Dach 48 des Kraftfahrzeugs 10 ist ein optischer Sensor 12 angeordnet. Der Sensor 12 hat ein Gesichtsfeld 50 von 360°. Die Darstellung des Gesichts­ felds 50 ist nicht maßstabsgetreu. Mit einem einzelnen optischen Sensor 12 lässt sich ein zweidimensionales Bild erzeugen, so dass eine räumliche Auflösung des Fahrzeug­ umfelds mit einer Anordnung gemäß Fig. 1 nicht möglich ist.
In Fig. 2 ist ein Kraftfahrzeug 10 mit zwei Sensoren 14, 16 dargestellt, welche auf dem Dach 48 des Fahrzeugs 10 angeordnet sind.
Fig. 3 zeigt ebenfalls ein Fahrzeug 10 mit zwei Sensoren 18, 20 auf dem Fahrzeugdach 48, wobei hier zusätzlich durch Kreise 52, 54 dargestellt ist, dass beide Sensoren 18, 20 einen Öffnungswinkel von 360° haben. Da die beiden Sensoren 18, 20 einen Abstand zueinander aufweisen, sind auch die Gesichtsfelder der beiden Sensoren 18, 20, wel­ che durch die Kreise 52, 54 symbolisiert sind, gegenein­ ander versetzt. Im Schnittbereich der beiden Kreise 52, 54 ist eine Stereovermessung des Umfeldes möglich. Folg­ lich erlaubt die Anordnung gemäß Fig. 3 zahlreiche An­ wendungen, bei denen es auf eine räumliche Auflösung an­ kommt. Auf der Achse der Verbindungslinie zwischen den Sensoren 18, 20 kommt es aufgrund der gegenseitigen Ab­ schattung zu toten Winkeln 56, 58 im seitlichen Bereich des Fahrzeugs. In diesen toten Winkeln ist keine Stereovermessung möglich, da jeweils eine der Kameras 18, 20 abgeschattet ist.
Fig. 4 zeigt unter anderem eine Möglichkeit, diese seit­ liche Abschattung zu vermeiden. In einer Draufsicht sind die Anordnungen mehrerer Sensoren 22, 24, 26, 28, 30, 32, 34 auf einem Kraftfahrzeug 10 dargestellt. Durch die An­ ordnung der beiden Sensoren 22, 24, welche zusätzlich zu den anderen dargestellten Sensoren 26, 28, 30, 32, 34 o­ der ohne diese vorgesehen sein können, lässt sich eine seitliche Abschattung vermeiden. Somit kann durch das versetzte Anordnen der Sensoren 22, 24 auch im Seitenbe­ reich des Kraftfahrzeugs 10 eine Stereovermessung statt­ finden. Dies ist insbesondere in Hinblick auf die Erfas­ sung des toten Winkels bezüglich des Gesichtsfeldes des Fahrers nützlich. Beispielhaft sind zwei weitere Kameras 26, 28 im vorderen Bereich des Kraftfahrzeugs gezeigt, welche in vorteilhafter Weise mit einem Sensor 34 am Heck des Kraftfahrzeugs kombiniert werden. Mit einer solchen Anordnung lässt sich besonders gut eine Steuerung für ACC Stop & Go realisieren. Zusätzlich ist zu erwähnen, dass durch die Verwendung von drei Kameras, das heißt einer zusätzlichen Kamera im Vergleich zu den Ausführungsformen gemäß Fig. 2 und Fig. 3, die dreidimensionale Modellie­ rung des Fahrzeugumfelds noch verbessert werden kann. In ähnlicher Weise besteht die Möglichkeit, weitere Kameras 30, 32 am Heck des Kraftfahrzeugs 10 anzuordnen, wobei dies für Anwendungen besonders geeignet ist, die das Heckfeld erfassen sollen. Auch diese Kameras 30, 32 kön­ nen mit weiteren Kameras beispielsweise im vorderen Be­ reich des Kraftfahrzeugs 10 kombiniert werden.
Fig. 5 zeigt ein Blockschaltbild zur Erläuterung der vorliegenden Erfindung. Es sind beispielhaft drei Kameras 26, 28, 34 vorgesehen, welche beispielsweise im vorderen Bereich und im Heckbereich eines Kraftfahrzeugs angeord­ net sind. Jede dieser Kameras ist mit einer Optik 38 aus­ gestattet. Die von den Kameras 26, 28, 34 erfassten In­ formationen werden einem Controller 36 übermittelt. Dem Controller 36 können ferner Informationen von weiteren Informationsquellen 60 übertragen werden, beispielsweise von einem Lenkwinkelsensor. Der Controller 36 verarbeitet diese Informationen unter Verwendung von Algorithmen der digitalen Bildverarbeitung und sonstiger Algorithmen zur Auswertung der Information des Sensors 60. Die Ergebnisse dieser Auswertungen werden an ein Fahrzeuginformations­ system 40 ausgegeben. Dieses kann die Informationen einem Fahrer in geeigneter Weise präsentieren. Die Informati­ onspräsentation kann optisch, akustisch oder haptisch er­ folgen. Der Controller 36 kann auch aktiv in den Fahr­ zeugzustand eingreifen, indem er eine oder mehrere Akto­ riken 42 ansteuert. Dabei sind Eingriffe in die Mo­ torsteuerung, die Bremse, die Kupplung oder eine Alarman­ lage denkbar, um nur einige Beispiele zu nennen.
In Fig. 4 ist die Optik eines Sensors für eine erfin­ dungsgemäße Anordnung schematisch dargestellt. Es ist beispielhaft eine Paraboloidspiegelopitk 38 vorgesehen, welche ein im wesentlichen ringförmiges Bild erzeugt. Dieses Bild wird auf ein Imager-Chip 46 projiziert. Im unteren Teil der Figur ist der Imager-Chip 46 mit dem ringförmigen Bereich 62 dargestellt. Vorzugsweise werden die Bereiche, welche innerhalb des ringförmigen Bereiches 62 liegen und welche außerhalb des ringförmigen Bereiches 62 liegen für andere Aufgaben verwendet, beispielsweise für eine Auswertelogik.
In Fig. 7 ist ebenfalls eine Optik dargestellt, welche im Rahmen der vorliegenden Erfindung Verwendung finden kann. Wiederum handelt es sich um eine Paraboloidspiege­ loptik 38. In diesem Beispiel gemäß Fig. 7 wird die Pa­ raboloidspiegeloptik 38 dazu benutzt, Licht, welches von einer LED 64 erzeugt wird, in das Umfeld abzustrahlen. Somit findet eine Beleuchtung es Umfelds statt. Dieselbe beispielhafte Paraboloidspiegeloptik 38 wird dann zur Aufnahme der Bilder des Umfeldes verwendet. Es ist beson­ ders vorteilhaft, wenn die LED 64 in der Lage ist, Licht abzustrahlen, welches im infraroten Spektralbereich liegt. Damit ist eine Ausleuchtung einer Umgebungsszene bei Nacht möglich, wobei die Detektion von einfallendem infraroten Licht auch unabhängig von der Lichtquelle 64 erfolgen kann.
Die vorhergehende Beschreibung der Ausführungsbeispiele gemäß der vorliegenden Erfindung dient nur zu illustrati­ ven Zwecken und nicht zum Zwecke der Beschränkung der Er­ findung. Im Rahmen der Erfindung sind verschiedene Ände­ rungen und Modifikationen möglich, ohne den Umfang der Erfindung sowie die Äquivalente zu verlassen.

Claims (21)

1. Anordnung zur Überwachung des Umfelds eines Fahrzeugs (10) mit
Sensoren (14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) zum Erfassen von Eigenschaften des Umfelds und
Mitteln (36) zum Verarbeiten der erfassten Informati­ on,
dadurch gekennzeichnet,
dass die Sensoren (14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) optische Sensoren sind,
dass mindestens zwei Sensoren (14, 1618, 2022, 24) vorgesehen sind,
dass die Sensoren (14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34) im Weitwinkelbereich arbeiten und
dass die Mittel (36) zum Verarbeiten der erfassten Information räumliche Information ausgeben.
2. Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass mindestens einer der Sensoren eine Fisheye-Optik aufweist.
3. Anordnung nach Anspruch 1 oder 2, dadurch gekennzeich­ net, dass mindestens einer der Sensoren (18, 20) eine Op­ tik zur Erfassung eines Sichtwinkels von 360°, insbeson­ dere eine Parabol- oder Paraboloidspiegeloptik (38) auf­ weist.
4. Anordnung nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, dass weitere Sensoren (26, 28, 30, 32, 34) zum Erfassen weiterer Eigenschaften des Umfelds vorgesehen sind, wobei die den Eigenschaften entsprechen­ de Information den Mitteln (36) zum Verarbeiten der er­ fassten Information zuführbar ist.
5. Anordnung nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, dass weitere optischen Sensoren (26, 28, 30, 32, 34) vorgesehen sind.
6. Anordnung nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, dass die Mittel (36) zum Verarbei­ ten der erfassten Information einen Controller aufweisen.
7. Anordnung nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, dass die Mittel (36) zum Verarbei­ ten der erfassten Information diese an ein Fahrerinformationssystem (40) ausgeben.
8. Anordnung nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, dass die Mittel (36) zum Verarbei­ ten der erfassten Information diese an eine Aktorik (42) ausgeben.
9. Anordnung nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, dass Mittel (64) zum Erzeugen von Licht im infraroten Spektralbereich vorgesehen sind und dass das Licht über die Sensoroptik (38) in das Um­ feld des Fahrzeugs (10) ausgesendet wird.
10. Anordnung nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, dass ein Imager-Chip (46) vorgese­ hen ist, welcher im nahen Infrarotspektralbereich emp­ findlich ist.
11. Anordnung nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, dass die Sensoren (14, 16, 18, 20, 22, 24) auf dem Dach (48) eines Fahrzeugs (10) angeordnet sind.
12. Anordnung nach einem der vorangehenden Ansprüche, da­ durch gekennzeichnet, dass die Sensoren (22, 24) im Sei­ tenbereich des Fahrzeugs (10) ein freies Sichtfeld haben.
13. Verfahren zur Überwachung des Umfelds eines Fahrzeugs (10) mit den Schritten:
Erfassen von Eigenschaften des Umfelds und
Verarbeiten der erfassten Information,
dadurch gekennzeichnet,
dass die Eigenschaften optisch erfasst werden,
dass mindestens zwei Sensoren (14, 16, 18, 20, 22, 24) zum Erfassen der Eigenschaften vorgesehen sind,
dass die Sensoren (14, 16, 18, 20, 22, 24) im Weit­ winkelbereich arbeiten und
dass die Mittel zum Verarbeiten der erfassten Infor­ mation räumliche Information ausgeben.
14. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass mindestens einer der Sensoren eine Fisheye-Optik aufweist.
15. Verfahren nach Anspruch 13 oder 14, dadurch gekenn­ zeichnet, dass mindestens einer der Sensoren (18, 20) ei­ ne Optik zur Erfassung eines Sichtwinkels von 360°, ins­ besondere eine Parabol- oder Paraboloidspiegeloptik auf­ weist.
16. Verfahren nach einem der Ansprüche 13 bis 15, dadurch gekennzeichnet, dass weitere Sensoren (26, 28, 30, 32, 34) zum Erfassen weiterer Eigenschaften des Umfelds vor­ gesehen sind, wobei die den Eigenschaften entsprechende Information den Mitteln (36) zu verarbeiten der erfassten Information zugeführt werden.
17. Verfahren nach einem der Ansprüche 13 bis 16, dadurch gekennzeichnet, dass weitere optische Sensoren (26, 28, 30, 32, 34) vorgesehen sind.
18. Verfahren nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, dass das Verarbeiten der erfassten Infor­ mation in einem Controller (36) erfolgt.
19. Verfahren nach einem der Ansprüche 13 bis 18, dadurch gekennzeichnet, dass die Verarbeitete erfasste Informati­ on an ein Fahrerinformationssystem (40) ausgegeben wird.
20. Verfahren nach einem der Ansprüche 13 bis 19, dadurch gekennzeichnet, dass die verarbeitete erfasste Informati­ on an ein Aktorik (42) ausgegeben wird.
21. Verfahren nach einem der Ansprüche 13 bis 20, dadurch gekennzeichnet,
dass Licht im infraroten Spektralbereich erzeugt wird und
dass das Licht über die Sensoroptik (38) in das Um­ feld des Fahrzeugs (10) ausgesendet wird.
DE10059313A 2000-11-29 2000-11-29 Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs Ceased DE10059313A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE10059313A DE10059313A1 (de) 2000-11-29 2000-11-29 Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs
PCT/DE2001/003931 WO2002043982A1 (de) 2000-11-29 2001-10-13 Anordnung und verfahren zur überwachung des umfelds eines fahrzeugs
DE50112771T DE50112771D1 (de) 2000-11-29 2001-10-13 Anordnung zur überwachung des umfelds eines fahrzeugs
JP2002545938A JP3844737B2 (ja) 2000-11-29 2001-10-13 車両の周囲を監視するための方法及び装置
US10/432,883 US7362215B2 (en) 2000-11-29 2001-10-13 System and method for monitoring the surroundings of a vehicle
EP01998458A EP1339561B1 (de) 2000-11-29 2001-10-13 Anordnung zur überwachung des umfelds eines fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10059313A DE10059313A1 (de) 2000-11-29 2000-11-29 Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE10059313A1 true DE10059313A1 (de) 2002-06-13

Family

ID=7665142

Family Applications (2)

Application Number Title Priority Date Filing Date
DE10059313A Ceased DE10059313A1 (de) 2000-11-29 2000-11-29 Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs
DE50112771T Expired - Lifetime DE50112771D1 (de) 2000-11-29 2001-10-13 Anordnung zur überwachung des umfelds eines fahrzeugs

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE50112771T Expired - Lifetime DE50112771D1 (de) 2000-11-29 2001-10-13 Anordnung zur überwachung des umfelds eines fahrzeugs

Country Status (5)

Country Link
US (1) US7362215B2 (de)
EP (1) EP1339561B1 (de)
JP (1) JP3844737B2 (de)
DE (2) DE10059313A1 (de)
WO (1) WO2002043982A1 (de)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10227221A1 (de) * 2002-06-18 2004-01-15 Daimlerchrysler Ag Verfahren zur Überwachung des Innen- bzw. Außenraums eines Fahrzeugs sowie ein Fahrzeug mit wenigstens einer Rundsichtkamera
DE10300612A1 (de) * 2003-01-10 2004-07-22 Hella Kg Hueck & Co. Nachtsichtsystem für Kraftfahrzeuge
EP1441528A1 (de) * 2001-10-10 2004-07-28 Matsushita Electric Industrial Co., Ltd. Bildprozessor
DE10326001A1 (de) * 2003-02-26 2004-09-09 Volkswagen Ag Verfahren und Einrichtung zur Ansteuerung einer Sicherheitseinrichtung bei einem Kraftfahrzeug
DE10310698A1 (de) * 2003-03-12 2004-09-23 Valeo Schalter Und Sensoren Gmbh Optisches Erfassungssystem für Kraftfahrzeuge
DE102004027693A1 (de) * 2004-04-08 2005-10-27 Daimlerchrysler Ag Verfahren zum Steuern von Insassenrückhaltemitteln und Steuereinheit für Insassenrückhaltemittel in einem Fahrzeug
DE102005006287A1 (de) * 2005-02-11 2006-08-17 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zum Überwachen des Umfelds eines Fahrzeugs
DE102004046101A1 (de) * 2004-09-23 2006-09-21 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102006052083A1 (de) * 2006-11-04 2008-05-08 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren und Vorrichtung zur Umfeldüberwachung eines Fahrzeuges
DE102009057336A1 (de) 2008-12-12 2010-07-22 Technische Universität München Vorrichtung zur Überwachung eines Raumbereichs außerhalb eines Fahrzeugs
DE102010064080A1 (de) 2010-12-23 2012-06-28 Robert Bosch Gmbh Kameraabasiertes Fahrerassistenzsystem für ein Fahrzeug
DE102012000630A1 (de) * 2012-01-14 2013-07-18 Volkswagen Aktiengesellschaft System zur Erfassung eines Hindernisses für ein Fahrzeug
DE102013210591A1 (de) * 2013-06-07 2014-12-11 Continental Automotive Gmbh Bewegungserkennung eines fahrzeugs mittels mehrerer kameras
DE102004045813B4 (de) * 2004-09-22 2017-09-28 Robert Bosch Gmbh System und Verfahren für ein vorrausschauendes Detektieren einer Unfallgefahrensituation
EP3123097B1 (de) 2014-03-28 2018-05-09 Safran Electronics & Defense Optoelektronischer geschützturm

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1497160B2 (de) * 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
GB0213464D0 (en) 2002-06-12 2002-07-24 Black & Decker Inc Hammer
DE10251949A1 (de) * 2002-11-08 2004-05-19 Robert Bosch Gmbh Fahrdynamikregelung mit Bildsensorsystem
JP4453514B2 (ja) * 2004-06-09 2010-04-21 日産自動車株式会社 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
DE102005046019A1 (de) * 2005-09-26 2007-04-05 Hella Kgaa Hueck & Co. Überwachungseinrichtung für den Innenraum eines Kraftfahrzeugs
US7348538B2 (en) * 2006-02-03 2008-03-25 Ge Infrastructure Sensing, Inc. Methods and systems for detecting proximity of an object
US7407323B2 (en) * 2006-02-03 2008-08-05 Ge Infrastructure Sensing Inc. Methods and systems for determining temperature of an object
EP2008245A4 (de) * 2006-04-04 2013-01-23 Bae Sys Inf & Elect Sys Integ Verfahren und vorrichtung zum schutz von truppen
DE102006047634A1 (de) * 2006-10-09 2008-04-10 Robert Bosch Gmbh Verfahren zum Erfassen eines Umfelds eines Fahrzeugs
US20090115847A1 (en) * 2007-11-07 2009-05-07 Anderson Leroy E Electronic automobile proximity viewer
EP2070774B1 (de) 2007-12-14 2012-11-07 SMR Patents S.à.r.l. Sicherheitssystem und Verfahren zur Ableitung eines Sicherheitssignals
ES2446591T3 (es) * 2008-04-18 2014-03-10 Bae Systems Plc Mejoras en LIDARS
JP5444338B2 (ja) * 2009-05-25 2014-03-19 パナソニック株式会社 車両周囲監視装置
JP5503259B2 (ja) * 2009-11-16 2014-05-28 富士通テン株式会社 車載照明装置、画像処理装置及び画像表示システム
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
US10643467B2 (en) 2010-03-28 2020-05-05 Roadmetric Ltd. System and method for detecting and recording traffic law violation events
JP5269026B2 (ja) * 2010-09-29 2013-08-21 日立建機株式会社 作業機械の周囲監視装置
US8836784B2 (en) 2010-10-27 2014-09-16 Intellectual Ventures Fund 83 Llc Automotive imaging system for recording exception events
KR101315218B1 (ko) * 2011-08-02 2013-10-08 엘지전자 주식회사 단말기 및 그 단말기에서 신호등의 신호 정보를 출력하기 위한 방법
DE102011109459A1 (de) * 2011-08-04 2013-02-07 Man Truck & Bus Ag Verfahren zum Erfassen von Objekten seitlich eines Nutzfahrzeugs und Nutzfahrzeug mit einem Erfassungssystem zum Ausführen des Verfahrens
GB2494414A (en) * 2011-09-06 2013-03-13 Land Rover Uk Ltd Terrain visualisation for vehicle using combined colour camera and time of flight (ToF) camera images for augmented display
SE536586C2 (sv) * 2012-07-02 2014-03-11 Scania Cv Ab Anordning och förfarande för att bedöma olycksrisk vid framförande av ett fordon
PL2789741T5 (pl) * 2013-04-12 2019-05-31 Voegele Ag J Wykańczarka z urządzeniem termograficznym
DE102014211543A1 (de) 2013-06-21 2014-12-24 Ifm Electronic Gmbh Verfahren und Anordnung zur Erkennung von Gesten in einer Fahrzeugumgebung
DE102014013431A1 (de) 2014-09-10 2016-03-24 Audi Ag Verfahren zum Betreiben eines Kraftwagens und Kraftwagen
JP6623729B2 (ja) * 2015-12-04 2019-12-25 株式会社ソシオネクスト 測距システム、移動体及び部品
DE102018002177A1 (de) * 2018-03-14 2019-09-19 3Dvisionlabs Gmbh System zur visuellen dreidimensionalen Überwachung von Räumen
CN111315938A (zh) * 2018-03-20 2020-06-19 住友建机株式会社 挖土机
US10656647B2 (en) * 2018-06-27 2020-05-19 Aptiv Technologies Limited Verification of vehicle operator awareness before transition from autonomous-mode to manual-mode
KR20210030523A (ko) * 2019-09-09 2021-03-18 현대자동차주식회사 차량 및 그 제어 방법

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675326A (en) * 1990-04-11 1997-10-07 Auto-Sense, Ltd. Method of determining optimal detection beam locations using reflective feature mapping
FR2674198B1 (fr) 1991-03-22 1993-05-28 Renault Procede et dispositif d'amelioration de la vision automobile de nuit.
US5381072A (en) 1992-02-25 1995-01-10 Varian Associates, Inc. Linear accelerator with improved input cavity structure and including tapered drift tubes
US6150930A (en) 1992-08-14 2000-11-21 Texas Instruments Incorporated Video equipment and method to assist motor vehicle operators
US5670935A (en) 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JPH0668989U (ja) * 1993-03-12 1994-09-27 クラリオン株式会社 後方監視カメラシステム
JPH07159190A (ja) * 1993-12-09 1995-06-23 Zanabui Informatics:Kk 車載用音響装置統合システム
JP3431678B2 (ja) * 1994-02-14 2003-07-28 三菱自動車工業株式会社 車両用周囲状況表示装置
US5473364A (en) * 1994-06-03 1995-12-05 David Sarnoff Research Center, Inc. Video technique for indicating moving objects from a movable platform
FR2730035B1 (fr) 1995-01-30 1997-04-18 Valeo Vision Projecteur infrarouge pour systeme d'aide a la vision pour vehicule automobile et systeme d'aide a la vision le comportant
JP3630833B2 (ja) * 1996-03-28 2005-03-23 富士重工業株式会社 車輛の外界監視装置用カメラ
JPH11205817A (ja) * 1998-01-13 1999-07-30 Nippon Hoso Kyokai <Nhk> 広視野画像作成・表示システム
DE19801884A1 (de) 1998-01-20 1999-07-22 Mannesmann Vdo Ag Überwachungssystem für Fahrzeuge
JP3600422B2 (ja) * 1998-01-30 2004-12-15 株式会社リコー ステレオ画像表示方法及び装置
JP4184485B2 (ja) 1998-07-01 2008-11-19 株式会社東海理化電機製作所 カメラ付ドアミラー及び車両周辺認識システム
JP3327255B2 (ja) 1998-08-21 2002-09-24 住友電気工業株式会社 安全運転支援システム
JP2000225970A (ja) * 1998-11-30 2000-08-15 Tuner Kk 車載用画像記録システム
DE19932779A1 (de) 1999-07-14 2001-01-25 Daimler Chrysler Ag Rückfahrhilfe
AU2001259640A1 (en) * 2000-05-08 2001-11-20 Automotive Technologies International, Inc. Vehicular blind spot identification and monitoring system
JP3627914B2 (ja) * 2000-05-23 2005-03-09 シャープ株式会社 車両の周囲監視システム

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1441528A1 (de) * 2001-10-10 2004-07-28 Matsushita Electric Industrial Co., Ltd. Bildprozessor
EP1441528A4 (de) * 2001-10-10 2005-01-12 Matsushita Electric Ind Co Ltd Bildprozessor
DE10227221A1 (de) * 2002-06-18 2004-01-15 Daimlerchrysler Ag Verfahren zur Überwachung des Innen- bzw. Außenraums eines Fahrzeugs sowie ein Fahrzeug mit wenigstens einer Rundsichtkamera
DE10300612A1 (de) * 2003-01-10 2004-07-22 Hella Kg Hueck & Co. Nachtsichtsystem für Kraftfahrzeuge
DE10326001A1 (de) * 2003-02-26 2004-09-09 Volkswagen Ag Verfahren und Einrichtung zur Ansteuerung einer Sicherheitseinrichtung bei einem Kraftfahrzeug
DE10326001B4 (de) * 2003-02-26 2014-02-13 Volkswagen Ag Verfahren und Einrichtung zur Ansteuerung einer Sicherheitseinrichtung bei einem Kraftfahrzeug
DE10310698A1 (de) * 2003-03-12 2004-09-23 Valeo Schalter Und Sensoren Gmbh Optisches Erfassungssystem für Kraftfahrzeuge
DE102004027693A1 (de) * 2004-04-08 2005-10-27 Daimlerchrysler Ag Verfahren zum Steuern von Insassenrückhaltemitteln und Steuereinheit für Insassenrückhaltemittel in einem Fahrzeug
DE102004045813B4 (de) * 2004-09-22 2017-09-28 Robert Bosch Gmbh System und Verfahren für ein vorrausschauendes Detektieren einer Unfallgefahrensituation
DE102004046101A1 (de) * 2004-09-23 2006-09-21 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102004046101B4 (de) * 2004-09-23 2007-01-18 Daimlerchrysler Ag Verfahren, Sicherheitsvorrichtung und Verwendung der Sicherheitsvorrichtung zur Früherkennung von Kraftfahrzeugkollisionen
DE102005006287A1 (de) * 2005-02-11 2006-08-17 Bayerische Motoren Werke Ag Verfahren und Vorrichtung zum Überwachen des Umfelds eines Fahrzeugs
US8031907B2 (en) 2005-02-11 2011-10-04 Bayerische Motoren Werke Aktiengesellschaft Method and device for monitoring vehicle surroundings
DE102006052083A1 (de) * 2006-11-04 2008-05-08 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren und Vorrichtung zur Umfeldüberwachung eines Fahrzeuges
DE102006052083B4 (de) * 2006-11-04 2009-06-10 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Verfahren und Vorrichtung zur Umfeldüberwachung eines Fahrzeuges
DE102009057336A1 (de) 2008-12-12 2010-07-22 Technische Universität München Vorrichtung zur Überwachung eines Raumbereichs außerhalb eines Fahrzeugs
DE102010064080A1 (de) 2010-12-23 2012-06-28 Robert Bosch Gmbh Kameraabasiertes Fahrerassistenzsystem für ein Fahrzeug
DE102012000630A1 (de) * 2012-01-14 2013-07-18 Volkswagen Aktiengesellschaft System zur Erfassung eines Hindernisses für ein Fahrzeug
DE102012000630B4 (de) * 2012-01-14 2020-08-13 Volkswagen Aktiengesellschaft System zur Erfassung eines Hindernisses für ein Fahrzeug sowie Fahrzeug mit einem System zur Erfassung eines Hindernisses
DE102013210591A1 (de) * 2013-06-07 2014-12-11 Continental Automotive Gmbh Bewegungserkennung eines fahrzeugs mittels mehrerer kameras
EP3123097B1 (de) 2014-03-28 2018-05-09 Safran Electronics & Defense Optoelektronischer geschützturm

Also Published As

Publication number Publication date
WO2002043982A1 (de) 2002-06-06
EP1339561B1 (de) 2007-07-25
JP2004514384A (ja) 2004-05-13
DE50112771D1 (de) 2007-09-06
EP1339561A1 (de) 2003-09-03
US7362215B2 (en) 2008-04-22
US20040075544A1 (en) 2004-04-22
JP3844737B2 (ja) 2006-11-15

Similar Documents

Publication Publication Date Title
DE10059313A1 (de) Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs
DE60020420T2 (de) Situationsdarstellungs-Anzeigesystem
EP2427855B1 (de) Verfahren zur darstellung von objekten aus der umgebung eines fahrzeugs auf der anzeige einer anzeigevorrichtung
DE60124345T2 (de) Bildzusammensetzungssystem und -verfahren
DE60126382T2 (de) Verfahren und Gerät zur Erkennung von Gegenständen
DE102017113572A1 (de) Spurerkennungssysteme und -verfahren
EP2455250B1 (de) Verfahren zur Erfassung der Umgebung eines Fahrzeugs
DE102020002994B4 (de) Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
EP1567888B1 (de) Verfahren zur erfassung der vorausliegenden umgebung eines strassenfahrzeugs mittels eines umgebungserfassungssystems
DE102007019491B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung, Fahrzeug, Fahrzeugumgebungs-Überwachungsverfahren und Fahrzeugumgebungs-Überwachungsprogramm
DE102006010295B4 (de) Kamerasystem mit zumindest zwei Bildaufnehmern
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
EP1506893A2 (de) Kraftfahrzeug mit Erfassung und Analyse der Objekten in dem Umfeld des Fahrzeugs
DE102008001991A1 (de) System zur Vermeidung von Seitenkollisionen
DE102009029439A1 (de) Verfahren und Vorrichtung zur Darstellung von Hindernissen in einem Einparkhilfesystem von Kraftfahrzeugen
DE102012223481A1 (de) Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs
EP1628141A1 (de) Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge
DE102009014437B4 (de) Objekterkennungssystem und -verfahren
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
EP3078015B1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
WO2019201537A1 (de) Verfahren und steuergerät zum kennzeichnen einer person
DE102009007408A1 (de) Vorrichtung zur Umfelderfassung eines Kraftfahrzeugs
DE102012018556B4 (de) Assistenzsystem zur Ermöglichung einer erweiterten Vorausschau für nachfolgende Verkehrsteilnehmer
DE102019116058A1 (de) Verfahren und vorrichtung zur objekterkennung in kamera-blindzonen
DE102005056976A1 (de) Einrichtung zur Umfelderfassung für ein Fahrzeug

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection