DE102006020930A1 - Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug - Google Patents

Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug Download PDF

Info

Publication number
DE102006020930A1
DE102006020930A1 DE102006020930A DE102006020930A DE102006020930A1 DE 102006020930 A1 DE102006020930 A1 DE 102006020930A1 DE 102006020930 A DE102006020930 A DE 102006020930A DE 102006020930 A DE102006020930 A DE 102006020930A DE 102006020930 A1 DE102006020930 A1 DE 102006020930A1
Authority
DE
Germany
Prior art keywords
distance
distance sensor
camera system
pixels
evaluated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102006020930A
Other languages
English (en)
Other versions
DE102006020930B4 (de
Inventor
Thomas Görnig
Georg Kunert
Werner Steiner
Michael Beuschel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Priority to DE102006020930.3A priority Critical patent/DE102006020930B4/de
Publication of DE102006020930A1 publication Critical patent/DE102006020930A1/de
Application granted granted Critical
Publication of DE102006020930B4 publication Critical patent/DE102006020930B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Abstract

Es werden ein Verfahren und eine Vorrichtung zur optimierten Umgebungsüberwachung für ein Kraftfahrzeug vorgestellt. Es sind zumindest ein Kamerasystem und ein Abstandssensor vorgesehen und die Erfassungsgebiete von Kamerasystem und Abstandssensor überlappen zumindest teilweise. Der Abstand zu relevanten Umgebungsobjekten wird vom Abstandssensor ermittelt. Der Auslesetakt und/oder die Anzahl der ausgewerteten Bildpunkte des Kamerasystems wird in Abhängigkeit von dem Abstand und/oder der Relativgeschwindigkeit des oder der relevanten Umgebungsobjekts(e) gesteuert.

Description

  • Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur optimierten Umgebungsüberwachung für ein Kraftfahrzeug gemäß den unabhängigen Patentansprüchen.
  • In Kraftfahrzeugen werden Sensoren zur Erfassung der Fahrzeugumgebung eingesetzt. Die Informationen über relevante Objekte im Fahrzeug werden z.B. in Fahrerassistenzsystemen in Fahrhilfen umgesetzt. Die Fahrhilfen sollen den Fahrer unterstützen, um Unfälle zu vermeiden oder die Schwere des Unfalls und die Unfallfolgen zu mildern. Zu den Fahrerassistenzsystemen zählen u. a. ACC (Adaptive Cruise Control), Pre-Crash-System und der Fußgängerkollisionsschutz. Um verlässliche Informationen über Umgebungsobjekte zu erlangen, können die Daten von zwei Umgebungserfassungssensoren zusammen geführt werden. Dabei wird anhand der Redundanz der Datensignale überprüft, ob sich wirklich ein Objekt in der Fahrzeugumgebung befindet. Bei verschiedenartigen Sensoren, z.B. einem Kamerasystem und einem Abstandsmesssystem kann sowohl der Abstand zum Objekt bestimmt werden als auch die Objektkonturen, anhand derer Größe und Art des Objekts bestimmt wird. Beispiele für eine Fusion von Sensordaten und daraus resultierende Vorteile werden im Stand der Technik beschrieben.
  • Es ist eine Aufgabe der hier vorliegenden Erfindung, Objekte in einer Kraftfahrzeugumgebung effizient und kostengünstig zu überwachen.
  • Diese Aufgabe ist erfindungsgemäß gelöst durch ein Verfahren und eine Vorrichtung mit den in den unabhängigen Ansprüchen beschriebenen Merkmalen. Vorteilhafte Weiterbildungen sind den Unteransprüchen zu entnehmen.
  • Es wird ein Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug angegeben. Dazu sind zumindest ein Kamerasystem und ein Abstandssensor vorgesehen. Die Erfassungsgebiete von Kamerasystem und Abstandssensor überlappen zumindest teilweise. Wird ein Umgebungsobjekt erkannt, wird vom Abstandssensor eine zugehörige Abstandsinformation ermittelt. Das im Folgenden beschriebene Verfahren kann entweder bezüglich aller vom Abstandssensor erkannten Objekte angewendet werden oder nur auf Objekte, die vorgegebene Merkmale aufweisen. Mögliche Merkmale sind, ob sich das Objekt auf einer prädizierten Fahrspur des Fahrzeugs befindet, der Abstand des Objekts, Annäherungsgeschwindigkeit, Größe, Konturen usw. In einer bevorzugten Ausgestaltung der Erfindung werden die genannten Eigenschaften mit dem Abstandssensor und/oder dem Kamerasystem ermittelt. Der Auslesetakt und/oder die Anzahl der ausgewerteten Bildpunkte des Kamerasystems wird in Abhängigkeit von der Entfernung und/oder der Relativgeschwindigkeit des (der) Umgebungsobjekts(e) gesteuert. In einer bevorzugten Ausgestaltung der Erfindung wird bei einer abnehmenden Entfernung Objekte die Anzahl der ausgewerteten Bildpunkte reduziert und/oder die Auslesefrequenz des Bildaufnehmers erhöht. Die Anzahl der Bildpunkte und der Auslesetakt eines Bildaufnehmers bestimmen die anfallende Datenmenge, die in der Auswerteeinheit des Kamerasensors ausgewertet wird. Die Kosten einer Auswerteeinheit steigen mit der zu verarbeitenden Datenmenge an. Es ist also vorteilhaft, die zur Verfügung stehende Kapazität der Auswerteeinheit bzw. eines darin enthaltenen Mikrocontrollers optimal auszunutzen. Ein Objekt das einen großen Abstand zum Kamerasystem aufweist, wird in einem relativ kleinen Bildausschnitt abgebildet verglichen mit demselben Objekt, das sich in einem kleinen Abstand zum Kamerasystem befindet. Die Anzahl der Pixel bei einem Bildaufnehmer ist vorgegeben. Ist ein Objekt weit entfernt, wird es mit einer geringeren Pixelzahl abgebildet als dasselbe Objekt in der Nähe des Kamerasystems. Da häufig mit einer geringen Anzahl von Bildpunkten ein Objekt hinreichend gut charakterisiert werden kann, ist es sinnvoll bei nahen Objekten die Anzahl der Bildpunkte zu reduzieren. Dies kann z.B. durch eine Zusammenfassung der Signale von mehreren Pixeln des Bildaufnehmers geschehen. Es wird z.B. der Mittelwert und/oder der Median und/oder der Extremwert (größter oder kleinster Wert) der Einzelsignale gebildet, die zu einem Bildpunkt beitragen, und dieser Wert wird für die weitere Auswertung mit Bildverarbeitungsalgorithmen zur Verfügung gestellt. Durch die Reduzierung der Bildpunkte wird auch die anfallende Datenmenge in der Auswerteeinheit reduziert. Die frei gewordene Kapazität wird z.B. durch eine Erhöhung des Auslesetakts des Bildaufnehmers genutzt. Dadurch werden nahe Objekte, mit denen eine erhöhte Kollisionsgefahr besteht häufiger abgetastet und ihr Gefährdungspotential kann besser abgeschätzt werden. In einer Ausgestaltung der Erfindung gibt es eine vorgegebene untere Schwelle für die minimale Anzahl der auszuwertenden Bildpunkte. Die untere Schwelle wird ggf. in Abhängigkeit vom relevanten Objekt (Höhe, Breite, Mensch, Kraftfahrzeug etc.) gesetzt werden. Zur Objektklassifizierung (Mensch, Verkehrszeichen, PKW) werden auch die Bilddaten des Kamerasystems hinzugezogen und mittels bekannter Objekterkennungsalgorithmen, z.B. Pattern Matching, ausgewertet.
  • In einer weiteren Ausgestaltung der Erfindung wird die Relativgeschwindigkeit eines relevanten Objekts bestimmt. Die Relativgeschwindigkeit wird entweder anhand mehrerer zeitlich aufeinander folgender Messungen des Abstands zwischen Objekt und Kamera bestimmt oder direkt aus den Sensordaten eines Relativgeschwindigkeitssensors. Mit zunehmender Relativgeschwindigkeit zwischen Objekt und Kraftfahrzeug ist ein erhöhter Auslesetakt des Bildaufnehmers von Vorteil, um das Gefährdungspotential des Objekts zu bewerten und um ggf. Maßnahmen zur Kollisionsvermeidung oder Schadensminderung einzuleiten. Ein erhöhter Auslesetakt erhöht die Datenmenge, die von der Auswerteeinheit verarbeitet werden muss. Hier wiederum kann die Datenmenge durch eine Reduzierung der Bildpunkte so verkleinert werden, so dass die Kapazität der Auswerteeinheit nicht überschritten wird.
  • In einer vorteilhaften Ausgestaltung der Erfindung wird ein Bildbereich, indem sich ein Objekt befindet, mit einer erhöhten Rechenkapazität ausgewertet. Wird z.B. ein Objekt in einem Bild erkannt, wird ein relevanter Bildbereich um das Objekt herum definiert, in dem sich das Objekt in der nächsten Bildaufnahme mit einer großen Wahrscheinlichkeit aufhält. Die Auswahl des relevanten Bildbereich kann z.B. aufgrund der Objektklasse (Fahrzeug, Fahrbahnmarkierung, Lebewesen, ...) und/oder der Relativgeschwindigkeit erfolgen. Der relevante Bildbereich wird mit einer erhöhten Rechenkapazität ausgewertet. Das kann z.B. bedeuten, dass nicht relevante Bereiche des Bildes mit einer reduzierten Pixelzahl ausgewertet werden und/oder das nichtrelevante Bildbereiche nicht in jedem aufgenommen Bild ausgewertet werden, sondern z.B. nur in jedem 2., 3. oder 4. aufgenommenen Bild. Es kann aus Abstand und/oder Relativgeschwindigkeit und/oder Objektklasse eine Maßzahl für die Kritikalität des Objekts bestimmt werden. Werden mehrere Objekte erfasst und damit mehrere relevante Bildbereiche identifiziert, können die Bilddaten der Bildbereiche gemäß ihrer Kritikalität in jedem, jedem 2., jedem 3. Bild usw. ausgewertet werden.
  • In einer weiteren Ausgestaltung der Erfindung weist der Abstandssensor zumindest zwei Empfangskanäle mit Empfängern auf, die auf unterschiedliche Zielgebiete ausgerichtet sind. So wird zusätzlich zum Abstand eine Information über das Raumsegment zur Verfügung gestellt, in dem sich ein relevantes Objekt befindet. Diese Information wird derart genutzt, dass der Bildbereich sich das Objekt befindet, mit einer erhöhten Kapazität der Auswerteeinheit ausgewertet wird. Das kann z.B. bedeuten, dass nur noch Bildbereiche ausgewertet werden, in denen sich relevante Objekte befinden. Dieses Vorgehen reduziert die Anzahl der Bildpunkte, so dass der Auslestakt erhöht werden kann, ohne die Kapazität der Auswerteeinheit zu überschreiten. Eine weitere Ausgestaltungsmöglichkeit besteht darin, die Anzahl der Bildpunkte in einem Bildbereich ohne ein relevantes Objekt verglichen mit einem Bildbereich mit einem relevanten Objekt zu reduzieren und/oder nichtrelevante Bildbereiche nicht in jedem aufgenommen Bild auszuwerten, sondern z.B. nur in jedem 2., 3. oder 4. aufgenommenen Bild.
  • In einer bevorzugten Ausgestaltung der Erfindung ist das Produkt aus Auslesetakt und Anzahl der Bildpunkte nahezu konstant und entspricht der Rechenkapazität der Auswerteeinheit. Zudem wird eine Vorrichtung zur optimierten Umgebungserfassung für ein Kraftfahrzeug beansprucht. Die Vorrichtung umfasst zumindest ein Kamerasystem und einen Abstandssensor. Die Zielgebiete von Abstandsensor und Kamerasystem überlappen zumindest teilweise. Das Kamerasystem sieht zumindest einen Bildaufnehmer vor, der mit einer vorgegebenen, veränderbaren Frequenz ausgelesen wird. Ein Verfahren zur optimierten Umgebungsüberwachung nach einem der vorherigen Ansprüche ist in einer Kontrolleinheit hinterlegt. Die Kontrolleinheit steuert anhand der eingehenden Sensordaten den Auslesetakt und die Anzahl der auszuwertenden Bildpunkte.
  • Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen und Abbildungen näher erläutert.
  • 1: Kraftfahrzeug mit Kamerasystem und Abstandssensor
  • 2: Diagramm: Anzahl der ausgewerteten Bildpunkte und Auslesetakt in Abhängigkeit vom Abstand zwischen Fahrzeug und Umgebungsobjekt.
  • 3: Erfassungsbereiche von Kamerasystem und Abstandssensor
  • In 1 ist ein Kraftfahrzeug 4 mit ein Kamerasystem 1 und einem Abstandssensor 2 dargestellt. Beide Sensoren schauen in Fahrtrichtung 5 und sind nahezu auf das gleiche Zielgebiet ausgerichtet. Beide Sensoren sind mit einer Kontrolleinheit 3 verbunden, die anhand der eingehenden Sensordaten den Auslesetakt und die Anzahl der Bildpunkte steuert. Weiterhin umfasst die Kontrolleinheit 3 eine Auswerteeinheit, die zumindest die Bilddaten auswertet.
  • In dem in 2 dargestellten Diagramm gibt die Ordinate links den prozentualen Anteil der ausgewerteten Bildpunkte, die Ordinate rechts den Auslesetakt und die Abszisse den Abstand zwischen Fahrzeug und Umgebungsobjekt an.
  • Der Verlauf der Linie 6a zeigt hierbei den Zusammenhang zwischen Abstand eines Objekts und prozentualer Bildauswertung. Es kann aber auch jeder andere beliebige Verlauf genommen werden, um das System optimal an die Umgebung anzupassen. Eine weitere Möglichkeit ist mit Linie 6b dargestellt. Linie 7 beschreibt den Auslesetakt in willkürlichen Einheiten in Abhängigkeit vom Abstand zum Objekt. Beide Linien 6a und 6b zeigen, dass mit zunehmendem Abstand eine Zunahme der auszuwertenden Bildpunkte erfolgt. Bei einem Abstand von 100 m nimmt der Auslesetakt gemäß seinem unteren Schwellwert den Wert 1 in willkürlichen Einheiten ein. Entspricht eine willkürliche Einheit 50 Hz, so wird eine Auflösung der Objektbewegung von 20 cm bei einer Relativgeschwindigkeit von 36 km/h erreicht, die den Anforderungen für ein 100 m entferntes Objekt genügt. Bei einem sich verringernden Abstand, wird der prozentuale Wert der auszuwertenden Bildpunkte verringert. Die frei werdende Rechenleistung wird genutzt, indem der Auslesetakt und damit die Auflösung der Objekttrajektorie erhöht werden. Beträgt der Abstand z.B. 25 m, hat die Anzahl der auszuwertenden Bildpunkte seinen unteren Schwellwert mit 20% erreicht und der Auslesetakt wird um den Faktor 5 erhöht.
  • Das in 2 dargestellte Diagramm kann auch in Abhängigkeit von der Relativgeschwindigkeit zwischen Kraftfahrzeug und Objekt erstellt werden.
  • Dabei würde der Auslesetakt mit zunehmender Relativgeschwindigkeit ansteigen, um die Auflösung der Objekttrajektorie zu erhöhen und um eine Aussage über eine mögliche Kollision treffen zu können. Die Anzahl der Bildpunkte wird entsprechend der Kapazität der Auswerteeinheit angepasst. In einem weiteren Ausführungsbeispiel wird aus Abstand und Relativgeschwindigkeit eine Maßzahl für die Kritikalität bestimmt.
  • In Abhängigkeit von der Maßzahl werden die Anzahl der auszuwertenden Bildpunkte und der Auslesetakt bestimmt In 3 sind die Erfassungsbereiche des Kamerasystems und eines mehrkanaligen Abstandssensors dargestellt. Die Erfassungsbereiche 9a, 9b, 9c des Abstandssensors 2 liegen innerhalb des Erfassungsbereichs 8 des Kamerasystems 1. Wenn in einem Erfassungsbereich 9a, 9b oder 9c ein relevantes Objekt detektiert wird, wird der entsprechende Bildbereich 10a, 10b, oder 10c mit einer erhöhten Auswertekapazität ausgewertet. In diesem Ausführungsbeispiel werden nur die Bildbereiche ausgewertet, in denen sich laut Daten des Abstandssensors 2 relevante Objekte befinden. Die Anzahl der Bildpunkte wird somit reduziert und der Auslesetakt wird gemäß der zur Verfügung stehenden Rechenkapazität erhöht. Werden zwei relevante Objekte in unterschiedlichen Entfernungen erfasst, so wird der Auslesetakt in Abhängigkeit von dem nächsten relevanten Objekt bzw. von dem relevanten Objekt mit der größten Relativgeschwindigkeit bzw. von der Maßzahl für die Kritikalität gewählt. Die Anzahl der Bildpunkte wird entsprechend der Auswertekapazität angepasst. Werden in zumindest zwei Bildbereiche 10 bewertet, kann die Anzahl der ausgewerteten Bildpunkte darin gleich sein. In einem weiteren Ausführungsbeispiel wird die Anzahl der Bildpunkte in Abhängigkeit von der Kritikalität des erfassten Objekts (Abstand, Relativgeschwindigkeit) und der Auswertekapazität bestimmt. In diesem Fall kann die Anzahl der auszuwertenden Bildpunkte unterschiedliche Werte in den relevanten Bildbereichen 10 einnehmen.

Claims (7)

  1. Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug (4), wobei i) zumindest ein Kamerasystem (1) und ein Abstandssensor (2) vorgesehen sind und die Erfassungsgebiete (9, 10) von Kamerasystem und Abstandssensor zumindest teilweise überlappen, ii) der Abstand zu relevanten Umgebungsobjekten vom Abstandssensor (2) ermittelt wird, iii) der Auslesetakt und/oder die Anzahl der ausgewerteten Bildpunkte des Kamerasystems in Abhängigkeit von dem Abstand und/oder der Relativgeschwindigkeit des oder der relevanten Umgebungsobjekts(e) gesteuert wird.
  2. Verfahren nach Anspruch 1, wobei mit abnehmender Entfernung die Anzahl der auszuwertenden Bildpunkte reduziert und der Auslesetakt des Bildaufnehmers erhöht wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei mit zunehmender Relativgeschwindigkeit zwischen Objekt und Kraftfahrzeug die Anzahl der auszuwertenden Bildpunkte reduziert und der Auslesetakt des Bildaufnehmers erhöht wird.
  4. Verfahren nach einem der vorherigen Ansprüche, wobei ein Bildbereich, indem sich ein relevantes Objekt befindet, mit einer erhöhten Rechenkapazität ausgewertet wird.
  5. Verfahren nach einem der vorherigen Ansprüche, wobei der Abstandssensor zumindest zwei Empfangskanäle ausweist, wobei der Erfassungsbereich eines Empfangskanals einem Bildbereich zugeordnet wird, und ein Bildbereich, indem sich laut Abstandssensor ein relevantes Objekt befindet, mit einer erhöhten Rechenkapazität ausgewertet wird.
  6. Verfahren nach einem der vorherigen Ansprüche, wobei das Produkt aus Auslesetakt und Anzahl der Bildpunkte nahezu konstant ist und im Wesentlichen der für die Auswertung vorgesehenen Rechenkapazität entspricht.
  7. Vorrichtung zur optimierten Umgebungserfassung für ein Kraftfahrzeug (4), die zumindest ein Kamerasystem (1) und einen Abstandssensor (2) umfasst, wobei i) die Zielgebiete von Abstandsensor (2) und Kamerasystem (1) zumindest teilweise überlappen, und ii) das Kamerasystem (1) zumindest einen Bildaufnehmer vorsieht der mit einer vorgegebenen veränderbaren Frequenz ausgelesen wird und iii) ein Verfahren zur optimierten Umgebungsüberwachung nach einem der vorherigen Ansprüche in einer Auswerte- bzw. Steuereinheit hinterlegt ist.
DE102006020930.3A 2006-05-05 2006-05-05 Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug Expired - Fee Related DE102006020930B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102006020930.3A DE102006020930B4 (de) 2006-05-05 2006-05-05 Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006020930.3A DE102006020930B4 (de) 2006-05-05 2006-05-05 Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug

Publications (2)

Publication Number Publication Date
DE102006020930A1 true DE102006020930A1 (de) 2007-11-08
DE102006020930B4 DE102006020930B4 (de) 2018-04-12

Family

ID=38564870

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006020930.3A Expired - Fee Related DE102006020930B4 (de) 2006-05-05 2006-05-05 Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102006020930B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2288520A1 (de) * 2008-06-25 2011-03-02 Autoliv Development AB Verfahren zur erfassung eines objekts in der nähe eines fahrzeugs
EP2605101A1 (de) * 2011-12-17 2013-06-19 Valeo Schalter und Sensoren GmbH Verfahren zum Anzeigen von Bildern auf einer Anzeigevorrichtung der Fahrerhilfsvorrichtung eines Motorfahrzeugs, Computerprogramm und Fahrerhilfsvorrichtung dafür
US8908035B2 (en) 2006-11-09 2014-12-09 Bayerische Motoren Werke Aktiengesellschaft Method of producing a total image of the environment surrounding a motor vehicle
DE102019107443A1 (de) * 2019-03-22 2020-09-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betrieb eines Roboters mit verbesserter Objektdetektion

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19629775A1 (de) * 1995-11-17 1997-05-22 Mitsubishi Electric Corp Verfahren und Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs und zur Erfassung eines Ausfalls der Überwachungsvorrichtung
US20020044048A1 (en) * 2000-10-12 2002-04-18 Nissan Motor Co., Tld. Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle
WO2003001472A1 (en) * 2001-06-23 2003-01-03 Lucas Industries Limited An object location system for a road vehicle
US20030169902A1 (en) * 2002-03-05 2003-09-11 Nissan Motor Co., Ltd. Vehicular image processing apparatus and related method
EP1580075A2 (de) * 2004-03-26 2005-09-28 Omron Corporation Vorrichtung zur Fahrzeugerkennung und Methode dazu

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19629775A1 (de) * 1995-11-17 1997-05-22 Mitsubishi Electric Corp Verfahren und Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs und zur Erfassung eines Ausfalls der Überwachungsvorrichtung
US20020044048A1 (en) * 2000-10-12 2002-04-18 Nissan Motor Co., Tld. Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle
WO2003001472A1 (en) * 2001-06-23 2003-01-03 Lucas Industries Limited An object location system for a road vehicle
US20030169902A1 (en) * 2002-03-05 2003-09-11 Nissan Motor Co., Ltd. Vehicular image processing apparatus and related method
EP1580075A2 (de) * 2004-03-26 2005-09-28 Omron Corporation Vorrichtung zur Fahrzeugerkennung und Methode dazu

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908035B2 (en) 2006-11-09 2014-12-09 Bayerische Motoren Werke Aktiengesellschaft Method of producing a total image of the environment surrounding a motor vehicle
EP2288520A1 (de) * 2008-06-25 2011-03-02 Autoliv Development AB Verfahren zur erfassung eines objekts in der nähe eines fahrzeugs
EP2288520A4 (de) * 2008-06-25 2013-09-25 Autoliv Dev Verfahren zur erfassung eines objekts in der nähe eines fahrzeugs
EP2605101A1 (de) * 2011-12-17 2013-06-19 Valeo Schalter und Sensoren GmbH Verfahren zum Anzeigen von Bildern auf einer Anzeigevorrichtung der Fahrerhilfsvorrichtung eines Motorfahrzeugs, Computerprogramm und Fahrerhilfsvorrichtung dafür
DE102011121473A1 (de) * 2011-12-17 2013-06-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung, Kraftfahrzeug und Computerprogramm
DE102019107443A1 (de) * 2019-03-22 2020-09-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betrieb eines Roboters mit verbesserter Objektdetektion

Also Published As

Publication number Publication date
DE102006020930B4 (de) 2018-04-12

Similar Documents

Publication Publication Date Title
EP3175256B1 (de) Verfahren zum klassifizieren eines objektes in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
EP1330132B1 (de) Verfahren und Vorrichtung zur Verdeckungsdetektion bei Bildsensorsystemen
EP1957309B1 (de) Verfahren und vorrichtung zur fahrerzustandserkennung
DE102008025723B4 (de) Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs
DE102008063122B4 (de) Belichtungssteuervorrichtung und Belichtungssteuerprogramm für elektronische Fahrzeugkamera
DE102016204430A1 (de) Verkehrszeichenbestimmungsvorrichtung
DE102008058840A1 (de) Vorrichtung zur Reduktion von Kollisionsschaden
DE102009004626B4 (de) Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs
DE102020212799A1 (de) Durchführen von objekt- und aktivitätserkennung auf der grundlage von daten von einer kamera und einem radarsensor
DE102011084477A1 (de) Abstandsmesssystem sowie Verfahren zur Abstandsmessung insbesondere eines Fahrzeugs zu seiner Umgebung
WO2012156228A1 (de) Verfahren und vorrichtung zum erkennen eines möglichen kollisionsobjektes
WO2018202552A1 (de) Verfahren und vorrichtung zum klassifizieren von objekten im umfeld eines kraftfahrzeuges
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
EP3792150B1 (de) Erkennung von hands-off-situationen auf basis von schwarmdaten
DE102008027588A1 (de) Vorrichtung zur Erfassung von Fußgängern
DE102013205361A1 (de) System und Verfahren zur Archivierung von Berührungsereignissen eines Fahrzeugs
WO2017102150A1 (de) Verfahren zum bewerten einer durch zumindest einen sensor eines fahrzeugs erfassten gefahrensituation, verfahren zum steuern einer wiedergabe einer gefahrenwarnung und verfahren zum wiedergeben einer gefahrenwarnung
DE102006020930A1 (de) Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug
DE102011113325A1 (de) Verfahren zur Objekterkennung mittels Bilddaten
EP3693940A1 (de) Verfahren zum erkennen von überholvorgängen im strassenverkehr innerhalb eines streckenabschnitts
DE102018005969A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen
DE102012009703A1 (de) Verfahren und Vorrichtung zur Personenerkennung im Umfeld eines Kraftfahrzeugs
DE102015122413B4 (de) Verfahren zum Betreiben eines Ultraschallsensors eines Kraftfahrzeugs, Ultraschallsensorvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102011088167A1 (de) Detektion eines Ladungsverlusts bei einem Kraftfahrzeug
DE102016003574A1 (de) Verfahren zur Überwachung einer unmittelbaren Fahrzeugumgebung

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R012 Request for examination validly filed

Effective date: 20130122

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R084 Declaration of willingness to licence
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee