DE102006020930A1 - Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug - Google Patents
Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug Download PDFInfo
- Publication number
- DE102006020930A1 DE102006020930A1 DE102006020930A DE102006020930A DE102006020930A1 DE 102006020930 A1 DE102006020930 A1 DE 102006020930A1 DE 102006020930 A DE102006020930 A DE 102006020930A DE 102006020930 A DE102006020930 A DE 102006020930A DE 102006020930 A1 DE102006020930 A1 DE 102006020930A1
- Authority
- DE
- Germany
- Prior art keywords
- distance
- distance sensor
- camera system
- pixels
- evaluated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 238000012544 monitoring process Methods 0.000 title claims description 6
- 238000001514 detection method Methods 0.000 claims abstract description 9
- 238000011156 evaluation Methods 0.000 claims description 18
- 230000007613 environmental effect Effects 0.000 claims description 9
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Abstract
Es werden ein Verfahren und eine Vorrichtung zur optimierten Umgebungsüberwachung für ein Kraftfahrzeug vorgestellt. Es sind zumindest ein Kamerasystem und ein Abstandssensor vorgesehen und die Erfassungsgebiete von Kamerasystem und Abstandssensor überlappen zumindest teilweise. Der Abstand zu relevanten Umgebungsobjekten wird vom Abstandssensor ermittelt. Der Auslesetakt und/oder die Anzahl der ausgewerteten Bildpunkte des Kamerasystems wird in Abhängigkeit von dem Abstand und/oder der Relativgeschwindigkeit des oder der relevanten Umgebungsobjekts(e) gesteuert.
Description
- Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur optimierten Umgebungsüberwachung für ein Kraftfahrzeug gemäß den unabhängigen Patentansprüchen.
- In Kraftfahrzeugen werden Sensoren zur Erfassung der Fahrzeugumgebung eingesetzt. Die Informationen über relevante Objekte im Fahrzeug werden z.B. in Fahrerassistenzsystemen in Fahrhilfen umgesetzt. Die Fahrhilfen sollen den Fahrer unterstützen, um Unfälle zu vermeiden oder die Schwere des Unfalls und die Unfallfolgen zu mildern. Zu den Fahrerassistenzsystemen zählen u. a. ACC (Adaptive Cruise Control), Pre-Crash-System und der Fußgängerkollisionsschutz. Um verlässliche Informationen über Umgebungsobjekte zu erlangen, können die Daten von zwei Umgebungserfassungssensoren zusammen geführt werden. Dabei wird anhand der Redundanz der Datensignale überprüft, ob sich wirklich ein Objekt in der Fahrzeugumgebung befindet. Bei verschiedenartigen Sensoren, z.B. einem Kamerasystem und einem Abstandsmesssystem kann sowohl der Abstand zum Objekt bestimmt werden als auch die Objektkonturen, anhand derer Größe und Art des Objekts bestimmt wird. Beispiele für eine Fusion von Sensordaten und daraus resultierende Vorteile werden im Stand der Technik beschrieben.
- Es ist eine Aufgabe der hier vorliegenden Erfindung, Objekte in einer Kraftfahrzeugumgebung effizient und kostengünstig zu überwachen.
- Diese Aufgabe ist erfindungsgemäß gelöst durch ein Verfahren und eine Vorrichtung mit den in den unabhängigen Ansprüchen beschriebenen Merkmalen. Vorteilhafte Weiterbildungen sind den Unteransprüchen zu entnehmen.
- Es wird ein Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug angegeben. Dazu sind zumindest ein Kamerasystem und ein Abstandssensor vorgesehen. Die Erfassungsgebiete von Kamerasystem und Abstandssensor überlappen zumindest teilweise. Wird ein Umgebungsobjekt erkannt, wird vom Abstandssensor eine zugehörige Abstandsinformation ermittelt. Das im Folgenden beschriebene Verfahren kann entweder bezüglich aller vom Abstandssensor erkannten Objekte angewendet werden oder nur auf Objekte, die vorgegebene Merkmale aufweisen. Mögliche Merkmale sind, ob sich das Objekt auf einer prädizierten Fahrspur des Fahrzeugs befindet, der Abstand des Objekts, Annäherungsgeschwindigkeit, Größe, Konturen usw. In einer bevorzugten Ausgestaltung der Erfindung werden die genannten Eigenschaften mit dem Abstandssensor und/oder dem Kamerasystem ermittelt. Der Auslesetakt und/oder die Anzahl der ausgewerteten Bildpunkte des Kamerasystems wird in Abhängigkeit von der Entfernung und/oder der Relativgeschwindigkeit des (der) Umgebungsobjekts(e) gesteuert. In einer bevorzugten Ausgestaltung der Erfindung wird bei einer abnehmenden Entfernung Objekte die Anzahl der ausgewerteten Bildpunkte reduziert und/oder die Auslesefrequenz des Bildaufnehmers erhöht. Die Anzahl der Bildpunkte und der Auslesetakt eines Bildaufnehmers bestimmen die anfallende Datenmenge, die in der Auswerteeinheit des Kamerasensors ausgewertet wird. Die Kosten einer Auswerteeinheit steigen mit der zu verarbeitenden Datenmenge an. Es ist also vorteilhaft, die zur Verfügung stehende Kapazität der Auswerteeinheit bzw. eines darin enthaltenen Mikrocontrollers optimal auszunutzen. Ein Objekt das einen großen Abstand zum Kamerasystem aufweist, wird in einem relativ kleinen Bildausschnitt abgebildet verglichen mit demselben Objekt, das sich in einem kleinen Abstand zum Kamerasystem befindet. Die Anzahl der Pixel bei einem Bildaufnehmer ist vorgegeben. Ist ein Objekt weit entfernt, wird es mit einer geringeren Pixelzahl abgebildet als dasselbe Objekt in der Nähe des Kamerasystems. Da häufig mit einer geringen Anzahl von Bildpunkten ein Objekt hinreichend gut charakterisiert werden kann, ist es sinnvoll bei nahen Objekten die Anzahl der Bildpunkte zu reduzieren. Dies kann z.B. durch eine Zusammenfassung der Signale von mehreren Pixeln des Bildaufnehmers geschehen. Es wird z.B. der Mittelwert und/oder der Median und/oder der Extremwert (größter oder kleinster Wert) der Einzelsignale gebildet, die zu einem Bildpunkt beitragen, und dieser Wert wird für die weitere Auswertung mit Bildverarbeitungsalgorithmen zur Verfügung gestellt. Durch die Reduzierung der Bildpunkte wird auch die anfallende Datenmenge in der Auswerteeinheit reduziert. Die frei gewordene Kapazität wird z.B. durch eine Erhöhung des Auslesetakts des Bildaufnehmers genutzt. Dadurch werden nahe Objekte, mit denen eine erhöhte Kollisionsgefahr besteht häufiger abgetastet und ihr Gefährdungspotential kann besser abgeschätzt werden. In einer Ausgestaltung der Erfindung gibt es eine vorgegebene untere Schwelle für die minimale Anzahl der auszuwertenden Bildpunkte. Die untere Schwelle wird ggf. in Abhängigkeit vom relevanten Objekt (Höhe, Breite, Mensch, Kraftfahrzeug etc.) gesetzt werden. Zur Objektklassifizierung (Mensch, Verkehrszeichen, PKW) werden auch die Bilddaten des Kamerasystems hinzugezogen und mittels bekannter Objekterkennungsalgorithmen, z.B. Pattern Matching, ausgewertet.
- In einer weiteren Ausgestaltung der Erfindung wird die Relativgeschwindigkeit eines relevanten Objekts bestimmt. Die Relativgeschwindigkeit wird entweder anhand mehrerer zeitlich aufeinander folgender Messungen des Abstands zwischen Objekt und Kamera bestimmt oder direkt aus den Sensordaten eines Relativgeschwindigkeitssensors. Mit zunehmender Relativgeschwindigkeit zwischen Objekt und Kraftfahrzeug ist ein erhöhter Auslesetakt des Bildaufnehmers von Vorteil, um das Gefährdungspotential des Objekts zu bewerten und um ggf. Maßnahmen zur Kollisionsvermeidung oder Schadensminderung einzuleiten. Ein erhöhter Auslesetakt erhöht die Datenmenge, die von der Auswerteeinheit verarbeitet werden muss. Hier wiederum kann die Datenmenge durch eine Reduzierung der Bildpunkte so verkleinert werden, so dass die Kapazität der Auswerteeinheit nicht überschritten wird.
- In einer vorteilhaften Ausgestaltung der Erfindung wird ein Bildbereich, indem sich ein Objekt befindet, mit einer erhöhten Rechenkapazität ausgewertet. Wird z.B. ein Objekt in einem Bild erkannt, wird ein relevanter Bildbereich um das Objekt herum definiert, in dem sich das Objekt in der nächsten Bildaufnahme mit einer großen Wahrscheinlichkeit aufhält. Die Auswahl des relevanten Bildbereich kann z.B. aufgrund der Objektklasse (Fahrzeug, Fahrbahnmarkierung, Lebewesen, ...) und/oder der Relativgeschwindigkeit erfolgen. Der relevante Bildbereich wird mit einer erhöhten Rechenkapazität ausgewertet. Das kann z.B. bedeuten, dass nicht relevante Bereiche des Bildes mit einer reduzierten Pixelzahl ausgewertet werden und/oder das nichtrelevante Bildbereiche nicht in jedem aufgenommen Bild ausgewertet werden, sondern z.B. nur in jedem 2., 3. oder 4. aufgenommenen Bild. Es kann aus Abstand und/oder Relativgeschwindigkeit und/oder Objektklasse eine Maßzahl für die Kritikalität des Objekts bestimmt werden. Werden mehrere Objekte erfasst und damit mehrere relevante Bildbereiche identifiziert, können die Bilddaten der Bildbereiche gemäß ihrer Kritikalität in jedem, jedem 2., jedem 3. Bild usw. ausgewertet werden.
- In einer weiteren Ausgestaltung der Erfindung weist der Abstandssensor zumindest zwei Empfangskanäle mit Empfängern auf, die auf unterschiedliche Zielgebiete ausgerichtet sind. So wird zusätzlich zum Abstand eine Information über das Raumsegment zur Verfügung gestellt, in dem sich ein relevantes Objekt befindet. Diese Information wird derart genutzt, dass der Bildbereich sich das Objekt befindet, mit einer erhöhten Kapazität der Auswerteeinheit ausgewertet wird. Das kann z.B. bedeuten, dass nur noch Bildbereiche ausgewertet werden, in denen sich relevante Objekte befinden. Dieses Vorgehen reduziert die Anzahl der Bildpunkte, so dass der Auslestakt erhöht werden kann, ohne die Kapazität der Auswerteeinheit zu überschreiten. Eine weitere Ausgestaltungsmöglichkeit besteht darin, die Anzahl der Bildpunkte in einem Bildbereich ohne ein relevantes Objekt verglichen mit einem Bildbereich mit einem relevanten Objekt zu reduzieren und/oder nichtrelevante Bildbereiche nicht in jedem aufgenommen Bild auszuwerten, sondern z.B. nur in jedem 2., 3. oder 4. aufgenommenen Bild.
- In einer bevorzugten Ausgestaltung der Erfindung ist das Produkt aus Auslesetakt und Anzahl der Bildpunkte nahezu konstant und entspricht der Rechenkapazität der Auswerteeinheit. Zudem wird eine Vorrichtung zur optimierten Umgebungserfassung für ein Kraftfahrzeug beansprucht. Die Vorrichtung umfasst zumindest ein Kamerasystem und einen Abstandssensor. Die Zielgebiete von Abstandsensor und Kamerasystem überlappen zumindest teilweise. Das Kamerasystem sieht zumindest einen Bildaufnehmer vor, der mit einer vorgegebenen, veränderbaren Frequenz ausgelesen wird. Ein Verfahren zur optimierten Umgebungsüberwachung nach einem der vorherigen Ansprüche ist in einer Kontrolleinheit hinterlegt. Die Kontrolleinheit steuert anhand der eingehenden Sensordaten den Auslesetakt und die Anzahl der auszuwertenden Bildpunkte.
- Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen und Abbildungen näher erläutert.
-
1 : Kraftfahrzeug mit Kamerasystem und Abstandssensor -
2 : Diagramm: Anzahl der ausgewerteten Bildpunkte und Auslesetakt in Abhängigkeit vom Abstand zwischen Fahrzeug und Umgebungsobjekt. -
3 : Erfassungsbereiche von Kamerasystem und Abstandssensor - In
1 ist ein Kraftfahrzeug4 mit ein Kamerasystem1 und einem Abstandssensor2 dargestellt. Beide Sensoren schauen in Fahrtrichtung5 und sind nahezu auf das gleiche Zielgebiet ausgerichtet. Beide Sensoren sind mit einer Kontrolleinheit3 verbunden, die anhand der eingehenden Sensordaten den Auslesetakt und die Anzahl der Bildpunkte steuert. Weiterhin umfasst die Kontrolleinheit3 eine Auswerteeinheit, die zumindest die Bilddaten auswertet. - In dem in
2 dargestellten Diagramm gibt die Ordinate links den prozentualen Anteil der ausgewerteten Bildpunkte, die Ordinate rechts den Auslesetakt und die Abszisse den Abstand zwischen Fahrzeug und Umgebungsobjekt an. - Der Verlauf der Linie
6a zeigt hierbei den Zusammenhang zwischen Abstand eines Objekts und prozentualer Bildauswertung. Es kann aber auch jeder andere beliebige Verlauf genommen werden, um das System optimal an die Umgebung anzupassen. Eine weitere Möglichkeit ist mit Linie6b dargestellt. Linie7 beschreibt den Auslesetakt in willkürlichen Einheiten in Abhängigkeit vom Abstand zum Objekt. Beide Linien6a und6b zeigen, dass mit zunehmendem Abstand eine Zunahme der auszuwertenden Bildpunkte erfolgt. Bei einem Abstand von 100 m nimmt der Auslesetakt gemäß seinem unteren Schwellwert den Wert 1 in willkürlichen Einheiten ein. Entspricht eine willkürliche Einheit 50 Hz, so wird eine Auflösung der Objektbewegung von 20 cm bei einer Relativgeschwindigkeit von 36 km/h erreicht, die den Anforderungen für ein 100 m entferntes Objekt genügt. Bei einem sich verringernden Abstand, wird der prozentuale Wert der auszuwertenden Bildpunkte verringert. Die frei werdende Rechenleistung wird genutzt, indem der Auslesetakt und damit die Auflösung der Objekttrajektorie erhöht werden. Beträgt der Abstand z.B. 25 m, hat die Anzahl der auszuwertenden Bildpunkte seinen unteren Schwellwert mit 20% erreicht und der Auslesetakt wird um den Faktor 5 erhöht. - Das in
2 dargestellte Diagramm kann auch in Abhängigkeit von der Relativgeschwindigkeit zwischen Kraftfahrzeug und Objekt erstellt werden. - Dabei würde der Auslesetakt mit zunehmender Relativgeschwindigkeit ansteigen, um die Auflösung der Objekttrajektorie zu erhöhen und um eine Aussage über eine mögliche Kollision treffen zu können. Die Anzahl der Bildpunkte wird entsprechend der Kapazität der Auswerteeinheit angepasst. In einem weiteren Ausführungsbeispiel wird aus Abstand und Relativgeschwindigkeit eine Maßzahl für die Kritikalität bestimmt.
- In Abhängigkeit von der Maßzahl werden die Anzahl der auszuwertenden Bildpunkte und der Auslesetakt bestimmt In
3 sind die Erfassungsbereiche des Kamerasystems und eines mehrkanaligen Abstandssensors dargestellt. Die Erfassungsbereiche9a ,9b ,9c des Abstandssensors2 liegen innerhalb des Erfassungsbereichs8 des Kamerasystems1 . Wenn in einem Erfassungsbereich9a ,9b oder9c ein relevantes Objekt detektiert wird, wird der entsprechende Bildbereich10a ,10b , oder10c mit einer erhöhten Auswertekapazität ausgewertet. In diesem Ausführungsbeispiel werden nur die Bildbereiche ausgewertet, in denen sich laut Daten des Abstandssensors2 relevante Objekte befinden. Die Anzahl der Bildpunkte wird somit reduziert und der Auslesetakt wird gemäß der zur Verfügung stehenden Rechenkapazität erhöht. Werden zwei relevante Objekte in unterschiedlichen Entfernungen erfasst, so wird der Auslesetakt in Abhängigkeit von dem nächsten relevanten Objekt bzw. von dem relevanten Objekt mit der größten Relativgeschwindigkeit bzw. von der Maßzahl für die Kritikalität gewählt. Die Anzahl der Bildpunkte wird entsprechend der Auswertekapazität angepasst. Werden in zumindest zwei Bildbereiche10 bewertet, kann die Anzahl der ausgewerteten Bildpunkte darin gleich sein. In einem weiteren Ausführungsbeispiel wird die Anzahl der Bildpunkte in Abhängigkeit von der Kritikalität des erfassten Objekts (Abstand, Relativgeschwindigkeit) und der Auswertekapazität bestimmt. In diesem Fall kann die Anzahl der auszuwertenden Bildpunkte unterschiedliche Werte in den relevanten Bildbereichen10 einnehmen.
Claims (7)
- Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug (
4 ), wobei i) zumindest ein Kamerasystem (1 ) und ein Abstandssensor (2 ) vorgesehen sind und die Erfassungsgebiete (9 ,10 ) von Kamerasystem und Abstandssensor zumindest teilweise überlappen, ii) der Abstand zu relevanten Umgebungsobjekten vom Abstandssensor (2 ) ermittelt wird, iii) der Auslesetakt und/oder die Anzahl der ausgewerteten Bildpunkte des Kamerasystems in Abhängigkeit von dem Abstand und/oder der Relativgeschwindigkeit des oder der relevanten Umgebungsobjekts(e) gesteuert wird. - Verfahren nach Anspruch 1, wobei mit abnehmender Entfernung die Anzahl der auszuwertenden Bildpunkte reduziert und der Auslesetakt des Bildaufnehmers erhöht wird.
- Verfahren nach Anspruch 1 oder 2, wobei mit zunehmender Relativgeschwindigkeit zwischen Objekt und Kraftfahrzeug die Anzahl der auszuwertenden Bildpunkte reduziert und der Auslesetakt des Bildaufnehmers erhöht wird.
- Verfahren nach einem der vorherigen Ansprüche, wobei ein Bildbereich, indem sich ein relevantes Objekt befindet, mit einer erhöhten Rechenkapazität ausgewertet wird.
- Verfahren nach einem der vorherigen Ansprüche, wobei der Abstandssensor zumindest zwei Empfangskanäle ausweist, wobei der Erfassungsbereich eines Empfangskanals einem Bildbereich zugeordnet wird, und ein Bildbereich, indem sich laut Abstandssensor ein relevantes Objekt befindet, mit einer erhöhten Rechenkapazität ausgewertet wird.
- Verfahren nach einem der vorherigen Ansprüche, wobei das Produkt aus Auslesetakt und Anzahl der Bildpunkte nahezu konstant ist und im Wesentlichen der für die Auswertung vorgesehenen Rechenkapazität entspricht.
- Vorrichtung zur optimierten Umgebungserfassung für ein Kraftfahrzeug (
4 ), die zumindest ein Kamerasystem (1 ) und einen Abstandssensor (2 ) umfasst, wobei i) die Zielgebiete von Abstandsensor (2 ) und Kamerasystem (1 ) zumindest teilweise überlappen, und ii) das Kamerasystem (1 ) zumindest einen Bildaufnehmer vorsieht der mit einer vorgegebenen veränderbaren Frequenz ausgelesen wird und iii) ein Verfahren zur optimierten Umgebungsüberwachung nach einem der vorherigen Ansprüche in einer Auswerte- bzw. Steuereinheit hinterlegt ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006020930.3A DE102006020930B4 (de) | 2006-05-05 | 2006-05-05 | Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006020930.3A DE102006020930B4 (de) | 2006-05-05 | 2006-05-05 | Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102006020930A1 true DE102006020930A1 (de) | 2007-11-08 |
DE102006020930B4 DE102006020930B4 (de) | 2018-04-12 |
Family
ID=38564870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102006020930.3A Expired - Fee Related DE102006020930B4 (de) | 2006-05-05 | 2006-05-05 | Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102006020930B4 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2288520A1 (de) * | 2008-06-25 | 2011-03-02 | Autoliv Development AB | Verfahren zur erfassung eines objekts in der nähe eines fahrzeugs |
EP2605101A1 (de) * | 2011-12-17 | 2013-06-19 | Valeo Schalter und Sensoren GmbH | Verfahren zum Anzeigen von Bildern auf einer Anzeigevorrichtung der Fahrerhilfsvorrichtung eines Motorfahrzeugs, Computerprogramm und Fahrerhilfsvorrichtung dafür |
US8908035B2 (en) | 2006-11-09 | 2014-12-09 | Bayerische Motoren Werke Aktiengesellschaft | Method of producing a total image of the environment surrounding a motor vehicle |
DE102019107443A1 (de) * | 2019-03-22 | 2020-09-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betrieb eines Roboters mit verbesserter Objektdetektion |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19629775A1 (de) * | 1995-11-17 | 1997-05-22 | Mitsubishi Electric Corp | Verfahren und Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs und zur Erfassung eines Ausfalls der Überwachungsvorrichtung |
US20020044048A1 (en) * | 2000-10-12 | 2002-04-18 | Nissan Motor Co., Tld. | Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle |
WO2003001472A1 (en) * | 2001-06-23 | 2003-01-03 | Lucas Industries Limited | An object location system for a road vehicle |
US20030169902A1 (en) * | 2002-03-05 | 2003-09-11 | Nissan Motor Co., Ltd. | Vehicular image processing apparatus and related method |
EP1580075A2 (de) * | 2004-03-26 | 2005-09-28 | Omron Corporation | Vorrichtung zur Fahrzeugerkennung und Methode dazu |
-
2006
- 2006-05-05 DE DE102006020930.3A patent/DE102006020930B4/de not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19629775A1 (de) * | 1995-11-17 | 1997-05-22 | Mitsubishi Electric Corp | Verfahren und Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs und zur Erfassung eines Ausfalls der Überwachungsvorrichtung |
US20020044048A1 (en) * | 2000-10-12 | 2002-04-18 | Nissan Motor Co., Tld. | Method and apparatus for detecting position of object present in a surrounding detection zone of automotive vehicle |
WO2003001472A1 (en) * | 2001-06-23 | 2003-01-03 | Lucas Industries Limited | An object location system for a road vehicle |
US20030169902A1 (en) * | 2002-03-05 | 2003-09-11 | Nissan Motor Co., Ltd. | Vehicular image processing apparatus and related method |
EP1580075A2 (de) * | 2004-03-26 | 2005-09-28 | Omron Corporation | Vorrichtung zur Fahrzeugerkennung und Methode dazu |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8908035B2 (en) | 2006-11-09 | 2014-12-09 | Bayerische Motoren Werke Aktiengesellschaft | Method of producing a total image of the environment surrounding a motor vehicle |
EP2288520A1 (de) * | 2008-06-25 | 2011-03-02 | Autoliv Development AB | Verfahren zur erfassung eines objekts in der nähe eines fahrzeugs |
EP2288520A4 (de) * | 2008-06-25 | 2013-09-25 | Autoliv Dev | Verfahren zur erfassung eines objekts in der nähe eines fahrzeugs |
EP2605101A1 (de) * | 2011-12-17 | 2013-06-19 | Valeo Schalter und Sensoren GmbH | Verfahren zum Anzeigen von Bildern auf einer Anzeigevorrichtung der Fahrerhilfsvorrichtung eines Motorfahrzeugs, Computerprogramm und Fahrerhilfsvorrichtung dafür |
DE102011121473A1 (de) * | 2011-12-17 | 2013-06-20 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung, Kraftfahrzeug und Computerprogramm |
DE102019107443A1 (de) * | 2019-03-22 | 2020-09-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betrieb eines Roboters mit verbesserter Objektdetektion |
Also Published As
Publication number | Publication date |
---|---|
DE102006020930B4 (de) | 2018-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3175256B1 (de) | Verfahren zum klassifizieren eines objektes in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug | |
EP1330132B1 (de) | Verfahren und Vorrichtung zur Verdeckungsdetektion bei Bildsensorsystemen | |
EP1957309B1 (de) | Verfahren und vorrichtung zur fahrerzustandserkennung | |
DE102008025723B4 (de) | Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs | |
DE102008063122B4 (de) | Belichtungssteuervorrichtung und Belichtungssteuerprogramm für elektronische Fahrzeugkamera | |
DE102016204430A1 (de) | Verkehrszeichenbestimmungsvorrichtung | |
DE102008058840A1 (de) | Vorrichtung zur Reduktion von Kollisionsschaden | |
DE102009004626B4 (de) | Vorrichtung zur Überwachung der Umgebung eines Fahrzeugs | |
DE102020212799A1 (de) | Durchführen von objekt- und aktivitätserkennung auf der grundlage von daten von einer kamera und einem radarsensor | |
DE102011084477A1 (de) | Abstandsmesssystem sowie Verfahren zur Abstandsmessung insbesondere eines Fahrzeugs zu seiner Umgebung | |
WO2012156228A1 (de) | Verfahren und vorrichtung zum erkennen eines möglichen kollisionsobjektes | |
WO2018202552A1 (de) | Verfahren und vorrichtung zum klassifizieren von objekten im umfeld eines kraftfahrzeuges | |
DE102014106506A1 (de) | Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug | |
EP3792150B1 (de) | Erkennung von hands-off-situationen auf basis von schwarmdaten | |
DE102008027588A1 (de) | Vorrichtung zur Erfassung von Fußgängern | |
DE102013205361A1 (de) | System und Verfahren zur Archivierung von Berührungsereignissen eines Fahrzeugs | |
WO2017102150A1 (de) | Verfahren zum bewerten einer durch zumindest einen sensor eines fahrzeugs erfassten gefahrensituation, verfahren zum steuern einer wiedergabe einer gefahrenwarnung und verfahren zum wiedergeben einer gefahrenwarnung | |
DE102006020930A1 (de) | Verfahren zur Umgebungsüberwachung für ein Kraftfahrzeug | |
DE102011113325A1 (de) | Verfahren zur Objekterkennung mittels Bilddaten | |
EP3693940A1 (de) | Verfahren zum erkennen von überholvorgängen im strassenverkehr innerhalb eines streckenabschnitts | |
DE102018005969A1 (de) | Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen | |
DE102012009703A1 (de) | Verfahren und Vorrichtung zur Personenerkennung im Umfeld eines Kraftfahrzeugs | |
DE102015122413B4 (de) | Verfahren zum Betreiben eines Ultraschallsensors eines Kraftfahrzeugs, Ultraschallsensorvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102011088167A1 (de) | Detektion eines Ladungsverlusts bei einem Kraftfahrzeug | |
DE102016003574A1 (de) | Verfahren zur Überwachung einer unmittelbaren Fahrzeugumgebung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
R012 | Request for examination validly filed |
Effective date: 20130122 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R084 | Declaration of willingness to licence | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: H04N0005232000 Ipc: H04N0023600000 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |