DE102007017293A1 - Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle - Google Patents

Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle Download PDF

Info

Publication number
DE102007017293A1
DE102007017293A1 DE102007017293A DE102007017293A DE102007017293A1 DE 102007017293 A1 DE102007017293 A1 DE 102007017293A1 DE 102007017293 A DE102007017293 A DE 102007017293A DE 102007017293 A DE102007017293 A DE 102007017293A DE 102007017293 A1 DE102007017293 A1 DE 102007017293A1
Authority
DE
Germany
Prior art keywords
lane
image information
vehicle
camera
evaluation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102007017293A
Other languages
German (de)
Inventor
Ludwig Ertl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102007017293A priority Critical patent/DE102007017293A1/en
Publication of DE102007017293A1 publication Critical patent/DE102007017293A1/en
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Abstract

The device (S) has a input recording image information (I-K1) captured by a black-and-white camera (K1) e.g. complementary metal oxide semiconductor camera, aligned in forward direction of a motor vehicle (I). An input records image information (I-K2) captured by a color camera (K2) aligned in backwards direction of the vehicle. A determination unit determines roadway limits e.g. road marking of specific color, using the both image information. The determination unit verifies a validity of the detected roadway limit based on the information (I-K2). Independent claims are also included for the following: (1) a method for operating a driver assistance system for a vehicle (2) a computer program product comprising instructions for operating a driver assistance system for a vehicle.

Description

Die Erfindung betrifft eine Auswertevorrichtung für ein Fahrerassistenzsystem für ein Fahrzeug.The The invention relates to an evaluation device for a driver assistance system for a vehicle.

Unter dem Begriff der Fahrerassistenzsysteme (englisch: ADAS, Advanced Driver Assistance Systems) werden Funktionen zusammengefasst, welche der Unterstützung des Fahrers eines Kraftfahrzeuges dienen. Ziel der Fahrerassistenzsysteme ist häufig die Steigerung der Sicherheit durch die Vermeidung von Gefahrensituationen vor deren Entstehung und durch die Unterstützung des Fahrers zur Unfallvermeidung in kritischen Situationen. Weitere Ziele sind die Steigerung des Komforts durch Stressreduktion und Entlastung des Fahrers in Standardsituationen, die Erleichterung der Orientierung durch situationsabhängig aufbereitete und fahrergerecht vermittelte Umfeld-Informationen, sowie die Erhöhung des Fahrspaßes.Under the concept of driver assistance systems (English: ADAS, Advanced Driver Assistance Systems) functions are summarized which to assist the driver of a motor vehicle. The aim of the driver assistance systems is often the increase safety by avoiding dangerous situations their emergence and the support of the driver for accident prevention in critical situations. Other goals are the increase of comfort through stress reduction and relief the driver in standard situations, facilitating orientation by situation-dependent prepared and driver-appropriate mediated Environment information, as well as the increase of driving pleasure.

Beispiele für Fahrerassistenzfunktionen sind die Antriebsschlupfregelung bzw. Traktionskontrolle wie ABS (Antiblockiersystem), ASR (Antriebs-Schlupf-Regelung), ESP (Elektronisches Stabilitätsprogramm), EDS (Elektronische Differentialsperre), sowie adaptives Kurvenlicht, Auf- und Abblendassistent für das Fahrlicht, Nachtsichtsysteme (englisch: night vision), Tempomat, Einparkhilfe, Bremsassistent, ACC (Adaptive Cruise Control) bzw. Abstandsregeltempomat, Abstandswarner, Abbiegeassistent, Stauassistent, Spurerkennungssystem, Spurhalteassistent, Spurhalteunterstützung, Spurwechselassistent, ISA (Intelligent Speed Adaption), ANB (Automatische Notbremsung), Kurvenassistent, Reifendruckkontrollsystem, Fahrerzustandserkennung, Verkehrszeichenerkennung, Platooning.Examples for driver assistance functions are traction control or traction control such as ABS (antilock braking system), ASR (traction control), ESP (Electronic Stability Program), EDS (Electronic Stability Program) Differential lock), as well as adaptive headlights, fade-in and dimming assist for driving lights, night vision systems, Cruise Control, Park Assist, Brake Assist, ACC (Adaptive Cruise Control) distance control, distance warning, turn assistant, traffic jam assistant, Lane Detection System, Lane Keeping Assist, Lane Keeping Assist, Lane Change Assistant, ISA (Intelligent Speed Adaptation), ANB (Automatic Emergency braking), curve assistant, tire pressure monitoring system, driver condition detection, Traffic sign recognition, Platooning.

Der Erfindung liegt die Aufgabe zugrunde, eine effiziente Auswertevorrichtung für ein Fahrerassistenzsystem, sowie ein entsprechendes Fahrerassistenzsystem, ein Verfahren zum Betreiben eines Fahrerassistenzsystems und ein Computerprogrammprodukt aufzuzeigen.Of the Invention is based on the object, an efficient evaluation device for a driver assistance system, and a corresponding Driver assistance system, a method for operating a driver assistance system and to show a computer program product.

Diese Aufgabe wird durch eine Auswertevorrichtung mit den Merkmalen des Anspruchs 1, sowie durch ein Fahrerassistenzsystem, durch ein Verfahren und ein Computerprogrammprodukt mit Merkmalen von nebengeordneten Ansprüchen gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sind Gegenstand von Unteransprüchen.These Task is performed by an evaluation device with the characteristics of Claim 1, and by a driver assistance system, by a method and a computer program product with features of siblings Claims solved. Advantageous embodiments and further developments are the subject of dependent claims.

Die erfindungsgemäße Auswertevorrichtung umfasst einen Eingang zum Empfangen von ersten Bildinformationen, wobei die ersten Bildinformationen von einer in Vorwärtsrichtung ausgerichteten Schwarz-Weiß-Kamera erfasst wurden, sowie einen Eingang zum Empfangen von zweiten Bildinformationen, wobei die zweiten Bildinformationen von einer in Rückwärtsrichtung ausgerichteten Farbkamera erfasst wurden, und einen Ermittlungsbestandteil zum Ermitteln von zumindest einer Fahrbahnspurbegrenzung unter Verwendung der ersten Bildinformationen und der zweiten Bildinformationen.The Inventive evaluation device comprises a Input for receiving first image information, wherein the first Image information from a forward-facing black and white camera and an input for receiving second image information, the second image information being from one in the reverse direction aligned color camera, and an investigator component for determining at least one lane lane boundary using the first image information and the second image information.

Die Erfassung der von der Auswertevorrichtung ausgewerteten Bildinformationen erfolgt über zwei verschiedene Kameras: eine Schwarz-Weiß-Kamera und eine Farbkamera. Demgemäß entsprechen die ersten Bildinformationen einem Schwarz-Weiß- oder Graustufenbild, während die zweiten Bildinformationen einem Farbbild entsprechen. Die Schwarz-Weiß-Kamera ist nach vorne ausgerichtet. Dies bedeutet, dass die Schwarz-Weiß-Kamera zumindest ausschnittsweise die bei einer Fahrt in Vorwärtsrichtung vor dem Fahrzeug liegende bzw. bei einer Fahrt in Rückwärtsrichtung hinter dem Fahrzeug liegende Umgebung erfasst. Hingegen ist die Farbkamera nach hinten ausgerichtet, so dass die Farbkamera zumindest ausschnittsweise die bei einer Fahrt in Vorwärtsrichtung hinter dem Fahrzeug liegende bzw. bei einer Fahrt in Rückwärtsrichtung vor dem Fahrzeug liegende Umgebung erfasst. Die Anbringung der beiden Kameras kann auf an sich von Fahrerassistenzsystemen mit derartigen Kameras bekannte Weise erfolgen.The Acquisition of the image information evaluated by the evaluation device takes place via two different cameras: a black and white camera and a color camera. Accordingly, the correspond first image information a black and white or grayscale image, while the second image information corresponds to a color image. The black and white camera is facing forward. This means that the black and white camera at least partially the when driving in a forward direction in front of the vehicle or when driving in the backward direction behind the environment surrounding the vehicle. On the other hand is the color camera aligned to the rear, so that the color camera at least partially when driving in a forward direction behind the vehicle lying or when driving in the reverse direction detected in front of the vehicle environment. The attachment of the two Cameras can be based on such driver assistance systems Cameras known manner done.

Die Auswertevorrichtung empfängt erste und zweite Bildinformationen. Bei diesen Bildinformationen kann es sich jeweils um die ursprünglich von der jeweiligen Kamera erfassten Daten handeln, oder um eine bereits verarbeitete Version der ursprünglich erfassten Daten.The Evaluation device receives first and second image information. This image information may be the original one act on the respective camera captured data, or by a already processed version of the originally recorded Dates.

Durch eine Auswertung der ersten und der zweiten Bildinformationen ermittelt die Auswertevorrichtung zumindest eine Fahrbahnspurbegrenzung. Die Ermittlung einer Fahrbahnspurbegrenzung entspricht der Entscheidung, dass eine Fahrbahnspurbegrenzung vorhanden ist, sowie gegebenenfalls der Bestimmung von Parametern oder Eigenschaften dieser Fahrbahnspurbegrenzung. Die Auswertevorrichtung kann einen Ausgang zum Ausgeben von Informationen betreffend die ermittelte Fahrbahnspurbegrenzung aufweisen, wie z. B. die Angabe, ob eine Fahrbahnspurbegrenzung vorhanden ist, welcher Art die Fahrbahnspurbegrenzung ist, welche Position die Fahrbahnspurbegrenzung an einzelnen oder mehreren Punkten hat, welchen Verlauf die Fahrbahnspurbegrenzung aufweist. Vorzugsweise wird die Lage oder der Verlauf der ermittelten Fahrbahnspurbegrenzung von der Auswertevorrichtung relativ zu dem Fahrzeug angegeben; alternativ ist eine Angabe der absoluten Position von Lage oder Verlauf der Fahrbahnspurbegrenzung möglich.By an evaluation of the first and second image information determined the evaluation device at least one lane boundary. The Determining a lane boundary corresponds to the decision that a lane lane boundary is present, and optionally the determination of parameters or properties of this lane boundary. The evaluation device can have an output for outputting information concerning the determined road lane boundary, such as z. For example, the indication of whether a lane lane boundary exists, which way the lane lane boundary is, which position the lane lane boundary at single or multiple points has, what course the lane boundary having. Preferably, the location or the course of the determined Lane lane boundary of the evaluation device relative to the Vehicle specified; alternatively, an indication of the absolute position of position or course of the lane lane boundary possible.

In Weiterbildung der Erfindung handelt es sich bei der zumindest einen Fahrbahnspurbegrenzung um eine Fahrbahnmarkierung. Fahrbahnmarkierungen werden auch als Straßenmarkierung oder Bodenmarkierung bezeichnet; es sind auf der Fahrbahnoberfläche angebrachte Zeichen. Beispiele sind durchgehende oder unterbrochene Mittellinien, oder auch zwei oder mehr parallele Linien. Bei der Fahrbahnmarkierung kann es sich um eine Fahrbahnmarkierung einer bestimmten Farbe handeln. Auf diese Weise kann z. B. eine bestimmte Farbe vorgegeben werden, und die Auswertevorrichtung ermittelt lediglich Fahrbahnmarkierungen dieser Farbe. Ferner kann z. B. eine Rangfolge von Farben vorgegeben werden, wobei die Auswertevorrichtung nach Fahrbahnmarkierungen in der Reihenfolge dieser Rangfolge sucht. Zusätzlich oder alternativ zur Fahrbahnmarkierung kann es sich bei der zumindest einen Fahrbahnspurbegrenzung um einen Fahrbahnrand handeln, wie z. B. um einen Streifen aus Gras und/oder Erde, eine Leit- bzw. Schutzplanke oder eine Mauer.In a development of the invention, the at least one lane lane boundary is a lane marking. Fahrbahnmar cations are also referred to as road marking or ground marking; they are signs on the road surface. Examples are continuous or broken centerlines, or even two or more parallel lines. The lane marker may be a lane marker of a particular color. In this way, z. B. a certain color can be specified, and the evaluation only determines road markings of this color. Furthermore, z. For example, a ranking of colors can be specified, wherein the evaluation device searches for lane markings in the order of this ranking. Additionally or alternatively to the lane marking, the at least one lane lane boundary may be a lane edge, such as a lane. B. a strip of grass and / or earth, a guard or guardrail or a wall.

In Weiterbildung der Erfindung ist der Ermittlungsbestandteil ausgebildet zum Detektieren von zumindest einer Fahrbahnspurbegrenzung unter Verwendung der ersten Bildinformationen und zum Überprüfen der Gültigkeit der zumindest einen detektierten Fahrbahnspurbegrenzung anhand der zweiten Bildinformationen. Bei der Detektion der zumindest einen Fahrbahnspurbegrenzung wird diese Fahrbahnspurbegrenzung in den ersten Bildinformationen aufgefunden. Vorzugsweise ist der Ermittlungsbestandteil ausgebildet zum Überprüfen der Gültigkeit der zumindest einen detektierten Fahrbahnspurbegrenzung anhand einer den zweiten Bildinformationen entnommenen Farbe der zumindest einen detektierten Fahrbahnspurbegrenzung. Die Gültigkeit bezieht sich hierbei auf die weitere Verwendung der detektierten Fahrbahnspurbegrenzung: bei einer als gültig erkannten Fahrbahnspurbegrenzung können Informationen betreffend diese Fahrbahnspurbegrenzung einem weiteren Bestandteil zur Nutzung zur Verfügung gestellt werden; bei einer als ungültig erkannten Fahrbahnspurbegrenzung erfolgt vorzugsweise keine Informationsweitergabe. Auf diese Weise kann z. B. eine Fahrbahnspurbegrenzung anhand der ersten Bildinformationen detektiert werden, wobei diese Fahrbahnspurbegrenzung nur dann als ermittelt angenommen wird, wenn sie eine bestimmte Farbe aufweist. Das Überprüfen der Gültigkeit kann unter Verwendung einer Koordinatentransformation erfolgen, wobei Bildpunkte der ersten Bildinformationen in den Bereich der zweiten Bildinformationen transformiert werden oder umgekehrt.In Development of the invention, the determination component is formed for detecting at least one road lane boundary below Using the first image information and checking the validity of the at least one detected lane lane boundary based on the second image information. In the detection of at least a lane lane boundary will be this lane boundary in found the first image information. Preferably, the determining component designed to check the validity the at least one detected lane lane boundary based on a the second image information taken from the color of at least one detected lane lane boundary. The validity relates in this case on the further use of the detected lane lane boundary: in a recognized as lane line boundary can Information regarding this road lane boundary another Component to be made available for use; at a lane boundary recognized as invalid preferably no information is transmitted. In this way can z. B. a lane lane boundary based on the first image information be detected, this lane boundary only as is assumed if it has a certain color. The validation can be checked under Use of a coordinate transformation, where pixels the first image information in the range of the second image information be transformed or vice versa.

Einer Ausgestaltung der Erfindung gemäß ist der Ermittlungsbestandteil ausgebildet zum Detektieren von zumindest einer Fahrbahnspurbegrenzung unter Verwendung der ersten Bildinformationen und von zumindest einer Fahrbahnspurbegrenzung unter Verwendung der zweiten Bildinformationen, sowie zum Abgleichen der zumindest einen unter Verwendung der ersten Bildinformationen detektierten Fahrbahnspurbegrenzung mit der zumindest einen unter Verwendung der zweiten Bildinformationen detektierten Fahrbahnspurbegrenzung.one Embodiment of the invention according to the determining component configured to detect at least one lane lane boundary below Using the first image information and at least one Lane lane boundary using the second image information, and for matching the at least one using the first one Image information detected lane boundary with the at least one detected using the second image information Roadway lane boundary.

Einer Ausgestaltung der Erfindung gemäß ist der Ermittlungsbestandteil ausgebildet zum Detektieren von einer Mehrzahl von Fahrbahnspurbegrenzungen unter Verwendung der ersten Bildinformationen und zum Auswählen einer der Fahrbahnspurbegrenzungen anhand der zweiten Bildinformationen.one Embodiment of the invention according to the determining component configured to detect a plurality of lane lane boundaries using the first image information and to select one of the lane lane boundaries based on the second image information.

Das erfindungsgemäße Fahrerassistenzsystem umfasst eine Auswertevorrichtung der oben erläuterten Art, sowie die Schwarz-Weiß-Kamera und die Farbkamera, und eine Applikationseinheit zum Verwenden der zumindest einen von der Auswertevorrichtung ermittelten Fahrbahnspurbegrenzung im Rahmen einer Fahrerassistenzfunktion. Bei der Fahrerassistenzfunktion kann es sich z. B. um ein Spurerkennungssystem, einen Spurhalteassistent, eine Spurhalteunterstützung, oder einen Spurwechselassistent handeln.The inventive driver assistance system comprises an evaluation device of the type described above, as well as the black and white camera and the color camera, and an application unit for using the at least one determined by the evaluation device Lane lane boundary as part of a driver assistance function. In the driver assistance function, it may be z. B. a lane detection system, a lane departure warning, a lane keeping assistance, or a lane change assistant.

Gemäß dem Verfahren zum Betreiben eines Fahrerassistenzsystems werden von einer in Vorwärtsrichtung des Fahrzeugs ausgerichteten Schwarz-Weiß-Kamera erste Bildinformationen erfasst, von einer in Rückwärtsrichtung des Fahrzeugs ausgerichteten Farbkamera werden zweite Bildinformationen erfasst, und unter Verwendung der ersten und der zweiten Bildinformationen wird zumindest eine Fahrbahnspurbegrenzung ermittelt.According to the Methods for operating a driver assistance system are of a black-and-white camera oriented in the forward direction of the vehicle captured first image information, from one in the reverse direction the vehicle-oriented color camera become second image information detected, and using the first and the second image information At least one road lane boundary is determined.

Das erfindungsgemäße Computerprogrammprodukt weist einen Eingang auf zum Empfangen von ersten Bildinformationen, welche von einer in Vorwärtsrichtung des Fahrzeugs ausgerichteten Schwarz-Weiß-Kamera erfasst wurden, einen Eingang zum Empfangen von zweiten Bildinformationen, welche von einer in Rückwärtsrichtung des Fahrzeugs ausgerichteten Farbkamera erfasst wurden, sowie einen Ermittlungsbestandteil zum Ermitteln von zumindest einer Fahrbahnspurbegrenzung unter Verwendung der ersten und der zweiten Bildinformationen. Unter einem Computerprogrammprodukt kann im Zusammenhang mit der vorliegenden Erfindung neben dem eigentlichen Computerprogramm (mit seinem über das normale physikalische Zusammenspiel zwischen Programm und Recheneinheit hinausgehenden technischen Effekt) insbesondere ein Aufzeichnungsträger für das Computerprogramm, eine Dateisammlung, eine konfigurierte Recheneinheit, aber auch beispielsweise eine Speichervorrichtung oder ein Server, auf der bzw. dem zum Computerprogramm gehörende Dateien gespeichert sind, verstanden werden.The inventive computer program product has an input for receiving first image information, which from a front-facing vehicle of the black-and-white camera an input for receiving second image information, which of a in the reverse direction of the vehicle aligned color camera were detected, as well as an investigation component for determining at least one lane lane boundary using the first and the second image information. Under a computer program product may be in the context of the present invention in addition to the actual Computer program (with his about the normal physical interaction technical effect between program and arithmetic unit) in particular a record carrier for the computer program, a file library, a configured arithmetic unit, as well For example, a storage device or a server on the or the files associated with the computer program are to be understood.

Das erfindungsgemäße Computerprogrammprodukt und das erfindungsgemäße Verfahren eignen sich insbesondere für die erfindungsgemäße Auswertevorrichtung, wobei dies auch auf die Ausgestaltungen und Weiterbildungen zutreffen kann. Hierzu können sie weitere geeignete Mittel bzw. Schritte umfassen.The computer program product according to the invention and the method according to the invention are particularly suitable for the evaluation device according to the invention, and this may also apply to the refinements and developments. For this purpose, they may comprise further suitable means or steps.

Im folgenden wird die Erfindung anhand eines Ausführungsbeispiels näher erläutert. Dabei zeigen:in the The following is the invention with reference to an embodiment explained in more detail. Showing:

1: ein Kraftfahrzeug mit einem Fahrerassistenzsystem, 1 : a motor vehicle with a driver assistance system,

2: einen Ausschnitt aus einem Fahrerassistenzsystem. 2 : a section of a driver assistance system.

Das in 1 dargestellte Kraftfahrzeug 1 fahre aktuell auf der rechten Fahrbahnspur SP1, in 1 nach rechts. Am rechten Rand der rechten Fahrspur SP1 befindet sich der Fahrbahnrand R. Hierbei kann es sich z. B. um einen Streifen aus Gras und/oder Erde handeln. In der Regel unterscheidet sich der Fahrbahnrand R farblich von der Fahrbahnspur SP1.This in 1 illustrated motor vehicle 1 drive currently on the right lane SP1, in 1 to the right. At the right edge of the right lane SP1 is the edge of the road R. This may be, for. B. act a strip of grass and / or earth. As a rule, the roadway edge R differs in color from the roadway SP1.

Zwischen der rechten Fahrbahnspur SP1 und der linken Fahrbahnspur SP2 befinden sich die Fahrbahnmarkierungen MW und MG. Hierbei handelt es sich bei der Fahrbahnmarkierung MW um eine im Normalfall verwendete weiße Fahrbahnmarkierung, und bei der Fahrbahnmarkierung MG um eine z. B. aufgrund einer Baustelle angebrachte gelbe Fahrbahnmarkierung. In diesem Fall ist die gelbe Fahrbahnmarkierung MG, und nicht die weiße Fahrbahnmarkierung MW von dem Fahrer des Fahrzeugs 1 und somit auch von dem Fahrerassistenzsystem zu beachten.Between the right lane SP1 and the left lane SP2 are the lane markers MW and MG. In this case, the lane marking MW is a normally used white lane marking, and at the lane marking MG by a z. B. due to a construction site mounted yellow road marking. In this case, the yellow lane marker MG is MG, not the white lane marker MW from the driver of the vehicle 1 and therefore also to be observed by the driver assistance system.

Das Fahrzeug 1 verfügt über eine Schwarz-Weiß-Videokamera K1, z. B. eine CMOS-Kamera. Es wird eine Schwarz-Weiß-Kamera eingesetzt, da diese kostengünstiger als eine Farbkamera ist. Überdies ist die Auflösung einer Schwarz-Weiß-Kamera bei gegebener Pixelanzahl größer als bei einer Farbkamera. Für den Fahrer des Fahrzeugs 1 ist die Verwendung einer Schwarz-Weiß-Kamera insofern nicht nachteilig, als ihm das von der Kamera 1 erfasste Bild nicht angezeigt wird. Die Kamera K1 ist in Fahrtrichtung gerichtet, nimmt somit Bilder der vor dem Fahrzeug 1 liegenden Umgebung auf. Hierzu kann sie z. B. in der Nähe des Daches und der Windschutzscheibe des Fahrzeugs 1 montiert sein. Mit B1 ist der schematisch dargestellte von der Kamera K1 erfasste Bereich bezeichnet.The vehicle 1 has a black and white video camera K1, z. B. a CMOS camera. A black and white camera is used because it is less expensive than a color camera. Moreover, the resolution of a black-and-white camera is larger for a given number of pixels than for a color camera. For the driver of the vehicle 1 the use of a black-and-white camera is not disadvantageous, as it is from the camera 1 captured image is not displayed. The camera K1 is directed in the direction of travel, thus taking pictures of the front of the vehicle 1 lying on the environment. For this purpose, it may, for. B. near the roof and the windshield of the vehicle 1 be mounted. With B1 the schematically represented by the camera K1 detected area is designated.

Unter Verwendung eines hierfür geeigneten Fahrspurdetektionsalgorithmus werden die von der Kamera K1 aufgenommenen Bilder ausgewertet und hierdurch der Fahrbahnrand R und die Fahrbahnmarkierungen MW und MG detektiert. Aufgrund dieser Detektion ist der Verlauf der Fahrbahnmarkierungen MW und MG, sowie des Fahrbahnrandes R in Bezug auf das Eigenfahrzeug 1 bekannt. Hierzu können an sich bekannte Verfahren eingesetzt werden, z. B. beschrieben in WO 2007/002964 .Using a lane detection algorithm suitable for this purpose, the images taken by the camera K1 are evaluated and the lane edge R and the lane markings MW and MG are thereby detected. Because of this detection, the course of the lane markings MW and MG, as well as the road edge R with respect to the own vehicle 1 known. For this purpose, known methods can be used, for. B. described in WO 2007/002964 ,

Der detektierte Fahrbahnrand R und die detektierten Fahrbahnmarkierungen MW und MG können z. B. für die Fahrerassistenzfunktion Spurhalteassistent (englisch: Lane Departure War ning) eingesetzt werden. Hierbei soll der Fahrer bei einem unbeabsichtigten Verlassen seiner Fahrspur gewarnt werden.Of the detected lane R and the detected lane markings MW and MG can z. B. for the driver assistance function Lane departure assistant (English: Lane Departure War ning) used become. Here, the driver should inadvertently leave be warned of its lane.

Existieren unterschiedliche Fahrbahnmarkierungen MW und MG, von welchen lediglich eine gültig ist, wie es z. B. in einem Baustellenbereich häufig der Fall ist, muss von dem Fahrerassistenzsystem entschieden werden, welche der Fahrbahnmarkierungen MW und MG verwendet werden soll. Eine Möglichkeit hierfür ist, die gültige Fahrspur aus dem Fahrverhalten der Vergangenheit abzuleiten, indem diejenige Fahrbahnmarkierung MW oder MG ausgewählt wird, in deren Spur sich der Fahrer zu Beginn des Baustellenbereiches eingeordnet hatte. Dies ist jedoch oftmals nicht eindeutig, z. B. weil das Fahrzeug 1 sich sowohl innerhalb der durch die Fahrbahnmarkierung MW als auch innerhalb der durch die Fahrbahnmarkierung MG begrenzten Fahrspur befunden hat, oder weil sich der Fahrer beim Einfahren in den Baustellenbereich anfänglich nicht richtig eingeordnet hatte.There are different lane markings MW and MG, of which only one is valid, as it is z. B. in a construction site area is often the case, it must be decided by the driver assistance system, which of the lane markers MW and MG should be used. One way of doing this is to derive the valid lane from past driving behavior by selecting that lane marking MW or MG in whose lane the driver had been located at the beginning of the jobsite area. However, this is often not unique, for. B. because the vehicle 1 was located both within the lane marked by the lane marking MW and within the lane delimited by the lane marking MG, or because the driver had initially misclassified when entering the construction site area.

Das Fahrzeug 1 verfügt neben der Schwarz-Weiß-Kamera K1 über eine Farbvideokamera K2. Die Farbkamera K2 ist nach hinten ausgerichtet und nimmt somit die Umgebung hinter dem Fahrzeug auf. Mit B2 ist der schematisch dargestellte von der Kamera K2 erfasste Bereich bezeichnet. Die Farbkamera K2 kann z. B. der Unterstützung des Fahrers bei einer Fahrt in Rückwärtsrichtung, z. B. beim Einparken, helfen. Hierzu können die von der Farbkamera K2 aufgenommenen Bilder auf einem Display dargestellt werden, z. B. auf dem Display des Navigationssystems. Die Auflösung der von der Farbkamera K2 aufgenommenen Bilder ist i. d. R. gegenüber der Schwarz-Weiß-Kamera K1 reduziert.The vehicle 1 In addition to the black and white camera K1 has a color video camera K2. The color camera K2 is oriented to the rear and thus absorbs the environment behind the vehicle. With B2 is the schematically represented captured by the camera K2 area designated. The color camera K2 can z. As the support of the driver when driving in the reverse direction, z. B. when parking, help. For this purpose, the images taken by the color camera K2 images can be displayed on a display, eg. B. on the display of the navigation system. The resolution of the images taken by the color camera K2 is usually reduced compared to the black-and-white camera K1.

2 zeigt einen Ausschnitt aus dem Fahrerassistenzsystem des Fahrzeugs 1. Dem Auswertebestandteil S werden von der Kamera K1 die Informationen I-K1 und von der Kamera K2 die Informationen I-K2 zur Verfügung gestellt. Bei den Informationen I-K1 und I-K2 kann es sich um die von der jeweiligen Ka mera K1 bzw. K2 erfassten Bilddaten handeln, oder um aus einer Bearbeitung dieser Bilddaten hervorgegangene Daten. 2 shows a section of the driver assistance system of the vehicle 1 , The evaluation component S is provided by the camera K1 with the information I-K1 and the camera K2 with the information I-K2. The information I-K1 and I-K2 can be the image data captured by the respective camera K1 or K2, or data resulting from a processing of this image data.

Der Auswertebestandteil S wertet die Informationen I-K1 und I-K2 gemeinsam aus und entscheidet aufgrund dieser Auswertung, welche Fahrbahnmarkierung MW oder MG aktuell zu verwenden ist. An die Applikationseinheit A gibt der Auswertebestandteil S die Informationen I-S aus, welchen der Verlauf der zu verwendenden Fahrbahnmarkierung MW oder MG relativ zu dem Eigenfahrzeug 1 zu entnehmen ist. Die Applikationseinheit A verwendet die Informationen I-S im Sinne der jeweiligen Fahrerassistenzfunktion, bei einer Spurhalteassistent-Fahrerassistenzfunktion z. B. zur Feststellung eines unbeabsichtigten Spurwechsels des Fahrzeugs 1.The evaluation component S evaluates the information mations I-K1 and I-K2 together and decides based on this evaluation, which lane marking MW or MG is currently used. The evaluation unit S outputs to the application unit A the information IS which shows the profile of the roadway marking MW or MG to be used relative to the own vehicle 1 can be seen. The application unit A uses the information IS in terms of the respective driver assistance function, in a lane departure warning driver assistance function z. B. to determine an unintended lane change of the vehicle 1 ,

Die Applikationseinheit A ist an eine Schnittstelle I angebunden. Hierbei kann es sich um eine Mensch-Maschine-Schnittstelle und/oder an eine Schnittstelle zur autonomen Kontrolle des Fahrzeugs 1 handeln. Über eine Mensch-Maschine-Schnittstelle kann auf akustische, optische oder haptischen Weise an den Fahrer eine Information oder Warnung ausgegeben werden, z. B. aufgrund eines Verlassens der Fahrbahnspur SP1. Über eine Schnittstelle zur autonomen Kontrolle des Fahrzeugs kann in das Fahrverhalten des Fahrzeugs 1 eingegriffen werden, ohne dass es der Mitwirkung des Fahrers bedarf, z. B. durch Abbremsung oder Lenken des Fahrzeugs 1.The application unit A is connected to an interface I. This may be a man-machine interface and / or an interface for the autonomous control of the vehicle 1 act. About a man-machine interface can be issued in an audible, visual or haptic manner to the driver information or warning, z. B. due to leaving the lane SP1. Through an interface to the autonomous control of the vehicle can be used in the driving behavior of the vehicle 1 be intervened without the need for the involvement of the driver, z. B. by slowing down or steering the vehicle 1 ,

Die gemeinsame Auswertung der Informationen I-K1 und I-K2 durch den Auswertebestandteil S kann z. B. folgendermaßen erfolgen:
Die Informationen I-K1 werden ausgewertet und hierdurch die Fahrbahnmarkierungen MW und MG detektiert. Einzelne Punkte des detektierten Verlaufs der Fahrbahnmarkierungen MW und MG oder der gesamte Verlauf der Fahrbahnmarkierungen MW und MG wird durch eine Koordinatentransformation in das Bild der Kamera K2 transformiert. Eine derartige Koordinatentransforma tion ist möglich unter Verwendung der Positionen der Kameras K1 und K2 zueinander, der relativen Ausrichtung der Kameras K1 und K2, sowie der Öffnungswinkel der Kameras K1 und K2. Auch eine umgekehrte Transformation ist möglich, d. h. von dem Bild der Kamera K2 in das Bild der Kamera K1. Nach der Koordinatentransformation kann überprüft werden, welche Farbe die im Schwarz-Weiß-Bild der Kamera K1 detektierten Fahrbahnmarkierungen MW und MG im Farbbild der Kamera K2 aufweisen.
The joint evaluation of the information I-K1 and I-K2 by the evaluation component S can, for. B. be done as follows:
The information I-K1 are evaluated and thereby the lane markings MW and MG detected. Individual points of the detected course of the road markings MW and MG or the entire course of the road markings MW and MG is transformed by a coordinate transformation into the image of the camera K2. Such a coordinate transformation is possible by using the positions of the cameras K1 and K2 relative to each other, the relative orientation of the cameras K1 and K2, and the aperture angle of the cameras K1 and K2. A reverse transformation is possible, ie from the image of the camera K2 in the image of the camera K1. After the coordinate transformation, it is possible to check which color the road markings MW and MG detected in the black and white image of the camera K1 have in the color image of the camera K2.

Die Punkte der Verläufe der im Schwarz-Weiß-Bild der Kamera K1 detektierten Fahrbahnmarkierungen MW und MG liegen nur dann genau auf den Fahrbahnmarkierungen des Farbbildes der Kamera K2, wenn die Fahrbahnspur SP1 keine horizontale Krümmung aufweist. Im Falle einer Kurvenfahrt ist es daher möglich, die aktuelle Lenkradeinstellung des Fahrzeugs 1 bei der Koordinatentransformation zu berücksichtigen. Hierdurch kann eine Fahrbahnkrümmung ausgeglichen werden.The points of the gradients of the road markings MW and MG detected in the black-and-white image of the camera K1 only lie exactly on the road markings of the color image of the camera K2 if the roadway track SP1 has no horizontal curvature. In the case of cornering, it is therefore possible, the current steering wheel adjustment of the vehicle 1 to be considered in the coordinate transformation. As a result, a road curvature can be compensated.

Es ist auch möglich, sowohl die Informationen I-K1 auszuwerten und hierdurch die Fahrbahnmarkierungen MW und MG im Schwarz-Weiß-Bild der Kamera K1 zu detektieren, als auch die Informationen I-K2 auszuwerten und hierdurch die Fahrbahnmarkierungen MW und MG im Farbbild der Kamera K2 zu detektieren. Die im Farbbild der Kamera K2 detektierten Fahrbahnmarkierungen MW und MG reichen für die Applikationseinheit A nicht aus, da i. d. R. der Verlauf der vor dem Fahrzeug 1 liegenden Fahrbahnspur SP1 benötigt wird, während unter Verwendung von lediglich der Kamera K2 lediglich der Verlauf der hinter dem Fahrzeug 1 liegenden Fahrbahnspur SP1 ermittelbar ist.It is also possible to evaluate both the information I-K1 and thereby detect the lane markers MW and MG in the black and white image of the camera K1, as well as to evaluate the information I-K2 and thereby the lane markers MW and MG in the color image of the camera K2 to detect. The road markings MW and MG detected in the color image of the camera K2 are not sufficient for the application unit A, as is usually the course of the front of the vehicle 1 lying lane track SP1 is required, while using only the camera K2 only the course of the behind the vehicle 1 lying lane track SP1 can be determined.

Die beiden Sätze der detektierten Fahrbahnmarkierungen MW und MG können dann miteinander verglichen werden, um eine Zuordnung der Fahrbahnmarkierung MW aus dem Bild der Kamera K1 zu der Fahrbahnmarkierung MW aus dem Bild der Kamera K2 zu bewirken, sowie eine Zuordnung der Fahrbahnmarkierung MG aus dem Bild der Kamera K1 zu der Fahrbahnmarkierung MG aus dem Bild der Kamera K2. Diese Zuordnung erfolgt über einen Ver gleich von Fahrbahnmarkierungsparametern, wie z. B. die Position der Fahrbahnmarkierung MW bzw. MG relativ zum Fahrzeug 1. Aufgrund dieser Zuordnung ist bekannt, welche Farbe die Fahrbahnmarkierungen MG und MW aufweisen.The two sets of the detected lane markings MW and MG can then be compared with one another to effect an assignment of the lane marking MW from the image of the camera K1 to the lane marking MW from the image of the camera K2, and an assignment of the lane marking MG from the image of the camera Camera K1 to the lane marker MG from the image of the camera K2. This assignment takes place via a comparison of road marking parameters, such as. B. the position of the lane marking MW or MG relative to the vehicle 1 , Because of this association, it is known what color the road markings MG and MW have.

Durch die beschriebene gemeinsame Auswertung der Informationen I-K1 und I-K2 – sowohl unter Verwendung der Koordinatentransformation als auch unter Verwendung des Abgleichs der in den beiden Bildern detektieren Fahrbahnmarkierung – kann somit festgestellt werden, welche Farbe die im Bild der Schwarz-Weiß-Kamera K1 detektierten Fahrbahnmarkierung MG und MW aufweisen. Anhand dieser Farbe kann entschieden werden, welche Fahrbahnmarkierung MG oder MW die gültige ist.By the described joint evaluation of the information I-K1 and I-K2 - using both the coordinate transformation as well as using the balance of the two images detect lane marking - can thus be detected what color are in the picture of the black and white camera K1 detected pavement marking MG and MW have. Based on this Color can be decided which road marking MG or MW is the valid.

Die in Bezug auf die Fahrbahnmarkierungen MG und MW angewandte Vorgehensweise kann auch für den Fahrbahnrand R zum Einsatz kommen. Durch Auswertung der Informationen I-K1 wird der Fahrbahnrand R detektiert. Hierbei wird ausgenutzt, dass der Fahrbahnrand R eine andere Textur aufweist als die Fahrbahnspur SP1. Hierbei gilt jedoch, dass die mögliche Bandbreite an Erscheinungsformen von Fahrbahnrändern die Detektion des Fahrbahnrandes R anhand eines Schwarz-Weiß-Bildes sehr unzuverlässig macht. Der detektierte Fahrbahnrand R kann durch eine Koordinatentransformation – wie obenstehend erläutert von dem Bild der Kamera K1 in das Bild der Kamera K2 oder umgekehrt – überprüft und gegebenenfalls angepasst werden. Hierzu werden z. B. grüne oder braune Stellen dem Fahrbahnrand R zugeordnet, und graue bis schwarze Bereiche der Fahrbahnspur SP1. Im Rahmen der Anpassung des im Bild der Kamera K1 detektierten Fahrbahnrandes R werden lediglich diejenigen Stellen des im Bild der Kamera K1 detektierten Fahrbahnrandes R als tatsächlicher Fahrbahnrand akzeptiert, welche die entsprechende Farbe innerhalb der Bilder der Farbkamera K2 aufweisen. Auf diese Weise wird die Zuverlässigkeit der Detektion des Fahrbahnrandes R deutlich erhöht.The procedure applied with respect to the lane markings MG and MW can also be used for the lane edge R. By evaluating the information I-K1, the roadside edge R is detected. In this case, it is utilized that the roadway edge R has a different texture than the roadway track SP1. In this case, however, the possible range of manifestations of road edges makes the detection of the roadway edge R on the basis of a black-and-white image very unreliable. The detected roadway edge R can be checked by a coordinate transformation - as explained above from the image of the camera K1 in the image of the camera K2 or vice versa - and adjusted if necessary. For this purpose, for. B. green or brown spots associated with the roadway edge R, and gray to black areas of the lane SP1. As part of the adaptation of the camera K1 detected in the image Fahrbahnrandes R only those points of the detected in the image of the camera K1 roadway edge R are accepted as the actual lane edge, which have the corresponding color within the images of the color camera K2. In this way, the reliability of the detection of the roadway edge R is significantly increased.

Der Auswertebestandteil S führt somit eine Fusion der hochauflösenden Bilder der Schwarz-Weiß-Kamera K1 mit den farbigen Bildern der Kamera K2 durch. Hierdurch kann eine zuverlässige Detektion von Fahrbahnspurbegrenzungen, d. h. von Fahrbahnmarkierung MW bzw. MG und Fahrbahnrand R, bewirkt werden. Aufgrund einer Koordinatentransformation oder eines andersartigen Abgleichs der Schwarz-Weiß-Bilder und der Farbbilder ist es nicht nötig, eine nach vorne ausgerichtete Farbkamera einzusetzen.Of the Evaluation component S thus leads to a merger of the high-resolution Pictures of the black and white camera K1 with the colored pictures of the Camera K2 through. This can be a reliable detection of lane lane boundaries, d. H. of lane marking MW or MG and road edge R, be effected. Due to a coordinate transformation or a different balance of black and white images and the color images, it is not necessary, one to the front use aligned color camera.

Die Erfindung wurde voranstehend an einem Ausführungsbeispiel beschrieben. Es versteht sich, dass zahlreiche Änderungen und Modifikationen möglich sind, ohne dass der Rahmen der Erfindung verlassen wird.The The invention has been described in an embodiment described. It is understood that many changes and modifications are possible without the scope of the Is left invention.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - WO 2007/002964 [0024] - WO 2007/002964 [0024]

Claims (12)

Auswertevorrichtung (S) für ein Fahrerassistenzsystem für ein Fahrzeug (1), mit einem Eingang zum Empfangen von ersten Bildinformationen (I-K1), welche von einer in Vorwärtsrichtung des Fahrzeugs (1) ausgerichteten Schwarz-Weiß-Kamera (K1) erfasst wurden, einem Eingang zum Empfangen von zweiten Bildinformationen (I-K2), welche von einer in Rückwärtsrichtung des Fahrzeugs (1) ausgerichteten Farbkamera (K2) erfasst wurden, einem Ermittlungsbestandteil zum Ermitteln von zumindest einer Fahrbahnspurbegrenzung (MW, MG, R) unter Verwendung der ersten Bildinformationen (I-K1) und der zweiten Bildinformationen (I-K2).Evaluation device (S) for a driver assistance system for a vehicle ( 1 ) having an input for receiving first image information (I-K1), which is from a forward direction of the vehicle ( 1 a black and white camera (K1), an input for receiving second image information (I-K2), which is from a vehicle in the backward direction (K1). 1 ) detected color camera (K2), a determination component for determining at least one lane boundary (MW, MG, R) using the first image information (I-K1) and the second image information (I-K2). Auswertevorrichtung (S) nach Anspruch 1, wobei es sich bei der zumindest einen Fahrbahnspurbegrenzung (MW, MG, R) um eine Fahrbahnmarkierung (MW, MG) handelt.Evaluation device (S) according to claim 1, wherein it at least one road lane boundary (MW, MG, R) is a lane marking (MW, MG). Auswertevorrichtung (S) nach Anspruch 1, wobei es sich bei der zumindest einen Fahrbahnspurbegrenzung (MW, MG, R) um eine Fahrbahnmarkierung (MW, MG) einer bestimmten Farbe handelt.Evaluation device (S) according to claim 1, wherein it at least one road lane boundary (MW, MG, R) is a lane marking (MW, MG) of a particular color. Auswertevorrichtung (S) nach einem der Ansprüche 1 bis 3, wobei es sich bei der zumindest einen Fahrbahnspurbegrenzung (MW, MG, R) um einen Fahrbahnrand (R) handelt.Evaluation device (S) according to one of the claims 1 to 3, wherein it is in the at least one lane boundary (MW, MG, R) is about a lane edge (R). Auswertevorrichtung (S) nach einem der Ansprüche 1 bis 4, wobei der Ermittlungsbestandteil ausgebildet ist zum Detektieren von zumindest einer Fahrbahnspurbegrenzung (MW, MG, R) unter Verwendung der ersten Bildinformationen (I-K1) und zum Überprüfen der Gültigkeit der zumindest einen de tektierten Fahrbahnspurbegrenzung (MW, MG, R) anhand der zweiten Bildinformationen (I-K2).Evaluation device (S) according to one of the claims 1 to 4, wherein the determination component is configured to detect of at least one lane lane boundary (MW, MG, R) using the first image information (I-K1) and to check the validity of the at least one de tektierten lane boundary (MW, MG, R) based on the second image information (I-K2). Auswertevorrichtung (S) nach Anspruch 5, wobei der Ermittlungsbestandteil ausgebildet ist zum Überprüfen der Gültigkeit der zumindest einen detektierten Fahrbahnspurbegrenzung (MW, MG, R) anhand einer den zweiten Bildinformationen (I-K2) entnommenen Farbe der zumindest einen detektierten Fahrbahnspurbegrenzung (MW, MG, R).Evaluation device (S) according to claim 5, wherein the Determination component is designed to check the validity of the at least one detected lane lane boundary (MW, MG, R) based on a second image information (I-K2) taken Color of the at least one detected lane lane boundary (MW, MG, R). Auswertevorrichtung (S) nach Anspruch 5 oder 6, wobei das Überprüfen der Gültigkeit unter Verwendung einer Koordinatentransformation erfolgt.Evaluation device (S) according to claim 5 or 6, wherein checking the validity using a coordinate transformation takes place. Auswertevorrichtung (S) nach einem der Ansprüche 1 bis 7, wobei der Ermittlungsbestandteil ausgebildet ist zum Detektieren von zumindest einer Fahrbahnspurbegrenzung (MW, MG, R) unter Verwendung der ersten Bildinformationen (I-K1) und von zumindest einer Fahrbahnspurbegrenzung (MW, MG, R) unter Verwendung der zweiten Bildinformationen (I-K2), sowie zum Abgleichen der zumindest einen unter Verwendung der ersten Bildinformationen (I-K1) detektierten Fahrbahnspurbegrenzung (MW, MG, R) mit der zumindest einen unter Verwendung der zweiten Bildinformationen (I-K2) detektierten Fahrbahnspurbegrenzung (MW, MG, R).Evaluation device (S) according to one of the claims 1 to 7, wherein the determination component is configured to detect of at least one lane lane boundary (MW, MG, R) using the first image information (I-K1) and at least one lane lane boundary (MW, MG, R) using the second image information (I-K2), and for matching the at least one using the first one Image information (I-K1) detected road lane boundary (MW, MG, R) with the at least one using the second image information (I-K2) detected lane lane boundary (MW, MG, R). Auswertevorrichtung (S) nach einem der Ansprüche 1 bis 8, wobei der Ermittlungsbestandteil ausgebildet ist zum Detektieren einer Mehrzahl von Fahrbahnspurbegrenzungen (MW, MG, R) unter Verwendung der ersten Bildinformationen (I-K1) und zum Auswählen einer der detektierten Fahrbahnspurbegrenzungen (MW, MG, R) anhand der zweiten Bildinformationen (I-K2).Evaluation device (S) according to one of the claims 1 to 8, wherein the determination component is configured to detect a plurality of lane lane boundaries (MW, MG, R) using of the first image information (I-K1) and to select one the detected lane lane boundaries (MW, MG, R) on the basis of second image information (I-K2). Fahrerassistenzsystem für ein Fahrzeug (1), mit einer Auswertevorrichtung (S) nach einem der Ansprüche 1 bis 9, der Schwarz-Weiß-Kamera (K1) und der Farbkamera (K2), einer Applikationseinheit (A) zum Verwenden der zumindest einen von der Auswertevorrichtung (S) ermittelten Fahrbahnspurbegrenzung (MW, MG, R) im Rahmen einer Fahrerassistenzfunktion.Driver assistance system for a vehicle ( 1 ), with an evaluation device (S) according to one of claims 1 to 9, the black and white camera (K1) and the color camera (K2), an application unit (A) for using the at least one of the evaluation device (S) determined lane boundary (MW, MG, R) as part of a driver assistance function. Verfahren zum Betreiben eines Fahrerassistenzsystems für ein Fahrzeug (1), wobei von einer in Vorwärtsrichtung des Fahrzeugs (1) ausgerichteten Schwarz-Weiß-Kamera (K1) erste Bildinformationen (I-K1) erfasst werden, von einer in Rückwärtsrichtung des Fahrzeugs (1) ausgerichteten Farbkamera (K2) zweite Bildinformationen (I-K2) erfasst werden, unter Verwendung der ersten Bildinformationen (I-K1) und der zweiten Bildinformationen (I-K2) zumindest eine Fahrbahnspurbegrenzung (MW, MG, R) ermittelt wird.Method for operating a driver assistance system for a vehicle ( 1 ), wherein from one in the forward direction of the vehicle ( 1 ) aligned black and white camera (K1) first image information (I-K1) are detected from a vehicle in the backward direction ( 1 ) aligned color camera (K2) second image information (I-K2) are detected using the first image information (I-K1) and the second image information (I-K2) at least one lane boundary (MW, MG, R) is determined. Computerprogrammprodukt für ein Fahrerassistenzsystem für ein Fahrzeug (1), mit einem Eingang zum Empfangen von ersten Bildinformationen (I-K1), welche von einer in Vorwärtsrichtung des Fahrzeugs (1) ausgerichteten Schwarz-Weiß-Kamera (K1) erfasst wurden, einem Eingang zum Empfangen von zweiten Bildinformationen (I-K2), welche von einer in Rückwärtsrichtung des Fahrzeugs (1) ausgerichteten Farbkamera (K2) erfasst wurden, einem Ermittlungsbestandteil zum Ermitteln von zumindest einer Fahrbahnspurbegrenzung (MW, MG, R) unter Verwendung der ersten Bildinformationen (I-K1) und der zweiten Bildinformationen (I-K2).Computer program product for a driver assistance system for a vehicle ( 1 ) having an input for receiving first image information (I-K1), which is from a forward direction of the vehicle ( 1 a black and white camera (K1), an input for receiving second image information (I-K2), which is from a vehicle in the backward direction (K1). 1 ) detected color camera (K2), a determination component for determining at least one lane boundary (MW, MG, R) using the first image information (I-K1) and the second image information (I-K2).
DE102007017293A 2007-04-12 2007-04-12 Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle Ceased DE102007017293A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007017293A DE102007017293A1 (en) 2007-04-12 2007-04-12 Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007017293A DE102007017293A1 (en) 2007-04-12 2007-04-12 Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle

Publications (1)

Publication Number Publication Date
DE102007017293A1 true DE102007017293A1 (en) 2008-10-16

Family

ID=39744213

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007017293A Ceased DE102007017293A1 (en) 2007-04-12 2007-04-12 Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle

Country Status (1)

Country Link
DE (1) DE102007017293A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010089345A1 (en) * 2009-02-04 2010-08-12 Hella Kgaa Hueck & Co. Method and device for determining an applicable lane marker
DE102016220647A1 (en) * 2016-10-20 2018-04-26 Audi Ag A method of presenting at least one supplementary difference lane equipment
CN108760740A (en) * 2018-05-31 2018-11-06 同济大学 A kind of pavement skid resistance condition rapid detection method based on machine vision
EP3428026A1 (en) * 2017-07-12 2019-01-16 LG Electronics Inc. Driving system for vehicle and vehicle
DE102011107190B4 (en) 2010-07-20 2022-03-17 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Method for determining the position of a vehicle in a lane

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004021546A2 (en) * 2002-08-09 2004-03-11 Conti Temic Microelectronic Gmbh Means of transport with a three-dimensional distance camera and method for the operation thereof
US20040164851A1 (en) * 2003-02-24 2004-08-26 Crawshaw Richard D. Lane tracking system employing redundant image sensing devices
DE10311240A1 (en) * 2003-03-14 2004-09-30 Robert Bosch Gmbh Road lane tracking system has permanent and temporary markings in different colors that are automatically identified
JP2005165972A (en) * 2003-12-05 2005-06-23 Nissan Motor Co Ltd Device for preventing lane deviation
JP2005182407A (en) * 2003-12-18 2005-07-07 Nissan Motor Co Ltd Traffic lane deviation prevention device
WO2007002964A2 (en) 2005-07-04 2007-01-11 Advanced Computer Vision Gmbh-Acv Method for lane recognition
DE602004003771T2 (en) * 2003-11-07 2007-10-11 Trw Ltd., Solihull Method and device for color discrimination of road markings

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004021546A2 (en) * 2002-08-09 2004-03-11 Conti Temic Microelectronic Gmbh Means of transport with a three-dimensional distance camera and method for the operation thereof
US20040164851A1 (en) * 2003-02-24 2004-08-26 Crawshaw Richard D. Lane tracking system employing redundant image sensing devices
DE10311240A1 (en) * 2003-03-14 2004-09-30 Robert Bosch Gmbh Road lane tracking system has permanent and temporary markings in different colors that are automatically identified
DE602004003771T2 (en) * 2003-11-07 2007-10-11 Trw Ltd., Solihull Method and device for color discrimination of road markings
JP2005165972A (en) * 2003-12-05 2005-06-23 Nissan Motor Co Ltd Device for preventing lane deviation
JP2005182407A (en) * 2003-12-18 2005-07-07 Nissan Motor Co Ltd Traffic lane deviation prevention device
WO2007002964A2 (en) 2005-07-04 2007-01-11 Advanced Computer Vision Gmbh-Acv Method for lane recognition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DE 602004003771 T2(vgl. Veröffentlichungstag der Patentabteilung beim EPA)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010089345A1 (en) * 2009-02-04 2010-08-12 Hella Kgaa Hueck & Co. Method and device for determining an applicable lane marker
JP2012517058A (en) * 2009-02-04 2012-07-26 ヘラ コマンディートゲゼルシャフト アウフ アクチエン フエック ウント コンパニー Method and apparatus for determining valid lane markings
US9626571B2 (en) 2009-02-04 2017-04-18 Hella Kgaa Hueck & Co. Method and device for determining a valid lane marking
US10183666B2 (en) 2009-02-04 2019-01-22 Hella Kgaa Hueck & Co. Method and device for determining a valid lane marking
DE102011107190B4 (en) 2010-07-20 2022-03-17 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Method for determining the position of a vehicle in a lane
DE102016220647A1 (en) * 2016-10-20 2018-04-26 Audi Ag A method of presenting at least one supplementary difference lane equipment
EP3428026A1 (en) * 2017-07-12 2019-01-16 LG Electronics Inc. Driving system for vehicle and vehicle
CN108760740A (en) * 2018-05-31 2018-11-06 同济大学 A kind of pavement skid resistance condition rapid detection method based on machine vision
CN108760740B (en) * 2018-05-31 2020-10-02 同济大学 Quick detection method for road surface skid resistance based on machine vision

Similar Documents

Publication Publication Date Title
DE102009005505B4 (en) Method and device for generating an image of the surroundings of a motor vehicle
DE102007039617B4 (en) Automatic mirror adjustment in a vehicle
DE102014018040A1 (en) vision system
DE102007001103A1 (en) Vertical alignment of a lidar sensor
WO2005081200A2 (en) Detection device for a motor vehicle
DE102009005184A1 (en) Fahrzeugabtastsystem
DE102012022486A1 (en) Method for operating driver assistance system of passenger car, involves determining potential hazard due to change of lane by recognition of vehicle in lane, and providing mark in captured portion of image based on potential hazard
DE102012107885A1 (en) Method for determining a lane course for a vehicle
DE102008046544A1 (en) Vehicle e.g. passenger car, surrounding monitoring method, utilized for passenger transportation, involves displaying section of complete image for positioning of vehicle, and selecting section as function of vehicle movement direction
DE102008020007A1 (en) Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients
DE102012200216A1 (en) Method and device for operating a driver assistance system of a vehicle
DE102011121763A1 (en) Method for representing distance information to preceding vehicle on display device of motor car, involves generating virtual image portion as graphics element, and representing real image that is expanded around portion, on display device
DE102014204059A1 (en) Driver assistance system for calculating a future traffic light phase
WO2018023143A1 (en) Method and device for measuring a distance between a first vehicle and a second vehicle driving directly ahead of the first vehicle
EP4176378A1 (en) Method for capturing the surroundings using at least two independent imaging surroundings capture sensors, apparatus for performing the method, vehicle and appropriately designed computer program
DE102007017293A1 (en) Evaluation device for use in motor vehicle, has determination unit determining roadway limits using both image information captured by black-and-white camera and color camera which is aligned in rear side of vehicle
DE102013019371A1 (en) Method for operating a driver assistance system for protecting a motor vehicle from damage during a maneuvering process and motor vehicle
DE102017223439A1 (en) Warning device against dangerous situations for a motor vehicle
EP3327698A1 (en) Method for assisting a driver of a motor vehicle when parking the motor vehicle in a parking lot, driver assistance system and motor vehicle
WO2008132130A1 (en) Driving lane detection using cameras having different focal lengths
DE102016122301A1 (en) Monitoring a blind spot area of a team
DE102017007958A1 (en) Driver assistance system for a vehicle and vehicle with such a driver assistance system
DE102020004215A1 (en) Method for representing a traffic situation in a vehicle
DE102016124157A1 (en) Determining a braking necessity for avoiding a collision of a motor vehicle with a pedestrian
DE102018213378B4 (en) Driver assistance system for a vehicle, vehicle with the same and driver assistance method for a vehicle

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection