DE102010032063A1 - Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera - Google Patents

Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera Download PDF

Info

Publication number
DE102010032063A1
DE102010032063A1 DE102010032063A DE102010032063A DE102010032063A1 DE 102010032063 A1 DE102010032063 A1 DE 102010032063A1 DE 102010032063 A DE102010032063 A DE 102010032063A DE 102010032063 A DE102010032063 A DE 102010032063A DE 102010032063 A1 DE102010032063 A1 DE 102010032063A1
Authority
DE
Germany
Prior art keywords
lane
data
radar
camera
course
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102010032063A
Other languages
German (de)
Inventor
Carola Dipl.-Ing. Otto
Andreas Dr.-Ing. Schwarzhaupt
Istvan Dr. Vegh
Urs Dr. Dipl.-Ing. Wiesel
Jan Dr.-Ing. Wirnitzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102010032063A priority Critical patent/DE102010032063A1/en
Publication of DE102010032063A1 publication Critical patent/DE102010032063A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/076Slope angle of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408

Abstract

The method involves recognizing radar data from a roadway surface elevated object by radar sensors (1.2) and recognizing camera data from a pavement marking (FBM1,FBM2,FBM3) by a camera (1.1). The radar data is integrated over a time and a lane track or lane course is determined over the time and in image processing process from the integrated radar data.

Description

Die Erfindung betrifft ein Verfahren zur Erfassung einer Umgebung eines Fahrzeugs, wobei mittels zumindest eines Radarsensors Radardaten von einer Fahrbahnoberfläche erhabener Objekte und mittels zumindest einer Kamera Kameradaten von Fahrbahnmarkierungen erkannt werden, wobei anhand einer gemeinsamen Auswertung und/oder Fusion der Radardaten und Kameradaten ein endgültiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird.The invention relates to a method for detecting an environment of a vehicle, wherein by means of at least one radar sensor radar data from a road surface of raised objects and by means of at least one camera camera data of lane markings are detected, based on a common evaluation and / or fusion of the radar data and camera data a final lane - and / or road course is determined.

Für einen Betrieb einer Vielzahl eine Umgebung eines Fahrzeugs erfassender Fahrerassistenzsysteme ist es erforderlich, einen Fahrspur- oder Fahrbahnverlauf zu ermitteln. Zu diesen Fahrerassistenzsystemen gehören ein Abstandsregeltempomat, ein aktiver Bremsassistent oder ein so genanntes Blind Spot Monitoring, auch Totwinkel-Assistent genannt. Bei der Ermittlung des Fahrspur- oder Fahrbahnverlaufs wird ein relevanter Umgebungsbereich für eine Situationsbewertung ausgewählt, um eine Komplexität und einen Rechenaufwand zu minimieren. Weiterhin wird dieser Umgebungsbereich eingeschränkt, um rechtzeitig vor einem möglichen Abkommen des Fahrzeugs von der Fahrbahn warnen oder eingreifen zu können.For operation of a plurality of driver assistance systems detecting an environment of a vehicle, it is necessary to determine a lane or road course. These driver assistance systems include a cruise control, an active brake assist or a so-called blind spot monitoring, also called blind spot assistant. In determining the lane or lane course, a relevant environmental area is selected for situation assessment to minimize complexity and computational effort. Furthermore, this surrounding area is restricted in order to warn or intervene in good time before a possible agreement of the vehicle from the road.

Die Erfassung des Umgebungsbereichs ist im Nahbereich mittels einer Kamera-Spurmarkierungs-Erkennung möglich. Eine Einschränkung des Umgebungsbereichs wird anhand eines Radarsensors realisiert, mittels welchem von der Fahrbahnoberfläche erhabene Objekte, die für Radarstrahlung stark reflektierend ausgebildet sind, erfasst werden. Dabei werden aus den ermittelten Radardaten zunächst Radar-Objekte gebildet und bei ausreichender Objektdichte wird ein Verlauf der Objekte ermittelt. Aus diesem Verlauf wird der Fahrspur- oder Fahrbahnverlauf ermittelt.The detection of the surrounding area is possible at close range by means of a camera lane mark recognition. A restriction of the surrounding area is realized by means of a radar sensor, by means of which objects raised by the road surface which are highly reflective for radar radiation are detected. In the process, radar objects are first formed from the radar data obtained and, if the density of the object is sufficient, a course of the objects is determined. From this course, the lane or road course is determined.

Eine Vorrichtung zu einer derartigen Erfassung einer Umgebung eines Fahrzeugs ist aus der EP 2 012 211 A1 bekannt. Die Vorrichtung umfasst einen Radarsensor, mittels welchem eine Straßenbegrenzung erfassbar ist. Diese Erfassung erfolgt anhand von von einer Fahrbahnoberfläche erhabenen Objekten, welche Radarstrahlung reflektieren. Aus erfassten Radardaten werden Radar-Objekte und ein vorläufiger Verlauf einer Fahrbahn oder Fahrspur gebildet. Weiterhin umfasst die Vorrichtung eine Kamera zur Erfassung von Fahrbahnmarkierungen, wobei die mittels des Radarsensors erfassten Radardaten und die mittels der Kamera erfassten Kameradaten derart fusioniert werden, dass aus den mittels des Radarsensors erfassten Straßenbegrenzungen und den mittels der Kamera erfassten Fahrbahnmarkierungen ein Verlauf einer Fahrbahn oder Fahrspur ermittelt wird. Dabei werden anhand der mittels der Kamera erfassten Kameradaten für den Fahrbahnverlauf oder Fahrspurverlauf irrelevante Radarobjekte, welche einen großen Abstand zu den Fahrbahnmarkierungen aufweisen, verworfen.An apparatus for such detection of an environment of a vehicle is known from EP 2 012 211 A1 known. The device comprises a radar sensor, by means of which a road boundary can be detected. This detection is carried out on the basis of a road surface raised objects which reflect radar radiation. From recorded radar data, radar objects and a preliminary course of a lane or lane are formed. Furthermore, the device comprises a camera for detecting lane markings, wherein the radar data detected by means of the radar sensor and the camera data captured by the camera are fused such that from the road boundaries detected by the radar sensor and the lane markings detected by the camera a course of a lane or lane is determined. In this case, irrelevant radar objects, which have a large distance from the lane markings, are rejected on the basis of the camera data acquired by the camera for the lane course or lane course.

Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Erfassung einer Umgebung eines Fahrzeugs anzugeben.The invention has for its object to provide a comparison with the prior art improved method for detecting an environment of a vehicle.

Die Aufgabe wird erfindungsgemäß durch ein Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved by a method having the features specified in claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the dependent claims.

In dem Verfahren zur Erfassung einer Umgebung eines Fahrzeugs werden mittels zumindest eines Radarsensors Radardaten von einer Fahrbahnoberfläche erhabener Objekte und mittels zumindest einer Kamera Kameradaten von Fahrbahnmarkierungen erkannt, wobei anhand einer gemeinsamen Auswertung und/oder Fusion der Radardaten und Kameradaten ein endgültiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird.In the method for detecting an environment of a vehicle, radar data from a road surface of raised objects is detected by means of at least one radar sensor and camera data from road markings by means of at least one camera, whereby based on a common evaluation and / or fusion of the radar data and camera data a final lane and / or Lane course is determined.

Erfindungsgemäß werden die Radardaten über die Zeit integriert und in einem Bildverarbeitungsprozess wird aus den integrierten Radardaten ein vorläufiger Fahrspur- und/oder Fahrbahnverlauf ermittelt, welcher zur Ermittlung des endgültigen Fahrspur- und/oder Fahrbahnverlaufs gemeinsam mit Kameradaten ausgewertet und/oder mit den Kameradaten fusioniert wird.According to the invention, the radar data is integrated over time and in an image processing process, a preliminary lane and / or road course is determined from the integrated radar data, which is evaluated together with camera data and / or fused with the camera data to determine the final lane and / or road course ,

Daraus ergibt sich in besonders vorteilhafter Weise, dass auch Objekte mit einem geringen Radar-Reflexionsverhalten bei der Ermittlung des vorläufigen Fahrspur- und/oder Fahrbahnverlaufs mittels des Radars berücksichtigt werden. Insbesondere gegenüber einer Bildung von Radar-Objekten aus erfassten Radardaten, bei welcher Objekte mit geringem Radar-Reflexionsverhalten ignoriert werden, ergibt sich der Vorteil, dass der Fahrspur- und/oder Fahrbahnverlauf schneller, einfacher und zuverlässiger ermittelbar ist, so dass eine verbesserte Fahrbahnverlaufs- und Fahrspurverlaufsermittlung möglich ist. Somit können die Fahrspur und/oder die Fahrbahn, welche den für das Verkehrsgeschehen relevanten Bereich bilden, auch bei einer für eine Radarreflexion ungünstigeren Abgrenzung zwischen Fahrspur- und/oder Fahrbahnverlauf und Fahrbahnrand bzw. Randbebauung im Fernbereich eingegrenzt werden. Daraus folgt, dass eine Komplexität und ein Rechenaufwand bei der Ermittlung des Fahrspur- und/oder Fahrbahnverlauf verringert sind.This results in a particularly advantageous manner that even objects with a low radar reflection behavior in the determination of the provisional lane and / or road course are taken into account by means of the radar. In particular, compared to a formation of radar objects from detected radar data, in which objects with low radar reflection behavior are ignored, there is the advantage that the lane and / or road course can be determined faster, easier and more reliable, so that an improved Fahrbahnverlaufs-. and Lahrverlaufsermittlung is possible. Thus, the lane and / or the lane, which form the relevant area for the traffic, even at a less favorable for a radar reflection demarcation between lane and / or lane course and edge of the road or edge development in the long range be limited. It follows that a complexity and a computational burden in determining the lane and / or road course are reduced.

Gegenüber einer alleinigen Ermittlung des Fahrspur- und/oder Fahrbahnverlaufs anhand von Kameradaten wird durch die Verwendung eines bildgebenden Radars eine Erweiterung eines Erfassungsbereichs, das heißt eine Sichtweitenerhöhung der Vorrichtung erzielt, so dass auch in großer Entfernung befindliche Objekte und Strukturen bereits frühzeitig bei der Ermittlung des Fahrspur- und/oder Fahrbahnverlaufs berücksichtigt werden können. Somit steigt eine Verfügbarkeit von Fahrspur- und Fahrbahninformationen auf Basis einer Randbebauung. Mit anderen Worten: Eine Reichweite der Kameraspurerkennung wird durch eine radarbasierte Anpassung von Spur-Suchfenstern vergrößert.Compared to a sole determination of the lane and / or road course based on camera data is by the use of a imaging radar an extension of a detection range, that is, an increase in visibility of the device achieved, so that even located at a distance objects and structures can be considered early in the determination of the lane and / or road course. Thus, an availability of lane and lane information increases based on a peripheral development. In other words, a range of camera track recognition is increased by a radar-based adaptation of track search windows.

Weiterhin ist eine verbesserte Zuordnung von mittels des Radarsensors erfassten Objekten zu der Fahrspur und/oder Fahrbahn und daraus folgend eine zuverlässige Ermittlung des Fahrspur- und/oder Fahrbahnverlaufs anhand einer Straßenrandbebauung möglich. Diese Zuordnung kann auch in größeren Entfernungen erfolgen. Auch können möglicherweise relevante Objekte von irrelevanten Objekten unterschieden werden.Furthermore, an improved assignment of objects detected by means of the radar sensor to the traffic lane and / or roadway and consequently a reliable determination of the traffic lane and / or roadway course on the basis of a roadside development is possible. This assignment can also be made at greater distances. Also, potentially relevant objects can be distinguished from irrelevant objects.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.Embodiments of the invention will be explained in more detail below with reference to a drawing.

Dabei zeigt:Showing:

1 schematisch eine Fahrbahn in einer Umgebung eines Fahrzeugs mit zwei Fahrspuren. 1 schematically a roadway in an environment of a vehicle with two lanes.

Die einzige 1 zeigt eine Fahrbahn FB in einer Umgebung eines Fahrzeugs 1. Die Fahrbahn FB ist randseitig jeweils von einer Fahrbahnmarkierung FBM1, FBM2 begrenzt, wobei die Fahrbahnmarkierungen FBM1, FBM2 als durchgezogene Linie ausgebildet sind. Die Fahrbahn FB weist weiterhin zwei Fahrspuren FS1, FS2 auf, welche durch eine weitere Fahrbahnmarkierung FBM3 voneinander getrennt sind, wobei die Fahrbahnmarkierung FBM3 als unterbrochene Linie ausgebildet ist.The only 1 shows a carriageway FB in an environment of a vehicle 1 , The roadway FB is bordered in each case by a road marking FBM1, FBM2, wherein the road markings FBM1, FBM2 are formed as a solid line. The roadway FB further has two lanes FS1, FS2, which are separated from each other by a further road marking FBM3, wherein the road marking FBM3 is formed as a broken line.

Das Fahrzeug 1 bewegt sich auf der Fahrspur FS2 in Richtung R. Das Fahrzeug 1 umfasst eine Kamera 1.1 zur Erfassung wenigstens einer Fahrbahnmarkierung FBM1 bis FBM3, wobei anhand der Kameradaten ein erster vorläufiger Fahrspur- und Fahrbahnverlauf ermittelt wird.The vehicle 1 moves on the lane FS2 towards R. The vehicle 1 includes a camera 1.1 for detecting at least one lane marking FBM1 to FBM3, wherein based on the camera data, a first provisional lane and lane course is determined.

Weiterhin umfasst das Fahrzeug 1 einen Radarsensor 1.2 zur Erfassung von einer Fahrbahnoberfläche erhabener Objekte O1 bis O9. Unter erhabenen Objekten sind beispielsweise Randsteine, Schutzplanken, Betonschutzwände, Leitpfosten, Baken, Bauwerke, Bäume, Sträucher, Grasbewuchs, Tunnelwände, bauliche Begrenzungen und ähnliche Objekte zu verstehen. Mittels des Radarsensors 1.2 ausgesendete Radarstrahlung wird von Objekten O1 bis O9 reflektiert. Die reflektierte Radarstrahlung wird von dem Radarsensor 1.2 erfasst, so dass die Objekte O1 bis O9 in der Umgebung des Fahrzeugs 1 erfassbar sind.Furthermore, the vehicle includes 1 a radar sensor 1.2 for detecting a road surface of raised objects O1 to O9. Under raised objects are, for example, curbs, crash barriers, concrete barriers, delineators, beacons, structures, trees, shrubs, grass, tunnel walls, structural boundaries and similar objects to understand. By means of the radar sensor 1.2 emitted radar radiation is reflected by objects O1 to O9. The reflected radar radiation is from the radar sensor 1.2 captured so that the objects O1 to O9 in the environment of the vehicle 1 are detectable.

Aus den Radardaten des Radarsensors 1.2 wird ein zweiter vorläufiger Fahrspur- und Fahrbahnverlauf ermittelt. Hierzu werden die Radardaten, insbesondere solche Listen in, denen Signalspitzen des Radarsignals (sog. Peak-Listen) enthalten sind, über die Zeit integriert und in einem Bildverarbeitungsprozess wird aus den integrierten Radardaten der zweite vorläufige Fahrspur- und Fahrbahnverlauf ermittelt. Aufgrund dieser zeitlichen Integration können auch Objekte bzw. Merkmale erfasst werden, welche eine geringe Radarstrahlungsreflexion erzeugen und welche beispielsweise zur Spurvorhersage dienen.From the radar data of the radar sensor 1.2 a second provisional lane and road course is determined. For this purpose, the radar data, in particular those lists in which signal peaks of the radar signal (so-called peak lists) are integrated over time and in an image processing process, the second provisional lane and road course is determined from the integrated radar data. Because of this temporal integration, it is also possible to detect objects or features which generate a low radar radiation reflection and which serve, for example, for the purpose of tracking prediction.

Im dargestellten Ausführungsbeispiel bewegt sich das Fahrzeug 1 auf eine Linskurve zu.In the illustrated embodiment, the vehicle moves 1 on a Linskurve too.

Mittels des Radarsensors 1.2 und des anschließenden Bildverarbeitungsprozesses werden aufgrund der Anordnung der Objekte O1 bis O9 zwei unterschiedliche vorläufige Fahrspur- und Fahrbahnverläufe ermittelt. Einer der anhand der Radardaten ermittelten möglichen vorläufigen Fahrspur- und Fahrbahnverläufe in einem ersten Bereich B1 folgt dabei einem gestrichelt dargestellten Straßenverlauf. Dieser Straßenverlauf verläuft zwischen einer ersten aus den Objekten O1 bis O3 gebildeten Objektgruppe und einer zweiten aus den Objekten O4, O5 gebildeten Objektgruppe. Der weitere mögliche vorläufige Fahrspur- und Fahrbahnverlauf folgt der Linkskurve.By means of the radar sensor 1.2 and the subsequent image processing process, two different provisional traffic lane and roadway courses are determined on the basis of the arrangement of the objects O1 to O9. One of the possible preliminary lane and lane courses in a first area B1, which is determined on the basis of the radar data, follows a course of the road represented by dashed lines. This road course runs between a first object group formed from the objects O1 to O3 and a second object group formed from the objects O4, O5. The other possible provisional lane and road course follows the left turn.

Anhand der Kameradaten wird aus dem Verlauf der wenigsten einen Fahrbahnmarkierung FBM1 bis FBM3 ein weiterer vorläufiger Fahrspur- und Fahrbahnverlauf in einem zweiten Bereich B2 ermittelt. Dieser Bereich ergibt sich aus dem Erfassungsbereich der Kamera 1.1, so dass mittels der Kamera 1.1 die Linkskurve erkannt wird.On the basis of the camera data, a further preliminary lane and road course in a second area B2 is determined from the course of at least one lane marking FBM1 to FBM3. This range results from the detection range of the camera 1.1 , so by means of the camera 1.1 the left turn is detected.

Aufgrund einer gemeinsamen Auswertung der Radardaten und der Kameradaten und aufgrund eines Vergleichs und/oder einer Fusion der Radardaten und der Kameradaten, wird ein endgültiger Fahrspur- und Fahrbahnverlauf ermittelt, welcher im zweiten Bereich B2 und einem dritten Bereich B3 verläuft.Based on a common evaluation of the radar data and the camera data and on the basis of a comparison and / or fusion of the radar data and the camera data, a final lane and road course is determined, which runs in the second area B2 and a third area B3.

Bei der gemeinsamen Auswertung wird anhand der Kameradaten eine Plausibilisierung der aus den Radarsdaten ermittelten vorläufigen Fahrspur- und Fahrbahnverläufen durchgeführt, wobei aufgrund der Übereinstimmung der Kameradaten und der Radardaten bezüglich des der Linkskurve folgenden vorläufigen Fahrspur- und Fahrbahnverlaufs, auf den endgültigen Fahrspur- und Fahrbahnverlauf geschlossen wird. Der endgültige Fahrspur- und Fahrbahnverlauf befindet sich in den Bereichen B2 und B3 und folgt der Linkskurve.In the joint evaluation, based on the camera data, a plausibility check of the provisional lane and lane curves determined from the radar data is carried out, based on the agreement of the camera data and the radar data with respect to the left lane following provisional lane and road course, closed on the final lane and road course becomes. The final lane and lane course is located in the areas B2 and B3 and follows the left turn.

Alternativ oder zusätzlich kann der mittels der Kamera ermittelte Fahrspurverlauf auch zur Vorsteuerung oder zur Plausibilisierung der mittels Radardaten gewonnen Spurvorhersage genutzt werden. Somit besteht die Möglichkeit bereits von vornherein falsche bzw. nicht relevante Spurverläufe an Abzweigungen zu vermeiden bzw. zu verwerfen. Alternatively or additionally, the lane course ascertained by means of the camera can also be used for pre-control or for plausibility checking of the lane prediction obtained by means of radar data. Thus, there is the possibility already from the outset to avoid or discard incorrect or irrelevant lane courses at branches.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Fahrzeugvehicle
1.11.1
Kameracamera
1.21.2
Radarsensorradar sensor
B1 bis B3B1 to B3
BereichArea
FBFB
Fahrbahnroadway
FBM1 bis FBM3FBM1 to FBM3
Fahrbahnmarkierungroad marking
FS1, FS2FS1, FS2
Fahrspurlane
O1 bis O9O1 to O9
Objektobject
RR
Richtungdirection

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 2012211 A1 [0004] EP 2012211 A1 [0004]

Claims (3)

Verfahren zur Erfassung einer Umgebung eines Fahrzeugs (1), wobei mittels zumindest eines Radarsensors (1.2) Radardaten von einer Fahrbahnoberfläche erhabener Objekte (O1 bis O9) und mittels zumindest einer Kamera (1.1) Kameradaten von wenigstens einer Fahrbahnmarkierung (FBM1 bis FBM3) erkannt werden, wobei anhand einer gemeinsamen Auswertung und/oder Fusion der Radardaten und Kameradaten ein endgültiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird, dadurch gekennzeichnet, dass die Radardaten über die Zeit integriert werden und in einem Bildverarbeitungsprozess aus den integrierten Radardaten ein vorläufiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird, welcher zur Ermittlung des endgültigen Fahrspur- und/oder Fahrbahnverlaufs gemeinsam mit Kameradaten ausgewertet und/oder mit den Kameradaten fusioniert wird.Method for detecting an environment of a vehicle ( 1 ), wherein by means of at least one radar sensor ( 1.2 Radar data from a roadway surface of raised objects (O1 to O9) and by means of at least one camera ( 1.1 ) Camera data from at least one lane marking (FBM1 to FBM3) are detected, wherein based on a common evaluation and / or fusion of the radar data and camera data a final lane and / or road course is determined, characterized in that the radar data are integrated over time and a preliminary lane and / or road course is determined in an image processing process from the integrated radar data, which is evaluated together with camera data and / or fused with the camera data to determine the final lane and / or road course. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass im Rahmen der gemeinsamen Auswertung und/oder Fusion die Kameradaten zur Steuerung der auf Radardaten basierenden Ermittlung von Fahrspur- und/oder Fahrbahnverlauf herangezogen werden.A method according to claim 1, characterized in that in the context of the common evaluation and / or fusion, the camera data for controlling the based on radar data determination of lane and / or lane course are used. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels der Kameradaten eine Plausibilität des anhand der Radardaten ermittelten vorläufigen Fahrspur- und/oder Fahrbahnverlaufs überprüft wird.Method according to one of the preceding claims, characterized in that by means of the camera data, a plausibility of the provisional lane and / or lane course determined on the basis of the radar data is checked.
DE102010032063A 2010-06-09 2010-07-23 Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera Withdrawn DE102010032063A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010032063A DE102010032063A1 (en) 2010-06-09 2010-07-23 Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102010023200 2010-06-09
DE102010023200.9 2010-06-09
DE102010032063A DE102010032063A1 (en) 2010-06-09 2010-07-23 Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera

Publications (1)

Publication Number Publication Date
DE102010032063A1 true DE102010032063A1 (en) 2011-05-12

Family

ID=43853103

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010032063A Withdrawn DE102010032063A1 (en) 2010-06-09 2010-07-23 Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera

Country Status (1)

Country Link
DE (1) DE102010032063A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013169153A1 (en) * 2012-05-08 2013-11-14 Autoliv Development Ab A lane-marking crossing warning system
CN104108392A (en) * 2013-04-11 2014-10-22 株式会社万都 Lane Estimation Apparatus And Method
WO2015032663A1 (en) * 2013-09-06 2015-03-12 Robert Bosch Gmbh Method and device for determining a roadway course of a roadway of a vehicle
DE102015202099A1 (en) * 2015-02-06 2016-08-11 Bayerische Motoren Werke Aktiengesellschaft Processing sensor data for a driver assistance system
US10377376B2 (en) 2016-10-06 2019-08-13 Ford Global Technologies, Llc Vehicle with environmental context analysis
US11163054B2 (en) 2016-07-29 2021-11-02 3M Innovative Properties Company Radar radiation redirecting tape
DE102022209713A1 (en) 2022-09-15 2024-03-21 Continental Autonomous Mobility Germany GmbH Method for creating a lane model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2012211A1 (en) 2007-07-03 2009-01-07 Ford Global Technologies, LLC A system for monitoring the surroundings of a vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2012211A1 (en) 2007-07-03 2009-01-07 Ford Global Technologies, LLC A system for monitoring the surroundings of a vehicle

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013169153A1 (en) * 2012-05-08 2013-11-14 Autoliv Development Ab A lane-marking crossing warning system
US9472105B2 (en) 2012-05-08 2016-10-18 Autoliv Development Ab Lane marking crossing warning system
DE102014005688B4 (en) 2013-04-11 2020-08-06 Mando Corporation TRACK ESTIMATE DEVICE AND METHOD
CN104108392A (en) * 2013-04-11 2014-10-22 株式会社万都 Lane Estimation Apparatus And Method
CN104108392B (en) * 2013-04-11 2017-04-19 株式会社万都 Lane Estimation Apparatus And Method
US9664787B2 (en) 2013-04-11 2017-05-30 Mando Corporation Lane estimation apparatus and method
KR101787996B1 (en) * 2013-04-11 2017-10-19 주식회사 만도 Apparatus of estimating traffic lane in vehicle, control method of thereof
WO2015032663A1 (en) * 2013-09-06 2015-03-12 Robert Bosch Gmbh Method and device for determining a roadway course of a roadway of a vehicle
CN105579316A (en) * 2013-09-06 2016-05-11 罗伯特·博世有限公司 Method and device for determining a roadway course of a roadway of a vehicle
US9792509B2 (en) 2013-09-06 2017-10-17 Robert Bosch Gmbh Method and device for determining a lane course of a vehicle
CN105579316B (en) * 2013-09-06 2019-04-19 罗伯特·博世有限公司 Method and apparatus for determining the runway trend of the runway of vehicle
DE102015202099A1 (en) * 2015-02-06 2016-08-11 Bayerische Motoren Werke Aktiengesellschaft Processing sensor data for a driver assistance system
US10460181B2 (en) 2015-02-06 2019-10-29 Bayerische Motoren Werke Aktiengesellschaft Processing of sensor data for a driver assistance system
US11163054B2 (en) 2016-07-29 2021-11-02 3M Innovative Properties Company Radar radiation redirecting tape
US10377376B2 (en) 2016-10-06 2019-08-13 Ford Global Technologies, Llc Vehicle with environmental context analysis
DE102022209713A1 (en) 2022-09-15 2024-03-21 Continental Autonomous Mobility Germany GmbH Method for creating a lane model

Similar Documents

Publication Publication Date Title
EP3254138B1 (en) Method for acquiring transverse-position information of a motor vehicle on a carriageway and motor vehicle
EP2321666B1 (en) Method for detecting expansive static object
EP1557692B1 (en) Method for detecting marked hazardous locations and/or road works in the vicinity of roadways
DE102012107444B3 (en) Method for classifying traveling vehicles e.g. passenger car, by tracking vehicle position magnitude in flowing traffic, involves comparing discontinuity portion length with stored typical velocity-normalized lengths to classify vehicle
EP2467291B1 (en) Method and controller for a robust detection of a vehicle lane change
DE102010032063A1 (en) Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera
DE102011121722A1 (en) Device for parking control
DE102014200638A1 (en) Method and system for estimating a lane course
DE102008062708A1 (en) Method for determining the road level of a parking space
WO2011131165A1 (en) Method for determining the course of the road for a motor vehicle
DE102005039167A1 (en) Lane departure warning driver assistance device for vehicle, has evaluating unit evaluating present surrounding situation by comparing location of boundary with markings or edges, and adjusting unit adjusting warning output to situation
EP3259614B1 (en) Method for ascertaining a piece of local information for a motor vehicle in relation to a driving corridor, and motor vehicle
DE102009036433A1 (en) Method for operating driver assistance system, involves recording images adjacent to vehicle, where indicators of hazard- or construction sites are determined by images
DE102018104243B3 (en) Method and system for detecting parking spaces suitable for a vehicle
DE102010020688A1 (en) Driving track course determining method for motor vehicle, involves identifying structures limiting driving tracks based on length, contrast, direction and three dimensional position of continuous edge courses of contours of structures
WO2016193333A1 (en) Method for classifying an elongated stationary object in a lateral surrounding region of a motor vehicle, driver assistance system, and motor vehicle
DE102009031319A1 (en) Method and system for determining a vehicle class
DE102014212216A1 (en) Method and driver assistance system for detecting a Fahrzeugumfel des
DE102016014060A1 (en) Method for radar-based determination of a height of an object
DE102011113325A1 (en) Method for object recognition by image data, involves recognizing objects in vicinity of vehicle and differentiating objects in object types, where distance in Y-direction is determined for all objects recognized in vicinity
DE102014202497A1 (en) Estimation of geometric parameters of a roadway-fixed lateral object
DE102008021380B4 (en) Method and device for predicting a course of a roadway and driver assistance system
DE102015214425A1 (en) Method for detecting a course of rails
DE102016207181B4 (en) Method and system for determining a position of a vehicle on a roadway
DE102012018471A1 (en) Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images

Legal Events

Date Code Title Description
R230 Request for early publication
OAV Publication of unexamined application with consent of applicant
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20150203