DE102010032063A1 - Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera - Google Patents
Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera Download PDFInfo
- Publication number
- DE102010032063A1 DE102010032063A1 DE102010032063A DE102010032063A DE102010032063A1 DE 102010032063 A1 DE102010032063 A1 DE 102010032063A1 DE 102010032063 A DE102010032063 A DE 102010032063A DE 102010032063 A DE102010032063 A DE 102010032063A DE 102010032063 A1 DE102010032063 A1 DE 102010032063A1
- Authority
- DE
- Germany
- Prior art keywords
- lane
- data
- radar
- camera
- course
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 101100478309 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) srdH gene Proteins 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000011156 evaluation Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000005855 radiation Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/076—Slope angle of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/072—Curvature of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
Abstract
Description
Die Erfindung betrifft ein Verfahren zur Erfassung einer Umgebung eines Fahrzeugs, wobei mittels zumindest eines Radarsensors Radardaten von einer Fahrbahnoberfläche erhabener Objekte und mittels zumindest einer Kamera Kameradaten von Fahrbahnmarkierungen erkannt werden, wobei anhand einer gemeinsamen Auswertung und/oder Fusion der Radardaten und Kameradaten ein endgültiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird.The invention relates to a method for detecting an environment of a vehicle, wherein by means of at least one radar sensor radar data from a road surface of raised objects and by means of at least one camera camera data of lane markings are detected, based on a common evaluation and / or fusion of the radar data and camera data a final lane - and / or road course is determined.
Für einen Betrieb einer Vielzahl eine Umgebung eines Fahrzeugs erfassender Fahrerassistenzsysteme ist es erforderlich, einen Fahrspur- oder Fahrbahnverlauf zu ermitteln. Zu diesen Fahrerassistenzsystemen gehören ein Abstandsregeltempomat, ein aktiver Bremsassistent oder ein so genanntes Blind Spot Monitoring, auch Totwinkel-Assistent genannt. Bei der Ermittlung des Fahrspur- oder Fahrbahnverlaufs wird ein relevanter Umgebungsbereich für eine Situationsbewertung ausgewählt, um eine Komplexität und einen Rechenaufwand zu minimieren. Weiterhin wird dieser Umgebungsbereich eingeschränkt, um rechtzeitig vor einem möglichen Abkommen des Fahrzeugs von der Fahrbahn warnen oder eingreifen zu können.For operation of a plurality of driver assistance systems detecting an environment of a vehicle, it is necessary to determine a lane or road course. These driver assistance systems include a cruise control, an active brake assist or a so-called blind spot monitoring, also called blind spot assistant. In determining the lane or lane course, a relevant environmental area is selected for situation assessment to minimize complexity and computational effort. Furthermore, this surrounding area is restricted in order to warn or intervene in good time before a possible agreement of the vehicle from the road.
Die Erfassung des Umgebungsbereichs ist im Nahbereich mittels einer Kamera-Spurmarkierungs-Erkennung möglich. Eine Einschränkung des Umgebungsbereichs wird anhand eines Radarsensors realisiert, mittels welchem von der Fahrbahnoberfläche erhabene Objekte, die für Radarstrahlung stark reflektierend ausgebildet sind, erfasst werden. Dabei werden aus den ermittelten Radardaten zunächst Radar-Objekte gebildet und bei ausreichender Objektdichte wird ein Verlauf der Objekte ermittelt. Aus diesem Verlauf wird der Fahrspur- oder Fahrbahnverlauf ermittelt.The detection of the surrounding area is possible at close range by means of a camera lane mark recognition. A restriction of the surrounding area is realized by means of a radar sensor, by means of which objects raised by the road surface which are highly reflective for radar radiation are detected. In the process, radar objects are first formed from the radar data obtained and, if the density of the object is sufficient, a course of the objects is determined. From this course, the lane or road course is determined.
Eine Vorrichtung zu einer derartigen Erfassung einer Umgebung eines Fahrzeugs ist aus der
Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Erfassung einer Umgebung eines Fahrzeugs anzugeben.The invention has for its object to provide a comparison with the prior art improved method for detecting an environment of a vehicle.
Die Aufgabe wird erfindungsgemäß durch ein Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved by a method having the features specified in claim 1.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the dependent claims.
In dem Verfahren zur Erfassung einer Umgebung eines Fahrzeugs werden mittels zumindest eines Radarsensors Radardaten von einer Fahrbahnoberfläche erhabener Objekte und mittels zumindest einer Kamera Kameradaten von Fahrbahnmarkierungen erkannt, wobei anhand einer gemeinsamen Auswertung und/oder Fusion der Radardaten und Kameradaten ein endgültiger Fahrspur- und/oder Fahrbahnverlauf ermittelt wird.In the method for detecting an environment of a vehicle, radar data from a road surface of raised objects is detected by means of at least one radar sensor and camera data from road markings by means of at least one camera, whereby based on a common evaluation and / or fusion of the radar data and camera data a final lane and / or Lane course is determined.
Erfindungsgemäß werden die Radardaten über die Zeit integriert und in einem Bildverarbeitungsprozess wird aus den integrierten Radardaten ein vorläufiger Fahrspur- und/oder Fahrbahnverlauf ermittelt, welcher zur Ermittlung des endgültigen Fahrspur- und/oder Fahrbahnverlaufs gemeinsam mit Kameradaten ausgewertet und/oder mit den Kameradaten fusioniert wird.According to the invention, the radar data is integrated over time and in an image processing process, a preliminary lane and / or road course is determined from the integrated radar data, which is evaluated together with camera data and / or fused with the camera data to determine the final lane and / or road course ,
Daraus ergibt sich in besonders vorteilhafter Weise, dass auch Objekte mit einem geringen Radar-Reflexionsverhalten bei der Ermittlung des vorläufigen Fahrspur- und/oder Fahrbahnverlaufs mittels des Radars berücksichtigt werden. Insbesondere gegenüber einer Bildung von Radar-Objekten aus erfassten Radardaten, bei welcher Objekte mit geringem Radar-Reflexionsverhalten ignoriert werden, ergibt sich der Vorteil, dass der Fahrspur- und/oder Fahrbahnverlauf schneller, einfacher und zuverlässiger ermittelbar ist, so dass eine verbesserte Fahrbahnverlaufs- und Fahrspurverlaufsermittlung möglich ist. Somit können die Fahrspur und/oder die Fahrbahn, welche den für das Verkehrsgeschehen relevanten Bereich bilden, auch bei einer für eine Radarreflexion ungünstigeren Abgrenzung zwischen Fahrspur- und/oder Fahrbahnverlauf und Fahrbahnrand bzw. Randbebauung im Fernbereich eingegrenzt werden. Daraus folgt, dass eine Komplexität und ein Rechenaufwand bei der Ermittlung des Fahrspur- und/oder Fahrbahnverlauf verringert sind.This results in a particularly advantageous manner that even objects with a low radar reflection behavior in the determination of the provisional lane and / or road course are taken into account by means of the radar. In particular, compared to a formation of radar objects from detected radar data, in which objects with low radar reflection behavior are ignored, there is the advantage that the lane and / or road course can be determined faster, easier and more reliable, so that an improved Fahrbahnverlaufs-. and Lahrverlaufsermittlung is possible. Thus, the lane and / or the lane, which form the relevant area for the traffic, even at a less favorable for a radar reflection demarcation between lane and / or lane course and edge of the road or edge development in the long range be limited. It follows that a complexity and a computational burden in determining the lane and / or road course are reduced.
Gegenüber einer alleinigen Ermittlung des Fahrspur- und/oder Fahrbahnverlaufs anhand von Kameradaten wird durch die Verwendung eines bildgebenden Radars eine Erweiterung eines Erfassungsbereichs, das heißt eine Sichtweitenerhöhung der Vorrichtung erzielt, so dass auch in großer Entfernung befindliche Objekte und Strukturen bereits frühzeitig bei der Ermittlung des Fahrspur- und/oder Fahrbahnverlaufs berücksichtigt werden können. Somit steigt eine Verfügbarkeit von Fahrspur- und Fahrbahninformationen auf Basis einer Randbebauung. Mit anderen Worten: Eine Reichweite der Kameraspurerkennung wird durch eine radarbasierte Anpassung von Spur-Suchfenstern vergrößert.Compared to a sole determination of the lane and / or road course based on camera data is by the use of a imaging radar an extension of a detection range, that is, an increase in visibility of the device achieved, so that even located at a distance objects and structures can be considered early in the determination of the lane and / or road course. Thus, an availability of lane and lane information increases based on a peripheral development. In other words, a range of camera track recognition is increased by a radar-based adaptation of track search windows.
Weiterhin ist eine verbesserte Zuordnung von mittels des Radarsensors erfassten Objekten zu der Fahrspur und/oder Fahrbahn und daraus folgend eine zuverlässige Ermittlung des Fahrspur- und/oder Fahrbahnverlaufs anhand einer Straßenrandbebauung möglich. Diese Zuordnung kann auch in größeren Entfernungen erfolgen. Auch können möglicherweise relevante Objekte von irrelevanten Objekten unterschieden werden.Furthermore, an improved assignment of objects detected by means of the radar sensor to the traffic lane and / or roadway and consequently a reliable determination of the traffic lane and / or roadway course on the basis of a roadside development is possible. This assignment can also be made at greater distances. Also, potentially relevant objects can be distinguished from irrelevant objects.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.Embodiments of the invention will be explained in more detail below with reference to a drawing.
Dabei zeigt:Showing:
Die einzige
Das Fahrzeug
Weiterhin umfasst das Fahrzeug
Aus den Radardaten des Radarsensors
Im dargestellten Ausführungsbeispiel bewegt sich das Fahrzeug
Mittels des Radarsensors
Anhand der Kameradaten wird aus dem Verlauf der wenigsten einen Fahrbahnmarkierung FBM1 bis FBM3 ein weiterer vorläufiger Fahrspur- und Fahrbahnverlauf in einem zweiten Bereich B2 ermittelt. Dieser Bereich ergibt sich aus dem Erfassungsbereich der Kamera
Aufgrund einer gemeinsamen Auswertung der Radardaten und der Kameradaten und aufgrund eines Vergleichs und/oder einer Fusion der Radardaten und der Kameradaten, wird ein endgültiger Fahrspur- und Fahrbahnverlauf ermittelt, welcher im zweiten Bereich B2 und einem dritten Bereich B3 verläuft.Based on a common evaluation of the radar data and the camera data and on the basis of a comparison and / or fusion of the radar data and the camera data, a final lane and road course is determined, which runs in the second area B2 and a third area B3.
Bei der gemeinsamen Auswertung wird anhand der Kameradaten eine Plausibilisierung der aus den Radarsdaten ermittelten vorläufigen Fahrspur- und Fahrbahnverläufen durchgeführt, wobei aufgrund der Übereinstimmung der Kameradaten und der Radardaten bezüglich des der Linkskurve folgenden vorläufigen Fahrspur- und Fahrbahnverlaufs, auf den endgültigen Fahrspur- und Fahrbahnverlauf geschlossen wird. Der endgültige Fahrspur- und Fahrbahnverlauf befindet sich in den Bereichen B2 und B3 und folgt der Linkskurve.In the joint evaluation, based on the camera data, a plausibility check of the provisional lane and lane curves determined from the radar data is carried out, based on the agreement of the camera data and the radar data with respect to the left lane following provisional lane and road course, closed on the final lane and road course becomes. The final lane and lane course is located in the areas B2 and B3 and follows the left turn.
Alternativ oder zusätzlich kann der mittels der Kamera ermittelte Fahrspurverlauf auch zur Vorsteuerung oder zur Plausibilisierung der mittels Radardaten gewonnen Spurvorhersage genutzt werden. Somit besteht die Möglichkeit bereits von vornherein falsche bzw. nicht relevante Spurverläufe an Abzweigungen zu vermeiden bzw. zu verwerfen. Alternatively or additionally, the lane course ascertained by means of the camera can also be used for pre-control or for plausibility checking of the lane prediction obtained by means of radar data. Thus, there is the possibility already from the outset to avoid or discard incorrect or irrelevant lane courses at branches.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Fahrzeugvehicle
- 1.11.1
- Kameracamera
- 1.21.2
- Radarsensorradar sensor
- B1 bis B3B1 to B3
- BereichArea
- FBFB
- Fahrbahnroadway
- FBM1 bis FBM3FBM1 to FBM3
- Fahrbahnmarkierungroad marking
- FS1, FS2FS1, FS2
- Fahrspurlane
- O1 bis O9O1 to O9
- Objektobject
- RR
- Richtungdirection
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 2012211 A1 [0004] EP 2012211 A1 [0004]
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010032063A DE102010032063A1 (en) | 2010-06-09 | 2010-07-23 | Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102010023200 | 2010-06-09 | ||
DE102010023200.9 | 2010-06-09 | ||
DE102010032063A DE102010032063A1 (en) | 2010-06-09 | 2010-07-23 | Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102010032063A1 true DE102010032063A1 (en) | 2011-05-12 |
Family
ID=43853103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010032063A Withdrawn DE102010032063A1 (en) | 2010-06-09 | 2010-07-23 | Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102010032063A1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013169153A1 (en) * | 2012-05-08 | 2013-11-14 | Autoliv Development Ab | A lane-marking crossing warning system |
CN104108392A (en) * | 2013-04-11 | 2014-10-22 | 株式会社万都 | Lane Estimation Apparatus And Method |
WO2015032663A1 (en) * | 2013-09-06 | 2015-03-12 | Robert Bosch Gmbh | Method and device for determining a roadway course of a roadway of a vehicle |
DE102015202099A1 (en) * | 2015-02-06 | 2016-08-11 | Bayerische Motoren Werke Aktiengesellschaft | Processing sensor data for a driver assistance system |
US10377376B2 (en) | 2016-10-06 | 2019-08-13 | Ford Global Technologies, Llc | Vehicle with environmental context analysis |
US11163054B2 (en) | 2016-07-29 | 2021-11-02 | 3M Innovative Properties Company | Radar radiation redirecting tape |
DE102022209713A1 (en) | 2022-09-15 | 2024-03-21 | Continental Autonomous Mobility Germany GmbH | Method for creating a lane model |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2012211A1 (en) | 2007-07-03 | 2009-01-07 | Ford Global Technologies, LLC | A system for monitoring the surroundings of a vehicle |
-
2010
- 2010-07-23 DE DE102010032063A patent/DE102010032063A1/en not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2012211A1 (en) | 2007-07-03 | 2009-01-07 | Ford Global Technologies, LLC | A system for monitoring the surroundings of a vehicle |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013169153A1 (en) * | 2012-05-08 | 2013-11-14 | Autoliv Development Ab | A lane-marking crossing warning system |
US9472105B2 (en) | 2012-05-08 | 2016-10-18 | Autoliv Development Ab | Lane marking crossing warning system |
DE102014005688B4 (en) | 2013-04-11 | 2020-08-06 | Mando Corporation | TRACK ESTIMATE DEVICE AND METHOD |
CN104108392A (en) * | 2013-04-11 | 2014-10-22 | 株式会社万都 | Lane Estimation Apparatus And Method |
CN104108392B (en) * | 2013-04-11 | 2017-04-19 | 株式会社万都 | Lane Estimation Apparatus And Method |
US9664787B2 (en) | 2013-04-11 | 2017-05-30 | Mando Corporation | Lane estimation apparatus and method |
KR101787996B1 (en) * | 2013-04-11 | 2017-10-19 | 주식회사 만도 | Apparatus of estimating traffic lane in vehicle, control method of thereof |
WO2015032663A1 (en) * | 2013-09-06 | 2015-03-12 | Robert Bosch Gmbh | Method and device for determining a roadway course of a roadway of a vehicle |
CN105579316A (en) * | 2013-09-06 | 2016-05-11 | 罗伯特·博世有限公司 | Method and device for determining a roadway course of a roadway of a vehicle |
US9792509B2 (en) | 2013-09-06 | 2017-10-17 | Robert Bosch Gmbh | Method and device for determining a lane course of a vehicle |
CN105579316B (en) * | 2013-09-06 | 2019-04-19 | 罗伯特·博世有限公司 | Method and apparatus for determining the runway trend of the runway of vehicle |
DE102015202099A1 (en) * | 2015-02-06 | 2016-08-11 | Bayerische Motoren Werke Aktiengesellschaft | Processing sensor data for a driver assistance system |
US10460181B2 (en) | 2015-02-06 | 2019-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Processing of sensor data for a driver assistance system |
US11163054B2 (en) | 2016-07-29 | 2021-11-02 | 3M Innovative Properties Company | Radar radiation redirecting tape |
US10377376B2 (en) | 2016-10-06 | 2019-08-13 | Ford Global Technologies, Llc | Vehicle with environmental context analysis |
DE102022209713A1 (en) | 2022-09-15 | 2024-03-21 | Continental Autonomous Mobility Germany GmbH | Method for creating a lane model |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3254138B1 (en) | Method for acquiring transverse-position information of a motor vehicle on a carriageway and motor vehicle | |
EP2321666B1 (en) | Method for detecting expansive static object | |
EP1557692B1 (en) | Method for detecting marked hazardous locations and/or road works in the vicinity of roadways | |
DE102012107444B3 (en) | Method for classifying traveling vehicles e.g. passenger car, by tracking vehicle position magnitude in flowing traffic, involves comparing discontinuity portion length with stored typical velocity-normalized lengths to classify vehicle | |
EP2467291B1 (en) | Method and controller for a robust detection of a vehicle lane change | |
DE102010032063A1 (en) | Method for determining environment of vehicle, involves recognizing radar data from roadway surface elevated object by radar sensors and recognizing camera data from pavement marking by camera | |
DE102011121722A1 (en) | Device for parking control | |
DE102014200638A1 (en) | Method and system for estimating a lane course | |
DE102008062708A1 (en) | Method for determining the road level of a parking space | |
WO2011131165A1 (en) | Method for determining the course of the road for a motor vehicle | |
DE102005039167A1 (en) | Lane departure warning driver assistance device for vehicle, has evaluating unit evaluating present surrounding situation by comparing location of boundary with markings or edges, and adjusting unit adjusting warning output to situation | |
EP3259614B1 (en) | Method for ascertaining a piece of local information for a motor vehicle in relation to a driving corridor, and motor vehicle | |
DE102009036433A1 (en) | Method for operating driver assistance system, involves recording images adjacent to vehicle, where indicators of hazard- or construction sites are determined by images | |
DE102018104243B3 (en) | Method and system for detecting parking spaces suitable for a vehicle | |
DE102010020688A1 (en) | Driving track course determining method for motor vehicle, involves identifying structures limiting driving tracks based on length, contrast, direction and three dimensional position of continuous edge courses of contours of structures | |
WO2016193333A1 (en) | Method for classifying an elongated stationary object in a lateral surrounding region of a motor vehicle, driver assistance system, and motor vehicle | |
DE102009031319A1 (en) | Method and system for determining a vehicle class | |
DE102014212216A1 (en) | Method and driver assistance system for detecting a Fahrzeugumfel des | |
DE102016014060A1 (en) | Method for radar-based determination of a height of an object | |
DE102011113325A1 (en) | Method for object recognition by image data, involves recognizing objects in vicinity of vehicle and differentiating objects in object types, where distance in Y-direction is determined for all objects recognized in vicinity | |
DE102014202497A1 (en) | Estimation of geometric parameters of a roadway-fixed lateral object | |
DE102008021380B4 (en) | Method and device for predicting a course of a roadway and driver assistance system | |
DE102015214425A1 (en) | Method for detecting a course of rails | |
DE102016207181B4 (en) | Method and system for determining a position of a vehicle on a roadway | |
DE102012018471A1 (en) | Method for detecting e.g. lane markings of lane edge for motor car, involves performing classification in image region of individual images, which are detected by cameras, and in another image region of disparity images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
OAV | Publication of unexamined application with consent of applicant | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20150203 |