DE102014223259B4 - Method for estimating the course of a lane in a lane - Google Patents
Method for estimating the course of a lane in a lane Download PDFInfo
- Publication number
- DE102014223259B4 DE102014223259B4 DE102014223259.7A DE102014223259A DE102014223259B4 DE 102014223259 B4 DE102014223259 B4 DE 102014223259B4 DE 102014223259 A DE102014223259 A DE 102014223259A DE 102014223259 B4 DE102014223259 B4 DE 102014223259B4
- Authority
- DE
- Germany
- Prior art keywords
- lane
- lanes
- hypothesis
- determined
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000001514 detection method Methods 0.000 claims abstract description 6
- 238000009826 distribution Methods 0.000 claims description 12
- 230000007613 environmental effect Effects 0.000 claims description 7
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims 1
- 238000011156 evaluation Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 8
- 238000010276 construction Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
Abstract
Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn (F) aus von wenigstens einem Umfeldsensor aufgenommenen Umfelddaten vor einem Fahrzeug mit folgenden Verfahrensschritten:a) Bestimmen der Fahrbahnbreite (B) der Fahrbahn (F) vor dem Fahrzeug aus den mittels eines Radarsensors aufgenommen Umfelddaten, wobei die Fahrbahnbreite (B) der Fahrbahn(F) aus dem Intensitätsverlauf der reflektierten Radarstrahlen ermittelt wird,b) Erstellen wenigstens einer Hypothese über die Anzahl der Fahrstreifen (F1, F2, F3) aus- der mit Verfahrensschritt a) ermittelten Fahrbahnbreite (B), und/oder- der Detektion der anderen Verkehrsteilnehmer auf der Fahrbahn (F) hinsichtlich ihres Bewegungsverhaltens, und/oder- aus der Information einer digitalen Karte, und/oder- aus einer Verkehrszeichenerkennung,c) Ermitteln eines Wahrscheinlichkeitsmodells für die Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3) auf der Basis der Hypothese über die Anzahl der Fahrstreifen (F1, F2, F3), undd) Bestimmen eines Wertes mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3).Method for estimating the course of a lane (F) from the environment data in front of a vehicle recorded by at least one environment sensor, with the following process steps: Lane width (B) of the lane (F) is determined from the intensity profile of the reflected radar beams, b) creating at least one hypothesis about the number of lanes (F1, F2, F3) from the lane width (B) determined in step a), and / or - the detection of other road users on the lane (F) with regard to their movement behavior, and / or - from the information on a digital map, and / or - from traffic sign recognition, c) determining a probability model for the position of the center of the lane (FM1, FM2, FM3) the lanes (F1, F2, F3) based on the hypothesis of the number of lanes (F1, F2, F3), andd) using the probability model, determining a value with the greatest probability value as the position of the center of the lane (FM1, FM2, FM3) of the lanes (F1, F2, F3).
Description
Die Erfindung betrifft Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn.The invention relates to a method for estimating the course of the lane of a roadway.
Fahrerassistenzsysteme von Fahrzeugen, die auf der Basis von Fahrstreifeninformationen arbeiten, unterstützen den Fahrer bspw. beim Spurwechsel, bei der Spurführung oder im Rahmen eines Überholvorganges. Zur Erfassung der Fahrstreifen werden bei solchen Fahrerassistenzsystemen Bildsensoren verwendet, die den vor dem Fahrzeug liegenden Verkehrsraum erfassen. Aus diesen Bilddaten werden Fahrstreifenmarkierungen detektiert, die die Grenzen des Fahrstreifens und damit deren Verlauf anzeigen. Es gibt jedoch Situationen, in denen solche Fahrstreifenmarkierungen nicht vorhanden oder durch Bildsensoren nicht erfasst werden können, weil sie bspw. durch Schnee verdeckt sind oder die Sicht auf diese Fahrstreifenmarkierungen durch die Wetterverhältnisse aufgrund starken Schneefalls, Regen oder Nebels beeinträchtigt ist. In einem solchen Fall ist es nicht nur für Bildsensoren sondern auch für den menschlichen Fahrer unmöglich, diese Fahrstreifenmarkierungen wahrzunehmen.Driver assistance systems of vehicles that work on the basis of lane information support the driver, for example, when changing lanes, in lane guidance or when overtaking. In such driver assistance systems, image sensors are used to detect the lanes, which detect the traffic area in front of the vehicle. From this image data, lane markings are detected that indicate the boundaries of the lane and thus their course. However, there are situations in which such lane markings do not exist or cannot be detected by image sensors, for example because they are covered by snow or the view of these lane markings is impaired by the weather conditions due to heavy snowfall, rain or fog. In such a case, it is impossible not only for image sensors but also for the human driver to perceive these lane markings.
Aus der Veröffentlichung von KASPRZAK, Wlodzimierz; NIEMANN, Heinrich: Adaptive road recognition and ego-state tracking in the presence of obstacles; International Journal of Computer Vision, Vol. 28, 1998 ist ein rekursives Verfahren zur Bestimmung von Fahrbahnparametern, wie Fahrbahnbreite, Anzahl der Fahrstreifen und Kurvenverlauf sowie zur Ortung eines Egofahrzeugs aus Bildsequenzen einer Monokamera bekannt. Die Erkennung der Fahrbahn erfolgt in den Schritten Fluchtpunkt-Erkennung, Klassifizierung einer Objektkontur, Bestimmung des Fahrbahnverlaufs und Bestimmung der Fahrbahn. Dabei werden mehrere Fluchtpunkte und mehrere Fahrbahn-Hypothesen parallel verfolgt und die beste Hypothese zur weiteren Verwendung ausgewählt. Bei der Bestimmung der Fluchtpunkte werden alle die Fahrbahn bestimmenden linienartigen Objekte aus den von der Monokamera aufgenommenen Bildsequenzen detektiert und verarbeitet. Das sind insbesondere auch Mittel- und Randstreifen der Fahrbahn.From the publication by KASPRZAK, Wlodzimierz; NIEMANN, Heinrich: Adaptive road recognition and ego-state tracking in the presence of obstacles; International Journal of Computer Vision, Vol. 28, 1998, a recursive method for determining lane parameters, such as lane width, number of lanes and curve shape and for locating a host vehicle from image sequences of a mono camera is known. The lane is recognized in the steps of vanishing point recognition, classification of an object contour, determination of the course of the lane and determination of the lane. Several vanishing points and several roadway hypotheses are pursued in parallel and the best hypothesis is selected for further use. When determining the vanishing points, all of the line-like objects that determine the roadway are detected and processed from the image sequences recorded by the mono camera. In particular, these are also the median and edge strips of the roadway.
Die
Auch die
Auch die
Weiterhin beschreibt die
Ein Verfahren zur Erkennung der Beschaffenheit einer Fahrbahnoberfläche mittels einer 3D-Kamera als passives System beschreibt die
Aufgabe der Erfindung ist es, ein weiteres Verfahren zur Erkennung der Fahrstreifen einer Fahrbahn eines Fahrzeugs anzugeben, welches trotz fehlender oder nicht erkennbarer Fahrbahnmarkierungen zuverlässig die Fahrstreifen detektieren kann.The object of the invention is to specify a further method for recognizing the lanes of a roadway of a vehicle, which method can reliably detect the lanes despite missing or unrecognizable roadway markings.
Diese Aufgabe wird gelöst durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und den Merkmalen des Patentanspruchs 2.This object is achieved by a method having the features of
Dieses Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn aus von wenigstens einem Umfeldsensor aufgenommenen Umfelddaten vor einem Fahrzeug umfasst gemäß der erstgenannten Lösung folgende Verfahrensschritte:
- a) Bestimmen der Fahrbahnbreite der Fahrbahn vor dem Fahrzeug aus den mittels eines Radarsensors aufgenommenen Umfelddaten, wobei die Fahrbahnbreite der Fahrbahn aus dem Intensitätsverlauf der reflektierten Radarstrahlen ermittelt wird,
- b) Erstellen wenigstens einer Hypothese über die Anzahl der Fahrstreifen aus
- - der mit Verfahrensschritt a) ermittelten Fahrbahnbreite, und/oder
- - der Detektion der anderen Verkehrsteilnehmer auf der Fahrbahn hinsichtlich ihres Bewegungsverhaltens, und/oder
- - aus der Information einer digitalen Karte, und/oder
- - aus einer Verkehrszeichenerkennung,
- c) Ermitteln eines Wahrscheinlichkeitsmodells für die Lage der Fahrstreifenmitte der Fahrstreifen auf der Basis der Hypothese über die Anzahl der Fahrstreifen, und
- d) Bestimmen eines Wertes mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte der Fahrstreifen.
- a) Determining the lane width of the lane in front of the vehicle from the environment data recorded by means of a radar sensor, the lane width of the lane being determined from the intensity profile of the reflected radar beams,
- b) Create at least one hypothesis about the number of lanes
- - the lane width determined with method step a), and / or
- - the detection of the other road users on the road with regard to their movement behavior, and / or
- - from the information on a digital map, and / or
- - from a traffic sign recognition,
- c) determining a probability model for the position of the center of the lane on the basis of the hypothesis about the number of lanes, and
- d) Determining a value by means of the probability model with the greatest probability value as the position of the center of the lane.
Gemäß der zweitgenannten Lösung umfasst dieses Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn aus von wenigstens einem Umfeldsensor vor dem Fahrzeug aufgenommenen Umfelddaten die folgenden Verfahrensschritte:
- a) Bestimmen der Fahrbahnbreite der Fahrbahn vor dem Fahrzeug aus mittels eines Bildsensors aufgenommen Umfelddaten, wobei ein Höhenprofil des Bereichs vor dem Fahrzeug quer zu dessen Fahrtrichtung aus den Bilddaten des Bildsensors ermittelt und die Fahrbahnbreite der Fahrbahn aus dem Verlauf des Höhenprofils detektiert wird,
- b) Erstellen wenigstens einer Hypothese über die Anzahl der Fahrstreifen aus
- - der mit Verfahrensschritt a) ermittelten Fahrbahnbreite, und/oder
- - der Detektion der anderen Verkehrsteilnehmer auf der Fahrbahn hinsichtlich ihres Bewegungsverhaltens, und/oder
- - aus der Information einer digitalen Karte, und/oder
- - aus einer Verkehrszeichenerkennung,
- c) Ermitteln eines Wahrscheinlichkeitsmodells für die Lage der Fahrstreifenmitte der Fahrstreifen auf der Basis der Hypothese über die Anzahl der Fahrstreifen, und
- d) Bestimmen eines Wertes mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte der Fahrstreifen.
- a) determining the lane width of the lane in front of the vehicle from environment data recorded by means of an image sensor, a height profile of the area in front of the vehicle being determined transversely to its direction of travel from the image data of the image sensor and the lane width of the lane being detected from the course of the height profile,
- b) Create at least one hypothesis about the number of lanes
- - the lane width determined with method step a), and / or
- - the detection of the other road users on the road with regard to their movement behavior, and / or
- - from the information on a digital map, and / or
- - from a traffic sign recognition,
- c) determining a probability model for the position of the center of the lane on the basis of the hypothesis about the number of lanes, and
- d) Determining a value by means of the probability model with the greatest probability value as the position of the center of the lane.
Mit diesem erfindungsgemäßen Verfahren kann nun bei nicht zur Verfügung stehenden Fahrstreifenmarkierungen anhand anderer Merkmale eine Information über den Fahrstreifenverlauf erzeugt werden. Dazu wird zunächst der Bereich bestimmt, indem sich die Fahrbahn befindet, wobei unter Fahrbahn die ganze asphaltierte Fläche verstanden wird, die mittels Markierungen in mehrere Fahrstreifen unterteilt wird. Da die Fahrbahn eine vergleichsweise ebene Fläche darstellt, die üblicherweise von erhabenen Objekten, wie Leitplanken, Schallschutzmauern oder Wellen oder zumindest von einem ebenen Bereich, wie eine Wiese begrenzt ist, kann mit dem Umfeldsensor die Fahrbahn von ihren Begrenzungen unterschieden werden. Somit kann bei bekannten Fahrbahnbegrenzungen die Fahrbahnbreite der Fahrbahn aus den Umfelddaten bestimmt werden und eine Hypothese über die Anzahl der Fahrstreifen erstellt werden. Befindet sich das Fahrzeug bspw. auf einer Autobahn und wird eine Breite von bspw. 11,25 m detektiert, wird bei bekannter Breite eines Fahrstreifens einer Autobahn von 3,75 m mit zugehörigen Standstreifen von zwei Fahrstreifen als Hypothese über die Anzahl der Fahrstreifen ausgegangen. Im darauffolgenden Verfahrensschritt c) wird die Wahrscheinlichkeit für den Fahrstreifen modelliert, d.h. ein Wahrscheinlichkeitsmodell für die Lage der Fahrstreifenmitte des Fahrstreifens auf der Basis der Hypothese über die Anzahl der Fahrstreifen ermittelt. Schließlich wird in einem letzten Verfahrensschritt d) ein Wert mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte der Fahrstreifen bestimmt.With this method according to the invention, information about the course of the lane can now be generated on the basis of other features when lane markings are not available. For this purpose, the area in which the road is located is first determined, whereby the entire asphalted area is understood by the road, which is divided into several lanes by means of markings. Since the roadway represents a comparatively flat surface that is usually delimited by raised objects such as crash barriers, soundproof walls or waves or at least by a flat area such as a meadow, the roadway can be distinguished from its delimitations with the environment sensor. In this way, with known lane boundaries, the lane width of the lane can be determined from the environment data and a hypothesis can be created about the number of lanes. For example, if the vehicle is on a Motorway and if a width of, for example, 11.25 m is detected, a known width of a lane of a motorway of 3.75 m with associated hard shoulder of two lanes is assumed as a hypothesis about the number of lanes. In the subsequent method step c), the probability for the lane is modeled, ie a probability model for the position of the center of the lane of the lane is determined on the basis of the hypothesis about the number of lanes. Finally, in a last method step d), a value is determined by means of the probability model with the greatest probability value as the position of the center of the traffic lane.
Gemäß der erstgenannten Lösung ist es vorgesehen, dass die Umfelddaten mittels eines Radarsensors aufgenommen werden und die Fahrbahnbreite der Fahrbahn aus dem Intensitätsverlauf der reflektierten Radarstrahlen ermittelt wird. Eine solche Radar-Sensorik stellt sicher, dass auch bei schlechten Sichtverhältnissen die Randbebauung von Fahrbahnen, wie Leitplanken, aber auch eine Grasfläche detektiert werden kann, da diese zu einer stärkeren Reflexion als die eigentliche, bspw. asphaltierte Fahrbahn führen.According to the first-mentioned solution, it is provided that the surroundings data are recorded by means of a radar sensor and the lane width of the lane is determined from the intensity profile of the reflected radar beams. Such a radar sensor system ensures that, even in poor visibility conditions, the development of the edge of roadways, such as crash barriers, but also a grassy area can be detected, since these lead to a stronger reflection than the actual, e.g. asphalted, roadway.
Insbesondere kann mit einem Radarsensor, der keine Fahrstreifenmarkierungen erkennen kann, permanent eine Information über mögliche Fahrstreifenverläufe erzeugt werden. Dieses kann dazu dienen, die von einem Bildsensor, wie bspw. einer Kamera erkannten Fahrstreifenverläufe zu plausibilisieren oder im Falle eines Ausfalls der Kamera eine Notfunktion zu realisieren. Aufgrund der Geometrie der Fahrstreifen und der weiten Vorausschau können z.B. Fehler in der Azimuth-Kalibrierung der beteiligten Sensoren gut identifiziert werden. Des Weiteren kann aufgrund der hohen Reichweite eines Radarsensors im Vergleich zu einer Kamera eine Schätzung des Fahrstreifenverlaufs außerhalb des Kamera-Sichtbereichs erhalten werden.In particular, information about possible lane courses can be generated permanently with a radar sensor that cannot detect any lane markings. This can serve to check the plausibility of the lane courses recognized by an image sensor, such as a camera, or to implement an emergency function in the event of a camera failure. Due to the geometry of the lanes and the wide foresight, errors in the azimuth calibration of the sensors involved can be easily identified. Furthermore, due to the long range of a radar sensor compared to a camera, an estimate of the lane course outside the camera's field of view can be obtained.
Gemäß der zweitgenannten Lösung ist es vorgesehen, dass die Umfelddaten mittels eines Bildsensors aufgenommen werden, ein Höhenprofil des Bereichs vor dem Fahrzeug quer zu dessen Fahrtrichtung aus den Bilddaten des Bildsensors ermittelt wird und die Fahrbahnbreite der Fahrbahn aus dem Verlauf des Höhenprofils detektiert wird. Mit einer Kamera als Bildsensor können damit anhand eines ermittelten Höhenprofils die glatte Fahrbahn von erhabenen bzw. unstrukturierten Bereichen getrennt werden. Ferner können auch weitere Merkmale, wie die Textur zum Erkennen der Fahrbahn hinzugezogen werden. Schließlich auch möglich, als bewegt erkannte Objekte zum Erkennen der Fahrbahn hinzuzuziehen.According to the second solution mentioned, it is provided that the surroundings data are recorded by means of an image sensor, a height profile of the area in front of the vehicle is determined transversely to its direction of travel from the image data of the image sensor and the lane width of the lane is detected from the course of the height profile. With a camera as an image sensor, the smooth roadway can be separated from raised or unstructured areas on the basis of a determined height profile. Further features, such as the texture, can also be used to identify the roadway. Finally, it is also possible to use objects recognized as moving to identify the lane.
Gemäß einer bevorzugten Ausführungsform der Erfindung ist es vorgesehen, dass
- e) mittels den Umfelddaten des Radarsensors und mittels der Umfelddaten des Bildsensors jeweils die Verfahrensschritte b) bis d) durchgeführt werden, und
- f) aus den gemäß Verfahrensschritt d) als Lage der Fahrstreifenmitte der Fahrstreifen bestimmten zwei Wahrscheinlichkeitswerten ein Wert als Lage der Fahrstreifenmitte kombiniert wird.
- e) method steps b) to d) are carried out in each case by means of the environment data of the radar sensor and by means of the environment data of the image sensor, and
- f) a value is combined as the position of the center of the lane from the two probability values determined in accordance with method step d) as the position of the center of the traffic lane.
Bei diesem Verfahren stehen also zwei Auswertekanäle zur Verfügung, nämlich ein erster Auswertekanal, mit dem die Umfelddaten eines Radarsensors ausgewertet werden, und ein zweiter Auswertekanal, mit dem die Umfelddaten eines Bildsensors ausgewertet werden. Die Ergebnisse hinsichtlich der Lage der Fahrstreifenmitte der Fahrstreifen, die sich aus den beiden Auswertekanälen ergeben, werden in dem Verfahrensschritt
- f) zusammengeführt, indem die Fahrstreifenhypothesen der beiden Auswertekanäle überlagert werden und hieraus ein einziger Wert als Lage der Fahrstreifenmitte erzeugt wird. Vorzugsweise wird aus einer derart ermittelten Lage der Fahrstreifenmitte der Fahrstreifenverlauf bestimmt.
- f) merged in that the lane hypotheses of the two evaluation channels are superimposed and a single value is generated from this as the position of the center of the lane. The course of the lane is preferably determined from such a position of the center of the lane.
Eine vorteilhafte Weiterbildung ergibt sich dadurch, dass zusätzlich zur Hypothese über die Anzahl der Fahrstreifen eine Hypothese über die Fahrstreifenbreiten der Fahrstreifen erstellt wird und auf der Basis der Hypothese über die Anzahl der Fahrstreifen und der Fahrstreifenbreiten der Fahrstreifen ein Wahrscheinlichkeitsmodell für die Lage der Fahrstreifenmitte der Fahrstreifen ermittelt wird.An advantageous further development results from the fact that, in addition to the hypothesis about the number of lanes, a hypothesis is created about the lane widths of the lanes and, on the basis of the hypothesis about the number of lanes and the lane widths of the lanes, a probability model for the location of the center of the lane is created is determined.
Schließlich ist es weiterbildungsgemäß vorgesehen, dass als Wahrscheinlichkeitsmodell eine Gaußverteilung mit einem Mittelwert und einer Varianz verwendet wird.Finally, it is provided according to a further development that a Gaussian distribution with a mean value and a variance is used as the probability model.
Die Erfindung wird nachfolgend unter Bezugnahme auf die beigefügten Figuren näher erläutert. Es zeigen:
-
1 ein Ablaufdiagramm eines Ausführungsbeispieles gemäß der Erfindung, und -
2 Diagramme zur Erläuterung des Ausführungsbeispiels gemäß1 .
-
1 a flow chart of an embodiment according to the invention, and -
2 Diagrams to explain the embodiment according to1 .
Zur Durchführung des erfindungsgemäßen Verfahrens gemäß
Der Radarsensor erzeugt von dem Umfeld vor dem Fahrzeug Radardaten, die in einem ersten Verfahrensschritt
In einem Verfahrensschritt
Die Fahrbahnbreite
Die bisher durchgeführten Verfahrensschritte
Die Kamera erzeugt von dem in
In einem nachfolgenden Verfahrensschritt
Im Folgenden werden die Verfahrensschritte
In den Verfahrensschritten
Es können aber auch Vorkenntnisse über die Fahrbahnbreite einfließen, so zum Beispiel dass in einer Baustelle der linke Fahrstreifen schmaler als der rechte Fahrstreifen ist.However, prior knowledge of the lane width can also be incorporated, for example, that the left lane is narrower than the right lane in a construction site.
Auch Informationen aus der Verkehrszeichenerkennung können zur Erstellung einer Hypothese über die Fahrstreifenanzahl verwendet werden. So wird bei bspw. bei einer Fahrbahn mit mehr als zwei Fahrstreifen mit einem Verkehrszeichen auf die Anzahl der Fahrstreifen hingewiesen und wie lange diese zur Verfügung stehen. Auch auf Baustellen hinweisende Baustellenschilder können detektiert werden und deren Informationen zur Erstellung einer Hypothese über die Fahrstreifenanzahl verwendet werden. Wenn Baustellenschilder erkannt werden, ist es sehr wahrscheinlich, dass die Breite der Fahrstreifen geringer ist und somit knapp geregelt werden muss. Außerdem können solche Verkehrsschilder die Informationen enthalten, in welche Richtung die Fahrstreifen bei einer Verengung der Fahrbahn verlaufen, wie viele Fahrstreifen zur Verfügung stehen und welche Breite bspw. die linke Fahrspur hat. So gibt es bspw. ein Verkehrsschild mit der Angabe, dass die Breite des Fahrstreifens kleiner als 2 m ist, während die übliche Breite des linken Fahrstreifens 2,50 m bis 2,70 m beträgt. Diese Informationen können mit den detektierten Straßenrändern abgeglichen werden und so sehr sichere Informationen über die Anzahl und Breite der Fahrstreifen geschätzt werden.Information from traffic sign recognition can also be used to create a hypothesis about the number of lanes. In the case of a lane with more than two lanes, for example, a traffic sign indicates the number of lanes and how long they are available. Construction site signs indicating construction sites can also be detected and their information used to create a hypothesis about the number of lanes. If construction site signs are recognized, it is very likely that the width of the lanes is narrower and therefore needs tight control. In addition, such traffic signs can contain the information about the direction in which the lanes run when the lane is narrowed, how many lanes are available and what width, for example, the left lane has. For example, there is a traffic sign stating that the width of the lane is less than 2 m, while the usual width of the left lane is 2.50 m to 2.70 m. This information can be compared with the detected roadsides and so on very reliable information about the number and width of lanes can be estimated.
In dem Ausführungsbeispiel gemäß den
In einem an den Verfahrensschritt
Dies kann bspw. anhand des Verlaufs der Fahrstreifenmitte durchgeführt werden. Um Ungenauigkeiten in der Wahrnehmung zu modellieren, wird über der Fahrbahnbreite
Es bietet sich auch eine diskretisierte Darstellung der Wahrscheinlichkeitsverteilung entsprechend
Nachdem sowohl für den ersten Auswertekanal für den Radarsensor als erste Datenquelle und für den zweiten Auswertekanal für die Kamera als zweite Datenquelle jeweils eine Wahrscheinlichkeitsmodellierung der Fahrstreifenmitte für die Fahrstreifen entsprechend der Hypothese über die Fahrstreifenanzahl gemäß den Verfahrensschritten
Als Ergebnis dieses Verfahrensschrittes
Diese derart bestimmten Fahrstreifenverläufe können für eine Trajektorenplanung oder eine Lane-Keeping-Fahrerassistenzfunktion verwendet werden, in dem das Fahrzeug am nächsten Maximum der repräsentierten Wahrscheinlichkeiten entlang geführt wird. Dieses Maximum stellt nämlich die Fahrstreifenmitte dar. Für eine visuelle Darstellung, bei der auch die Breite eines möglichen Fahrstreifenverlaufs dargestellt werden soll, werden vom Maximum ausgehend die Schnittpunkte der Wahrscheinlichkeitswerte mit einem minimalen Wert, bspw. das erstmalige Unterschreiten der 50 %-Wahrscheinlichkeit, als Fahrstreifengrenzen gewählt.These lane courses determined in this way can be used for trajectory planning or a lane-keeping driver assistance function in which the vehicle is guided along the next maximum of the represented probabilities. This maximum represents the center of the lane. For a visual representation in which the width of a possible lane course is also to be displayed, starting from the maximum, the intersection points of the probability values with a minimum value, e.g. the first time falling below the 50% probability, are displayed as Lane boundaries selected.
Weitere Vorteile ergeben sich bei durch Schnee verdeckten Fahrstreifenmarkierungen oder schlechten Sichtbedingungen, bspw. bedingt durch starken Schneefall, Regen oder Nebel, da dann dem Fahrer aufbauend auf den geschätzten Fahrstreifenverläufen eine Unterstützung bei der Querführung des Fahrzeugs angeboten werden kann. Dies kann bspw. anhand einer Anzeige im Cockpit realisiert werden, die dem Fahrer anzeigt, wie weit er von der Mitte des geschätzten Fahrstreifens nach links oder rechts abweicht. Insbesondere kann aber auch mittels eines großflächigen Head-up-Displays der geschätzte Fahrstreifenverlauf über die reale Verkehrsszene eingeblendet werden. Da die Schätzung möglicherweise ungenau ist, kann dabei insbesondere die geschätzte Fahrstreifenmitte gegenüber den Randbereichen stärker hervorgehoben werden, da diese am besten innerhalb des realen Fahrstreifens liegt.Further advantages arise in the case of lane markings that are covered by snow or poor visibility conditions, for example due to heavy snowfall, rain or fog, since the driver can then be offered support in lateral guidance of the vehicle based on the estimated lane courses. This can be implemented, for example, using a display in the cockpit that shows the driver how far he is deviating from the center of the estimated lane to the left or right. In particular, however, the estimated course of the lane can also be displayed over the real traffic scene by means of a large-area head-up display. Since the estimate may be imprecise, in particular the estimated center of the lane can be emphasized more strongly than the edge areas, since this is best within the real lane.
Neben dem Anzeigen des Fahrstreifenverlaufs kann dem Fahrer ähnlich wie bei einem Lane-Keeping-System eine visuelle, akustische oder haptische Warnung bei Verlassen des Fahrstreifens gegeben werden oder es wird über ein überlagertes Lenkmoment eine Querführungsunterstützung realisiert. Im Vergleich zu einer Erkennung der Fahrstreifenmarkierungen sind die Eingriffsschwellen aufgrund der größeren Unsicherheit dabei weiter in Richtung Fahrbahnmitte zu verlegen.In addition to displaying the course of the lane, the driver can be given a visual, acoustic or haptic warning when leaving the lane, similar to a lane-keeping system, or lateral guidance support is implemented via a superimposed steering torque. Compared to the detection of the lane markings, the intervention thresholds have to be relocated further in the direction of the center of the lane due to the greater uncertainty.
Des Weiteren können mit den geschätzten Informationen über den Fahrstreifenverlauf auch weiteren Assistenzfunktionen zur Verfügung gestellt werden.Furthermore, additional assistance functions can be made available with the estimated information about the course of the lane.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014223259.7A DE102014223259B4 (en) | 2014-11-14 | 2014-11-14 | Method for estimating the course of a lane in a lane |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014223259.7A DE102014223259B4 (en) | 2014-11-14 | 2014-11-14 | Method for estimating the course of a lane in a lane |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102014223259A1 DE102014223259A1 (en) | 2016-05-19 |
DE102014223259B4 true DE102014223259B4 (en) | 2021-10-14 |
Family
ID=55855355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014223259.7A Active DE102014223259B4 (en) | 2014-11-14 | 2014-11-14 | Method for estimating the course of a lane in a lane |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102014223259B4 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220017100A1 (en) * | 2020-07-20 | 2022-01-20 | Hyundai Mobis Co., Ltd. | Radar device for vehicle and method of controlling radar for vehicle |
DE102022001568B3 (en) | 2022-05-04 | 2023-09-28 | Mercedes-Benz Group AG | Method for modeling lane boundaries |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017211298A1 (en) * | 2017-07-04 | 2019-01-10 | Continental Teves Ag & Co. Ohg | DEVICE AND METHOD FOR DETERMINING ROAD TOPOLOGY AND RAIL GEOMETRY INFORMATION, AND VEHICLE |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010013403A1 (en) | 2009-04-02 | 2010-11-11 | GM Global Technology Operations, Inc., Detroit | Information of a dynamic vehicle system on head-up display for entire windshield |
DE102011109569A1 (en) | 2011-08-05 | 2013-02-07 | Conti Temic Microelectronic Gmbh | Lane detection method using a camera |
DE102012101085A1 (en) | 2012-02-10 | 2013-08-14 | Conti Temic Microelectronic Gmbh | Determining a condition of a road surface by means of a 3D camera |
DE102012008780A1 (en) | 2012-04-28 | 2013-10-31 | Volkswagen Aktiengesellschaft | Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model |
DE102012224498A1 (en) | 2012-10-26 | 2014-04-30 | Hyundai Motor Company | Lane Detection Method and System |
DE102013018561A1 (en) | 2013-09-05 | 2014-06-18 | Daimler Ag | Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses |
-
2014
- 2014-11-14 DE DE102014223259.7A patent/DE102014223259B4/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010013403A1 (en) | 2009-04-02 | 2010-11-11 | GM Global Technology Operations, Inc., Detroit | Information of a dynamic vehicle system on head-up display for entire windshield |
DE102011109569A1 (en) | 2011-08-05 | 2013-02-07 | Conti Temic Microelectronic Gmbh | Lane detection method using a camera |
DE102012101085A1 (en) | 2012-02-10 | 2013-08-14 | Conti Temic Microelectronic Gmbh | Determining a condition of a road surface by means of a 3D camera |
DE102012008780A1 (en) | 2012-04-28 | 2013-10-31 | Volkswagen Aktiengesellschaft | Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model |
DE102012224498A1 (en) | 2012-10-26 | 2014-04-30 | Hyundai Motor Company | Lane Detection Method and System |
DE102013018561A1 (en) | 2013-09-05 | 2014-06-18 | Daimler Ag | Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses |
Non-Patent Citations (1)
Title |
---|
KASPRZAK, Wlodzimierz ; NIEMANN, Heinrich: Adaptive road recognition and ego-state tracking in the presence of obstacles. In: International Journal of Computer Vision, Vol. 28, 1998, No. 1, S. 5-26. - ISSN 0920-5691 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220017100A1 (en) * | 2020-07-20 | 2022-01-20 | Hyundai Mobis Co., Ltd. | Radar device for vehicle and method of controlling radar for vehicle |
US11858518B2 (en) * | 2020-07-20 | 2024-01-02 | Hyundai Mobis Co., Ltd. | Radar device for vehicle and method of controlling radar for vehicle |
DE102022001568B3 (en) | 2022-05-04 | 2023-09-28 | Mercedes-Benz Group AG | Method for modeling lane boundaries |
WO2023213768A1 (en) | 2022-05-04 | 2023-11-09 | Mercedes-Benz Group AG | Method for modeling lane boundaries |
Also Published As
Publication number | Publication date |
---|---|
DE102014223259A1 (en) | 2016-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1684142B1 (en) | Method of predicting possible future course and distance control in driver assisting system | |
EP1928687B1 (en) | Method and driver assistance system for sensor-based driving off control of a motor vehicle | |
DE102009006113B4 (en) | Device and method for sensor fusion with dynamic objects | |
EP1844373B1 (en) | Method for predicting the course in driver assistance systems for motor vehicles | |
WO2016188523A1 (en) | Method for estimating traffic lanes | |
DE102017005967A1 (en) | Driver assistance method and system | |
EP3084681B1 (en) | Method for lane recognition | |
DE102015206144A1 (en) | Method and device for safe parking of a vehicle | |
DE102016203723A1 (en) | Method and system for determining the pose of a vehicle | |
DE102016201249A1 (en) | DEVICE AND METHOD FOR DETERMINING A TRACK MODEL | |
WO2014094766A1 (en) | Method for determining a carriageway condition from environment sensor data | |
EP2629243A1 (en) | Method for detecting and tracking lane markings | |
DE102013205882A1 (en) | Method and device for guiding a vehicle around an object | |
EP2963631B1 (en) | Method for determining a parking space from a number of measuring points | |
EP2982572B1 (en) | Method for assisting a driver of a motor vehicle when driving out of a parking space, driver assistance system, and motor vehicle | |
DE102020203756A1 (en) | MOTORWAY EXIT DETECTION AND LINE REFLECTION FOR VEHICLE TRACTION DETERMINATION | |
DE102014223259B4 (en) | Method for estimating the course of a lane in a lane | |
DE102016220450A1 (en) | Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object | |
EP4165375A1 (en) | Method for determining a usage type of a landmark pattern for a self-localization of a vehicle, and electronic self-localization system for a vehicle | |
DE102017205245A1 (en) | Free range fusion for driver assistance systems | |
EP1944212A1 (en) | Method and device for recognising potentially dangerous objects for a vehicle | |
DE102016213377A1 (en) | Method and device for driving height detection | |
DE102019116892A1 (en) | Lane event anticipation through LiDAR road boundary detection | |
DE102016107421A1 (en) | Method for displaying surrounding areas, which can not be detected by a detection device, in the surroundings of a motor vehicle, driver assistance system and motor vehicle | |
DE102017105721A1 (en) | Method for identifying at least one parking space for a vehicle and parking assistance system of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE Free format text: FORMER OWNER: CONTI TEMIC MICROELECTRONIC GMBH, 90411 NUERNBERG, DE |
|
R020 | Patent grant now final |