DE102014223259B4 - Method for estimating the course of a lane in a lane - Google Patents

Method for estimating the course of a lane in a lane Download PDF

Info

Publication number
DE102014223259B4
DE102014223259B4 DE102014223259.7A DE102014223259A DE102014223259B4 DE 102014223259 B4 DE102014223259 B4 DE 102014223259B4 DE 102014223259 A DE102014223259 A DE 102014223259A DE 102014223259 B4 DE102014223259 B4 DE 102014223259B4
Authority
DE
Germany
Prior art keywords
lane
lanes
hypothesis
determined
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014223259.7A
Other languages
German (de)
Other versions
DE102014223259A1 (en
Inventor
Ralph Grewe
Stefan Hegemann
Mattias Strauss
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Priority to DE102014223259.7A priority Critical patent/DE102014223259B4/en
Publication of DE102014223259A1 publication Critical patent/DE102014223259A1/en
Application granted granted Critical
Publication of DE102014223259B4 publication Critical patent/DE102014223259B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects

Abstract

Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn (F) aus von wenigstens einem Umfeldsensor aufgenommenen Umfelddaten vor einem Fahrzeug mit folgenden Verfahrensschritten:a) Bestimmen der Fahrbahnbreite (B) der Fahrbahn (F) vor dem Fahrzeug aus den mittels eines Radarsensors aufgenommen Umfelddaten, wobei die Fahrbahnbreite (B) der Fahrbahn(F) aus dem Intensitätsverlauf der reflektierten Radarstrahlen ermittelt wird,b) Erstellen wenigstens einer Hypothese über die Anzahl der Fahrstreifen (F1, F2, F3) aus- der mit Verfahrensschritt a) ermittelten Fahrbahnbreite (B), und/oder- der Detektion der anderen Verkehrsteilnehmer auf der Fahrbahn (F) hinsichtlich ihres Bewegungsverhaltens, und/oder- aus der Information einer digitalen Karte, und/oder- aus einer Verkehrszeichenerkennung,c) Ermitteln eines Wahrscheinlichkeitsmodells für die Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3) auf der Basis der Hypothese über die Anzahl der Fahrstreifen (F1, F2, F3), undd) Bestimmen eines Wertes mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3).Method for estimating the course of a lane (F) from the environment data in front of a vehicle recorded by at least one environment sensor, with the following process steps: Lane width (B) of the lane (F) is determined from the intensity profile of the reflected radar beams, b) creating at least one hypothesis about the number of lanes (F1, F2, F3) from the lane width (B) determined in step a), and / or - the detection of other road users on the lane (F) with regard to their movement behavior, and / or - from the information on a digital map, and / or - from traffic sign recognition, c) determining a probability model for the position of the center of the lane (FM1, FM2, FM3) the lanes (F1, F2, F3) based on the hypothesis of the number of lanes (F1, F2, F3), andd) using the probability model, determining a value with the greatest probability value as the position of the center of the lane (FM1, FM2, FM3) of the lanes (F1, F2, F3).

Description

Die Erfindung betrifft Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn.The invention relates to a method for estimating the course of the lane of a roadway.

Fahrerassistenzsysteme von Fahrzeugen, die auf der Basis von Fahrstreifeninformationen arbeiten, unterstützen den Fahrer bspw. beim Spurwechsel, bei der Spurführung oder im Rahmen eines Überholvorganges. Zur Erfassung der Fahrstreifen werden bei solchen Fahrerassistenzsystemen Bildsensoren verwendet, die den vor dem Fahrzeug liegenden Verkehrsraum erfassen. Aus diesen Bilddaten werden Fahrstreifenmarkierungen detektiert, die die Grenzen des Fahrstreifens und damit deren Verlauf anzeigen. Es gibt jedoch Situationen, in denen solche Fahrstreifenmarkierungen nicht vorhanden oder durch Bildsensoren nicht erfasst werden können, weil sie bspw. durch Schnee verdeckt sind oder die Sicht auf diese Fahrstreifenmarkierungen durch die Wetterverhältnisse aufgrund starken Schneefalls, Regen oder Nebels beeinträchtigt ist. In einem solchen Fall ist es nicht nur für Bildsensoren sondern auch für den menschlichen Fahrer unmöglich, diese Fahrstreifenmarkierungen wahrzunehmen.Driver assistance systems of vehicles that work on the basis of lane information support the driver, for example, when changing lanes, in lane guidance or when overtaking. In such driver assistance systems, image sensors are used to detect the lanes, which detect the traffic area in front of the vehicle. From this image data, lane markings are detected that indicate the boundaries of the lane and thus their course. However, there are situations in which such lane markings do not exist or cannot be detected by image sensors, for example because they are covered by snow or the view of these lane markings is impaired by the weather conditions due to heavy snowfall, rain or fog. In such a case, it is impossible not only for image sensors but also for the human driver to perceive these lane markings.

Aus der Veröffentlichung von KASPRZAK, Wlodzimierz; NIEMANN, Heinrich: Adaptive road recognition and ego-state tracking in the presence of obstacles; International Journal of Computer Vision, Vol. 28, 1998 ist ein rekursives Verfahren zur Bestimmung von Fahrbahnparametern, wie Fahrbahnbreite, Anzahl der Fahrstreifen und Kurvenverlauf sowie zur Ortung eines Egofahrzeugs aus Bildsequenzen einer Monokamera bekannt. Die Erkennung der Fahrbahn erfolgt in den Schritten Fluchtpunkt-Erkennung, Klassifizierung einer Objektkontur, Bestimmung des Fahrbahnverlaufs und Bestimmung der Fahrbahn. Dabei werden mehrere Fluchtpunkte und mehrere Fahrbahn-Hypothesen parallel verfolgt und die beste Hypothese zur weiteren Verwendung ausgewählt. Bei der Bestimmung der Fluchtpunkte werden alle die Fahrbahn bestimmenden linienartigen Objekte aus den von der Monokamera aufgenommenen Bildsequenzen detektiert und verarbeitet. Das sind insbesondere auch Mittel- und Randstreifen der Fahrbahn.From the publication by KASPRZAK, Wlodzimierz; NIEMANN, Heinrich: Adaptive road recognition and ego-state tracking in the presence of obstacles; International Journal of Computer Vision, Vol. 28, 1998, a recursive method for determining lane parameters, such as lane width, number of lanes and curve shape and for locating a host vehicle from image sequences of a mono camera is known. The lane is recognized in the steps of vanishing point recognition, classification of an object contour, determination of the course of the lane and determination of the lane. Several vanishing points and several roadway hypotheses are pursued in parallel and the best hypothesis is selected for further use. When determining the vanishing points, all of the line-like objects that determine the roadway are detected and processed from the image sequences recorded by the mono camera. In particular, these are also the median and edge strips of the roadway.

Die DE 10 2012 224 498 A1 beschreibt ein Verfahren zur Fahrspurerkennung sowie zur Erkennung einer Fahrspur eines Egofahrzeugs. Bei diesem bekannten Verfahren werden mittels eines Radarsensors ortsfeste Hindernisse, wie Leitplanken und Mittelstreifen detektiert und aus dem Abstand zu diesen ortsfesten Hindernissen die Breite der Fahrbahn berechnet. Zusätzlich wird aus den Bilddaten eines Bildsensors die Breite der Fahrspur des Egofahrzeugs bestimmt. Aus der berechneten Fahrbahnbreite und der bestimmten Fahrspurbreite des Egofahrzeugs könne die Anzahl der Fahrspuren ermittelt werden. In der DE 10 2010 013 403 A1 wird ein Verfahren zum Ermitteln einer Spurgeometrie im Bereich eines Fahrzeugs auf der Basis von Bilddaten einer Kamera oder einer Bilderfassungseinrichtung beschrieben. Aus den Bilddaten werden unter Zugrundelegung einer Gauß-Verteilung Schätzwerte einer Straßen- und Spurgeometrie erzeugt, wobei Messungen aus der Vergangenheit verwendet werden. Dieses bekannte Schätzverfahren beruht auf Mittelwertbildungs- und Normalverteilungsannahmen. Anstelle der Verwendung von Daten aus der Vergangenheit oder von normalisierten Verteilungen wird die Verwendung von GPS-Daten und Daten der Fahrzeugkinematik zusammen mit Bilddaten einer Bilderfassungseinrichtung vorgeschlagen.the DE 10 2012 224 498 A1 describes a method for lane recognition and for recognizing a lane of a host vehicle. In this known method, stationary obstacles, such as guard rails and median strips, are detected by means of a radar sensor and the width of the road is calculated from the distance to these stationary obstacles. In addition, the width of the lane of the host vehicle is determined from the image data from an image sensor. The number of lanes can be determined from the calculated lane width and the determined lane width of the host vehicle. In the DE 10 2010 013 403 A1 a method is described for determining a lane geometry in the area of a vehicle on the basis of image data from a camera or an image acquisition device. On the basis of a Gaussian distribution, estimated values of a road and lane geometry are generated from the image data, measurements from the past being used. This known estimation method is based on assumptions of averaging and normal distribution. Instead of using data from the past or normalized distributions, the use of GPS data and data from the vehicle kinematics together with image data from an image acquisition device is proposed.

Auch die DE 10 2011 109 569 A1 geht von der Aufgabe aus, ein Verfahren zur Erkennung eines Fahrstreifens anzugeben, das trotz unvollständiger oder fehlender Fahrbahnmarkierungen zuverlässig den Fahrstreifen detektieren kann. Bei diesem Verfahren wird der Fahrbahnrand unabhängig von der Existenz von Fahrspurmarkierungen mittels einer Kamera detektiert und aus der Lage des Fahrbahnrandes die Fahrspur geschätzt oder die Lage des Fahrbahnrandes bei der Erkennung des Fahrstreifens zumindest berücksichtigt.Also the DE 10 2011 109 569 A1 is based on the task of specifying a method for recognizing a lane that can reliably detect the lane despite incomplete or missing lane markings. In this method, the edge of the lane is detected by a camera regardless of the existence of lane markings and the lane is estimated from the position of the edge of the lane or the position of the edge of the lane is at least taken into account when the lane is recognized.

Auch die DE 10 2012 008 780 A1 geht von dem Problem aus, dass bspw. Spurhalteassistenten bei fehlenden Fahrbahnmarkierungen nicht oder nur eingeschränkt funktionieren können. Gelöst wird dieses Problem durch ein Verfahren zur Erfassung wenigstens eines Fahrbahnrandes, insbesondere eines unmarkierten Fahrbahnrandes, mit welchem ein Spurmodell für das Fahrzeug erstellt werden kann. Dieses Verfahren basiert auf den Bilddaten des vor dem Fahrzeug aufgenommen Verkehrsraumes sowie einer bestimmten Anzahl von zuvor aufgenommenen Bildern eines umgekehrten optischen Flusses. Es werden aus diesen Bilddaten als befahrbar anzunehmende Bereiche ausgewählt, Suchbereiche definiert und dominante Orientierungen innerhalb der Suchbereiche ermittelt, mittels denen wenigstens ein zur Erstellung des Spurmodells genutzter Fluchtpunkt erzeugt wird.Also the DE 10 2012 008 780 A1 is based on the problem that, for example, lane departure warning systems cannot function or only function to a limited extent if there are no lane markings. This problem is solved by a method for detecting at least one edge of the road, in particular an unmarked edge of the road, with which a lane model can be created for the vehicle. This method is based on the image data of the traffic area recorded in front of the vehicle as well as a certain number of previously recorded images of a reversed optical flow. Areas to be assumed to be drivable are selected from these image data, search areas are defined and dominant orientations are determined within the search areas, by means of which at least one vanishing point used to create the track model is generated.

Weiterhin beschreibt die DE 10 2013 018 561 A1 ebenso ein Verfahren, bei dem aufgrund der Verwendung allgemeiner Umgebungsmerkmale eine sichere Fahrspurerkennung realisiert wird, ohne dass Fahrspurmarkierungen hierfür erforderlich wären. Dieses Verfahren besteht in einer Analyse und Auswertung von Umgebungsmerkmalen im Bereich einer vorausliegenden Fahrspur eines Fahrzeugs, wobei jedem Umgebungsmerkmal eine Position und Orientierung in einem aufgenommenen Bild zugeordnet und in dem Bild mehrfach vorkommende korrespondierende Umgebungsmerkmale ermittelt werden. Anhand der Verteilung von Korrespondenzen werden Straßenverlaufshypothesen erzeugt, wobei Selbstähnlichkeiten der Umgebungsmerkmale berücksichtigt werden, nicht relevante Korrespondenzen mit einer Länge mit dem Wert Null gefiltert und bei der Erzeugung der Straßenverlaufshypothesen verworfen werden.Furthermore describes the DE 10 2013 018 561 A1 likewise a method in which, due to the use of general environmental features, reliable lane recognition is realized without the need for lane markings. This method consists in an analysis and evaluation of environmental features in the area of a lane of a vehicle lying ahead, each environmental feature being assigned a position and orientation in a recorded image and corresponding environmental features occurring multiple times in the image being determined. Based on the distribution Road course hypotheses are generated from correspondences, whereby self-similarities of the environmental features are taken into account, irrelevant correspondences with a length with the value zero are filtered and discarded when generating the road course hypotheses.

Ein Verfahren zur Erkennung der Beschaffenheit einer Fahrbahnoberfläche mittels einer 3D-Kamera als passives System beschreibt die DE 10 2012 101 085 A1 der Anmelderin, wonach mit der 3D-Kamera mindestens ein Bild von der vor dem Fahrzeug liegenden Umgebung aufgenommen, aus den Bilddaten der 3D-Kamera entlang einer Mehrzahl von Linien Höhenverläufe der Fahrbahnoberfläche quer zur Fahrtrichtung des Fahrzeugs ermittelt werden, um aus den ermittelten Höhenverläufen die Beschaffenheit der Fahrbahnoberfläche zu bestimmen. Aus dem ermittelten Höhenverlauf können auch Fahrbahnbegrenzungen, bspw. Bordsteine erkannt werden kann.A method for recognizing the condition of a road surface using a 3D camera as a passive system is described by the DE 10 2012 101 085 A1 the applicant, according to which the 3D camera recorded at least one image of the surroundings in front of the vehicle, from the image data of the 3D camera along a plurality of lines, height profiles of the road surface transverse to the direction of travel of the vehicle are determined in order to use the determined height profiles To determine the condition of the road surface. From the determined height profile, road boundaries, for example curbs, can also be recognized.

Aufgabe der Erfindung ist es, ein weiteres Verfahren zur Erkennung der Fahrstreifen einer Fahrbahn eines Fahrzeugs anzugeben, welches trotz fehlender oder nicht erkennbarer Fahrbahnmarkierungen zuverlässig die Fahrstreifen detektieren kann.The object of the invention is to specify a further method for recognizing the lanes of a roadway of a vehicle, which method can reliably detect the lanes despite missing or unrecognizable roadway markings.

Diese Aufgabe wird gelöst durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und den Merkmalen des Patentanspruchs 2.This object is achieved by a method having the features of claim 1 and the features of claim 2.

Dieses Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn aus von wenigstens einem Umfeldsensor aufgenommenen Umfelddaten vor einem Fahrzeug umfasst gemäß der erstgenannten Lösung folgende Verfahrensschritte:

  1. a) Bestimmen der Fahrbahnbreite der Fahrbahn vor dem Fahrzeug aus den mittels eines Radarsensors aufgenommenen Umfelddaten, wobei die Fahrbahnbreite der Fahrbahn aus dem Intensitätsverlauf der reflektierten Radarstrahlen ermittelt wird,
  2. b) Erstellen wenigstens einer Hypothese über die Anzahl der Fahrstreifen aus
    • - der mit Verfahrensschritt a) ermittelten Fahrbahnbreite, und/oder
    • - der Detektion der anderen Verkehrsteilnehmer auf der Fahrbahn hinsichtlich ihres Bewegungsverhaltens, und/oder
    • - aus der Information einer digitalen Karte, und/oder
    • - aus einer Verkehrszeichenerkennung,
  3. c) Ermitteln eines Wahrscheinlichkeitsmodells für die Lage der Fahrstreifenmitte der Fahrstreifen auf der Basis der Hypothese über die Anzahl der Fahrstreifen, und
  4. d) Bestimmen eines Wertes mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte der Fahrstreifen.
According to the first-mentioned solution, this method for estimating the course of the lane of a roadway from environment data in front of a vehicle recorded by at least one environment sensor comprises the following method steps:
  1. a) Determining the lane width of the lane in front of the vehicle from the environment data recorded by means of a radar sensor, the lane width of the lane being determined from the intensity profile of the reflected radar beams,
  2. b) Create at least one hypothesis about the number of lanes
    • - the lane width determined with method step a), and / or
    • - the detection of the other road users on the road with regard to their movement behavior, and / or
    • - from the information on a digital map, and / or
    • - from a traffic sign recognition,
  3. c) determining a probability model for the position of the center of the lane on the basis of the hypothesis about the number of lanes, and
  4. d) Determining a value by means of the probability model with the greatest probability value as the position of the center of the lane.

Gemäß der zweitgenannten Lösung umfasst dieses Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn aus von wenigstens einem Umfeldsensor vor dem Fahrzeug aufgenommenen Umfelddaten die folgenden Verfahrensschritte:

  1. a) Bestimmen der Fahrbahnbreite der Fahrbahn vor dem Fahrzeug aus mittels eines Bildsensors aufgenommen Umfelddaten, wobei ein Höhenprofil des Bereichs vor dem Fahrzeug quer zu dessen Fahrtrichtung aus den Bilddaten des Bildsensors ermittelt und die Fahrbahnbreite der Fahrbahn aus dem Verlauf des Höhenprofils detektiert wird,
  2. b) Erstellen wenigstens einer Hypothese über die Anzahl der Fahrstreifen aus
    • - der mit Verfahrensschritt a) ermittelten Fahrbahnbreite, und/oder
    • - der Detektion der anderen Verkehrsteilnehmer auf der Fahrbahn hinsichtlich ihres Bewegungsverhaltens, und/oder
    • - aus der Information einer digitalen Karte, und/oder
    • - aus einer Verkehrszeichenerkennung,
  3. c) Ermitteln eines Wahrscheinlichkeitsmodells für die Lage der Fahrstreifenmitte der Fahrstreifen auf der Basis der Hypothese über die Anzahl der Fahrstreifen, und
  4. d) Bestimmen eines Wertes mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte der Fahrstreifen.
According to the second-mentioned solution, this method for estimating the course of the lane of a roadway from environment data recorded by at least one environment sensor in front of the vehicle comprises the following method steps:
  1. a) determining the lane width of the lane in front of the vehicle from environment data recorded by means of an image sensor, a height profile of the area in front of the vehicle being determined transversely to its direction of travel from the image data of the image sensor and the lane width of the lane being detected from the course of the height profile,
  2. b) Create at least one hypothesis about the number of lanes
    • - the lane width determined with method step a), and / or
    • - the detection of the other road users on the road with regard to their movement behavior, and / or
    • - from the information on a digital map, and / or
    • - from a traffic sign recognition,
  3. c) determining a probability model for the position of the center of the lane on the basis of the hypothesis about the number of lanes, and
  4. d) Determining a value by means of the probability model with the greatest probability value as the position of the center of the lane.

Mit diesem erfindungsgemäßen Verfahren kann nun bei nicht zur Verfügung stehenden Fahrstreifenmarkierungen anhand anderer Merkmale eine Information über den Fahrstreifenverlauf erzeugt werden. Dazu wird zunächst der Bereich bestimmt, indem sich die Fahrbahn befindet, wobei unter Fahrbahn die ganze asphaltierte Fläche verstanden wird, die mittels Markierungen in mehrere Fahrstreifen unterteilt wird. Da die Fahrbahn eine vergleichsweise ebene Fläche darstellt, die üblicherweise von erhabenen Objekten, wie Leitplanken, Schallschutzmauern oder Wellen oder zumindest von einem ebenen Bereich, wie eine Wiese begrenzt ist, kann mit dem Umfeldsensor die Fahrbahn von ihren Begrenzungen unterschieden werden. Somit kann bei bekannten Fahrbahnbegrenzungen die Fahrbahnbreite der Fahrbahn aus den Umfelddaten bestimmt werden und eine Hypothese über die Anzahl der Fahrstreifen erstellt werden. Befindet sich das Fahrzeug bspw. auf einer Autobahn und wird eine Breite von bspw. 11,25 m detektiert, wird bei bekannter Breite eines Fahrstreifens einer Autobahn von 3,75 m mit zugehörigen Standstreifen von zwei Fahrstreifen als Hypothese über die Anzahl der Fahrstreifen ausgegangen. Im darauffolgenden Verfahrensschritt c) wird die Wahrscheinlichkeit für den Fahrstreifen modelliert, d.h. ein Wahrscheinlichkeitsmodell für die Lage der Fahrstreifenmitte des Fahrstreifens auf der Basis der Hypothese über die Anzahl der Fahrstreifen ermittelt. Schließlich wird in einem letzten Verfahrensschritt d) ein Wert mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte der Fahrstreifen bestimmt.With this method according to the invention, information about the course of the lane can now be generated on the basis of other features when lane markings are not available. For this purpose, the area in which the road is located is first determined, whereby the entire asphalted area is understood by the road, which is divided into several lanes by means of markings. Since the roadway represents a comparatively flat surface that is usually delimited by raised objects such as crash barriers, soundproof walls or waves or at least by a flat area such as a meadow, the roadway can be distinguished from its delimitations with the environment sensor. In this way, with known lane boundaries, the lane width of the lane can be determined from the environment data and a hypothesis can be created about the number of lanes. For example, if the vehicle is on a Motorway and if a width of, for example, 11.25 m is detected, a known width of a lane of a motorway of 3.75 m with associated hard shoulder of two lanes is assumed as a hypothesis about the number of lanes. In the subsequent method step c), the probability for the lane is modeled, ie a probability model for the position of the center of the lane of the lane is determined on the basis of the hypothesis about the number of lanes. Finally, in a last method step d), a value is determined by means of the probability model with the greatest probability value as the position of the center of the traffic lane.

Gemäß der erstgenannten Lösung ist es vorgesehen, dass die Umfelddaten mittels eines Radarsensors aufgenommen werden und die Fahrbahnbreite der Fahrbahn aus dem Intensitätsverlauf der reflektierten Radarstrahlen ermittelt wird. Eine solche Radar-Sensorik stellt sicher, dass auch bei schlechten Sichtverhältnissen die Randbebauung von Fahrbahnen, wie Leitplanken, aber auch eine Grasfläche detektiert werden kann, da diese zu einer stärkeren Reflexion als die eigentliche, bspw. asphaltierte Fahrbahn führen.According to the first-mentioned solution, it is provided that the surroundings data are recorded by means of a radar sensor and the lane width of the lane is determined from the intensity profile of the reflected radar beams. Such a radar sensor system ensures that, even in poor visibility conditions, the development of the edge of roadways, such as crash barriers, but also a grassy area can be detected, since these lead to a stronger reflection than the actual, e.g. asphalted, roadway.

Insbesondere kann mit einem Radarsensor, der keine Fahrstreifenmarkierungen erkennen kann, permanent eine Information über mögliche Fahrstreifenverläufe erzeugt werden. Dieses kann dazu dienen, die von einem Bildsensor, wie bspw. einer Kamera erkannten Fahrstreifenverläufe zu plausibilisieren oder im Falle eines Ausfalls der Kamera eine Notfunktion zu realisieren. Aufgrund der Geometrie der Fahrstreifen und der weiten Vorausschau können z.B. Fehler in der Azimuth-Kalibrierung der beteiligten Sensoren gut identifiziert werden. Des Weiteren kann aufgrund der hohen Reichweite eines Radarsensors im Vergleich zu einer Kamera eine Schätzung des Fahrstreifenverlaufs außerhalb des Kamera-Sichtbereichs erhalten werden.In particular, information about possible lane courses can be generated permanently with a radar sensor that cannot detect any lane markings. This can serve to check the plausibility of the lane courses recognized by an image sensor, such as a camera, or to implement an emergency function in the event of a camera failure. Due to the geometry of the lanes and the wide foresight, errors in the azimuth calibration of the sensors involved can be easily identified. Furthermore, due to the long range of a radar sensor compared to a camera, an estimate of the lane course outside the camera's field of view can be obtained.

Gemäß der zweitgenannten Lösung ist es vorgesehen, dass die Umfelddaten mittels eines Bildsensors aufgenommen werden, ein Höhenprofil des Bereichs vor dem Fahrzeug quer zu dessen Fahrtrichtung aus den Bilddaten des Bildsensors ermittelt wird und die Fahrbahnbreite der Fahrbahn aus dem Verlauf des Höhenprofils detektiert wird. Mit einer Kamera als Bildsensor können damit anhand eines ermittelten Höhenprofils die glatte Fahrbahn von erhabenen bzw. unstrukturierten Bereichen getrennt werden. Ferner können auch weitere Merkmale, wie die Textur zum Erkennen der Fahrbahn hinzugezogen werden. Schließlich auch möglich, als bewegt erkannte Objekte zum Erkennen der Fahrbahn hinzuzuziehen.According to the second solution mentioned, it is provided that the surroundings data are recorded by means of an image sensor, a height profile of the area in front of the vehicle is determined transversely to its direction of travel from the image data of the image sensor and the lane width of the lane is detected from the course of the height profile. With a camera as an image sensor, the smooth roadway can be separated from raised or unstructured areas on the basis of a determined height profile. Further features, such as the texture, can also be used to identify the roadway. Finally, it is also possible to use objects recognized as moving to identify the lane.

Gemäß einer bevorzugten Ausführungsform der Erfindung ist es vorgesehen, dass

  • e) mittels den Umfelddaten des Radarsensors und mittels der Umfelddaten des Bildsensors jeweils die Verfahrensschritte b) bis d) durchgeführt werden, und
  • f) aus den gemäß Verfahrensschritt d) als Lage der Fahrstreifenmitte der Fahrstreifen bestimmten zwei Wahrscheinlichkeitswerten ein Wert als Lage der Fahrstreifenmitte kombiniert wird.
According to a preferred embodiment of the invention, it is provided that
  • e) method steps b) to d) are carried out in each case by means of the environment data of the radar sensor and by means of the environment data of the image sensor, and
  • f) a value is combined as the position of the center of the lane from the two probability values determined in accordance with method step d) as the position of the center of the traffic lane.

Bei diesem Verfahren stehen also zwei Auswertekanäle zur Verfügung, nämlich ein erster Auswertekanal, mit dem die Umfelddaten eines Radarsensors ausgewertet werden, und ein zweiter Auswertekanal, mit dem die Umfelddaten eines Bildsensors ausgewertet werden. Die Ergebnisse hinsichtlich der Lage der Fahrstreifenmitte der Fahrstreifen, die sich aus den beiden Auswertekanälen ergeben, werden in dem Verfahrensschritt

  • f) zusammengeführt, indem die Fahrstreifenhypothesen der beiden Auswertekanäle überlagert werden und hieraus ein einziger Wert als Lage der Fahrstreifenmitte erzeugt wird. Vorzugsweise wird aus einer derart ermittelten Lage der Fahrstreifenmitte der Fahrstreifenverlauf bestimmt.
With this method, two evaluation channels are available, namely a first evaluation channel with which the environment data of a radar sensor are evaluated, and a second evaluation channel with which the environment data of an image sensor is evaluated. The results with regard to the position of the middle of the lane, which result from the two evaluation channels, are in the method step
  • f) merged in that the lane hypotheses of the two evaluation channels are superimposed and a single value is generated from this as the position of the center of the lane. The course of the lane is preferably determined from such a position of the center of the lane.

Eine vorteilhafte Weiterbildung ergibt sich dadurch, dass zusätzlich zur Hypothese über die Anzahl der Fahrstreifen eine Hypothese über die Fahrstreifenbreiten der Fahrstreifen erstellt wird und auf der Basis der Hypothese über die Anzahl der Fahrstreifen und der Fahrstreifenbreiten der Fahrstreifen ein Wahrscheinlichkeitsmodell für die Lage der Fahrstreifenmitte der Fahrstreifen ermittelt wird.An advantageous further development results from the fact that, in addition to the hypothesis about the number of lanes, a hypothesis is created about the lane widths of the lanes and, on the basis of the hypothesis about the number of lanes and the lane widths of the lanes, a probability model for the location of the center of the lane is created is determined.

Schließlich ist es weiterbildungsgemäß vorgesehen, dass als Wahrscheinlichkeitsmodell eine Gaußverteilung mit einem Mittelwert und einer Varianz verwendet wird.Finally, it is provided according to a further development that a Gaussian distribution with a mean value and a variance is used as the probability model.

Die Erfindung wird nachfolgend unter Bezugnahme auf die beigefügten Figuren näher erläutert. Es zeigen:

  • 1 ein Ablaufdiagramm eines Ausführungsbeispieles gemäß der Erfindung, und
  • 2 Diagramme zur Erläuterung des Ausführungsbeispiels gemäß 1.
The invention is explained in more detail below with reference to the accompanying figures. Show it:
  • 1 a flow chart of an embodiment according to the invention, and
  • 2 Diagrams to explain the embodiment according to 1 .

Zur Durchführung des erfindungsgemäßen Verfahrens gemäß 1 wird ein Fahrzeug mit zwei Umfeldsensoren, nämlich einem Radarsensor sowie einer Kamera bereitgestellt. Die Umfelddaten dieser Umfeldsensoren bilden jeweils einen Auswertekanal, nämlich einen ersten Auswertekanal zur Auswertung der Radardaten des Radarsensors, dessen Funktion mit den Verfahrensschritten S1 bis S4 beschrieben werden, und einen zweiten Auswertekanal zur Auswertung der Bilddaten der Kamera, dessen Funktion mit den Verfahrensschritten S5 bis S8 beschrieben werden.To carry out the method according to the invention according to 1 a vehicle with two environment sensors, namely a radar sensor and a camera, is provided. The environment data of these environment sensors each form an evaluation channel, namely a first evaluation channel for evaluating the radar data of the radar sensor, its function with the method steps S1 until S4 described and a second evaluation channel for evaluating the image data of the camera, its function with the process steps S5 until S8 to be discribed.

Der Radarsensor erzeugt von dem Umfeld vor dem Fahrzeug Radardaten, die in einem ersten Verfahrensschritt S1 bereitgestellt werden.The radar sensor generates radar data from the surroundings in front of the vehicle, which in a first process step S1 to be provided.

In einem Verfahrensschritt S2 werden aus diesen Radardaten die Fahrbahnbreite B einer Fahrbahn F bestimmt, die in Fahrtrichtung des Fahrzeugs von einem linken und rechten Randstreifen R1 und R1 begrenzt, wobei sich an den linken Randstreifen R1 eine Mittelleitplanke MLP anschließt. Ein solches Verkehrsumfeld vor dem Fahrzeug ist schematisch in 2a) dargestellt.In one process step S2 the width of the lane is derived from this radar data B. a roadway F. determined in the direction of travel of the vehicle by a left and right shoulder R1 and R1 limited, being at the left marginal strip R1 a central guardrail MLP connects. Such a traffic environment in front of the vehicle is shown schematically in 2a) shown.

Die Fahrbahnbreite B wird aufgrund von abweichenden Intensitäten der reflektierten Radarstrahlen ermittelt. Hierzu wird zunächst der Bereich bestimmt, in dem sich die Fahrbahn F befindet, die eine vergleichsweise ebene Fläche darstellt und von erhabenen Objekten, wie Leitplanken, Schallschutzmauern oder Wellen oder zumindest von einem unebenen Bereich, wie einer Wiese als Randstreifen R begrenzt wird. Damit kann von dem Radarsensor die Fahrbahn F von ihren Begrenzungen unterschieden werden. Die Randbebauung, wie Leitplanken, oder grasartige, insbesondere unebene Randstreifen R1 und R2 führen zu stärkeren Reflexionen der Radarstrahlen als durch die ebene und homogene Oberfläche der Fahrbahn F.The width of the lane B. is determined on the basis of differing intensities of the reflected radar beams. For this purpose, the area in which the road is located is first determined F. is located, which represents a comparatively flat surface and raised objects such as guard rails, soundproof walls or waves or at least an uneven area such as a meadow as a border R. is limited. This allows the roadway from the radar sensor F. be distinguished from their limitations. The edge development, such as guardrails, or grass-like, especially uneven edge strips R1 and R2 lead to stronger reflections of the radar beams than from the flat and homogeneous surface of the roadway F. .

Die bisher durchgeführten Verfahrensschritte S1 und S2 für den die Umfelddaten des Radarsensors verarbeitenden ersten Auswertekanal werden auch parallel für den zweiten Auswertekanal entsprechend den Verfahrensschritten S5 und S6 durchgeführt, der die von der Kamera aufgenommenen Umfelddaten verarbeitet.The procedural steps carried out so far S1 and S2 for the first evaluation channel processing the environment data of the radar sensor are also carried out in parallel for the second evaluation channel in accordance with the method steps S5 and S6 performed, which processes the environmental data recorded by the camera.

Die Kamera erzeugt von dem in 2a) mit einer Fahrbahn F dargestellten Umfeld vor dem Fahrzeug Bilddaten, die in einem ersten Verfahrensschritt S5 des zweiten Auswertekanals bereitgestellt werden.The camera generates from the in 2a) with a lane F. presented environment in front of the vehicle image data, which in a first process step S5 of the second evaluation channel.

In einem nachfolgenden Verfahrensschritt S6 werden aus diesen Bilddaten die Fahrbahnbreite B der Fahrbahn F bestimmt. Hierzu wird das Höhenprofil der Fahrbahn F quer zur Fahrtrichtung des Fahrzeugs detektiert und ausgewertet, so dass der Bereich der ebenen und glatten Fahrbahn F bzw. der unstrukturierte Bereich der Fahrbahn F von erhabenen bzw. strukturierten Bereichen, wie bspw. Begrenzungen der Fahrbahn F getrennt werden kann. Mit der Kamera können weitere Merkmale, wie die Textur zum Erkennen der Fahrbahn hinzugezogen werden.In a subsequent process step S6 the lane width is derived from this image data B. the roadway F. certainly. For this purpose, the height profile of the roadway F. Detected and evaluated transversely to the direction of travel of the vehicle, so that the area of the even and smooth roadway F. or the unstructured area of the roadway F. of raised or structured areas, such as the boundaries of the roadway F. can be separated. With the camera, other features, such as the texture, can be used to identify the roadway.

Im Folgenden werden die Verfahrensschritte S3 und S4 des ersten Auswertekanals zusammen mit den Verfahrensschritten S7 und S8 des zweiten Auswertekanals gemeinsam beschrieben, da dort identische Funktionen realisiert werden, die in einem Verfahrensschritt S9 zusammengeführt werden.The following are the procedural steps S3 and S4 of the first evaluation channel together with the procedural steps S7 and S8 of the second evaluation channel, since identical functions are implemented there that are in one process step S9 be merged.

In den Verfahrensschritten S3 und S7 werden jeweils eine Hypothese über die Anzahl der vorhandenen Fahrstreifen sowie der zugehörigen Fahrstreifenbreite auf der Basis der Radardaten bzw. der Bilddaten abgeleitet. Hierzu wird die mit Verfahrensschritt S2 bzw. S6 bestimmte Fahrbahnbreite B verwendet. Ist es bekannt, dass sich das Fahrzeug bspw. auf einer Autobahn befindet und für die Fahrbahnbreite B ein Wert von 11,25 m detektiert wird, besteht die Hypothese darin, dass zwei Fahrstreifen und ein Standstreifen vorhanden ist, da es bekannt ist, dass ein Fahrstreifen auf einer Autobahn 3,75 m breit ist. Auch ist es möglich, durch die Detektion der anderen Verkehrsteilnehmer auf der Fahrbahn hinsichtlich ihres Bewegungsverhaltens auf die Anzahl der Fahrstreifen eine Hypothese zu erstellen. Schließlich ist es auch möglich, allein oder zusätzlich die Information einer digitalen Karte, bspw. eines Navigationssystems zur Erstellung der Hypothese über die Anzahl der Fahrstreifen zu verwenden, um eine Information über die Anzahl der vorhandenen Fahrstreifen sowie den Standstreifen zu bekommen, da es auch Autobahnabschnitte gibt, in denen kein durchgehender Standstreifen vorhanden ist.In the procedural steps S3 and S7 a hypothesis about the number of existing lanes and the associated lane width is derived on the basis of the radar data or the image data. For this purpose, the process step S2 respectively. S6 certain lane width B. used. Is it known that the vehicle is, for example, on a motorway and for the width of the lane B. If a value of 11.25 m is detected, the hypothesis is that there are two lanes and one hard shoulder, since it is known that a lane on a motorway is 3.75 m wide. It is also possible to create a hypothesis on the number of lanes in terms of their movement behavior by detecting the other road users on the roadway. Finally, it is also possible to use the information from a digital map, e.g. a navigation system, alone or in addition to generate the hypothesis about the number of lanes in order to obtain information about the number of existing lanes and the hard shoulder, since there are also motorway sections where there is no continuous hard shoulder.

Es können aber auch Vorkenntnisse über die Fahrbahnbreite einfließen, so zum Beispiel dass in einer Baustelle der linke Fahrstreifen schmaler als der rechte Fahrstreifen ist.However, prior knowledge of the lane width can also be incorporated, for example, that the left lane is narrower than the right lane in a construction site.

Auch Informationen aus der Verkehrszeichenerkennung können zur Erstellung einer Hypothese über die Fahrstreifenanzahl verwendet werden. So wird bei bspw. bei einer Fahrbahn mit mehr als zwei Fahrstreifen mit einem Verkehrszeichen auf die Anzahl der Fahrstreifen hingewiesen und wie lange diese zur Verfügung stehen. Auch auf Baustellen hinweisende Baustellenschilder können detektiert werden und deren Informationen zur Erstellung einer Hypothese über die Fahrstreifenanzahl verwendet werden. Wenn Baustellenschilder erkannt werden, ist es sehr wahrscheinlich, dass die Breite der Fahrstreifen geringer ist und somit knapp geregelt werden muss. Außerdem können solche Verkehrsschilder die Informationen enthalten, in welche Richtung die Fahrstreifen bei einer Verengung der Fahrbahn verlaufen, wie viele Fahrstreifen zur Verfügung stehen und welche Breite bspw. die linke Fahrspur hat. So gibt es bspw. ein Verkehrsschild mit der Angabe, dass die Breite des Fahrstreifens kleiner als 2 m ist, während die übliche Breite des linken Fahrstreifens 2,50 m bis 2,70 m beträgt. Diese Informationen können mit den detektierten Straßenrändern abgeglichen werden und so sehr sichere Informationen über die Anzahl und Breite der Fahrstreifen geschätzt werden.Information from traffic sign recognition can also be used to create a hypothesis about the number of lanes. In the case of a lane with more than two lanes, for example, a traffic sign indicates the number of lanes and how long they are available. Construction site signs indicating construction sites can also be detected and their information used to create a hypothesis about the number of lanes. If construction site signs are recognized, it is very likely that the width of the lanes is narrower and therefore needs tight control. In addition, such traffic signs can contain the information about the direction in which the lanes run when the lane is narrowed, how many lanes are available and what width, for example, the left lane has. For example, there is a traffic sign stating that the width of the lane is less than 2 m, while the usual width of the left lane is 2.50 m to 2.70 m. This information can be compared with the detected roadsides and so on very reliable information about the number and width of lanes can be estimated.

In dem Ausführungsbeispiel gemäß den 1 und 2 wird eine Hypothese erstellt, wonach drei Fahrstreifen F1, F2 und F3 vorhanden sind. Hieraus wird zusätzlich die Hypothese über die Fahrstreifenbreite abgeleitet, wobei im einfachsten Fall angenommen wird, dass die Fahrstreifen gleichmäßig über die Fahrbahnbreite verteilt sind.In the embodiment according to 1 and 2 a hypothesis is created that three lanes F1 , F2 and F3 available. The hypothesis about the lane width is derived from this, whereby in the simplest case it is assumed that the lanes are evenly distributed over the lane width.

In einem an den Verfahrensschritt S 3 bzw. S7 sich anschließenden Verfahrensschritt S4 bzw. S8 wird jeweils die Wahrscheinlichkeit W für die Lage der Fahrstreifen auf der Basis der in Verfahrensschrittes S3 bzw. S7 erstellten Hypothese modelliert.In one to the procedural step S 3 respectively. S7 subsequent process step S4 respectively. S8 becomes the probability W. for the location of the lanes on the basis of the process step S3 respectively. S7 created hypothesis is modeled.

Dies kann bspw. anhand des Verlaufs der Fahrstreifenmitte durchgeführt werden. Um Ungenauigkeiten in der Wahrnehmung zu modellieren, wird über der Fahrbahnbreite B die Wahrscheinlichkeit W angegeben, dass sich an der entsprechenden Stelle eine Fahrstreifenmitte FM1, FM2 und FM3 befindet, wie dies schematisch in 2b) dargestellt ist. Eine Möglichkeit zur Realisierung besteht in einer parametrischen Modellierung, bei der die Wahrscheinlichkeit W zum Beispiel als Gaußverteilung mit einem Mittelwert µ und einer Varianz σ dargestellt wird. Bei dem Beispiel gemäß 2 werden drei Verteilungen bestimmt, nämlich jeweils für jeden Fahrstreifen aus der Hypothese über die Fahrbahnbreite verteilt. Entsprechend 2c) werden eine Gaußverteilung mit einem Mittelwert µ1 und einer Varianz σ1 für den ersten Fahrstreifen, einem Mittelwert µ2 und einer Varianz σ2 für den zweiten Fahrstreifen und einem Mittelwert µ3 und einer Varianz σ3 für den dritten Fahrstreifen erstellt. Die Varianzen dieser drei Gaußverteilungen werden aus der Hypothese über die Fahrbahnbreite entsprechend dem Verfahrensschritt S3 bzw. S7 abgeleitet.This can be done, for example, on the basis of the course of the center of the lane. In order to model inaccuracies in perception, the width of the lane is used B. the probability W. indicated that there is a center of the lane at the corresponding point FM1 , FM2 and FM3 is located, as shown schematically in 2 B) is shown. One possibility for the realization is a parametric modeling in which the probability W. for example as a Gaussian distribution with a mean value µ and a variance σ is pictured. In the example according to 2 three distributions are determined, namely distributed over the width of the lane for each lane from the hypothesis. Corresponding 2c ) become a Gaussian distribution with a mean µ1 and a variance σ1 for the first lane, a mean value µ2 and a variance σ2 for the second lane and an average µ3 and a variance σ3 created for the third lane. The variances of these three Gaussian distributions are derived from the hypothesis about the width of the lane in accordance with the process step S3 respectively. S7 derived.

Es bietet sich auch eine diskretisierte Darstellung der Wahrscheinlichkeitsverteilung entsprechend 2d) an, die eine 1-dimensionale Darstellung zeigt. Für eine praktische Realisierung ist jedoch eine 2-dimensionale Darstellung als Gitter vorteilhaft. Dabei verlaufen eine Achse quer zur Fahrbahnoberfläche und eine zweite Achse in Richtung der Fahrbahnoberfläche. Somit kann auch eine sich ändernde Anzahl von Fahrstreifen über der Länge der Fahrbahnoberfläche modelliert werden. Neben einem quadratischen Gitter kann es vorteilhaft sein, ein Gitter mit rechteckigen Zellen zu wählen. Dabei wird die Zellengröße quer zum Fahrstreifen kleiner gewählt als in Fahrstreifen Richtung, um eine genauere Modellierung der lateralen Position der Fahrstreifenmitte zu ermöglichen.A discretized representation of the probability distribution is also available 2d ), which shows a 1-dimensional representation. For a practical implementation, however, a 2-dimensional representation as a grid is advantageous. One axis runs transversely to the road surface and a second axis runs in the direction of the road surface. This means that a changing number of lanes over the length of the road surface can also be modeled. In addition to a square grid, it can be advantageous to choose a grid with rectangular cells. The cell size across the lane is selected to be smaller than in the direction of the lane in order to enable a more precise modeling of the lateral position of the center of the lane.

Nachdem sowohl für den ersten Auswertekanal für den Radarsensor als erste Datenquelle und für den zweiten Auswertekanal für die Kamera als zweite Datenquelle jeweils eine Wahrscheinlichkeitsmodellierung der Fahrstreifenmitte für die Fahrstreifen entsprechend der Hypothese über die Fahrstreifenanzahl gemäß den Verfahrensschritten S4 und S8 durchgeführt wurde, findet im nächsten Verfahrensschritt S9 eine Überlagerung der Fahrstreifen Hypothesen der beiden Auswertekanäle statt. Dies kann in der parametrischen Darstellung durch Assoziation und Kombination der Mittelwerte µ und der Varianzen σ der Gaußverteilungen erfolgen oder in der gitterbasierten, also diskreten Darstellung durch Kombination der Zellenwerte der verschiedenen Gitter. Hierfür kommt bspw. die Anwendung eines binären Bayes-Filters oder der Dempster-Shafer-Theorie infrage.After both the first evaluation channel for the radar sensor as the first data source and the second evaluation channel for the camera as the second data source, a probability modeling of the center of the lane for the lanes according to the hypothesis about the number of lanes according to the method steps S4 and S8 is carried out in the next process step S9 the lane hypotheses of the two evaluation channels are superimposed. This can be done in the parametric representation by association and combination of the mean values µ and the variances σ of the Gaussian distributions or, in the grid-based, i.e. discrete representation, by combining the cell values of the various grids. For example, a binary Bayesian filter or the Dempster-Shafer theory can be used for this.

Als Ergebnis dieses Verfahrensschrittes S9 werden in einem Verfahrensschritt S10 die drei Fahrstreifenverläufe F1, F2 und F3 extrahiert.As a result of this process step S9 are in one process step S10 the three lane courses F1 , F2 and F3 extracted.

Diese derart bestimmten Fahrstreifenverläufe können für eine Trajektorenplanung oder eine Lane-Keeping-Fahrerassistenzfunktion verwendet werden, in dem das Fahrzeug am nächsten Maximum der repräsentierten Wahrscheinlichkeiten entlang geführt wird. Dieses Maximum stellt nämlich die Fahrstreifenmitte dar. Für eine visuelle Darstellung, bei der auch die Breite eines möglichen Fahrstreifenverlaufs dargestellt werden soll, werden vom Maximum ausgehend die Schnittpunkte der Wahrscheinlichkeitswerte mit einem minimalen Wert, bspw. das erstmalige Unterschreiten der 50 %-Wahrscheinlichkeit, als Fahrstreifengrenzen gewählt.These lane courses determined in this way can be used for trajectory planning or a lane-keeping driver assistance function in which the vehicle is guided along the next maximum of the represented probabilities. This maximum represents the center of the lane. For a visual representation in which the width of a possible lane course is also to be displayed, starting from the maximum, the intersection points of the probability values with a minimum value, e.g. the first time falling below the 50% probability, are displayed as Lane boundaries selected.

Weitere Vorteile ergeben sich bei durch Schnee verdeckten Fahrstreifenmarkierungen oder schlechten Sichtbedingungen, bspw. bedingt durch starken Schneefall, Regen oder Nebel, da dann dem Fahrer aufbauend auf den geschätzten Fahrstreifenverläufen eine Unterstützung bei der Querführung des Fahrzeugs angeboten werden kann. Dies kann bspw. anhand einer Anzeige im Cockpit realisiert werden, die dem Fahrer anzeigt, wie weit er von der Mitte des geschätzten Fahrstreifens nach links oder rechts abweicht. Insbesondere kann aber auch mittels eines großflächigen Head-up-Displays der geschätzte Fahrstreifenverlauf über die reale Verkehrsszene eingeblendet werden. Da die Schätzung möglicherweise ungenau ist, kann dabei insbesondere die geschätzte Fahrstreifenmitte gegenüber den Randbereichen stärker hervorgehoben werden, da diese am besten innerhalb des realen Fahrstreifens liegt.Further advantages arise in the case of lane markings that are covered by snow or poor visibility conditions, for example due to heavy snowfall, rain or fog, since the driver can then be offered support in lateral guidance of the vehicle based on the estimated lane courses. This can be implemented, for example, using a display in the cockpit that shows the driver how far he is deviating from the center of the estimated lane to the left or right. In particular, however, the estimated course of the lane can also be displayed over the real traffic scene by means of a large-area head-up display. Since the estimate may be imprecise, in particular the estimated center of the lane can be emphasized more strongly than the edge areas, since this is best within the real lane.

Neben dem Anzeigen des Fahrstreifenverlaufs kann dem Fahrer ähnlich wie bei einem Lane-Keeping-System eine visuelle, akustische oder haptische Warnung bei Verlassen des Fahrstreifens gegeben werden oder es wird über ein überlagertes Lenkmoment eine Querführungsunterstützung realisiert. Im Vergleich zu einer Erkennung der Fahrstreifenmarkierungen sind die Eingriffsschwellen aufgrund der größeren Unsicherheit dabei weiter in Richtung Fahrbahnmitte zu verlegen.In addition to displaying the course of the lane, the driver can be given a visual, acoustic or haptic warning when leaving the lane, similar to a lane-keeping system, or lateral guidance support is implemented via a superimposed steering torque. Compared to the detection of the lane markings, the intervention thresholds have to be relocated further in the direction of the center of the lane due to the greater uncertainty.

Des Weiteren können mit den geschätzten Informationen über den Fahrstreifenverlauf auch weiteren Assistenzfunktionen zur Verfügung gestellt werden.Furthermore, additional assistance functions can be made available with the estimated information about the course of the lane.

Claims (6)

Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn (F) aus von wenigstens einem Umfeldsensor aufgenommenen Umfelddaten vor einem Fahrzeug mit folgenden Verfahrensschritten: a) Bestimmen der Fahrbahnbreite (B) der Fahrbahn (F) vor dem Fahrzeug aus den mittels eines Radarsensors aufgenommen Umfelddaten, wobei die Fahrbahnbreite (B) der Fahrbahn(F) aus dem Intensitätsverlauf der reflektierten Radarstrahlen ermittelt wird, b) Erstellen wenigstens einer Hypothese über die Anzahl der Fahrstreifen (F1, F2, F3) aus - der mit Verfahrensschritt a) ermittelten Fahrbahnbreite (B), und/oder - der Detektion der anderen Verkehrsteilnehmer auf der Fahrbahn (F) hinsichtlich ihres Bewegungsverhaltens, und/oder - aus der Information einer digitalen Karte, und/oder - aus einer Verkehrszeichenerkennung, c) Ermitteln eines Wahrscheinlichkeitsmodells für die Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3) auf der Basis der Hypothese über die Anzahl der Fahrstreifen (F1, F2, F3), und d) Bestimmen eines Wertes mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3).Method for estimating the course of the lane of a roadway (F) from environment data recorded by at least one environment sensor in front of a vehicle with the following method steps: a) Determination of the lane width (B) of the lane (F) in front of the vehicle from the environmental data recorded by means of a radar sensor, the lane width (B) of the lane (F) being determined from the intensity profile of the reflected radar beams, b) Creating at least one hypothesis about the number of lanes (F1, F2, F3) - the lane width (B) determined with method step a), and / or - the detection of the other road users on the roadway (F) with regard to their movement behavior, and / or - from the information on a digital map, and / or - from a traffic sign recognition, c) Determining a probability model for the position of the center of the lane (FM1, FM2, FM3) of the lanes (F1, F2, F3) on the basis of the hypothesis about the number of lanes (F1, F2, F3), and d) Determining a value by means of the probability model with the greatest probability value as the position of the center of the lane (FM1, FM2, FM3) of the lanes (F1, F2, F3). Verfahren zum Schätzen des Fahrstreifenverlaufs einer Fahrbahn (F) aus von wenigstens einem Umfeldsensor aufgenommenen Umfelddaten vor einem Fahrzeug mit folgenden Verfahrensschritten: a) Bestimmen der Fahrbahnbreite (B) der Fahrbahn (F) vor dem Fahrzeug aus den mittels eines Bildsensors aufgenommenen Umfelddaten, wobei ein Höhenprofil des Bereichs vor dem Fahrzeug quer zu dessen Fahrtrichtung aus den Bilddaten des Bildsensors ermittelt und die Fahrbahnbreite (B) der Fahrbahn (F) aus dem Verlauf des Höhenprofils detektiert wird, b) Erstellen wenigstens einer Hypothese über die Anzahl der Fahrstreifen (F1, F2, F3) aus - der mit Verfahrensschritt a) ermittelten Fahrbahnbreite (B), und/oder - der Detektion der anderen Verkehrsteilnehmer auf der Fahrbahn (F) hinsichtlich ihres Bewegungsverhaltens, und/oder - aus der Information einer digitalen Karte, und/oder - aus einer Verkehrszeichenerkennung, c) Ermitteln eines Wahrscheinlichkeitsmodells für die Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3) auf der Basis der Hypothese über die Anzahl der Fahrstreifen (F1, F2, F3), und d) Bestimmen eines Wertes mittels des Wahrscheinlichkeitsmodells mit dem größten Wahrscheinlichkeitswert als Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3).Method for estimating the course of the lane of a roadway (F) from environment data recorded by at least one environment sensor in front of a vehicle with the following method steps: a) Determination of the lane width (B) of the lane (F) in front of the vehicle from the environment data recorded by means of an image sensor, a height profile of the area in front of the vehicle transversely to its direction of travel being determined from the image data of the image sensor and the lane width (B) of the lane (F) is detected from the course of the height profile, b) Creating at least one hypothesis about the number of lanes (F1, F2, F3) - the lane width (B) determined with method step a), and / or - the detection of the other road users on the roadway (F) with regard to their movement behavior, and / or - from the information on a digital map, and / or - from a traffic sign recognition, c) Determining a probability model for the position of the center of the lane (FM1, FM2, FM3) of the lanes (F1, F2, F3) on the basis of the hypothesis about the number of lanes (F1, F2, F3), and d) Determining a value by means of the probability model with the greatest probability value as the position of the center of the lane (FM1, FM2, FM3) of the lanes (F1, F2, F3). Verfahren nach Anspruch 1 und 2, dadurch gekennzeichnet, dass e) mittels den Umfelddaten des Radarsensors und mittels der Umfelddaten des Bildsensors jeweils die Verfahrensschritte b) bis d) durchgeführt werden, und f) aus den gemäß Verfahrensschritt d) als Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3) bestimmten zwei Wahrscheinlichkeitswerten ein Wert als Lage der Fahrstreifenmitte (FM1, FM2, FM3) kombiniert wird.Procedure according to Claim 1 and 2 , characterized in that e) method steps b) to d) are carried out in each case by means of the environment data of the radar sensor and by means of the environment data of the image sensor, and f) from the method step d) as the position of the center of the lane (FM1, FM2, FM3) of the Lanes (F1, F2, F3) determine two probability values and a value is combined as the position of the center of the lane (FM1, FM2, FM3). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass b1) zusätzlich zur Hypothese über die Anzahl der Fahrstreifen eine Hypothese über die Fahrstreifenbreiten der Fahrstreifen (F1, F2, F3) erstellt wird, und c1) auf der Basis der Hypothese über die Anzahl der Fahrstreifen (F1, F2, F3) und der Fahrstreifenbreiten der Fahrstreifen (F1, F2, F3) ein Wahrscheinlichkeitsmodell für die Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifen (F1, F2, F3) ermittelt wird.Method according to one of the preceding claims, characterized in that b1) in addition to the hypothesis about the number of lanes, a hypothesis about the lane widths of the lanes (F1, F2, F3) is created, and c1) on the basis of the hypothesis about the number of Lanes (F1, F2, F3) and the lane widths of the lanes (F1, F2, F3) a probability model for the position of the middle of the lane (FM1, FM2, FM3) of the lanes (F1, F2, F3) is determined. Verfahren nach Anspruch 3 und 4, dadurch gekennzeichnet, dass aus der gemäß Verfahrensschritt f) bestimmten Lage der Fahrstreifenmitte (FM1, FM2, FM3) der Fahrstreifenverlauf bestimmt wird.Procedure according to Claim 3 and 4th , characterized in that the course of the lane is determined from the position of the center of the lane (FM1, FM2, FM3) determined in accordance with method step f). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Wahrscheinlichkeitsmodell eine Gaußverteilung mit einem Mittelwert und einer Varianz verwendet wird.Method according to one of the preceding claims, characterized in that a Gaussian distribution with a mean value and a variance is used as the probability model.
DE102014223259.7A 2014-11-14 2014-11-14 Method for estimating the course of a lane in a lane Active DE102014223259B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014223259.7A DE102014223259B4 (en) 2014-11-14 2014-11-14 Method for estimating the course of a lane in a lane

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014223259.7A DE102014223259B4 (en) 2014-11-14 2014-11-14 Method for estimating the course of a lane in a lane

Publications (2)

Publication Number Publication Date
DE102014223259A1 DE102014223259A1 (en) 2016-05-19
DE102014223259B4 true DE102014223259B4 (en) 2021-10-14

Family

ID=55855355

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014223259.7A Active DE102014223259B4 (en) 2014-11-14 2014-11-14 Method for estimating the course of a lane in a lane

Country Status (1)

Country Link
DE (1) DE102014223259B4 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220017100A1 (en) * 2020-07-20 2022-01-20 Hyundai Mobis Co., Ltd. Radar device for vehicle and method of controlling radar for vehicle
DE102022001568B3 (en) 2022-05-04 2023-09-28 Mercedes-Benz Group AG Method for modeling lane boundaries

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017211298A1 (en) * 2017-07-04 2019-01-10 Continental Teves Ag & Co. Ohg DEVICE AND METHOD FOR DETERMINING ROAD TOPOLOGY AND RAIL GEOMETRY INFORMATION, AND VEHICLE

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010013403A1 (en) 2009-04-02 2010-11-11 GM Global Technology Operations, Inc., Detroit Information of a dynamic vehicle system on head-up display for entire windshield
DE102011109569A1 (en) 2011-08-05 2013-02-07 Conti Temic Microelectronic Gmbh Lane detection method using a camera
DE102012101085A1 (en) 2012-02-10 2013-08-14 Conti Temic Microelectronic Gmbh Determining a condition of a road surface by means of a 3D camera
DE102012008780A1 (en) 2012-04-28 2013-10-31 Volkswagen Aktiengesellschaft Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model
DE102012224498A1 (en) 2012-10-26 2014-04-30 Hyundai Motor Company Lane Detection Method and System
DE102013018561A1 (en) 2013-09-05 2014-06-18 Daimler Ag Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010013403A1 (en) 2009-04-02 2010-11-11 GM Global Technology Operations, Inc., Detroit Information of a dynamic vehicle system on head-up display for entire windshield
DE102011109569A1 (en) 2011-08-05 2013-02-07 Conti Temic Microelectronic Gmbh Lane detection method using a camera
DE102012101085A1 (en) 2012-02-10 2013-08-14 Conti Temic Microelectronic Gmbh Determining a condition of a road surface by means of a 3D camera
DE102012008780A1 (en) 2012-04-28 2013-10-31 Volkswagen Aktiengesellschaft Method for detecting lane edge i.e. unlabelled lane edge, for creating track model for motor car, involves determining vanishing point in actual image utilizing dominant orientations, where point is utilized for creation of track model
DE102012224498A1 (en) 2012-10-26 2014-04-30 Hyundai Motor Company Lane Detection Method and System
DE102013018561A1 (en) 2013-09-05 2014-06-18 Daimler Ag Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KASPRZAK, Wlodzimierz ; NIEMANN, Heinrich: Adaptive road recognition and ego-state tracking in the presence of obstacles. In: International Journal of Computer Vision, Vol. 28, 1998, No. 1, S. 5-26. - ISSN 0920-5691

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220017100A1 (en) * 2020-07-20 2022-01-20 Hyundai Mobis Co., Ltd. Radar device for vehicle and method of controlling radar for vehicle
US11858518B2 (en) * 2020-07-20 2024-01-02 Hyundai Mobis Co., Ltd. Radar device for vehicle and method of controlling radar for vehicle
DE102022001568B3 (en) 2022-05-04 2023-09-28 Mercedes-Benz Group AG Method for modeling lane boundaries
WO2023213768A1 (en) 2022-05-04 2023-11-09 Mercedes-Benz Group AG Method for modeling lane boundaries

Also Published As

Publication number Publication date
DE102014223259A1 (en) 2016-05-19

Similar Documents

Publication Publication Date Title
EP1684142B1 (en) Method of predicting possible future course and distance control in driver assisting system
EP1928687B1 (en) Method and driver assistance system for sensor-based driving off control of a motor vehicle
DE102009006113B4 (en) Device and method for sensor fusion with dynamic objects
EP1844373B1 (en) Method for predicting the course in driver assistance systems for motor vehicles
WO2016188523A1 (en) Method for estimating traffic lanes
DE102017005967A1 (en) Driver assistance method and system
EP3084681B1 (en) Method for lane recognition
DE102015206144A1 (en) Method and device for safe parking of a vehicle
DE102016203723A1 (en) Method and system for determining the pose of a vehicle
DE102016201249A1 (en) DEVICE AND METHOD FOR DETERMINING A TRACK MODEL
WO2014094766A1 (en) Method for determining a carriageway condition from environment sensor data
EP2629243A1 (en) Method for detecting and tracking lane markings
DE102013205882A1 (en) Method and device for guiding a vehicle around an object
EP2963631B1 (en) Method for determining a parking space from a number of measuring points
EP2982572B1 (en) Method for assisting a driver of a motor vehicle when driving out of a parking space, driver assistance system, and motor vehicle
DE102020203756A1 (en) MOTORWAY EXIT DETECTION AND LINE REFLECTION FOR VEHICLE TRACTION DETERMINATION
DE102014223259B4 (en) Method for estimating the course of a lane in a lane
DE102016220450A1 (en) Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object
EP4165375A1 (en) Method for determining a usage type of a landmark pattern for a self-localization of a vehicle, and electronic self-localization system for a vehicle
DE102017205245A1 (en) Free range fusion for driver assistance systems
EP1944212A1 (en) Method and device for recognising potentially dangerous objects for a vehicle
DE102016213377A1 (en) Method and device for driving height detection
DE102019116892A1 (en) Lane event anticipation through LiDAR road boundary detection
DE102016107421A1 (en) Method for displaying surrounding areas, which can not be detected by a detection device, in the surroundings of a motor vehicle, driver assistance system and motor vehicle
DE102017105721A1 (en) Method for identifying at least one parking space for a vehicle and parking assistance system of a vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTI TEMIC MICROELECTRONIC GMBH, 90411 NUERNBERG, DE

R020 Patent grant now final