DE102020213697A1 - Method for detecting road boundaries and a system for controlling a vehicle - Google Patents

Method for detecting road boundaries and a system for controlling a vehicle Download PDF

Info

Publication number
DE102020213697A1
DE102020213697A1 DE102020213697.1A DE102020213697A DE102020213697A1 DE 102020213697 A1 DE102020213697 A1 DE 102020213697A1 DE 102020213697 A DE102020213697 A DE 102020213697A DE 102020213697 A1 DE102020213697 A1 DE 102020213697A1
Authority
DE
Germany
Prior art keywords
sensor
road
static
objects
road boundaries
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020213697.1A
Other languages
German (de)
Inventor
Donald Parruca
Prashant Kramadhari
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive GmbH filed Critical Continental Automotive GmbH
Priority to DE102020213697.1A priority Critical patent/DE102020213697A1/en
Publication of DE102020213697A1 publication Critical patent/DE102020213697A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations

Abstract

Verfahren zum Erkennen von Straßengrenzen für ein Fahrzeug (1), bei dem Detektionspunkte umfassende Sensordaten mittels eines ersten Sensors erfasst werden und die Schätzung der Straßengrenzen anhand der Sensordaten des ersten Sensors erfolgt, wobei die Straßengrenzen anhand der Sensordaten ermittelt wird, anhand der Detektionspunkte mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein Polygonnetz erstellt wird, welches zur Schätzung der Straßengrenzen herangezogen wird, wobei den Detektionspunkten Objekte zugeordnet werden und unterschieden wird, ob es sich um ein statisches Objekt oder ein bewegliches Objekt handelt, und ein zweiter Sensor vorgesehen ist, mittels dem statische Objekte detektiert werden, und die statischen Objekte des ersten Sensors und die statischen Objekte des zweiten Sensors zusammengeführt werden, um eine statische Umgebung zu erzeugen, wobei die statische Umgebung zur Schätzung der Straßengrenzen herangezogen wird.

Figure DE102020213697A1_0000
Method for detecting road boundaries for a vehicle (1), in which sensor data comprising detection points are recorded using a first sensor and the road boundaries are estimated using the sensor data from the first sensor, the road boundaries being determined using the sensor data using the detection points of a plurality of polygons are determined, in particular continuously, so that a polygon network is created, which is used to estimate the road boundaries, objects being assigned to the detection points and a distinction being made as to whether it is a static object or a moving object, and a second sensor is provided , by means of which static objects are detected, and the static objects of the first sensor and the static objects of the second sensor are merged in order to generate a static environment, the static environment being used to estimate the road boundaries.
Figure DE102020213697A1_0000

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Erkennen von Straßengrenzen eines Fahrzeugs sowie ein System zur Steuerung eines Fahrzeuges, bei dem Straßengrenzen anhand des erfindungsgemäßen Verfahrens erkannt werden.The present invention relates to a method for recognizing road boundaries of a vehicle and a system for controlling a vehicle, in which road boundaries are recognized using the method according to the invention.

Technologischer HintergrundTechnological background

Moderne Fortbewegungsmittel, wie z. B. Kraftfahrzeuge oder Motorräder, werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche mit Hilfe von Sensorsystemen die Umgebung erfassen, Verkehrssituation erkennen und den Fahrer unterstützen, z. B. durch einen Brems- oder Lenkeingriff oder durch die Ausgabe einer optischen oder akustischen Warnung. Als Sensorsysteme zur Umgebungserfassung werden regelmäßig Radarsensoren, Lidarsensoren, Kamerasensoren oder dergleichen eingesetzt. Aus den durch die Sensoren ermittelten Sensordaten können anschließend Rückschlüsse auf die Umgebung gezogen werden, womit z. B. eine Objekt- und/oder Umgebungsklassifizierung vorgenommen werden kann. Ferner ist die Umgebungserfassung nahezu unverzichtbar im Bereich des (teil-) autonomen Fahrens. Durch die Verarbeitung der Sensor- und Umfelddaten können dann Assistenzfunktionen ausgeführt werden, durch die z. B. Unfälle mit anderen Verkehrsteilnehmern vermieden oder komplizierte Fahrmanöver erleichtert werden, indem die Fahraufgabe bzw. die Fahrzeugführung unterstützt oder sogar komplett übernommen wird (teil- / vollautomatisieret).Modern means of transportation such as B. motor vehicles or motorcycles are increasingly equipped with driver assistance systems, which use sensor systems to detect the environment, recognize the traffic situation and support the driver, z. B. by a braking or steering intervention or by the output of a visual or acoustic warning. Radar sensors, lidar sensors, camera sensors or the like are regularly used as sensor systems for detecting the surroundings. From the sensor data determined by the sensors, conclusions can then be drawn about the environment, e.g. B. an object and / or environment classification can be made. Furthermore, the detection of the surroundings is almost indispensable in the field of (partially) autonomous driving. By processing the sensor and environment data, assistance functions can then be carried out, e.g. B. Accidents with other road users can be avoided or complicated driving maneuvers can be made easier by supporting or even completely taking over the driving task or vehicle guidance (partly / fully automated).

Das Erkennen und Abschätzung von Straßengrenzen bzw. Fahrbahnrändern (oder auch Straßenkanten oder Straßenrändern) ist dabei eine elementare Funktion in modernen Fahrerassistenzsystemen und wird z. B. bei einer automatischen Distanzregelung (ADR) bzw. Adaptive Cruise Control (ACC) oder einem Notbremsassistenten (EBA) eingesetzt, um den Bewegungsweg bzw. die Fahrbahn des jeweiligen Fortbewegungsmittels bzw. Fahrzeugs zu schätzen. Der Straßengrenzverlauf wird dabei in der Regel in Form einer Klothoide ausgedrückt. Als Klothoide wird im modernen Straßenbau z. B. der Übergangsbogen zwischen einer Geraden und einer Krümmung bezeichnet. Der jeweilige Verlauf der Klothoide kann z. B. anhand von statischen Zielen bzw. Objekten geschätzt werden, die sich im Bereich der Straßengrenze befinden und mittels Radarmessungen detektiert wurden. Beispielsweise erfolgt eine derartige Schätzung der Straßengrenze anhand eines Kalman-Filters, der z. B. dazu dient, Fehler in realen Messwerten zu reduzieren und Schätzungen für nicht messbare Systemgrößen zu liefern.The detection and assessment of road boundaries or roadsides (or road edges or roadsides) is an elementary function in modern driver assistance systems and z. B. used in an automatic distance control (ADR) or adaptive cruise control (ACC) or an emergency brake assistant (EBA) to estimate the movement path or the roadway of the respective means of transport or vehicle. The road boundary is usually expressed in the form of a clothoid. As a clothoid is used in modern road construction z. B. denotes the transition curve between a straight line and a curve. The respective course of the clothoids can, for. B. can be estimated based on static targets or objects that are located in the area of the road boundary and were detected by radar measurements. For example, such an estimation of the road boundary is based on a Kalman filter, which z. B. serves to reduce errors in real measured values and to provide estimates for non-measurable system variables.

Die Umgebungserfassung mittels Radarsensoren kommt in modernen Fortbewegungsmitteln häufig zur Anwendung. Diese basiert auf der Aussendung von gebündelten elektromagnetischen Wellen (Radarwellen bzw. Radarsignale) und deren Reflexion, z. B. durch andere Verkehrsteilnehmer, Hindernisse auf der Fahrbahn oder die Randbebauung der Fahrbahn. Die Unterscheidung von Hindernissen bzw. Objekten, wie z. B. anderen Verkehrsteilnehmern, Verkehrsschildern, Straßenmarkierungen, Randbebauungen, Leitplanken und dergleichen ist dabei von großer Bedeutung, um zu ermitteln, wann z. B. ein Brems- oder Lenkeingriff eingeleitet werden soll.Environment detection using radar sensors is often used in modern means of transportation. This is based on the emission of bundled electromagnetic waves (radar waves or radar signals) and their reflection, e.g. B. by other road users, obstacles on the road or the edge of the road. The differentiation of obstacles or objects such. B. other road users, traffic signs, road markings, peripheral buildings, crash barriers and the like is of great importance to determine when z. B. a braking or steering intervention is to be initiated.

Druckschriftlicher Stand der TechnikPrinted state of the art

Aus der US 6 751 547 B2 ist ein Verfahren zur genauen Schätzung der Geometrie des Vorwärtsweges eines Fahrzeugs bekannt, welches auf einem Zwei-Klothoiden-Straßenmodell basiert. Hierbei werden Straßendaten, die von einer Kamera oder einem Radarsystem bereitgestellt werden, gesammelt. Anhand der Straßendaten wird anschließend eine Messungstransferfunktion des Zwei-Klothoiden-Straßenmodells berechnet. Die Klothoidenkoeffizienten für den Nahbereich und den Fernbereich werden gleichzeitig geschätzt und der Vorwärtsweg des Fahrzeugs wird anhand der von dem Zwei-Klothoiden-Modell bereitgestellten Daten geschätzt.From the U.S. 6,751,547 B2 a method for accurately estimating the geometry of a vehicle's forward path is known, which is based on a two-clothoid road model. Here road data provided by a camera or a radar system is collected. A measurement transfer function of the two-clothoid road model is then calculated using the road data. The near and far range clothoid coefficients are estimated simultaneously and the forward path of the vehicle is estimated from the data provided by the two clothoid model.

Ferner offenbart die DE 10 2016 107 705 A1 ein Verfahren, bei dem ein Pfad für ein autonom fahrendes Fahrzeug mittels Delaunay-Triangulation geplant wird, wobei alle Detektionen einschließlich statischer und beweglicher Objekte gesammelt werden. Danach die Triangulationsmethode und nach Dreieckskanten (Dreieckssegmenten) gesucht, die auf der Fahrbahnoberfläche liegen und eine Reihe von Kriterien erfüllen, wobei eines der Kriterien ist, dass jede Kante nicht eine Kante an der Straßenbegrenzung ist. Nach dem Auffinden der möglichen Kanten bzw. der möglichen Pfade werden dann die Scheitelpunkte dieser Kanten extrahiert, an denen der Weg geplant wird. Danach wird eine Funktion der verschiedenen Wegkosten geschätzt, wobei der Pfad mit den geringsten Kosten gewählt wird.Furthermore, the DE 10 2016 107 705 A1 a method in which a path for an autonomously driving vehicle is planned using Delaunay triangulation, collecting all detections including static and moving objects. Then the triangulation method and looking for triangle edges (triangle segments) that lie on the road surface and meet a set of criteria, one of the criteria being that each edge is not a road boundary edge. After finding the possible edges or the possible paths, the vertices of these edges are then extracted, at which the path is planned. A function of the various path costs is then estimated, choosing the path with the lowest cost.

Darüber hinaus sind Verfahren bekannt, bei denen eine Sensorfusion eingesetzt wird, um den Bewegungsweg bzw. die den Bewegungsweg umgebenden Straßengrenzen besser abzuschätzen. Beispielsweise beschreibt die CN102398598B ein Lane Fusion-System von Front- und Rückfahrkamera oder die CN101793528B eine Methode der Fahrspurschätzung mittels Sensorfusion mehrerer Sensoren (Kamera, Radar, Lidar).In addition, methods are known in which sensor fusion is used in order to better estimate the movement path or the road boundaries surrounding the movement path. For example, describes the CN102398598B a Lane Fusion system of front and rear cameras or the CN101793528B a method of lane estimation using sensor fusion of multiple sensors (camera, radar, lidar).

Ferner offenbart die DE 10 2018 215 448 B3 ein gattungsgemäßes Verfahren für ein Fahrzeug gemäß dem Oberbegriff des Anspruchs 1.Furthermore, the DE 10 2018 215 448 B3 a generic method for a vehicle according to the preamble of claim 1.

Von besonderer Bedeutung bei den bekannten Verfahren ist, dass die Straßenschätzung pünktlich und ohne Annahmen verfügbar sein muss, wobei als Annahme die Karten gemeint sind, die zu einem früheren Zeitpunkt erstellt wurden, d. h. werksseitig bevor das Fahrzeug benutzt wird. Die Geometrie dieser Karten kann sich ändern, z. B. aufgrund von Baustellen oder geparkten Fahrzeugen in städtischen Szenarien. Erfasste Straßen und Wege müssen daher rechtzeitig und aktuell verfügbar sein. Dementsprechend sollte die Straßengrenze bzw. Fahrbahnbegrenzung in jedem Betriebszyklus und mit hoher Genauigkeit verfügbar sein, da in der Regel hohe Anforderungen an die Fahrsicherheit gestellt werden. Infolgedessen besteht ein gesteigertes Interesse daran, Verfahren zu entwickelt, welche die Genauigkeit der Bestimmung der Straßengrenze verbessern.Of particular importance in the known methods is that the road estimate must be available on time and without assumptions, where assumptions mean the maps that were created at an earlier point in time, i. H. factory before the vehicle is used. The geometry of these maps can change, e.g. B. due to construction sites or parked vehicles in urban scenarios. Recorded streets and paths must therefore be available in good time and up-to-date. Accordingly, the road boundary or lane boundary should be available in every operating cycle and with a high level of accuracy, since driving safety is generally required to meet high requirements. As a result, there is increased interest in developing methods that improve the accuracy of road boundary determination.

Aufgabe der vorliegenden ErfindungObject of the present invention

Ausgehend vom Stand der Technik besteht die Aufgabe der vorliegenden Erfindung nunmehr darin, ein Verfahren zur Verfügung zu stellen, bei dem das Erkennen von Straßengrenzen in einfacher und kostengünstiger Weise, insbesondere hinsichtlich Genauigkeit und Sicherheit, verbessert wird und wodurch die Nachteile aus dem Stand der Technik überwunden werden.Proceeding from the prior art, the object of the present invention is now to provide a method in which the detection of road boundaries is improved in a simple and cost-effective manner, particularly with regard to accuracy and safety, and which eliminates the disadvantages of the prior art be overcome.

Lösung der Aufgabesolution of the task

Die vorstehende Aufgabe wird durch die gesamte Lehre des Anspruchs 1 sowie des nebengeordneten Anspruchs gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht.The above object is achieved by the entire teaching of claim 1 and the independent claim. Expedient developments of the invention are claimed in the dependent claims.

Bei dem erfindungsgemäßen Verfahren zum Erkennen von Straßengrenzen bzw. zur Schätzung (der Geometrie) des Bewegungsweges eines Fortbewegungsmittels, insbesondere eines Fahrzeuges, werden Sensordaten mittels eines Sensors gesammelt, wobei die Erkennung der Straßengrenzen anhand der Sensordaten erfolgt. Dies erfolgt, indem insbesondere statische Ziele bzw. Objekte entlang des Bewegungsweges anhand der Sensordaten ermittelt und Ortspunkte für die jeweilige Position der Ziele und des Sensors festgelegt werden. Ferner wird ein Polygon anhand der Ortspunkte bestimmt, z. B. indem eine festlegbare Anzahl an Ortspunkten als Eckpunkte des Polygons dienen. Insbesondere kann das Polygon dabei Ortspunkte jeder Straßenseite umfassen. Anschließend wird das Polygon zur Schätzung des Bewegungsweges bzw. zum Erkennen der Straßengrenzen herangezogen. Diese Bestimmung kann z. B. in Form eines Algorithmus implementiert werden, d. h. anhand der Erfindung kann die innere Straßengrenze der Straße basierend auf den Sensormessungen ermittelt bzw. berechnet werden. Dadurch, dass zudem mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein ganzes Polygonnetz bestimmt wird, kann das Polygonnetz zur Schätzung des Bewegungsweges herangezogen werden. Erfindungsgemäß werden den Detektionspunkten des ersten Sensors Objekte zugeordnet und es wird unterschieden, ob es sich um ein statisches Objekt oder ein bewegliches Objekt handelt. Ferner ist ein zweiter Sensor vorgesehen, mittels dem statische Objekte detektiert werden können (und ggf. natürlich auch bewegliche Objekte). Die statischen Objekte des ersten Sensors und die statischen Objekte des zweiten Sensors werden dann zusammengeführt, um eine statische Umgebung zu erzeugen, wobei die statische Umgebung zur Schätzung des Bewegungsweges herangezogen wird. Daraus resultiert der Vorteil, dass eine natürliche Überlagerung von Sensorinformationen bzw. Sensordaten erfolgt. Ferner erfolgt eine Fusion der statischen Umgebung mit dem umgebenden Verkehr (bewegliche Objekte und deren Fahrspuren) für die Schätzung des Bewegungsweges und von anderen taktilen Sensoren. Der Algorithmus ist dabei zwar komplex aber in einfacher und kostengünstiger Weise zu implementieren und in bestehenden Systemen nachzurüsten.In the method according to the invention for detecting road boundaries or for estimating (the geometry of) the movement path of a means of transportation, in particular a vehicle, sensor data are collected by means of a sensor, with the road boundaries being recognized using the sensor data. This is done in that, in particular, static targets or objects along the movement path are determined using the sensor data and location points are defined for the respective position of the targets and the sensor. Furthermore, a polygon is determined based on the location points, z. B. by serving a definable number of location points as corner points of the polygon. In particular, the polygon can include location points on each side of the street. The polygon is then used to estimate the movement path or to identify the road boundaries. This determination can e.g. B. be implemented in the form of an algorithm, i. H. With the aid of the invention, the inner road boundary of the road can be determined or calculated based on the sensor measurements. Because a number of polygons are also determined, in particular continuously, so that an entire polygon network is determined, the polygon network can be used to estimate the movement path. According to the invention, objects are assigned to the detection points of the first sensor and a distinction is made as to whether the object is static or moving. Furthermore, a second sensor is provided, by means of which static objects can be detected (and of course, if necessary, also moving objects). The static objects from the first sensor and the static objects from the second sensor are then merged to create a static environment, which static environment is used to estimate the path of travel. This results in the advantage that there is a natural superimposition of sensor information or sensor data. Furthermore, the static environment is merged with the surrounding traffic (moving objects and their lanes) for the estimation of the movement path and other tactile sensors. Although the algorithm is complex, it can be implemented in a simple and cost-effective manner and retrofitted in existing systems.

Zweckmäßigerweise kann es sich bei dem erfindungsgemäßen Verfahren um ein rein computerimplementiertes Verfahren handeln, wobei der Begriff „computerimplementiertes Verfahren“ im Sinne der Erfindung eine Ablaufplanung oder Vorgehensweise beschreibt, welche anhand eines Rechners verwirklicht bzw. durchgeführt wird. Der Rechner, wie z. B. ein Computer, ein Computernetzwerk, eine Steuereinheit (z. B. ECU bzw. Electronic Control Unit oder ADCU bzw. Assisted & Automated Driving Control Unit) bzw. eine Rechenvorrichtung darin oder eine andere aus dem Stand der Technik bekannte programmierbare Vorrichtung, kann dabei mittels programmierbarer Rechenvorschriften die entsprechenden Daten verarbeiten. In Bezug auf das erfindungsgemäße Verfahren bzw. das erfindungsgemäße System können dabei die wesentlichen Eigenschaften z. B. durch ein neues Programm, neue Programme, einen Algorithmus oder dergleichen bewirkt werden, welches auf der Steuereinheit ausgeführt wird. The method according to the invention can expediently be a purely computer-implemented method, with the term “computer-implemented method” in the sense of the invention describing a flow plan or procedure that is implemented or carried out using a computer. The calculator, such as B. a computer, a computer network, a control unit (z. B. ECU or Electronic Control Unit or ADCU or Assisted & Automated Driving Control Unit) or a computing device therein or any other programmable device known from the prior art, can process the corresponding data using programmable calculation rules. With regard to the method according to the invention and the system according to the invention, the essential properties z. B. be caused by a new program, new programs, an algorithm or the like, which is executed on the control unit.

Gemäß einer bevorzugten Ausgestaltung ist als erster Sensor ein Radarsensor vorgesehen, welcher Radardetektionen erzeugt, die aufgrund der Aussendung von gebündelten elektromagnetischen Wellen (Radarwellen bzw. Radarsignale) und deren Reflexion, z. B. an anderen Verkehrsteilnehmer, Hindernissen auf der Fahrbahn oder der Randbebauung der Fahrbahn entstehen. Jedoch können auch andere aus dem Stand der Technik bekannte Sensoren als erster Sensor vorgesehen sein, wie z. B. Kamera-, Ultraschall- oder Lidarsensoren, deren Detektionspunkte dem Algorithmus zugeführt werden. Ferner ist als zweiter Sensor bevorzugt ein Kamerasensor vorgesehen, mittels dem Straßenränder bzw. Straßen- oder Fahrbahnmarkierungen als statische Objekte erfasst werden können. Jedoch können auch hier andere bekannte Sensoren zum Einsatz kommen.According to a preferred embodiment, a radar sensor is provided as the first sensor, which generates radar detections due to the emission of bundled electromagnetic waves (radar waves or radar signals) and their reflection, z. B. other road users, obstacles on the road or the surrounding buildings the road surface. However, other sensors known from the prior art can also be provided as the first sensor, e.g. B. camera, ultrasonic or lidar sensors, whose detection points are fed to the algorithm. Furthermore, a camera sensor is preferably provided as the second sensor, by means of which road edges or road or lane markings can be detected as static objects. However, other known sensors can also be used here.

Als besonders vorteilhaft hat es sich erwiesen, wenn es sich bei dem Polygon um ein Dreieck handelt, da dieses äußert einfach mit wenig Rechenaufwand berechnet werden kann. In gleicher vorteilhafter Weise kann ein gesamtes Polygonnetz anhand von Dreiecksbildungen erstellt werden. In einfacher Weise kann dies anhand einer Delaunay-Triangulierung bzw. Delaunay-Dreiecksbildung erfolgen, wie bereits in DE 10 2018 215 448 B3 beschrieben. Insbesondere umfasst der Begriff Delaunay-Triangulierung auch andere bekannte Derivate einer Delaunay Triangulation, wie z. B. Constrained Delaunay Triangulation.It has proven to be particularly advantageous if the polygon is a triangle, since this can be calculated extremely easily with little computing effort. In the same advantageous manner, an entire polygon network can be created using triangular formations. This can be done in a simple way using a Delaunay triangulation or Delaunay triangle formation, as already described in DE 10 2018 215 448 B3 described. In particular, the term Delaunay triangulation also includes other known derivatives of a Delaunay triangulation, such as. B. Constrained Delaunay triangulation.

Zweckmäßigerweise können als statische Objekte Leitplanken, Infrastrukturen, parkende Verkehrsteilnehmer, Straßenmarkierungen, Straßenrandbebauungen und dergleichen vorgesehen sein.Crash barriers, infrastructure, parked road users, road markings, roadside buildings and the like can expediently be provided as static objects.

Vorzugsweise wird das Polygonnetz des ersten Sensors mit den statischen Objekten des zweiten Sensors zusammengeführt, bzw. das Polygonnetz dient als Eingabe des ersten Sensors für die Fusion.The polygon network of the first sensor is preferably merged with the static objects of the second sensor, or the polygon network serves as input for the first sensor for the fusion.

Zweckmäßigerweise kann die Straßenmitte zwischen den links und rechts vom Ego-Fahrzeug erkannten Straßengrenzen bestimmt werden. Anhand des Abstandes der Straßengrenzen zur Straßenmitte kann dann bestimmt werden, ob sich die Straßengrenzen aufweiten oder verengen und/oder ob es sich bei den Detektionen oder Objekten um Fehldetektionen (sogenannte „Ausreißer“) handelt oder nicht.The middle of the road can expediently be determined between the road boundaries recognized on the left and right by the ego vehicle. Based on the distance between the road boundaries and the middle of the road, it can then be determined whether the road boundaries widen or narrow and/or whether the detections or objects are incorrect detections (so-called “outliers”) or not.

Ferner umfasst die vorliegende Erfindung ein System zur Steuerung eines Fahrzeuges. Das System zur Steuerung des Ego-Fahrzeuges umfasst eine Steuereinrichtung, zur Steuerung des Fahrzeuges und zur Datenverarbeitung der Sensoren, einen ersten Sensor zur Detektion und Unterscheidung von beweglichen und statischen Objekten und einen zweiten Sensor zur Erfassung statischer Objekte. Die Steuerung des Ego-Fahrzeuges erfolgt durch die Steuereinrichtung, indem die Steuereinrichtung die Straßengrenzen mittels eines Verfahrens nach einem der vorhergehenden Ansprüche ermitteln kann. Zweckmäßigerweise kann die Steuereinrichtung hierzu derart hergerichtet sein, dass diese auf Aktoren des Ego-Fahrzeuges zugreifen kann, um entsprechende Fahr- und Assistenzfunktionen unterstützend und/oder (teil-) autonom auszuführen.Furthermore, the present invention includes a system for controlling a vehicle. The system for controlling the ego vehicle includes a control device for controlling the vehicle and for processing data from the sensors, a first sensor for detecting and distinguishing between moving and static objects and a second sensor for detecting static objects. The ego vehicle is controlled by the control device in that the control device can determine the road boundaries by means of a method according to one of the preceding claims. For this purpose, the control device can expediently be set up in such a way that it can access actuators of the ego vehicle in order to carry out corresponding driving and assistance functions in a supportive and/or (partly) autonomous manner.

Vorzugsweise ist als erster Sensor ein Radarsensor Kamera (oder alternativ auch ein Lidarsensor) und als zweiter Sensor eine Kamera (oder alternativ auch ein Lidarsensor) vorgesehen, wobei der Radarsensor konfiguriert ist, bewegliche und statische Objekte zu detektieren und zu unterscheiden, und die Kamera konfiguriert ist, statische Objekte, insbesondere Straßenränder und/oder Straßenmarkierungen, zu erkennen (Lanemarking- oder Lane-Detection). Dadurch können an der Stelle, an der die Kamera bzw. der zweite Sensor nicht weiter detektieren kann (z. B. aufgrund von fehlender Reichweite), die Messungen des ersten Sensors verwendet werden, z. B. Lidar oder Radar. Dadurch wird zusätzliche Redundanz geschaffen, zudem werden die Messergebnisse verifiziert.A camera radar sensor (or alternatively also a lidar sensor) is preferably provided as the first sensor and a camera (or alternatively also a lidar sensor) is provided as the second sensor, the radar sensor being configured to detect and distinguish between moving and static objects, and the camera being configured is to recognize static objects, in particular roadsides and/or road markings (lanemarking or lane detection). As a result, the measurements of the first sensor can be used at the point at which the camera or the second sensor can no longer detect (e.g. due to insufficient range), e.g. B. lidar or radar. This creates additional redundancy and also verifies the measurement results.

Gemäß einer bevorzugten Ausgestaltung der Erfindung führt die Steuereinrichtung zunächst die vom ersten Sensor erfassten statischen und beweglichen Objekte zusammen (erste Sensorfusion der Sensordaten des ersten Sensors). Danach können dann die vom zweiten Sensor erfassten statischen Objekte mit den statischen Objekten des ersten Sensors zusammenführt werden, um eine statische Umgebung zu erzeugen (zweite Sensorfusion), wobei dann die statische Umgebung und die die beweglichen Objekte zur Ermittlung der Straßengrenzen herangezogen werden.According to a preferred embodiment of the invention, the control device first merges the static and moving objects detected by the first sensor (first sensor fusion of the sensor data from the first sensor). Thereafter, the static objects detected by the second sensor can then be merged with the static objects of the first sensor in order to generate a static environment (second sensor fusion), with the static environment and the moving objects then being used to determine the road boundaries.

Figurenlistecharacter list

Im Folgenden wird die Erfindung anhand von zweckmäßigen Ausführungsbeispielen näher erläutert. Es zeigen:

  • 1 eine vereinfachte schematische Darstellung eines Fahrzeuges, bei dem eine Schätzung der Geometrie eines Bewegungsweges anhand des erfindungsgemäßen Verfahrens erfolgt;
  • 2 eine vereinfachte schematische Darstellung von Radardetektionen in einem Koordinatensystem, wobei der Bewegungsweg anhand einer Triangulierung durchgeführt wurde;
  • 3 eine weitere vereinfachte schematische Darstellung des Koordinatensystems aus 2, mit zusätzlich erfassten Straßenmarkierungen, sowie
  • 4 eine vereinfachte Darstellung der Abhängigkeit zwischen Länge der Straßengrenze und der Position des Fahrzeuges.
In the following, the invention is explained in more detail by means of expedient exemplary embodiments. Show it:
  • 1 a simplified schematic representation of a vehicle in which the geometry of a movement path is estimated using the method according to the invention;
  • 2 a simplified schematic representation of radar detections in a coordinate system, wherein the movement path was carried out using a triangulation;
  • 3 another simplified schematic representation of the coordinate system 2 , with additionally recorded road markings, as well as
  • 4 a simplified representation of the relationship between the length of the road boundary and the position of the vehicle.

Bezugsziffer 1 in 1 bezeichnet ein Ego-Fahrzeug mit einer Steuereinrichtung 2 (ECU, Electronic Control Unit oder ADCU, Assisted and Automated Driving Control Unit), durch die eine Sensorsteuerung, Sensordatenfusion, Umfeld- und/oder Objekterkennung, Trajektorienplanung und/oder Fahrzeugsteuerung insbesondere (teil-) autonom erfolgen kann. Zur Fahrzeugsteuerung kann die Steuereinrichtung 2 auf verschiedenen Aktoren (Lenkung 3, Motor 4, Bremse 5) zugreifen. Ferner weist das Ego-Fahrzeug 1 zur Umfelderfassung verschiedene Sensoren auf (Lidarsensor 6, Kamera 7, Radarsensor 8 sowie Ultraschallsensoren 9a-9d). In vorteilhafter Weise können die Sensordaten zur Umfeld- und Objekterkennung genutzt werden, sodass verschiedene Assistenzfunktionen, wie z. B. Notbremsassistent (EBA, Emergency Brake Assist), Abstandsfolgeregelung (ACC, Automatic Cruise Control), Spurhalteregelung bzw. ein Spurhalteassistent (LKA, Lane Keep Assist) oder dergleichen, realisiert werden können. Ferner kann die Ausführung der Assistenzfunktionen ebenfalls über die Steuereinrichtung 2 oder eine andere, dafür vorgesehene Steuereinheit erfolgen. Die Trajektorienplanung erfolgt dabei anhand einer Schätzung der Geometrie des Bewegungsweges gemäß dem erfindungsgemäßen Verfahren.Reference number 1 in 1 denotes an ego vehicle with a control device 2 (ECU, Electronic Control Unit or ADCU, Assisted and Automa ted Driving Control Unit), through which sensor control, sensor data fusion, environment and/or object recognition, trajectory planning and/or vehicle control can take place in particular (partially) autonomously. To control the vehicle, the control device 2 can access various actuators (steering 3, motor 4, brake 5). Furthermore, the ego vehicle 1 has various sensors for detecting the surroundings (lidar sensor 6, camera 7, radar sensor 8 and ultrasonic sensors 9a-9d). Advantageously, the sensor data can be used for environment and object detection, so that various assistance functions such. B. emergency brake assistant (EBA, Emergency Brake Assist), distance following control (ACC, Automatic Cruise Control), lane departure control or a lane departure warning system (LKA, Lane Keep Assist) or the like can be realized. Furthermore, the assistance functions can also be executed via the control device 2 or another control unit provided for this purpose. The trajectory is planned based on an estimate of the geometry of the movement path according to the method according to the invention.

Bei dem erfindungsgemäßen Verfahren wird die Geometrie des Bewegungsweges geschätzt, indem die innere Straßengrenze auf der Basis von Sensormessungen bestimmt bzw. berechnet wird. Im Folgenden werden Ausführungsbeispiele beschrieben, bei denen als Sensor ein Radarsensor verwendet wird. Ausdrücklich umfasst sind jedoch auch andere aus dem Stand der Technik bekannte Sensoren, wie z. B. Lidar- oder Kamerasensoren. Der Radarsensor liefert dabei in jedem Scanzyklus eine Liste von Objekten bzw. Zielen mit der entsprechenden relativen Position der jeweiligen Ziele und deren Geschwindigkeit im Verhältnis zum Ego-Fahrzeug, welches den Radarsensor umfasst und dem Ortspunkt 0 (x = 0; y = 0) entspricht. Basierend auf der relativen Geschwindigkeit zum Ego-Fahrzeug werden die Objekte dann als statische oder mobile Ziele eingestuft. Für die Abschätzung der Straßengrenze werden vorliegend jedoch nur die statischen Ziele verwendet, denen jeweils ein Ortspunkt zugeordnet werden kann. Die Abschätzung erfolgt dann, indem ein Polygonnetz bzw. eine Delaunay-Triangulation (Delaunay-Dreiecksbildung oder Delaunay-Triangulierung) auf der Grundlage der Position der statischen Ziele bzw. deren Ortspunkte und der des Ego-Fahrzeugs berechnet bzw. eingefügt wird. Das Erstellen des Polygonnetzes bzw. die Delaunay-Triangulierung erfolgt insbesondere durch ein Verfahren bzw. einer Verfahrensausgestaltung gemäß DE 10 2018 215 448 B3 , auf das somit direkt Bezug genommen wird.In the method according to the invention, the geometry of the movement path is estimated by determining or calculating the inner road boundary on the basis of sensor measurements. Exemplary embodiments are described below in which a radar sensor is used as the sensor. However, other sensors known from the prior art, such as e.g. B. lidar or camera sensors. In each scan cycle, the radar sensor provides a list of objects or targets with the corresponding relative position of the respective targets and their speed in relation to the ego vehicle, which includes the radar sensor and corresponds to the location 0 (x=0; y=0). . Based on the relative speed to the ego vehicle, the objects are then classified as static or mobile targets. In the present case, however, only the static targets to which a location point can be assigned are used for estimating the road boundary. The estimation then takes place by calculating or inserting a polygon network or a Delaunay triangulation (Delaunay triangle formation or Delaunay triangulation) on the basis of the position of the static targets or their location points and that of the ego vehicle. The creation of the polygon mesh or the Delaunay triangulation is carried out in particular by a method or a method configuration according to FIG DE 10 2018 215 448 B3 , to which direct reference is made.

2 zeigt ein Verkehrsszenario, bei dem das Ego-Fahrzeug 1 mit einem Radarsensor 8 ausgestattet ist und sich auf einer Fahrbahn bzw. einer Straße mit umliegendem Verkehr befindet, dargestellt in einer Übersicht in welcher die Delaunay Dreiecke (bzw. deren Dreieckkanten), der vom System geschätzte Pfad, gefahrene Pfade anderer Verkehrsteilnehmer aufzeigt sind. Der Radarsensor 8 ist dabei derart ausgestaltet, dass das System zwischen statischen und bewegten Objekten unterscheiden kann. Diese Ausgestaltungsform ist hinreichend bekannt und soll nicht Teil dieser Erfindung sein. Aus den statischen Objekten können dabei Informationen über die Straßengeometrie vor dem Ego-Fahrzeug 1 abgeleitet werden. Derartige Informationen können jedoch auch mehrdeutig sein: Es gibt beispielsweise Szenarien, in denen nur auf statischen Informationen beruhende Korridore gute Kandidaten für die Straßenrandschätzung sind. Um derartige Unklarheiten zu beseitigen, kann zudem die Spureninformationen von bewegten Objekten zur Straßenrandschätzung herangezogen werden. Die Spuren der detektierten bewegten Objekte zeigen dabei die Positionsgeschichte bzw. Bewegungsgeschichte der Objekte bzw. Verkehrsteilnehmer im umliegenden Verkehr zum Ego-Fahrzeug 1 an. In 2 sind die Spuren exemplarisch anhand einer Punkt-Strich-Linie dargestellt. In Verkehrsszenarien, z. B. bei Punkt A, in denen zwei gegensätzliche Werte aufgefunden werden, zeigt die Punktlinie einen Straßenkorridor an, wobei die Spuren (aus derselben Fahrtrichtung) einen Straßenkorridor nach rechts anzeigen. In praktischer Weise kann dann der Stra-ßenkorridor gewählt werden, der aus den Spuren derselben Fahrtrichtung angezeigt wird (d. h. in diesem Fall der rechte Straßenkorridor). Grund dafür ist, dass der Weg, der von den Spuren angegeben wird, bereits eine bestätigte Straße ist, den die anderen Verkehrsteilnehmer aus der Umgebung bereits durchgefahren haben, wie deren gefahrene Pfade belegen. Der Pfad, der von der Punktlinie vorgegeben wird, ist dabei hypothetisch und basiert lediglich auf Annahmen. Um diese Annahmen nun zu verifizieren, wird ein zweistufiger Fusionsprozess durchgeführt. 2 shows a traffic scenario in which the ego vehicle 1 is equipped with a radar sensor 8 and is on a roadway or a road with surrounding traffic, shown in an overview in which the Delaunay triangles (or their triangle edges), the system estimated path, driven paths of other road users are shown. The radar sensor 8 is designed in such a way that the system can distinguish between static and moving objects. This embodiment is well known and is not intended to form part of this invention. Information about the road geometry in front of the ego vehicle 1 can be derived from the static objects. However, such information can also be ambiguous: for example, there are scenarios where only corridors based on static information are good candidates for roadside estimation. In order to eliminate such ambiguities, the lane information from moving objects can also be used to estimate the roadside. The traces of the detected moving objects indicate the position history or movement history of the objects or road users in the traffic surrounding the ego vehicle 1 . In 2 the traces are shown as an example using a dot-dash line. In traffic scenarios, e.g. B. at point A, where two opposite values are found, the dotted line indicates a road corridor, and the lanes (from the same direction of travel) indicate a road corridor to the right. Conveniently, the road corridor can then be selected, which is displayed from the lanes in the same direction of travel (ie the right road corridor in this case). This is because the path indicated by the lanes is already a confirmed road that other road users in the area have already traveled through, as evidenced by their traveled paths. The path given by the dotted line is hypothetical and based only on assumptions. In order to verify these assumptions, a two-stage fusion process is carried out.

Der erste Schritt im Fusionsprozess besteht darin, die Radarinformationen mit sich selbst zu fusionieren, d. h. die umliegenden Verkehrsinformationen (andere Verkehrsteilnehmer bzw. umgebende bewegliche Objekte) werden mit den statischen Informationen (statische Objekte, wie Straßenrandbebauung, Leitplanken und dergleichen) fusioniert bzw. zusammengebracht oder verschmolzen. Das Ergebnis dieser Verschmelzung ist ein Satz von Straßengrenzen, an denen sowohl die Suchlinien als auch die Spuren aus dem umliegenden Verkehr die gleichen Straßengrenzen schneiden. Für den Fall, dass es zu widersprüchlichen Situationen kommt, gelten dann nur vom umliegenden Verkehr derselben Verkehrsrichtung abgeschnittenen Kanten als Straßengrenzen.The first step in the fusion process is to fuse the radar information to itself, i. H. the surrounding traffic information (other road users or surrounding moving objects) is merged or brought together or fused with the static information (static objects such as roadside buildings, crash barriers and the like). The result of this merging is a set of road boundaries where both the search lines and the traces from the surrounding traffic intersect the same road boundaries. In the event that conflicting situations arise, only edges cut off from surrounding traffic in the same traffic direction are considered road boundaries.

Nachdem die Straßengrenzen identifiziert wurden, können diese Daten noch einmal analysiert werden, indem das Ergebnis der Fusion der Radardaten zwischen statischer und dynamischer Umgebung näher betrachtet wird (dargestellt anhand der Linien links und rechts des Ego-Fahrzeugs 1 in 3). Entlang der Straßengrenzen zwischen diesen beiden Linien können Ausreißer erkannt werden, welche z. B. dazu führen können, dass Straßenabfahrten oder die Straßenverengungen erkannt werden.After the road boundaries have been identified, this data can be analyzed again by taking a closer look at the result of the fusion of the radar data between the static and dynamic environment (represented by the lines to the left and right of the ego vehicle 1 in 3 ). Outliers can be detected along the road borders between these two lines, which e.g. B. can lead to the fact that exits or narrowing of the streets are recognized.

Für eine derartige Ausreißererkennung die Längsposition der Mitte der erkannten Straßengrenzen (Straßenmitte) in Bezug auf Ihre Länge festgelegt werden, wie in 4 dargestellt. Bei der Analyse der Spitzen bzw. Peaks einer solchen Darstellung kann festgestellt werden, dass die Breite der Straße bzw. der Straßengrenze bei Punkt A viel größer ist als die Breite der übrigen. Durch diese Abweichung kann dieser Punkt A als Ausreißer klassifiziert werden, der somit herausgefiltert werden kann. Eine weitere Information, die im Beispiel herangezogen werden könnte, ist eine Spurverengung bei etwa vor und nach Punkt A. Wenn die Länge der Straßengrenzen vor und nach Punkt A analysiert werden, kann eine Abnahme der durchschnittlichen Breite der Straßenoberfläche zwischen den Straßengrenzen feststellt werden. Diese Abnahme kann dann als Straßenverengung interpretiert werden. Das Gegenteil würde in gleicher Weise auf eine Straßenerweiterung rückschließen lassen. In entsprechender Weise kann diese Methode auch zur Erkennung von Spureingängen (z. B. Straßenauffahrten und Straßenabfahrten bei Autobahnen) angewendet werden.For such outlier detection, the longitudinal position of the center of the detected road boundaries (road center) with respect to their length can be specified as in 4 shown. Analyzing the peaks of such a plot, it can be seen that the width of the street or street boundary at point A is much greater than the width of the rest. Due to this deviation, this point A can be classified as an outlier, which can thus be filtered out. Another piece of information that could be used in the example is a lane narrowing approximately before and after point A. If the lengths of road boundaries before and after point A are analyzed, a decrease in the average width of the road surface between road boundaries can be observed. This decrease can then be interpreted as a road narrowing. In the same way, the opposite would suggest a road expansion. Correspondingly, this method can also be used to recognize lane entrances (e.g. road entrances and road exits on freeways).

Ferner verfügt das Ego-Fahrzeug 1 über zusätzliche Sensoren, die zur Erkennung von Spurmarkierungen (z. B. Lidarsensor 6 oder Kamera 7) genutzt werden können. Die erkannten Spurmarkierungen bzw. Straßenmarkierungen dieser Sensoren können nun den zuvor fusionierten Informationen überlagert bzw. hinzugefügt werden, wie in 3 gezeigt. In diesem Fall erfolgt ein zweiter Fusionsschritt, bei dem die mittels Radardaten erkannten Straßengrenzen mit den erkannten Spurmarkierungen fusioniert werden. Die eigene Fahrspur des Ego-Fahrzeugs 1 ist hierbei als Linienpaar von links und rechts des Ego-Fahrzeugs 1 auszuwählen, die dem Ego-Fahrzeug 1 am nächsten liegen. Wie in 3 gezeigt kann dabei die Ego-Spur mithilfe der Spurerkennungsinformationen bis zu Punkt A weit nach vorne geschätzt werden, während die Fahrbahnfortführung ab Punkt A nur anhand der Radardaten festgelegt werden kann.Furthermore, the ego vehicle 1 has additional sensors that can be used to detect lane markings (e.g. lidar sensor 6 or camera 7). The lane markings or road markings detected by these sensors can now be overlaid or added to the previously merged information, as in 3 shown. In this case, a second fusion step takes place, in which the road boundaries identified by means of radar data are fused with the identified lane markings. The own lane of the ego vehicle 1 is to be selected here as a pair of lines from the left and right of the ego vehicle 1 that are closest to the ego vehicle 1 . As in 3 shown, the ego lane can be estimated using the lane detection information far ahead up to point A, while the continuation of the lane from point A can only be determined using the radar data.

Das erfindungsgemäße Verfahren kann neben der Abschätzung des freien Raumes, der Erkennung von Straßenkreuzungen und -gabeln, der Erkennung von Straßenverbreiterungen, Straßenverengungen oder Straßenzugängen auch im Bereich der Robotik eingesetzt werden, z. B. bei der Trajektorienplanung eines Roboters.In addition to estimating the free space, detecting road crossings and forks, detecting road widening, road narrowing or road access, the method according to the invention can also be used in the field of robotics, e.g. B. in the trajectory planning of a robot.

Zusammenfassend kann das erfindungsgemäße Verfahren anhand folgender Schritte durchgeführt werden: Zunächst erfolgt die Fusion von statischer Umgebung bzw. statischen Objekten und beweglichen Objekten (z. B. auch die Pfade der umgebenden Verkehrsteilnehmer) mittels eines Triangulationsverfahrens. Danach wird die statische Umgebung dargestellt, indem Sensorinformationen anderer Sensoren (Lidarsensor 6 oder Kamera 7) und Radarinformationen fusioniert werden, wobei die Triangulation als Eingabe (Input) genutzt wird, d. h. die Fusion der statischen Umgebung mit Objekten bzw. den Straßenmarkierungen anderer Sensoren. Abschließend können dann unstetige Strukturen durch die Analyse der Straßengrenzen herausgefiltert werden, um z. B. Parkbuchten, Ausfahrten, Baustellen und dergleichen zu erkennen. Ferner finden die aus dem Stand der Technik bekannten Fusionsalgorithmen zweier Sensoren in der Regel in einer modellbasierten Umgebung statt, d. h. unterschiedliche Softwaremodule (z. B. von Kamera und/oder Radar) schätzen jeweils Klothoidenfunktionen und geben diese an eine zentrale Recheneinheit weiter, die dann die Modelle z. B. als Polynome vergleicht und sie dann fusioniert. Der Vorteil hierbei ist zwar, dass nur die Koeffizienten der Polynome verglichen werden und dadurch Rechenkapazität gespart wird, allerdings führt jede Sensoreinheit eine eigene Mittelung der Fahrspur durch, was zu Fehlern führen kann. Um derartige Fehler zu vermeiden, wird erfindungsgemäß eine Art Tiefenfusion durchgeführt, d. h. die Daten werden verarbeitet bevor eigene Modelle/Fahrspurmittelungen erzeugt werden.In summary, the method according to the invention can be carried out using the following steps: First, the fusion of the static environment or static objects and moving objects (eg also the paths of the surrounding road users) takes place using a triangulation method. After that, the static environment is represented by fusing sensor information from other sensors (lidar sensor 6 or camera 7) and radar information, using triangulation as an input, i. H. the fusion of the static environment with objects or road markings from other sensors. Finally, discontinuous structures can be filtered out by analyzing the road boundaries, e.g. B. parking bays, exits, construction sites and the like. Furthermore, the fusion algorithms of two sensors known from the prior art usually take place in a model-based environment, i. H. different software modules (e.g. from camera and/or radar) each estimate clothoid functions and pass them on to a central processing unit, which then uses the models, e.g. B. compares as polynomials and then merges them. Although the advantage here is that only the coefficients of the polynomials are compared, thereby saving computing capacity, each sensor unit carries out its own averaging of the lane, which can lead to errors. In order to avoid such errors, a type of deep fusion is carried out according to the invention, i. H. the data is processed before own models/lane averaging are generated.

BezugszeichenlisteReference List

11
Ego-Fahrzeugego vehicle
22
Steuereinrichtungcontrol device
33
Lenkungsteering
44
Motorengine
55
Bremsebrake
66
Lidarsensorlidar sensor
77
Kameracamera
88th
Radarsensorradar sensor
9a-9d9a-9d
Ultraschallsensorultrasonic sensor

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • US 6751547 B2 [0005]US 6751547 B2 [0005]
  • DE 102016107705 A1 [0006]DE 102016107705 A1 [0006]
  • CN 102398598 B [0007]CN 102398598B [0007]
  • CN 101793528 B [0007]CN 101793528B [0007]
  • DE 102018215448 B3 [0008, 0015, 0024]DE 102018215448 B3 [0008, 0015, 0024]

Claims (10)

Verfahren zum Erkennen von Straßengrenzen für ein Fahrzeug (1), bei dem Detektionspunkte umfassende Sensordaten mittels eines ersten Sensors erfasst werden und die Schätzung der Straßengrenzen anhand der Sensordaten des ersten Sensors erfolgt, wobei die Straßengrenzen anhand der Sensordaten ermittelt wird, anhand der Detektionspunkte mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein Polygonnetz erstellt wird, welches zur Schätzung der Straßengrenzen herangezogen wird, dadurch gekennzeichnet, dass den Detektionspunkten Objekte zugeordnet werden und unterschieden wird, ob es sich um ein statisches Objekt oder ein bewegliches Objekt handelt, und ein zweiter Sensor vorgesehen ist, mittels dem statische Objekte detektiert werden, und die statischen Objekte des ersten Sensors und die statischen Objekte des zweiten Sensors zusammengeführt werden, um eine statische Umgebung zu erzeugen, wobei die statische Umgebung zur Schätzung der Straßengrenzen herangezogen wird.Method for detecting road boundaries for a vehicle (1), in which sensor data comprising detection points are recorded using a first sensor and the road boundaries are estimated using the sensor data from the first sensor, the road boundaries being determined using the sensor data using the detection points of a plurality of polygons are determined, in particular continuously, so that a polygon network is created, which is used to estimate the road boundaries, characterized in that the detection points are assigned objects and a distinction is made as to whether it is a static object or a moving object, and a second Sensor is provided by means of which static objects are detected, and the static objects of the first sensor and the static objects of the second sensor are merged to generate a static environment, the static environment is used to estimate the road boundaries. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als erster und/oder zweiter Sensor mindestens ein Sensor aus folgenden Sensoren vorgesehen ist: - Lidarsensor (6), - Kamera (7), - Radarsensor (8), - Ultraschallsensor (9a-9d).procedure after claim 1 , characterized in that at least one sensor from the following sensors is provided as the first and/or second sensor: - lidar sensor (6), - camera (7), - radar sensor (8), - ultrasonic sensor (9a-9d). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass es sich bei dem Polygon um ein Dreieck bzw. den Polygonen um Dreiecke handelt.procedure after claim 1 or 2 , characterized in that the polygon is a triangle or the polygons are triangles. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das Polygonnetz anhand einer Delaunay-Triangulierung bestimmt wird.procedure after claim 3 , characterized in that the polygon mesh is determined using a Delaunay triangulation. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als statische Objekte Leitplanken, Infrastrukturen, parkende Verkehrsteilnehmer, Straßenmarkierungen, Straßenrandbebauungen und dergleichen vorgesehen sind.Method according to at least one of the preceding claims, characterized in that crash barriers, infrastructure, parked road users, road markings, roadside buildings and the like are provided as static objects. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Polygonnetz des ersten Sensors mit den statischen Objekten des zweiten Sensors zusammengeführt wird.Method according to at least one of the preceding claims, characterized in that the polygon network of the first sensor is merged with the static objects of the second sensor. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Straßenmitte zwischen den links und rechts vom Ego-Fahrzeug (1) erkannten Straßengrenzen bestimmt wird und anhand des Abstandes der Straßengrenzen zur Straßenmitte bestimmt wird, ob sich die Straßengrenzen aufweiten oder verengen und/oder ob es sich bei den Detektionen oder Objekten um Fehldetektionen handelt.Method according to at least one of the preceding claims, characterized in that the middle of the road between the road boundaries recognized on the left and right by the ego vehicle (1) is determined and, based on the distance between the road boundaries and the middle of the road, it is determined whether the road boundaries widen or narrow and/or or whether the detections or objects are false detections. System zur Steuerung eines Ego-Fahrzeuges (1), mit einer Steuereinrichtung (2), einem ersten Sensor zur Detektion und Unterscheidung von beweglichen und statischen Objekten, einem zweiten Sensor zur Erfassung statischer Objekte, wobei die Steuerung eines Ego-Fahrzeuges (1) durch die Steuereinrichtung (2) erfolgt, indem die Steuereinrichtung (2) die Straßengrenzen mittels eines Verfahrens nach einem der vorhergehenden Ansprüche ermittelt.System for controlling an ego vehicle (1), with a control device (2), a first sensor for detecting and distinguishing between moving and static objects, a second sensor for detecting static objects, wherein an ego vehicle (1) is controlled by the control device (2) in that the control device (2) determines the road boundaries using a method according to one of the preceding claims. System nach Anspruch 8, dadurch gekennzeichnet, dass als erster Sensor ein Radarsensor (8) und als zweiter Sensor eine Kamera (7) vorgesehen sind, wobei der Radarsensor (8) konfiguriert ist, bewegliche und statische Objekte zu detektieren und zu unterscheiden, und die Kamera (7) konfiguriert ist, statische Objekte, insbesondere Straßenränder und/oder Straßenmarkierungen, zu erkennen.system after claim 8 , characterized in that a radar sensor (8) is provided as the first sensor and a camera (7) is provided as the second sensor, the radar sensor (8) being configured to detect and distinguish moving and static objects, and the camera (7) is configured to recognize static objects, in particular roadsides and/or road markings. System nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Steuereinrichtung (2) zunächst die vom ersten Sensor erfassten statischen und beweglichen Objekte zusammengeführt, dann die vom zweiten Sensor erfassten statischen Objekte mit den statischen Objekten des ersten Sensors zusammenführt, um eine statische Umgebung zu erzeugen, und dann die statische Umgebung und die die beweglichen Objekte zur Ermittlung der Straßengrenzen herangezogen werden.system after claim 8 or 9 , characterized in that the control device (2) first merges the static and moving objects detected by the first sensor, then merges the static objects detected by the second sensor with the static objects of the first sensor to generate a static environment, and then the static Environment and the moving objects are used to determine the road boundaries.
DE102020213697.1A 2020-10-30 2020-10-30 Method for detecting road boundaries and a system for controlling a vehicle Pending DE102020213697A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020213697.1A DE102020213697A1 (en) 2020-10-30 2020-10-30 Method for detecting road boundaries and a system for controlling a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020213697.1A DE102020213697A1 (en) 2020-10-30 2020-10-30 Method for detecting road boundaries and a system for controlling a vehicle

Publications (1)

Publication Number Publication Date
DE102020213697A1 true DE102020213697A1 (en) 2022-05-05

Family

ID=81184550

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020213697.1A Pending DE102020213697A1 (en) 2020-10-30 2020-10-30 Method for detecting road boundaries and a system for controlling a vehicle

Country Status (1)

Country Link
DE (1) DE102020213697A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6751547B2 (en) 2001-11-26 2004-06-15 Hrl Laboratories, Llc Method and apparatus for estimation of forward path geometry of a vehicle based on a two-clothoid road model
DE102008038731A1 (en) 2008-08-12 2010-02-18 Continental Automotive Gmbh Method for detecting extended static objects
CN101793528A (en) 2009-01-26 2010-08-04 通用汽车环球科技运作公司 Use sensor fusion to estimate the system and method in path, track
CN102398598A (en) 2010-07-20 2012-04-04 通用汽车环球科技运作有限责任公司 Lane fusion system using forward-view and rear-view cameras
DE102013201796A1 (en) 2013-02-05 2014-08-07 Robert Bosch Gmbh Method for providing a driving corridor for a vehicle and driver assistance system
DE102016107705A1 (en) 2015-04-27 2016-10-27 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Reactive path planning for autonomous driving
DE102018215448B3 (en) 2018-09-11 2019-10-31 Conti Temic Microelectronic Gmbh Method of estimating the geometry of a path of movement

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6751547B2 (en) 2001-11-26 2004-06-15 Hrl Laboratories, Llc Method and apparatus for estimation of forward path geometry of a vehicle based on a two-clothoid road model
DE102008038731A1 (en) 2008-08-12 2010-02-18 Continental Automotive Gmbh Method for detecting extended static objects
CN101793528A (en) 2009-01-26 2010-08-04 通用汽车环球科技运作公司 Use sensor fusion to estimate the system and method in path, track
CN102398598A (en) 2010-07-20 2012-04-04 通用汽车环球科技运作有限责任公司 Lane fusion system using forward-view and rear-view cameras
DE102013201796A1 (en) 2013-02-05 2014-08-07 Robert Bosch Gmbh Method for providing a driving corridor for a vehicle and driver assistance system
DE102016107705A1 (en) 2015-04-27 2016-10-27 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Reactive path planning for autonomous driving
DE102018215448B3 (en) 2018-09-11 2019-10-31 Conti Temic Microelectronic Gmbh Method of estimating the geometry of a path of movement

Similar Documents

Publication Publication Date Title
EP2561419B1 (en) Method for determining the lane course for a vehicle
DE102010006828B4 (en) Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle
EP1844373B1 (en) Method for predicting the course in driver assistance systems for motor vehicles
EP1684142B1 (en) Method of predicting possible future course and distance control in driver assisting system
EP3298541A1 (en) Method for estimating traffic lanes
EP3152092B1 (en) Method for operating a driver assistance system for automatically guiding a motor vehicle, and paired motor vehicle
DE112016000422B4 (en) SPEED CONTROL DEVICE AND SPEED CONTROL METHOD FOR VEHICLES
EP2888604B1 (en) Method for determining the course of a lane for a vehicle
DE102016210254A1 (en) VEHICLE VENTILATION AT CROSSINGS ON THE BASIS OF VISUAL VENTILATION POINTS, STATIONARY OBJECTS AND BY GPS
DE102018215448B3 (en) Method of estimating the geometry of a path of movement
EP2963631B1 (en) Method for determining a parking space from a number of measuring points
WO2020229002A1 (en) Method and device for multi-sensor data fusion for automated and autonomous vehicles
WO2018019454A1 (en) Method and device for determining a roadway model for the surroundings of a vehicle
DE102020203756A1 (en) MOTORWAY EXIT DETECTION AND LINE REFLECTION FOR VEHICLE TRACTION DETERMINATION
WO2020177958A1 (en) Method and control unit for detecting a vehicle moving in or out
DE102017118651A1 (en) Method and system for collision avoidance of a vehicle
EP3867601A1 (en) Method and system for determining a model of the environment of a vehicle
DE102012007127A1 (en) Method for determining movement path for vehicle, involves determining road boundary, and determining multiple possible movement paths for vehicle, where movement path is selected from multiple possible movement paths
WO2020002100A1 (en) Method for operating an at least partially automated vehicle
DE102016211730A1 (en) Method for predicting a lane course of a roadway
DE102008021380B4 (en) Method and device for predicting a course of a roadway and driver assistance system
DE102020105192B4 (en) Method for detecting moving objects in a vehicle environment and motor vehicle
EP2602744A1 (en) Method for detecting and tracking lane markings
DE102021207609A1 (en) Procedure for marking a movement path
DE102020213697A1 (en) Method for detecting road boundaries and a system for controlling a vehicle

Legal Events

Date Code Title Description
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE