DE102020213697A1 - Method for detecting road boundaries and a system for controlling a vehicle - Google Patents
Method for detecting road boundaries and a system for controlling a vehicle Download PDFInfo
- Publication number
- DE102020213697A1 DE102020213697A1 DE102020213697.1A DE102020213697A DE102020213697A1 DE 102020213697 A1 DE102020213697 A1 DE 102020213697A1 DE 102020213697 A DE102020213697 A DE 102020213697A DE 102020213697 A1 DE102020213697 A1 DE 102020213697A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- road
- static
- objects
- road boundaries
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/50—Barriers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/35—Data fusion
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
Abstract
Verfahren zum Erkennen von Straßengrenzen für ein Fahrzeug (1), bei dem Detektionspunkte umfassende Sensordaten mittels eines ersten Sensors erfasst werden und die Schätzung der Straßengrenzen anhand der Sensordaten des ersten Sensors erfolgt, wobei die Straßengrenzen anhand der Sensordaten ermittelt wird, anhand der Detektionspunkte mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein Polygonnetz erstellt wird, welches zur Schätzung der Straßengrenzen herangezogen wird, wobei den Detektionspunkten Objekte zugeordnet werden und unterschieden wird, ob es sich um ein statisches Objekt oder ein bewegliches Objekt handelt, und ein zweiter Sensor vorgesehen ist, mittels dem statische Objekte detektiert werden, und die statischen Objekte des ersten Sensors und die statischen Objekte des zweiten Sensors zusammengeführt werden, um eine statische Umgebung zu erzeugen, wobei die statische Umgebung zur Schätzung der Straßengrenzen herangezogen wird. Method for detecting road boundaries for a vehicle (1), in which sensor data comprising detection points are recorded using a first sensor and the road boundaries are estimated using the sensor data from the first sensor, the road boundaries being determined using the sensor data using the detection points of a plurality of polygons are determined, in particular continuously, so that a polygon network is created, which is used to estimate the road boundaries, objects being assigned to the detection points and a distinction being made as to whether it is a static object or a moving object, and a second sensor is provided , by means of which static objects are detected, and the static objects of the first sensor and the static objects of the second sensor are merged in order to generate a static environment, the static environment being used to estimate the road boundaries.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Erkennen von Straßengrenzen eines Fahrzeugs sowie ein System zur Steuerung eines Fahrzeuges, bei dem Straßengrenzen anhand des erfindungsgemäßen Verfahrens erkannt werden.The present invention relates to a method for recognizing road boundaries of a vehicle and a system for controlling a vehicle, in which road boundaries are recognized using the method according to the invention.
Technologischer HintergrundTechnological background
Moderne Fortbewegungsmittel, wie z. B. Kraftfahrzeuge oder Motorräder, werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche mit Hilfe von Sensorsystemen die Umgebung erfassen, Verkehrssituation erkennen und den Fahrer unterstützen, z. B. durch einen Brems- oder Lenkeingriff oder durch die Ausgabe einer optischen oder akustischen Warnung. Als Sensorsysteme zur Umgebungserfassung werden regelmäßig Radarsensoren, Lidarsensoren, Kamerasensoren oder dergleichen eingesetzt. Aus den durch die Sensoren ermittelten Sensordaten können anschließend Rückschlüsse auf die Umgebung gezogen werden, womit z. B. eine Objekt- und/oder Umgebungsklassifizierung vorgenommen werden kann. Ferner ist die Umgebungserfassung nahezu unverzichtbar im Bereich des (teil-) autonomen Fahrens. Durch die Verarbeitung der Sensor- und Umfelddaten können dann Assistenzfunktionen ausgeführt werden, durch die z. B. Unfälle mit anderen Verkehrsteilnehmern vermieden oder komplizierte Fahrmanöver erleichtert werden, indem die Fahraufgabe bzw. die Fahrzeugführung unterstützt oder sogar komplett übernommen wird (teil- / vollautomatisieret).Modern means of transportation such as B. motor vehicles or motorcycles are increasingly equipped with driver assistance systems, which use sensor systems to detect the environment, recognize the traffic situation and support the driver, z. B. by a braking or steering intervention or by the output of a visual or acoustic warning. Radar sensors, lidar sensors, camera sensors or the like are regularly used as sensor systems for detecting the surroundings. From the sensor data determined by the sensors, conclusions can then be drawn about the environment, e.g. B. an object and / or environment classification can be made. Furthermore, the detection of the surroundings is almost indispensable in the field of (partially) autonomous driving. By processing the sensor and environment data, assistance functions can then be carried out, e.g. B. Accidents with other road users can be avoided or complicated driving maneuvers can be made easier by supporting or even completely taking over the driving task or vehicle guidance (partly / fully automated).
Das Erkennen und Abschätzung von Straßengrenzen bzw. Fahrbahnrändern (oder auch Straßenkanten oder Straßenrändern) ist dabei eine elementare Funktion in modernen Fahrerassistenzsystemen und wird z. B. bei einer automatischen Distanzregelung (ADR) bzw. Adaptive Cruise Control (ACC) oder einem Notbremsassistenten (EBA) eingesetzt, um den Bewegungsweg bzw. die Fahrbahn des jeweiligen Fortbewegungsmittels bzw. Fahrzeugs zu schätzen. Der Straßengrenzverlauf wird dabei in der Regel in Form einer Klothoide ausgedrückt. Als Klothoide wird im modernen Straßenbau z. B. der Übergangsbogen zwischen einer Geraden und einer Krümmung bezeichnet. Der jeweilige Verlauf der Klothoide kann z. B. anhand von statischen Zielen bzw. Objekten geschätzt werden, die sich im Bereich der Straßengrenze befinden und mittels Radarmessungen detektiert wurden. Beispielsweise erfolgt eine derartige Schätzung der Straßengrenze anhand eines Kalman-Filters, der z. B. dazu dient, Fehler in realen Messwerten zu reduzieren und Schätzungen für nicht messbare Systemgrößen zu liefern.The detection and assessment of road boundaries or roadsides (or road edges or roadsides) is an elementary function in modern driver assistance systems and z. B. used in an automatic distance control (ADR) or adaptive cruise control (ACC) or an emergency brake assistant (EBA) to estimate the movement path or the roadway of the respective means of transport or vehicle. The road boundary is usually expressed in the form of a clothoid. As a clothoid is used in modern road construction z. B. denotes the transition curve between a straight line and a curve. The respective course of the clothoids can, for. B. can be estimated based on static targets or objects that are located in the area of the road boundary and were detected by radar measurements. For example, such an estimation of the road boundary is based on a Kalman filter, which z. B. serves to reduce errors in real measured values and to provide estimates for non-measurable system variables.
Die Umgebungserfassung mittels Radarsensoren kommt in modernen Fortbewegungsmitteln häufig zur Anwendung. Diese basiert auf der Aussendung von gebündelten elektromagnetischen Wellen (Radarwellen bzw. Radarsignale) und deren Reflexion, z. B. durch andere Verkehrsteilnehmer, Hindernisse auf der Fahrbahn oder die Randbebauung der Fahrbahn. Die Unterscheidung von Hindernissen bzw. Objekten, wie z. B. anderen Verkehrsteilnehmern, Verkehrsschildern, Straßenmarkierungen, Randbebauungen, Leitplanken und dergleichen ist dabei von großer Bedeutung, um zu ermitteln, wann z. B. ein Brems- oder Lenkeingriff eingeleitet werden soll.Environment detection using radar sensors is often used in modern means of transportation. This is based on the emission of bundled electromagnetic waves (radar waves or radar signals) and their reflection, e.g. B. by other road users, obstacles on the road or the edge of the road. The differentiation of obstacles or objects such. B. other road users, traffic signs, road markings, peripheral buildings, crash barriers and the like is of great importance to determine when z. B. a braking or steering intervention is to be initiated.
Druckschriftlicher Stand der TechnikPrinted state of the art
Aus der
Ferner offenbart die
Darüber hinaus sind Verfahren bekannt, bei denen eine Sensorfusion eingesetzt wird, um den Bewegungsweg bzw. die den Bewegungsweg umgebenden Straßengrenzen besser abzuschätzen. Beispielsweise beschreibt die
Ferner offenbart die
Von besonderer Bedeutung bei den bekannten Verfahren ist, dass die Straßenschätzung pünktlich und ohne Annahmen verfügbar sein muss, wobei als Annahme die Karten gemeint sind, die zu einem früheren Zeitpunkt erstellt wurden, d. h. werksseitig bevor das Fahrzeug benutzt wird. Die Geometrie dieser Karten kann sich ändern, z. B. aufgrund von Baustellen oder geparkten Fahrzeugen in städtischen Szenarien. Erfasste Straßen und Wege müssen daher rechtzeitig und aktuell verfügbar sein. Dementsprechend sollte die Straßengrenze bzw. Fahrbahnbegrenzung in jedem Betriebszyklus und mit hoher Genauigkeit verfügbar sein, da in der Regel hohe Anforderungen an die Fahrsicherheit gestellt werden. Infolgedessen besteht ein gesteigertes Interesse daran, Verfahren zu entwickelt, welche die Genauigkeit der Bestimmung der Straßengrenze verbessern.Of particular importance in the known methods is that the road estimate must be available on time and without assumptions, where assumptions mean the maps that were created at an earlier point in time, i. H. factory before the vehicle is used. The geometry of these maps can change, e.g. B. due to construction sites or parked vehicles in urban scenarios. Recorded streets and paths must therefore be available in good time and up-to-date. Accordingly, the road boundary or lane boundary should be available in every operating cycle and with a high level of accuracy, since driving safety is generally required to meet high requirements. As a result, there is increased interest in developing methods that improve the accuracy of road boundary determination.
Aufgabe der vorliegenden ErfindungObject of the present invention
Ausgehend vom Stand der Technik besteht die Aufgabe der vorliegenden Erfindung nunmehr darin, ein Verfahren zur Verfügung zu stellen, bei dem das Erkennen von Straßengrenzen in einfacher und kostengünstiger Weise, insbesondere hinsichtlich Genauigkeit und Sicherheit, verbessert wird und wodurch die Nachteile aus dem Stand der Technik überwunden werden.Proceeding from the prior art, the object of the present invention is now to provide a method in which the detection of road boundaries is improved in a simple and cost-effective manner, particularly with regard to accuracy and safety, and which eliminates the disadvantages of the prior art be overcome.
Lösung der Aufgabesolution of the task
Die vorstehende Aufgabe wird durch die gesamte Lehre des Anspruchs 1 sowie des nebengeordneten Anspruchs gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht.The above object is achieved by the entire teaching of claim 1 and the independent claim. Expedient developments of the invention are claimed in the dependent claims.
Bei dem erfindungsgemäßen Verfahren zum Erkennen von Straßengrenzen bzw. zur Schätzung (der Geometrie) des Bewegungsweges eines Fortbewegungsmittels, insbesondere eines Fahrzeuges, werden Sensordaten mittels eines Sensors gesammelt, wobei die Erkennung der Straßengrenzen anhand der Sensordaten erfolgt. Dies erfolgt, indem insbesondere statische Ziele bzw. Objekte entlang des Bewegungsweges anhand der Sensordaten ermittelt und Ortspunkte für die jeweilige Position der Ziele und des Sensors festgelegt werden. Ferner wird ein Polygon anhand der Ortspunkte bestimmt, z. B. indem eine festlegbare Anzahl an Ortspunkten als Eckpunkte des Polygons dienen. Insbesondere kann das Polygon dabei Ortspunkte jeder Straßenseite umfassen. Anschließend wird das Polygon zur Schätzung des Bewegungsweges bzw. zum Erkennen der Straßengrenzen herangezogen. Diese Bestimmung kann z. B. in Form eines Algorithmus implementiert werden, d. h. anhand der Erfindung kann die innere Straßengrenze der Straße basierend auf den Sensormessungen ermittelt bzw. berechnet werden. Dadurch, dass zudem mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein ganzes Polygonnetz bestimmt wird, kann das Polygonnetz zur Schätzung des Bewegungsweges herangezogen werden. Erfindungsgemäß werden den Detektionspunkten des ersten Sensors Objekte zugeordnet und es wird unterschieden, ob es sich um ein statisches Objekt oder ein bewegliches Objekt handelt. Ferner ist ein zweiter Sensor vorgesehen, mittels dem statische Objekte detektiert werden können (und ggf. natürlich auch bewegliche Objekte). Die statischen Objekte des ersten Sensors und die statischen Objekte des zweiten Sensors werden dann zusammengeführt, um eine statische Umgebung zu erzeugen, wobei die statische Umgebung zur Schätzung des Bewegungsweges herangezogen wird. Daraus resultiert der Vorteil, dass eine natürliche Überlagerung von Sensorinformationen bzw. Sensordaten erfolgt. Ferner erfolgt eine Fusion der statischen Umgebung mit dem umgebenden Verkehr (bewegliche Objekte und deren Fahrspuren) für die Schätzung des Bewegungsweges und von anderen taktilen Sensoren. Der Algorithmus ist dabei zwar komplex aber in einfacher und kostengünstiger Weise zu implementieren und in bestehenden Systemen nachzurüsten.In the method according to the invention for detecting road boundaries or for estimating (the geometry of) the movement path of a means of transportation, in particular a vehicle, sensor data are collected by means of a sensor, with the road boundaries being recognized using the sensor data. This is done in that, in particular, static targets or objects along the movement path are determined using the sensor data and location points are defined for the respective position of the targets and the sensor. Furthermore, a polygon is determined based on the location points, z. B. by serving a definable number of location points as corner points of the polygon. In particular, the polygon can include location points on each side of the street. The polygon is then used to estimate the movement path or to identify the road boundaries. This determination can e.g. B. be implemented in the form of an algorithm, i. H. With the aid of the invention, the inner road boundary of the road can be determined or calculated based on the sensor measurements. Because a number of polygons are also determined, in particular continuously, so that an entire polygon network is determined, the polygon network can be used to estimate the movement path. According to the invention, objects are assigned to the detection points of the first sensor and a distinction is made as to whether the object is static or moving. Furthermore, a second sensor is provided, by means of which static objects can be detected (and of course, if necessary, also moving objects). The static objects from the first sensor and the static objects from the second sensor are then merged to create a static environment, which static environment is used to estimate the path of travel. This results in the advantage that there is a natural superimposition of sensor information or sensor data. Furthermore, the static environment is merged with the surrounding traffic (moving objects and their lanes) for the estimation of the movement path and other tactile sensors. Although the algorithm is complex, it can be implemented in a simple and cost-effective manner and retrofitted in existing systems.
Zweckmäßigerweise kann es sich bei dem erfindungsgemäßen Verfahren um ein rein computerimplementiertes Verfahren handeln, wobei der Begriff „computerimplementiertes Verfahren“ im Sinne der Erfindung eine Ablaufplanung oder Vorgehensweise beschreibt, welche anhand eines Rechners verwirklicht bzw. durchgeführt wird. Der Rechner, wie z. B. ein Computer, ein Computernetzwerk, eine Steuereinheit (z. B. ECU bzw. Electronic Control Unit oder ADCU bzw. Assisted & Automated Driving Control Unit) bzw. eine Rechenvorrichtung darin oder eine andere aus dem Stand der Technik bekannte programmierbare Vorrichtung, kann dabei mittels programmierbarer Rechenvorschriften die entsprechenden Daten verarbeiten. In Bezug auf das erfindungsgemäße Verfahren bzw. das erfindungsgemäße System können dabei die wesentlichen Eigenschaften z. B. durch ein neues Programm, neue Programme, einen Algorithmus oder dergleichen bewirkt werden, welches auf der Steuereinheit ausgeführt wird. The method according to the invention can expediently be a purely computer-implemented method, with the term “computer-implemented method” in the sense of the invention describing a flow plan or procedure that is implemented or carried out using a computer. The calculator, such as B. a computer, a computer network, a control unit (z. B. ECU or Electronic Control Unit or ADCU or Assisted & Automated Driving Control Unit) or a computing device therein or any other programmable device known from the prior art, can process the corresponding data using programmable calculation rules. With regard to the method according to the invention and the system according to the invention, the essential properties z. B. be caused by a new program, new programs, an algorithm or the like, which is executed on the control unit.
Gemäß einer bevorzugten Ausgestaltung ist als erster Sensor ein Radarsensor vorgesehen, welcher Radardetektionen erzeugt, die aufgrund der Aussendung von gebündelten elektromagnetischen Wellen (Radarwellen bzw. Radarsignale) und deren Reflexion, z. B. an anderen Verkehrsteilnehmer, Hindernissen auf der Fahrbahn oder der Randbebauung der Fahrbahn entstehen. Jedoch können auch andere aus dem Stand der Technik bekannte Sensoren als erster Sensor vorgesehen sein, wie z. B. Kamera-, Ultraschall- oder Lidarsensoren, deren Detektionspunkte dem Algorithmus zugeführt werden. Ferner ist als zweiter Sensor bevorzugt ein Kamerasensor vorgesehen, mittels dem Straßenränder bzw. Straßen- oder Fahrbahnmarkierungen als statische Objekte erfasst werden können. Jedoch können auch hier andere bekannte Sensoren zum Einsatz kommen.According to a preferred embodiment, a radar sensor is provided as the first sensor, which generates radar detections due to the emission of bundled electromagnetic waves (radar waves or radar signals) and their reflection, z. B. other road users, obstacles on the road or the surrounding buildings the road surface. However, other sensors known from the prior art can also be provided as the first sensor, e.g. B. camera, ultrasonic or lidar sensors, whose detection points are fed to the algorithm. Furthermore, a camera sensor is preferably provided as the second sensor, by means of which road edges or road or lane markings can be detected as static objects. However, other known sensors can also be used here.
Als besonders vorteilhaft hat es sich erwiesen, wenn es sich bei dem Polygon um ein Dreieck handelt, da dieses äußert einfach mit wenig Rechenaufwand berechnet werden kann. In gleicher vorteilhafter Weise kann ein gesamtes Polygonnetz anhand von Dreiecksbildungen erstellt werden. In einfacher Weise kann dies anhand einer Delaunay-Triangulierung bzw. Delaunay-Dreiecksbildung erfolgen, wie bereits in
Zweckmäßigerweise können als statische Objekte Leitplanken, Infrastrukturen, parkende Verkehrsteilnehmer, Straßenmarkierungen, Straßenrandbebauungen und dergleichen vorgesehen sein.Crash barriers, infrastructure, parked road users, road markings, roadside buildings and the like can expediently be provided as static objects.
Vorzugsweise wird das Polygonnetz des ersten Sensors mit den statischen Objekten des zweiten Sensors zusammengeführt, bzw. das Polygonnetz dient als Eingabe des ersten Sensors für die Fusion.The polygon network of the first sensor is preferably merged with the static objects of the second sensor, or the polygon network serves as input for the first sensor for the fusion.
Zweckmäßigerweise kann die Straßenmitte zwischen den links und rechts vom Ego-Fahrzeug erkannten Straßengrenzen bestimmt werden. Anhand des Abstandes der Straßengrenzen zur Straßenmitte kann dann bestimmt werden, ob sich die Straßengrenzen aufweiten oder verengen und/oder ob es sich bei den Detektionen oder Objekten um Fehldetektionen (sogenannte „Ausreißer“) handelt oder nicht.The middle of the road can expediently be determined between the road boundaries recognized on the left and right by the ego vehicle. Based on the distance between the road boundaries and the middle of the road, it can then be determined whether the road boundaries widen or narrow and/or whether the detections or objects are incorrect detections (so-called “outliers”) or not.
Ferner umfasst die vorliegende Erfindung ein System zur Steuerung eines Fahrzeuges. Das System zur Steuerung des Ego-Fahrzeuges umfasst eine Steuereinrichtung, zur Steuerung des Fahrzeuges und zur Datenverarbeitung der Sensoren, einen ersten Sensor zur Detektion und Unterscheidung von beweglichen und statischen Objekten und einen zweiten Sensor zur Erfassung statischer Objekte. Die Steuerung des Ego-Fahrzeuges erfolgt durch die Steuereinrichtung, indem die Steuereinrichtung die Straßengrenzen mittels eines Verfahrens nach einem der vorhergehenden Ansprüche ermitteln kann. Zweckmäßigerweise kann die Steuereinrichtung hierzu derart hergerichtet sein, dass diese auf Aktoren des Ego-Fahrzeuges zugreifen kann, um entsprechende Fahr- und Assistenzfunktionen unterstützend und/oder (teil-) autonom auszuführen.Furthermore, the present invention includes a system for controlling a vehicle. The system for controlling the ego vehicle includes a control device for controlling the vehicle and for processing data from the sensors, a first sensor for detecting and distinguishing between moving and static objects and a second sensor for detecting static objects. The ego vehicle is controlled by the control device in that the control device can determine the road boundaries by means of a method according to one of the preceding claims. For this purpose, the control device can expediently be set up in such a way that it can access actuators of the ego vehicle in order to carry out corresponding driving and assistance functions in a supportive and/or (partly) autonomous manner.
Vorzugsweise ist als erster Sensor ein Radarsensor Kamera (oder alternativ auch ein Lidarsensor) und als zweiter Sensor eine Kamera (oder alternativ auch ein Lidarsensor) vorgesehen, wobei der Radarsensor konfiguriert ist, bewegliche und statische Objekte zu detektieren und zu unterscheiden, und die Kamera konfiguriert ist, statische Objekte, insbesondere Straßenränder und/oder Straßenmarkierungen, zu erkennen (Lanemarking- oder Lane-Detection). Dadurch können an der Stelle, an der die Kamera bzw. der zweite Sensor nicht weiter detektieren kann (z. B. aufgrund von fehlender Reichweite), die Messungen des ersten Sensors verwendet werden, z. B. Lidar oder Radar. Dadurch wird zusätzliche Redundanz geschaffen, zudem werden die Messergebnisse verifiziert.A camera radar sensor (or alternatively also a lidar sensor) is preferably provided as the first sensor and a camera (or alternatively also a lidar sensor) is provided as the second sensor, the radar sensor being configured to detect and distinguish between moving and static objects, and the camera being configured is to recognize static objects, in particular roadsides and/or road markings (lanemarking or lane detection). As a result, the measurements of the first sensor can be used at the point at which the camera or the second sensor can no longer detect (e.g. due to insufficient range), e.g. B. lidar or radar. This creates additional redundancy and also verifies the measurement results.
Gemäß einer bevorzugten Ausgestaltung der Erfindung führt die Steuereinrichtung zunächst die vom ersten Sensor erfassten statischen und beweglichen Objekte zusammen (erste Sensorfusion der Sensordaten des ersten Sensors). Danach können dann die vom zweiten Sensor erfassten statischen Objekte mit den statischen Objekten des ersten Sensors zusammenführt werden, um eine statische Umgebung zu erzeugen (zweite Sensorfusion), wobei dann die statische Umgebung und die die beweglichen Objekte zur Ermittlung der Straßengrenzen herangezogen werden.According to a preferred embodiment of the invention, the control device first merges the static and moving objects detected by the first sensor (first sensor fusion of the sensor data from the first sensor). Thereafter, the static objects detected by the second sensor can then be merged with the static objects of the first sensor in order to generate a static environment (second sensor fusion), with the static environment and the moving objects then being used to determine the road boundaries.
Figurenlistecharacter list
Im Folgenden wird die Erfindung anhand von zweckmäßigen Ausführungsbeispielen näher erläutert. Es zeigen:
-
1 eine vereinfachte schematische Darstellung eines Fahrzeuges, bei dem eine Schätzung der Geometrie eines Bewegungsweges anhand des erfindungsgemäßen Verfahrens erfolgt; -
2 eine vereinfachte schematische Darstellung von Radardetektionen in einem Koordinatensystem, wobei der Bewegungsweg anhand einer Triangulierung durchgeführt wurde; -
3 eine weitere vereinfachte schematische Darstellung des Koordinatensystems aus2 , mit zusätzlich erfassten Straßenmarkierungen, sowie -
4 eine vereinfachte Darstellung der Abhängigkeit zwischen Länge der Straßengrenze und der Position des Fahrzeuges.
-
1 a simplified schematic representation of a vehicle in which the geometry of a movement path is estimated using the method according to the invention; -
2 a simplified schematic representation of radar detections in a coordinate system, wherein the movement path was carried out using a triangulation; -
3 another simplified schematic representation of the coordinatesystem 2 , with additionally recorded road markings, as well as -
4 a simplified representation of the relationship between the length of the road boundary and the position of the vehicle.
Bezugsziffer 1 in
Bei dem erfindungsgemäßen Verfahren wird die Geometrie des Bewegungsweges geschätzt, indem die innere Straßengrenze auf der Basis von Sensormessungen bestimmt bzw. berechnet wird. Im Folgenden werden Ausführungsbeispiele beschrieben, bei denen als Sensor ein Radarsensor verwendet wird. Ausdrücklich umfasst sind jedoch auch andere aus dem Stand der Technik bekannte Sensoren, wie z. B. Lidar- oder Kamerasensoren. Der Radarsensor liefert dabei in jedem Scanzyklus eine Liste von Objekten bzw. Zielen mit der entsprechenden relativen Position der jeweiligen Ziele und deren Geschwindigkeit im Verhältnis zum Ego-Fahrzeug, welches den Radarsensor umfasst und dem Ortspunkt 0 (x = 0; y = 0) entspricht. Basierend auf der relativen Geschwindigkeit zum Ego-Fahrzeug werden die Objekte dann als statische oder mobile Ziele eingestuft. Für die Abschätzung der Straßengrenze werden vorliegend jedoch nur die statischen Ziele verwendet, denen jeweils ein Ortspunkt zugeordnet werden kann. Die Abschätzung erfolgt dann, indem ein Polygonnetz bzw. eine Delaunay-Triangulation (Delaunay-Dreiecksbildung oder Delaunay-Triangulierung) auf der Grundlage der Position der statischen Ziele bzw. deren Ortspunkte und der des Ego-Fahrzeugs berechnet bzw. eingefügt wird. Das Erstellen des Polygonnetzes bzw. die Delaunay-Triangulierung erfolgt insbesondere durch ein Verfahren bzw. einer Verfahrensausgestaltung gemäß
Der erste Schritt im Fusionsprozess besteht darin, die Radarinformationen mit sich selbst zu fusionieren, d. h. die umliegenden Verkehrsinformationen (andere Verkehrsteilnehmer bzw. umgebende bewegliche Objekte) werden mit den statischen Informationen (statische Objekte, wie Straßenrandbebauung, Leitplanken und dergleichen) fusioniert bzw. zusammengebracht oder verschmolzen. Das Ergebnis dieser Verschmelzung ist ein Satz von Straßengrenzen, an denen sowohl die Suchlinien als auch die Spuren aus dem umliegenden Verkehr die gleichen Straßengrenzen schneiden. Für den Fall, dass es zu widersprüchlichen Situationen kommt, gelten dann nur vom umliegenden Verkehr derselben Verkehrsrichtung abgeschnittenen Kanten als Straßengrenzen.The first step in the fusion process is to fuse the radar information to itself, i. H. the surrounding traffic information (other road users or surrounding moving objects) is merged or brought together or fused with the static information (static objects such as roadside buildings, crash barriers and the like). The result of this merging is a set of road boundaries where both the search lines and the traces from the surrounding traffic intersect the same road boundaries. In the event that conflicting situations arise, only edges cut off from surrounding traffic in the same traffic direction are considered road boundaries.
Nachdem die Straßengrenzen identifiziert wurden, können diese Daten noch einmal analysiert werden, indem das Ergebnis der Fusion der Radardaten zwischen statischer und dynamischer Umgebung näher betrachtet wird (dargestellt anhand der Linien links und rechts des Ego-Fahrzeugs 1 in
Für eine derartige Ausreißererkennung die Längsposition der Mitte der erkannten Straßengrenzen (Straßenmitte) in Bezug auf Ihre Länge festgelegt werden, wie in
Ferner verfügt das Ego-Fahrzeug 1 über zusätzliche Sensoren, die zur Erkennung von Spurmarkierungen (z. B. Lidarsensor 6 oder Kamera 7) genutzt werden können. Die erkannten Spurmarkierungen bzw. Straßenmarkierungen dieser Sensoren können nun den zuvor fusionierten Informationen überlagert bzw. hinzugefügt werden, wie in
Das erfindungsgemäße Verfahren kann neben der Abschätzung des freien Raumes, der Erkennung von Straßenkreuzungen und -gabeln, der Erkennung von Straßenverbreiterungen, Straßenverengungen oder Straßenzugängen auch im Bereich der Robotik eingesetzt werden, z. B. bei der Trajektorienplanung eines Roboters.In addition to estimating the free space, detecting road crossings and forks, detecting road widening, road narrowing or road access, the method according to the invention can also be used in the field of robotics, e.g. B. in the trajectory planning of a robot.
Zusammenfassend kann das erfindungsgemäße Verfahren anhand folgender Schritte durchgeführt werden: Zunächst erfolgt die Fusion von statischer Umgebung bzw. statischen Objekten und beweglichen Objekten (z. B. auch die Pfade der umgebenden Verkehrsteilnehmer) mittels eines Triangulationsverfahrens. Danach wird die statische Umgebung dargestellt, indem Sensorinformationen anderer Sensoren (Lidarsensor 6 oder Kamera 7) und Radarinformationen fusioniert werden, wobei die Triangulation als Eingabe (Input) genutzt wird, d. h. die Fusion der statischen Umgebung mit Objekten bzw. den Straßenmarkierungen anderer Sensoren. Abschließend können dann unstetige Strukturen durch die Analyse der Straßengrenzen herausgefiltert werden, um z. B. Parkbuchten, Ausfahrten, Baustellen und dergleichen zu erkennen. Ferner finden die aus dem Stand der Technik bekannten Fusionsalgorithmen zweier Sensoren in der Regel in einer modellbasierten Umgebung statt, d. h. unterschiedliche Softwaremodule (z. B. von Kamera und/oder Radar) schätzen jeweils Klothoidenfunktionen und geben diese an eine zentrale Recheneinheit weiter, die dann die Modelle z. B. als Polynome vergleicht und sie dann fusioniert. Der Vorteil hierbei ist zwar, dass nur die Koeffizienten der Polynome verglichen werden und dadurch Rechenkapazität gespart wird, allerdings führt jede Sensoreinheit eine eigene Mittelung der Fahrspur durch, was zu Fehlern führen kann. Um derartige Fehler zu vermeiden, wird erfindungsgemäß eine Art Tiefenfusion durchgeführt, d. h. die Daten werden verarbeitet bevor eigene Modelle/Fahrspurmittelungen erzeugt werden.In summary, the method according to the invention can be carried out using the following steps: First, the fusion of the static environment or static objects and moving objects (eg also the paths of the surrounding road users) takes place using a triangulation method. After that, the static environment is represented by fusing sensor information from other sensors (lidar sensor 6 or camera 7) and radar information, using triangulation as an input, i. H. the fusion of the static environment with objects or road markings from other sensors. Finally, discontinuous structures can be filtered out by analyzing the road boundaries, e.g. B. parking bays, exits, construction sites and the like. Furthermore, the fusion algorithms of two sensors known from the prior art usually take place in a model-based environment, i. H. different software modules (e.g. from camera and/or radar) each estimate clothoid functions and pass them on to a central processing unit, which then uses the models, e.g. B. compares as polynomials and then merges them. Although the advantage here is that only the coefficients of the polynomials are compared, thereby saving computing capacity, each sensor unit carries out its own averaging of the lane, which can lead to errors. In order to avoid such errors, a type of deep fusion is carried out according to the invention, i. H. the data is processed before own models/lane averaging are generated.
BezugszeichenlisteReference List
- 11
- Ego-Fahrzeugego vehicle
- 22
- Steuereinrichtungcontrol device
- 33
- Lenkungsteering
- 44
- Motorengine
- 55
- Bremsebrake
- 66
- Lidarsensorlidar sensor
- 77
- Kameracamera
- 88th
- Radarsensorradar sensor
- 9a-9d9a-9d
- Ultraschallsensorultrasonic sensor
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 6751547 B2 [0005]US 6751547 B2 [0005]
- DE 102016107705 A1 [0006]DE 102016107705 A1 [0006]
- CN 102398598 B [0007]CN 102398598B [0007]
- CN 101793528 B [0007]CN 101793528B [0007]
- DE 102018215448 B3 [0008, 0015, 0024]DE 102018215448 B3 [0008, 0015, 0024]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020213697.1A DE102020213697A1 (en) | 2020-10-30 | 2020-10-30 | Method for detecting road boundaries and a system for controlling a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020213697.1A DE102020213697A1 (en) | 2020-10-30 | 2020-10-30 | Method for detecting road boundaries and a system for controlling a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020213697A1 true DE102020213697A1 (en) | 2022-05-05 |
Family
ID=81184550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020213697.1A Pending DE102020213697A1 (en) | 2020-10-30 | 2020-10-30 | Method for detecting road boundaries and a system for controlling a vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020213697A1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6751547B2 (en) | 2001-11-26 | 2004-06-15 | Hrl Laboratories, Llc | Method and apparatus for estimation of forward path geometry of a vehicle based on a two-clothoid road model |
DE102008038731A1 (en) | 2008-08-12 | 2010-02-18 | Continental Automotive Gmbh | Method for detecting extended static objects |
CN101793528A (en) | 2009-01-26 | 2010-08-04 | 通用汽车环球科技运作公司 | Use sensor fusion to estimate the system and method in path, track |
CN102398598A (en) | 2010-07-20 | 2012-04-04 | 通用汽车环球科技运作有限责任公司 | Lane fusion system using forward-view and rear-view cameras |
DE102013201796A1 (en) | 2013-02-05 | 2014-08-07 | Robert Bosch Gmbh | Method for providing a driving corridor for a vehicle and driver assistance system |
DE102016107705A1 (en) | 2015-04-27 | 2016-10-27 | GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) | Reactive path planning for autonomous driving |
DE102018215448B3 (en) | 2018-09-11 | 2019-10-31 | Conti Temic Microelectronic Gmbh | Method of estimating the geometry of a path of movement |
-
2020
- 2020-10-30 DE DE102020213697.1A patent/DE102020213697A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6751547B2 (en) | 2001-11-26 | 2004-06-15 | Hrl Laboratories, Llc | Method and apparatus for estimation of forward path geometry of a vehicle based on a two-clothoid road model |
DE102008038731A1 (en) | 2008-08-12 | 2010-02-18 | Continental Automotive Gmbh | Method for detecting extended static objects |
CN101793528A (en) | 2009-01-26 | 2010-08-04 | 通用汽车环球科技运作公司 | Use sensor fusion to estimate the system and method in path, track |
CN102398598A (en) | 2010-07-20 | 2012-04-04 | 通用汽车环球科技运作有限责任公司 | Lane fusion system using forward-view and rear-view cameras |
DE102013201796A1 (en) | 2013-02-05 | 2014-08-07 | Robert Bosch Gmbh | Method for providing a driving corridor for a vehicle and driver assistance system |
DE102016107705A1 (en) | 2015-04-27 | 2016-10-27 | GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) | Reactive path planning for autonomous driving |
DE102018215448B3 (en) | 2018-09-11 | 2019-10-31 | Conti Temic Microelectronic Gmbh | Method of estimating the geometry of a path of movement |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2561419B1 (en) | Method for determining the lane course for a vehicle | |
DE102010006828B4 (en) | Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle | |
EP1844373B1 (en) | Method for predicting the course in driver assistance systems for motor vehicles | |
EP1684142B1 (en) | Method of predicting possible future course and distance control in driver assisting system | |
EP3298541A1 (en) | Method for estimating traffic lanes | |
EP3152092B1 (en) | Method for operating a driver assistance system for automatically guiding a motor vehicle, and paired motor vehicle | |
DE112016000422B4 (en) | SPEED CONTROL DEVICE AND SPEED CONTROL METHOD FOR VEHICLES | |
EP2888604B1 (en) | Method for determining the course of a lane for a vehicle | |
DE102016210254A1 (en) | VEHICLE VENTILATION AT CROSSINGS ON THE BASIS OF VISUAL VENTILATION POINTS, STATIONARY OBJECTS AND BY GPS | |
DE102018215448B3 (en) | Method of estimating the geometry of a path of movement | |
EP2963631B1 (en) | Method for determining a parking space from a number of measuring points | |
WO2020229002A1 (en) | Method and device for multi-sensor data fusion for automated and autonomous vehicles | |
WO2018019454A1 (en) | Method and device for determining a roadway model for the surroundings of a vehicle | |
DE102020203756A1 (en) | MOTORWAY EXIT DETECTION AND LINE REFLECTION FOR VEHICLE TRACTION DETERMINATION | |
WO2020177958A1 (en) | Method and control unit for detecting a vehicle moving in or out | |
DE102017118651A1 (en) | Method and system for collision avoidance of a vehicle | |
EP3867601A1 (en) | Method and system for determining a model of the environment of a vehicle | |
DE102012007127A1 (en) | Method for determining movement path for vehicle, involves determining road boundary, and determining multiple possible movement paths for vehicle, where movement path is selected from multiple possible movement paths | |
WO2020002100A1 (en) | Method for operating an at least partially automated vehicle | |
DE102016211730A1 (en) | Method for predicting a lane course of a roadway | |
DE102008021380B4 (en) | Method and device for predicting a course of a roadway and driver assistance system | |
DE102020105192B4 (en) | Method for detecting moving objects in a vehicle environment and motor vehicle | |
EP2602744A1 (en) | Method for detecting and tracking lane markings | |
DE102021207609A1 (en) | Procedure for marking a movement path | |
DE102020213697A1 (en) | Method for detecting road boundaries and a system for controlling a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE |