DE102021207609A1 - Procedure for marking a movement path - Google Patents

Procedure for marking a movement path Download PDF

Info

Publication number
DE102021207609A1
DE102021207609A1 DE102021207609.2A DE102021207609A DE102021207609A1 DE 102021207609 A1 DE102021207609 A1 DE 102021207609A1 DE 102021207609 A DE102021207609 A DE 102021207609A DE 102021207609 A1 DE102021207609 A1 DE 102021207609A1
Authority
DE
Germany
Prior art keywords
path
sensor
ego
edges
boundaries
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021207609.2A
Other languages
German (de)
Inventor
Donald Parruca
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Priority to DE102021207609.2A priority Critical patent/DE102021207609A1/en
Publication of DE102021207609A1 publication Critical patent/DE102021207609A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die vorliegende Erfindung betrifft u. a. Verfahren zum Kennzeichnen eines Bewegungsweges eines Fahrzeuges (1), bei dem Detektionspunkte umfassende Sensordaten mit t0tels eines Sensors erfasst werden, wobei Ziele entlang des Bewegungsweges anhand der Sensordaten ermittelt werden, Ortspunkte für die jeweilige Position der Ziele und des Sensors festgelegt werden, anhand der Ortspunkte mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein Polygonnetz erstellt wird, wobei das Verfahren folgende Verfahrensschritte umfasst:- Identifizieren von Polygonen, die sich mit dem Ego-Pfad überschneiden;- Bestimmen der sich mit dem Ego-Pfad überschneidenden Kanten, für jedes sich mit dem Ego-Pfad überschneidende Polygon, und- Festlegen der Grenzen des Bewegungsweges indem alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich auch mit dem Ego-Pfad überschneiden, als Oberfläche des Bewegungsweges und alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden, als Grenzen gekennzeichnet werden.The present invention relates i.a. Method for identifying a movement path of a vehicle (1), in which sensor data including detection points are recorded using a sensor, with targets along the movement path being determined using the sensor data, location points for the respective position of the targets and the sensor being determined using the location points several polygons are determined, in particular continuously, so that a polygon mesh is created, the method comprising the following method steps:- identifying polygons which intersect with the ego path;- determining the edges which intersect with the ego path, for each polygon intersecting the ego path, and- defining the boundaries of the path of motion by taking all edges of the polygons intersecting the ego path that also intersect the ego path as the surface of the path of motion and all edges of the polygons intersecting with the Ego path intersecting polygons that do not intersect with the ego path en, are marked as borders.

Description

Die vorliegende Erfindung betrifft Verfahren zur Kennzeichnung eines Bewegungsweges eines Fortbewegungsmittels, insbesondere eines Fahrzeugs, sowie ein System zur Schätzung der Geometrie eines Bewegungsweges, welches auf der Durchführung eines erfindungsgemäßen Verfahrens beruht.The present invention relates to a method for identifying a movement path of a means of transportation, in particular a vehicle, and a system for estimating the geometry of a movement path, which is based on the implementation of a method according to the invention.

Technologischer HintergrundTechnological background

Moderne Fortbewegungsmittel, wie z. B. Kraftfahrzeuge oder Motorräder, werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche mit Hilfe von Sensorsystemen die Umgebung erfassen, Verkehrssituation erkennen und den Fahrer unterstützen, z. B. durch einen Brems- oder Lenkeingriff oder durch die Ausgabe einer optischen oder akustischen Warnung. Als Sensorsysteme zur Umgebungserfassung werden regelmäßig Radarsensoren, Lidarsensoren, Kamerasensoren oder dergleichen eingesetzt. Aus den durch die Sensoren ermittelten Sensordaten können anschließend Rückschlüsse auf die Umgebung gezogen werden, womit z. B. eine Objekt- und/oder Umgebungsklassifizierung vorgenommen werden kann. Ferner ist die Umgebungserfassung nahezu unverzichtbar im Bereich des (teil-) autonomen Fahrens. Durch die Verarbeitung der Sensor- und Umfelddaten können dann Assistenzfunktionen ausgeführt werden, durch die z. B. Unfälle mit anderen Verkehrsteilnehmern vermieden oder komplizierte Fahrmanöver erleichtert werden, indem die Fahraufgabe bzw. die Fahrzeugführung unterstützt oder sogar komplett übernommen wird (teil- / vollautomatisieret).Modern means of transportation such as B. motor vehicles or motorcycles are increasingly equipped with driver assistance systems, which use sensor systems to detect the environment, recognize the traffic situation and support the driver, z. B. by a braking or steering intervention or by the output of a visual or acoustic warning. Radar sensors, lidar sensors, camera sensors or the like are regularly used as sensor systems for detecting the surroundings. From the sensor data determined by the sensors, conclusions can then be drawn about the environment, e.g. B. an object and / or environment classification can be made. Furthermore, the detection of the surroundings is almost indispensable in the field of (partially) autonomous driving. By processing the sensor and environment data, assistance functions can then be carried out, e.g. B. Accidents with other road users can be avoided or complicated driving maneuvers can be made easier by supporting or even completely taking over the driving task or vehicle guidance (partly / fully automated).

Die Umgebungserfassung mittels Radarsensoren kommt in modernen Fortbewegungsmitteln häufig zur Anwendung. Diese basiert auf der Aussendung von gebündelten elektromagnetischen Wellen (Radarwellen bzw. Radarsignale) und deren Reflexion, z. B. durch andere Verkehrsteilnehmer, Hindernisse auf der Fahrbahn oder die Randbebauung der Fahrbahn. Die Unterscheidung von Hindernissen bzw. Objekten, wie z. B. anderen Verkehrsteilnehmern, Verkehrsschildern, Straßenmarkierungen, Randbebauungen, Leitplanken und dergleichen ist dabei von großer Bedeutung, um zu ermitteln, wann z. B. ein Brems- oder Lenkeingriff eingeleitet werden soll.Environment detection using radar sensors is often used in modern means of transportation. This is based on the emission of bundled electromagnetic waves (radar waves or radar signals) and their reflection, e.g. B. by other road users, obstacles on the road or the edge of the road. The differentiation of obstacles or objects such. B. other road users, traffic signs, road markings, peripheral buildings, crash barriers and the like is of great importance to determine when z. B. a braking or steering intervention is to be initiated.

Im Rahmen der Umgebungserfassung werden in der Regel Informationen über die Umgebung gewonnen, die hauptsächlich in zwei Teile aufgeteilt sind: statische und dynamische Umgebung. Um die statische Umgebung zu konstruieren, werden nur Detektionen aus nicht bewegten Objekten berücksichtigt, während für die dynamische Umgebung bewegte Objekte berücksichtigt werden. Die Interpretation beider Umgebungen ist jedoch wichtig, damit Fahrmanöver sicher geplant werden können. Die Auslegung der statischen Umgebung umfasst die Gewinnung von Informationen über den Fahrweg vor dem Fahrzeug, d. h., wo der Fahrkorridor des Ego-Fahrzeugs für die kommenden Sekunden (z. B. 3, 5, 6, 10 Sekunden oder dergleichen) und für den gegebenen Korridor zu ermitteln ist, und ob Hindernisse auf dem vorausgesagten Fahrkorridor liegen.In the context of environment detection, information about the environment is usually obtained, which is mainly divided into two parts: static and dynamic environment. To construct the static environment only detections from non-moving objects are considered, while for the dynamic environment moving objects are considered. However, the interpretation of both environments is important so that driving maneuvers can be planned safely. The design of the static environment includes obtaining information about the driving path in front of the vehicle, i. i.e. where to determine the travel corridor of the ego vehicle for the coming seconds (e.g. 3, 5, 6, 10 seconds or the like) and for the given corridor, and whether there are any obstacles on the predicted travel corridor.

Die vorliegende Erfindung konzentriert sich dabei hauptsächlich auf die erste Aufgabe der statischen Umweltinterpretation, d. h. die Gewinnung von Informationen über den Fahrweg vor dem Fahrzeug. Bisher wird diese Aufgabe hauptsächlich durch handgefertigte Algorithmen gelöst, bei denen Entwickler Verfahren schreiben, um zu bestimmen, welche statischen Detektionen von taktilen Sensoren (oder Pixel aus Kamerabild) für die Schätzung des Fahrkorridors verwendet werden können. Normalerweise sind derartige Algorithmen Szenarienabhängig, wobei für jedes Szenario eine spezielle Lösung entwickelt werden muss. Auf der anderen Seite wird ein neuer Trend beobachtet, der auf künstlicher Intelligenz beruht, um die statischen Szenarien zu interpretieren. Die sensorischen Informationen werden als Bild interpretiert, und die vorwiegend für die Bildverarbeitung verwendeten Algorithmen werden zur Szeneninterpretation statischer Umgebungen eingesetzt. Zunächst werden solche Algorithmen mit bereits markierten Bildern trainiert, die beispielsweise angeben, wo die Schätzung des Fahrbahnverlaufs vor dem Auto liegt. Nach dem Training werden diese Algorithmen auf einem anderen Datenbestand eingesetzt, um statische Umgebungsmerkmale zu identifizieren, für die sie trainiert wurden, z. B. Leitplankenabschnitte auf der Autobahn, Graskanten, Spurmarkierungen oder Bordsteine. Ein großer Nachteil dieser Algorithmen ist, dass sie am besten mit markierten Daten arbeiten. Das bedeutet, dass bereits markiert werden muss, zu welchen Teilen des Sensor-Bildes welche Merkmale gehören.The present invention focuses primarily on the first task of static environmental interpretation, i. H. obtaining information about the route in front of the vehicle. So far, this task is mainly solved by hand-made algorithms, where developers write methods to determine which static detections from tactile sensors (or pixels from camera image) can be used for driving corridor estimation. Normally, such algorithms are scenario-dependent, with a special solution having to be developed for each scenario. On the other hand, a new trend is observed that relies on artificial intelligence to interpret the static scenarios. The sensory information is interpreted as an image, and the algorithms used primarily for image processing are used for scene interpretation of static environments. First, such algorithms are trained with images that have already been marked, which indicate, for example, where the estimate of the course of the road ahead of the car is. After training, these algorithms are used on another dataset to identify static environmental features they were trained for, e.g. B. crash barrier sections on the highway, grass edges, lane markings or curbs. A major disadvantage of these algorithms is that they work best on tagged data. This means that it must already be marked which features belong to which parts of the sensor image.

Oft wird die Beschriftung bzw. das Labeling manuell durchgeführt und erfordert eine menschliche Eingabe, um die entsprechenden Merkmale im Bild zu kennzeichnen. Die menschliche Eingabe (=Input) ist eine begrenzte und teure Ressource und häufig auch fehleranfällig. Die Leistung der Al-basierten Algorithmen hängt jedoch auch direkt von der Menge und Qualität der gekennzeichneten bzw. gelabelten Daten ab. Beide Faktoren erhöhen die Notwendigkeit eines automatischen Kennzeichnungsverfahrens für die statische Umgebung. Es besteht daher ein besonderer Bedarf derartige Kennzeichnungsverfahren zu verbessern. An dieser Stelle setzt die vorliegende Erfindung an.Often the annotation or labeling is done manually and requires human input to identify the appropriate features in the image. Human input is a limited and expensive resource, and often error-prone. However, the performance of the Al-based algorithms also depends directly on the amount and quality of the labeled data. Both of these factors increase the need for an automatic static environment labeling process. There is therefore a particular need to improve such identification methods. This is where the present invention comes in.

Druckschriftlicher Stand der TechnikPrinted state of the art

Aus der US 6 751 547 B2 ist ein Verfahren zur genauen Schätzung der Geometrie des Vorwärtsweges eines Fahrzeugs bekannt, welches auf einem Zwei-Klothoiden-Straßenmodell basiert. Hierbei werden Straßendaten, die von einer Kamera oder einem Radarsystem bereitgestellt werden, gesammelt. Anhand der Straßendaten wird anschließend eine Messungstransferfunktion des Zwei-Klothoiden-Straßenmodells berechnet. Die Klothoidenkoeffizienten für den Nahbereich und den Fernbereich werden gleichzeitig geschätzt und der Vorwärtsweg des Fahrzeugs wird anhand der von dem Zwei-Klothoiden-Modell bereitgestellten Daten geschätzt.From the U.S. 6,751,547 B2 a method for accurately estimating the geometry of a vehicle's forward path is known, which is based on a two-clothoid road model. Here road data provided by a camera or a radar system is collected. A measurement transfer function of the two-clothoid road model is then calculated using the road data. The near and far range clothoid coefficients are estimated simultaneously and the forward path of the vehicle is estimated from the data provided by the two clothoid model.

Die US 6 718 259 B1 offenbart ein Verfahren zur Schätzung der Geometrie eines Vorwärtsweges eines Fahrzeugs unter Verwendung einer adaptiven Kalman-Filterbank und eines Zwei-Klothoiden-Straßenmodells. Hierbei werden mehrere Kalman-Filter verwendet, wobei Gewichtungsfaktoren für jeden Filter bereitgestellt werden, welche die Wahrscheinlichkeit angeben, ob die bevorstehende Straßengeometrie mit dem im Filter angenommenen Straßenmodell übereinstimmt. Nachdem den Filtern jeweils ein gewichteter Wert zugewiesen wurde, werden die Straßenmodelle mit gewichtetem Wert mittels eines Fusionselements fusioniert, sodass ein gewichtetes Straßenmodell ausgegeben werden kann.the U.S. 6,718,259 B1 discloses a method for estimating the geometry of a vehicle's forward path using an adaptive Kalman filter bank and a two-clothoid road model. A number of Kalman filters are used here, with weighting factors being provided for each filter which indicate the probability that the upcoming road geometry will match the road model assumed in the filter. After each filter has been assigned a weighted value, the weighted value road models are fused using a fusion element so that a weighted road model can be output.

Ferner offenbart die DE 10 2016 107 705 A1 ein Verfahren, bei dem ein Pfad für ein autonom fahrendes Fahrzeug mittels Delaunay-Triangulation geplant wird, wobei alle Detektionen einschließlich statischer und beweglicher Objekte gesammelt werden. Danach die Triangulationsmethode und nach Dreieckskanten (Dreieckssegmenten) gesucht, die auf der Fahrbahnoberfläche liegen und eine Reihe von Kriterien erfüllen, wobei eines der Kriterien ist, dass jede Kante nicht eine Kante an der Straßenbegrenzung ist. Nach dem Auffinden der möglichen Kanten bzw. der möglichen Pfade werden dann die Scheitelpunkte dieser Kanten extrahiert, an denen der Weg geplant wird. Danach wird eine Funktion der verschiedenen Wegkosten geschätzt, wobei der Pfad mit den geringsten Kosten gewählt wird.Furthermore, the DE 10 2016 107 705 A1 a method in which a path for an autonomously driving vehicle is planned using Delaunay triangulation, collecting all detections including static and moving objects. Then the triangulation method and looking for triangle edges (triangle segments) that lie on the road surface and meet a set of criteria, one of the criteria being that each edge is not a road boundary edge. After finding the possible edges or the possible paths, the vertices of these edges are then extracted, at which the path is planned. A function of the various path costs is then estimated, choosing the path with the lowest cost.

Weitere Verfahren, welche zur Schätzung der Geometrie eines Bewegungsweges eines Fortbewegungsmittels dienen, sind aus der DE 10 2015 013 084 A1 und der DE 10 2013 201 796 A1 bekannt.Other methods, which are used to estimate the geometry of a movement path of a means of locomotion, are from DE 10 2015 013 084 A1 and the DE 10 2013 201 796 A1 known.

Ferner offenbart die DE 10 2018 215 448 B3 ein Verfahren zur Schätzung der Geometrie eines Bewegungsweges eines Fortbewegungsmittels gemäß dem Oberbegriff des Anspruchs 1.Furthermore, the DE 10 2018 215 448 B3 a method for estimating the geometry of a movement path of a means of locomotion according to the preamble of claim 1.

Aufgabe der vorliegenden ErfindungObject of the present invention

Ausgehend vom Stand der Technik besteht die Aufgabe der vorliegenden Erfindung nunmehr darin, ein Verfahren zur Verfügung zu stellen, bei dem die Kennzeichnung des Bewegungsweges, in einfacher und kostengünstiger Weise verbessert wird.Proceeding from the prior art, the object of the present invention is now to provide a method in which the identification of the movement path is improved in a simple and cost-effective manner.

Lösung der Aufgabesolution of the task

Die vorstehende Aufgabe wird durch die gesamte Lehre des Anspruchs 1 sowie der nebengeordneten Ansprüche gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht.The above object is achieved by the entire teaching of claim 1 and the independent claims. Expedient developments of the invention are claimed in the dependent claims.

Die vorliegende Erfindung offenbart ein automatisches Kennzeichnungsverfahren (Labeling-Verfahren), um die Straßengrenzen links und rechts eines Fahrzeugs, die auf den Eingängen von Automobilsensoren wie Kameras, Radargeräten und Radargeräten basieren, zu kennzeichnen. Es werden dabei Informationen von ADAS-Sensoren und/oder Ego-Bewegung des Fahrzeuges genutzt. Die Ausgabe des Verfahrens bzw. des Algorithmus ist eine globale Kartenmarkierung mit den linken und rechten Straßengrenzen. Dabei wird keine manuelle Eingabe benötigt, wodurch die Fehleranfälligkeit und die Kosten verringert werden können. Zudem können Straßengrenzabschnitte viel schneller und genauer gekennzeichnet werden, d. h. die Kennzeichnungsmenge kann zusätzlich erhöht werden.The present invention discloses an automatic labeling method to label road boundaries left and right of a vehicle based on the inputs from automobile sensors such as cameras, radars, and radars. Information from ADAS sensors and/or ego movement of the vehicle is used. The output of the method or algorithm is a global map marker with the left and right road boundaries. No manual input is required, which means that the susceptibility to errors and the costs can be reduced. In addition, road boundary sections can be marked much faster and more precisely, i. H. the amount of marking can be increased additionally.

Bei dem erfindungsgemäßen Verfahren zum Erkennen von Straßengrenzen bzw. zur Kennzeichnung oder Beschriftung des Bewegungsweges eines Fortbewegungsmittels, insbesondere eines Fahrzeuges, werden Sensordaten mittels eines Sensors gesammelt. Dies erfolgt, indem insbesondere statische Ziele bzw. Objekte entlang des Bewegungsweges anhand der Sensordaten ermittelt und Ortspunkte für die jeweilige Position der Ziele und des Sensors festgelegt werden. Ferner wird ein Polygon anhand der Ortspunkte bestimmt, z. B. indem eine festlegbare Anzahl an Ortspunkten als Eckpunkte des Polygons dienen. Insbesondere kann das Polygon dabei Ortspunkte jeder Straßenseite umfassen. Anschließend wird das Polygon zur Kennzeichnung des Bewegungsweges bzw. zum Beschriften/Labeling der Straßengrenzen herangezogen. Diese Kennzeichnung kann z. B. in Form eines (offline) Algorithmus implementiert werden, d. h. anhand der Erfindung kann die innere Straßengrenze der Straße basierend auf den Sensormessungen ermittelt bzw. berechnet werden. Dadurch, dass zudem mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein ganzes Polygonnetz bestimmt wird, kann das Polygonnetz zur Schätzung des Bewegungsweges herangezogen werden. Erfindungsgemäß umfasst das Verfahren die Verfahrensschritte:

  • - Identifizieren von Polygonen, die sich mit dem Ego-Pfad überschneiden;
  • - Bestimmen der sich mit dem Ego-Pfad überschneidenden Kanten, für jedes sich mit dem Ego-Pfad überschneidende Polygon, sowie
  • - Festlegen der Grenzen des Bewegungsweges indem alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich auch mit dem Ego-Pfad überschneiden, als Oberfläche des Bewegungsweges und alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden, als Grenzen beschriftet bzw. gekennzeichnet werden.
In the method according to the invention for detecting road boundaries or for marking or labeling the movement path of a means of transportation, in particular a vehicle, sensor data are collected by means of a sensor. This is done in that, in particular, static targets or objects along the movement path are determined using the sensor data and location points are defined for the respective position of the targets and the sensor. Furthermore, a polygon is determined based on the location points, z. B. by serving a definable number of location points as corner points of the polygon. In particular, the polygon can include location points on each side of the street. The polygon is then used to identify the movement path or to label the road boundaries. This marking can e.g. B. be implemented in the form of an (offline) algorithm, ie the inner road boundary of the road can be determined or calculated based on the sensor measurements using the invention. Because a number of polygons are also determined, in particular continuously, so that an entire polygon network is determined, the polygon network can be used to estimate the movement be used as a guide. According to the invention, the process comprises the process steps:
  • - Identifying polygons that intersect with the ego path;
  • - determining the edges intersecting the ego path, for each polygon intersecting the ego path, and
  • - Determining the boundaries of the movement path by taking all edges of polygons intersecting the ego path that also intersect with the ego path as the surface of the movement path and all edges of polygons intersecting the ego path that do not intersect with intersect the ego path, be labeled as boundaries.

Gemäß einer bevorzugten Ausgestaltung ist als erster Sensor ein Radarsensor vorgesehen, welcher Radardetektionen erzeugt, die aufgrund der Aussendung von gebündelten elektromagnetischen Wellen (Radarwellen bzw. Radarsignale) und deren Reflexion, z. B. an anderen Verkehrsteilnehmer, Hindernissen auf der Fahrbahn oder der Randbebauung der Fahrbahn entstehen. Jedoch können auch andere aus dem Stand der Technik bekannte Sensoren als erster Sensor vorgesehen sein, wie z. B. Kamera-, Ultraschall- oder Lidarsensoren, deren Detektionspunkte dem Algorithmus zugeführt werden. Ferner ist als zweiter Sensor bevorzugt ein Kamerasensor vorgesehen, mittels dem Straßenränder bzw. Straßen- oder Fahrbahnmarkierungen als statische Objekte erfasst werden können. Jedoch können auch hier andere bekannte Sensoren zum Einsatz kommen.According to a preferred embodiment, a radar sensor is provided as the first sensor, which generates radar detections due to the emission of bundled electromagnetic waves (radar waves or radar signals) and their reflection, z. B. to other road users, obstacles on the road or the edge of the road. However, other sensors known from the prior art can also be provided as the first sensor, e.g. B. camera, ultrasonic or lidar sensors, whose detection points are fed to the algorithm. Furthermore, a camera sensor is preferably provided as the second sensor, by means of which road edges or road or lane markings can be detected as static objects. However, other known sensors can also be used here.

Als besonders vorteilhaft hat es sich erwiesen, wenn es sich bei dem Polygon um ein Dreieck handelt, da dieses äußert einfach mit wenig Rechenaufwand berechnet werden kann. In gleicher vorteilhafter Weise kann ein gesamtes Polygonnetz anhand von Dreiecksbildungen erstellt werden. In einfacher Weise kann dies anhand einer Delaunay-Triangulierung bzw. Delaunay-Dreiecksbildung erfolgen, wie bereits in DE 10 2018 215 448 B3 beschrieben. Insbesondere umfasst der Begriff Delaunay-Triangulierung auch andere bekannte Derivate einer Delaunay Triangulation, wie z. B. Constrained Delaunay Triangulation. It has proven to be particularly advantageous if the polygon is a triangle, since this can be calculated extremely easily with little computing effort. In the same advantageous manner, an entire polygon network can be created using triangular formations. This can be done in a simple way using a Delaunay triangulation or Delaunay triangle formation, as already described in DE 10 2018 215 448 B3 described. In particular, the term Delaunay triangulation also includes other known derivatives of a Delaunay triangulation, such as. B. Constrained Delaunay triangulation.

Zweckmäßigerweise können als statische Objekte Leitplanken, Infrastrukturen, parkende Verkehrsteilnehmer, Straßenmarkierungen, Straßenrandbebauungen und dergleichen vorgesehen sein.Crash barriers, infrastructure, parked road users, road markings, roadside buildings and the like can expediently be provided as static objects.

Ferner kann auch die Art der erkannten Grenze auf der Grundlage einer Klassifizierung gekennzeichnet werden, z. B. Straßenrandbebauung aus Beton, Metallleitplanke, Graskante, Straßenmarkierung oder dergleichen.Furthermore, the type of boundary detected can also be identified based on a classification, e.g. B. Roadside buildings made of concrete, metal crash barriers, grass edges, road markings or the like.

Vorzugsweise werden die erkannten Grenzen als linke und rechte Grenze festgelegt, wobei die Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden und sich links des Ego-Pfades befinden, der linken Grenze und die Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden und sich rechts des Ego-Pfades befinden, als rechte Grenze zugeordnet werden.Preferably, the detected boundaries are defined as left and right boundaries, where the edges of the polygons intersecting the ego path that do not intersect with the ego path and are to the left of the ego path are the left boundary and the edges of the polygons intersecting the ego path that do not intersect the ego path and are to the right of the ego path are mapped as the right boundary.

Gemäß einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens können dann alle damit verbundenen Kanten zur selben Grenze oder zum selben Bewegungsweges zugehörig klassifiziert bzw. beschriftet werden, wenn eine Kante einer Seite zugeordnet wird.According to an advantageous embodiment of the method according to the invention, all associated edges can then be classified or labeled as belonging to the same boundary or to the same movement path if an edge is assigned to a side.

In vorteilhafter Weise kann dann jede der verbundenen Kanten als Grenze klassifiziert bzw. beschriftet/gekennzeichnet werden.Each of the connected edges can then advantageously be classified or labeled/identified as a boundary.

Zweckmäßigerweise kann ein DGPS-Sensor vorgesehen sein, der derart erweitert werden kann, dass die Ausgabe des vorgeschlagenen Algorithmus in Kombination mit DGPS-Koordinaten direkt zur Erstellung von hochauflösenden Karten (HD-Maps) verwendet werden, die in verschiedenen ADAS-Funktionen Anwendung finden können.Conveniently, a DGPS sensor can be provided, which can be extended in such a way that the output of the proposed algorithm in combination with DGPS coordinates can be used directly to create high-resolution maps (HD maps) that can be used in various ADAS functions .

Neben- oder untergeordnet beansprucht die vorliegende Erfindung auch ein Verfahren zur Kennzeichnung bzw. Beschriftung eines Bewegungsweges eines Fahrzeuges, bei dem Detektionspunkte umfassende Sensordaten mittels eines Sensors erfasst werden und die Schätzung der Geometrie des Bewegungsweges anhand der Sensordaten erfolgt, wobei anhand von Sensorsignalen des Sensors ein Gitter bzw. eine Karte mit Zellen erstellt wird, um statische Detektionen zu erfassen. Anhand des Sensorsignals (z. B. anhand der Intensität bzw. der Signalstärke oder der Laufzeit des Sensorsignals) wird dann zwischen starken und schwachen Detektionen unterschieden und ein Histogramm erstellt, welches sich von einer Fahrzeugachse des Fahrzeuges aus erstreckt. Dabei wird das Auftreten von Detektionen in den Zellen des Gitters angezeigt.In addition or subordinately, the present invention also claims a method for identifying or labeling a movement path of a vehicle, in which sensor data comprising detection points are recorded by means of a sensor and the geometry of the movement path is estimated on the basis of the sensor data, with sensor signals from the sensor Grid or map of cells is created to capture static detections. Based on the sensor signal (e.g. based on the intensity or the signal strength or the transit time of the sensor signal), a distinction is then made between strong and weak detections and a histogram is created, which extends from a vehicle axis of the vehicle. The occurrence of detections in the cells of the grid is displayed.

Vorzugsweise können die Grenzen (zusätzlich) aus dem Histogramm extrahiert werden, wobei die Grenzen anhand des Auftretens von Detektionen in den Zellen erfolgt. Hierbei können z. B. die Spitzen im Histogramm, welche das Vermehrte Auftreten von Detektionen anzeigen,
Zweckmäßigerweise kann als Gitter ein Radargrid, ein RCS-Gitter, ein Kamerabild, ein Lidarimage oder dergleichen vorgesehen sein. Darüber hinaus ist auch eine andere zum Stand der Technik zughörige Art einer Sensorsignaldarstellung denkbar.
Preferably, the boundaries can be (additionally) extracted from the histogram, the boundaries being based on the occurrence of detections in the cells. Here z. B. the peaks in the histogram, which indicate the increased occurrence of detections,
A radar grid, an RCS grid, a camera image, a lidar image or the like can expediently be provided as the grid. In addition, is another type of sensor signal representation associated with the prior art is also conceivable.

Ferner umfasst die vorliegende Erfindung ein System zur Schätzung der Geometrie des Bewegungsweges eines Fortbewegungsmittels bzw. eines Fahrzeuges. Das System weist hierzu einen Sensor zum Erzeugen von Sensordaten, insbesondere einen Radarsensor zur Erzeugung von Radardetektionspunkten, und eine Steuereinrichtung auf. Anhand der Sensordaten bzw. der Detektionspunkte und den erfindungsgemäß erzeugten Kennzeichnungen erfolgt dann die Schätzung der Geometrie des Bewegungsweges, indem die Steuereinrichtung dazu hergerichtet ist, die Sensordaten des Sensors und die Kennzeichnungen entsprechend weiterzuverarbeiten. Zweckmäßigerweise kann die Steuereinrichtung derart hergerichtet sein, dass sie auf Aktoren des Fahrzeuges zugreifen kann, um entsprechende Fahr- und Assistenzfunktionen unterstützend und/oder (teil-) autonom auszuführen.Furthermore, the present invention includes a system for estimating the geometry of the movement path of a means of transportation or a vehicle. For this purpose, the system has a sensor for generating sensor data, in particular a radar sensor for generating radar detection points, and a control device. The geometry of the movement path is then estimated on the basis of the sensor data or the detection points and the identifiers generated according to the invention, in that the control device is set up to further process the sensor data of the sensor and the identifiers accordingly. The control device can expediently be set up in such a way that it can access actuators of the vehicle in order to carry out corresponding driving and assistance functions in a supportive and/or (partly) autonomous manner.

Zweckmäßigerweise kann es sich bei den erfindungsgemäßen Verfahren um rein computerimplementierte Verfahren handeln, wobei der Begriff „computerimplementiertes Verfahren“ im Sinne der Erfindung eine Ablaufplanung oder Vorgehensweise beschreibt, welche anhand eines Rechners verwirklicht bzw. durchgeführt wird. Der Rechner, wie z. B. ein Computer, ein Computernetzwerk, eine Steuereinheit (z. B. ECU bzw. Electronic Control Unit oder ADCU bzw. Assisted & Automated Driving Control Unit) bzw. eine Rechenvorrichtung darin oder eine andere aus dem Stand der Technik bekannte programmierbare Vorrichtung, kann dabei mittels programmierbarer Rechenvorschriften die entsprechenden Daten verarbeiten. In Bezug auf das erfindungsgemäße Verfahren bzw. das erfindungsgemäße System können dabei die wesentlichen Eigenschaften z. B. durch ein neues Programm, neue Programme, einen Algorithmus oder dergleichen bewirkt werden, welches auf der Steuereinheit ausgeführt wird.The methods according to the invention can expediently be purely computer-implemented methods, with the term “computer-implemented method” in the sense of the invention describing a flow plan or procedure that is realized or carried out using a computer. The calculator, such as a computer, a computer network, a control unit (e.g. ECU or Electronic Control Unit or ADCU or Assisted & Automated Driving Control Unit) or a computing device therein or another programmable device known from the prior art process the corresponding data using programmable calculation rules. With regard to the method according to the invention and the system according to the invention, the essential properties z. B. be caused by a new program, new programs, an algorithm or the like, which is executed on the control unit.

Figurenlistecharacter list

Im Folgenden wird die Erfindung anhand von zweckmäßigen Ausführungsbeispielen näher erläutert. Es zeigen:

  • 1 eine vereinfachte schematische Darstellung eines Fahrzeuges, welches auf Kennzeichnungen zurückgreift, die anhand des erfindungsgemäßen Verfahrens erzeugt wurden;
  • 2 eine vereinfachte schematische Darstellung von Radardetektionen in einem Radargrid (Links) mit einem Ausschnitt (Rechts) daraus;
  • 3 eine vereinfachte schematische Darstellung einer statischen Umgebung (Links) sowie der Kombination aus Lateralem Offset und Ego-Pfad (Rechts), sowie
  • 4 eine vereinfachte schematische Darstellung von Radardetektionen in einem Koordinatensystem, wobei der Bewegungsweg anhand einer Triangulierung durchgeführt wurde.
In the following, the invention is explained in more detail by means of expedient exemplary embodiments. Show it:
  • 1 a simplified schematic representation of a vehicle, which uses identifiers that were generated using the method according to the invention;
  • 2 a simplified schematic representation of radar detections in a radar grid (left) with a section (right) thereof;
  • 3 a simplified schematic representation of a static environment (left) and the combination of lateral offset and ego path (right), as well as
  • 4 a simplified schematic representation of radar detections in a coordinate system, where the movement path was carried out using a triangulation.

Bezugsziffer 1 in 1 bezeichnet ein Fahrzeug bzw. Ego-Fahrzeug mit einer Steuereinrichtung 2 (ECU, Electronic Control Unit oder ADCU, Assisted and Automated Driving Control Unit), durch die eine Sensorsteuerung, Sensordatenfusion, Umfeld- und/oder Objekterkennung, Trajektorienplanung und/oder Fahrzeugsteuerung, insbesondere (teil-) autonom, erfolgen kann. Zur Fahrzeugsteuerung kann die Steuereinrichtung 2 auf verschiedenen Aktoren (Lenkung 3, Motor 4, Bremse 5) zugreifen. Ferner weist das Fahrzeug 1 zur Umfelderfassung verschiedene Sensoren auf (Lidarsensor 6, Kamera 7, Radarsensor 8, Ultraschallsensoren 9a-9d sowie ein nach hinten gerichteter Radarsensor 10). In vorteilhafter Weise können die Sensordaten zur Umfeld- und Objekterkennung genutzt werden, sodass verschiedene Assistenzfunktionen, wie z. B. Notbremsassistent (EBA, Emergency Brake Assist), Abstandsfolgeregelung (ACC, Adaptive Cruise Control), Spurhalteregelung bzw. ein Spurhalteassistent (LKA, Lane Keep Assist) oder dergleichen, realisiert werden können. Ferner kann die Ausführung der Assistenzfunktionen ebenfalls über die Steuereinrichtung 2 oder eine andere, dafür vorgesehene Steuereinheit erfolgen. Die Trajektorienplanung erfolgt dabei anhand einer Schätzung der Geometrie des Bewegungsweges gemäß dem erfindungsgemäßen Verfahren.Reference number 1 in 1 refers to a vehicle or ego vehicle with a control device 2 (ECU, Electronic Control Unit or ADCU, Assisted and Automated Driving Control Unit), through which sensor control, sensor data fusion, environment and/or object recognition, trajectory planning and/or vehicle control, in particular (partially) autonomously. To control the vehicle, the control device 2 can access various actuators (steering 3, motor 4, brake 5). Vehicle 1 also has various sensors for detecting the surroundings (lidar sensor 6, camera 7, radar sensor 8, ultrasonic sensors 9a-9d and a rearward-facing radar sensor 10). Advantageously, the sensor data can be used for environment and object detection, so that various assistance functions such. B. emergency brake assistant (EBA, Emergency Brake Assist), distance following control (ACC, Adaptive Cruise Control), lane keeping control or a lane departure warning system (LKA, Lane Keep Assist) or the like can be realized. Furthermore, the assistance functions can also be executed via the control device 2 or another control unit provided for this purpose. The trajectory is planned based on an estimate of the geometry of the movement path according to the method according to the invention.

Der Radarsensor 8 ist dabei derart ausgestaltet, dass das System zwischen statischen und bewegten Objekten unterscheiden kann. Diese Ausgestaltungsform ist hinreichend bekannt und soll nicht Teil dieser Erfindung sein. Aus den statischen Objekten können dabei Informationen über die Straßengeometrie vor dem Fahrzeug 1 abgeleitet werden. Derartige Informationen können jedoch auch mehrdeutig sein: Es gibt beispielsweise Szenarien, in denen nur auf statischen Informationen beruhende Korridore gute Kandidaten für die Straßenrandschätzung sind. Um derartige Unklarheiten zu beseitigen, kann zudem die Spureninformationen von bewegten Objekten zur Straßenrandschätzung herangezogen werden. Die Spuren der detektierten bewegten Objekte zeigen dabei die Positionsgeschichte bzw. Bewegungsgeschichte der Objekte bzw. Verkehrsteilnehmer im umliegenden Verkehr zum Fahrzeug 1 an.The radar sensor 8 is designed in such a way that the system can distinguish between static and moving objects. This embodiment is well known and is not intended to form part of this invention. Information about the road geometry in front of the vehicle 1 can be derived from the static objects. However, such information can also be ambiguous: for example, there are scenarios where only corridors based on static information are good candidates for roadside estimation. In order to eliminate such ambiguities, the lane information from moving objects can also be used to estimate the roadside. The traces of the detected moving objects indicate the position history or movement history of the objects or road users in the traffic surrounding the vehicle 1 .

Für die Umsetzung der Erfindung wird zunächst ein Gitter bzw. Radargrid erstellt, um statische Detektionen zu erfassen und sie im Laufe der Zeit zu akkumulieren. Dafür können verschiedene Arten von Akkumulierungen verwendet werden, z. B. probabilistische Ansammlungen wie Bayes Grid oder RCS-basierte Akkumulationen. Letztere hat den Vorteil, dass der RCS-Wert von den Reflexionsparametern der Objekte abhängt. Daher kann zwischen starken Erkennungen (in der Regel aus Metallgegenständen) oder schwachen Erkennungen (aus nicht-metallenen wie Vegetation, Beton usw.) unterschieden werden. Nach dem Einsetzen der Detektionen in das statische Gitter muss der seitliche Offset (Rand) der Straße entnommen werden. Dies kann z. B. durch ein Histogramm, das sich z. B. bis zu 15 Meter in longitudinaler Richtung und 50 Meter seitlich nach links und rechts bzw. lateral in beiden Richtungen von der Sensorposition aus erstreckt. Das Histogramm zeigt dabei das Auftreten der besetzten Zellen in Längsrichtung an. Dann werden die ersten Spitzen des Histogramms links und rechts vom Sensor erkannt. Sie bezeichnen die innerste Grenzlage links und rechts von der Fahrzeugsachse, wie in 2 gezeigt.To implement the invention, a grid or radar grid is first created to capture static detections and accumulate them over time. Various can do this Types of accumulations are used, e.g. B. probabilistic accumulations such as Bayes grid or RCS-based accumulations. The latter has the advantage that the RCS value depends on the reflection parameters of the objects. Therefore, a distinction can be made between strong detections (usually from metal objects) or weak detections (from non-metal ones such as vegetation, concrete, etc.). After inserting the detections into the static grid, the lateral offset (edge) of the road must be taken. This can e.g. B. by a histogram, the z. B. extends up to 15 meters in the longitudinal direction and 50 meters laterally to the left and right or laterally in both directions from the sensor position. The histogram shows the occurrence of the occupied cells in the longitudinal direction. Then the first peaks of the histogram to the left and right of the sensor are detected. They designate the innermost limit position to the left and right of the vehicle axis, as in 2 shown.

In 2 ist die Extraktion der seitlichen Straßenränder gezeigt, für ein statisches Gitter, das als statische Radareingangsdetektion verwendet wird. Ein Histogramm wird für die besetzten Zellen bis zu X=15 m erstellt und die seitlichen Ränder links (Straßengrenze links SGL) und rechts (Straßengrenze rechts SGR) werden extrahiert. Die Extraktion erfolgt anhand der ersten Spitzen des Histogramms links und rechts von der Fahrzeugsachse FA. Die extrahierten seitlichen Ränder links und rechts beziehen sich dabei auf die Position des Fahrzeugs. Durch die Kombination der momentanen seitlichen Ränder mit der Ego-Trajektorie bzw. des Ego-Pfades EP des Fahrzeuges können nun die Straßengrenzen links und rechts vom Fahrzeug rekonstruiert werden (rekonstruierte Straßengrenze links rSGL und rekonstruierte Straßengrenze rechts rSGR), wie in 3 gezeigt.In 2 shows side road edge extraction for a static grid used as static radar input detection. A histogram is created for the occupied cells up to X=15 m and the lateral edges on the left (road boundary left SGL) and right (road boundary right SGR) are extracted. The extraction is based on the first peaks of the histogram to the left and right of the vehicle axis FA. The extracted lateral edges on the left and right relate to the position of the vehicle. By combining the current lateral edges with the ego trajectory or the ego path EP of the vehicle, the road boundaries to the left and right of the vehicle can now be reconstructed (reconstructed road boundary on the left rSGL and reconstructed road boundary on the right rSGR), as in 3 shown.

Für jeden Zeitstempel (t0, t1, t2 ... tn) kann links und rechts neben der Ego-Position bzw. dem Ego-Pfad EP in der globalen Karte die entsprechende Grenze links und rechts gekennzeichnet werden. Durch die Verbindung der Punkte kann dann der gesamte Verlauf des Bewegungsweges nach links und rechts rekonstruiert werden. Je nach Art der zu rekonstruierenden Straßengrenze kann dieser Algorithmus erweitert werden, um verschiedene Arten von Grenzen zu erkennen. Sofern nur die Straßengrenzen erkannt werden müssen, die von den Leitplanken stammen, und mittels Radar- oder Lidar-Sensor erfasst bzw. detektiert werden (welche derartige Ziele gut detektieren können), kann ein dediziertes statisches Gitter geschaffen werden, das es erlaubt, über die Zeit nur starke Reflexionen zu sammeln und schwächere abzulehnen bzw. zu verwerfen. Sofern Graskanten oder Betonbebauungen erfasst werden sollen, die mittels Radar- oder Lidar-Sensor erkannt werden sollen (aber nicht so starke Detektionen liefern), kann z. B. ein statisches Gitter geschaffen werden, das über die Zeit nur schwache Reflexionen akkumuliert und stärkere verwirft.For each time stamp (t 0 , t 1 , t 2 . . . t n ), the corresponding border can be identified on the left and right next to the ego position or the ego path EP in the global map. By connecting the points, the entire course of the movement path to the left and right can then be reconstructed. Depending on the type of road boundary to be reconstructed, this algorithm can be extended to recognize different types of boundaries. If only the road boundaries have to be recognized, which originate from the crash barriers, and are recorded or detected using radar or lidar sensors (which can detect such targets well), a dedicated static grid can be created that allows the Time to collect only strong reflections and reject or discard weaker ones. If grass edges or concrete buildings are to be detected, which are to be detected using radar or lidar sensors (but do not provide such strong detections), e.g. For example, a static grid can be created that only accumulates weak reflections over time and discards stronger ones.

Für den Fall, dass ein Kamerabild als Sensoreingang verwendet werden soll, kann das Bild in eine Vogelperspektive umgewandelt werden. Danach können die Spurmarkierungen extrahiert und dann mit der egogetriebenen Position bzw. dem Ego-Pfad neu kombiniert werden. Eine derartige Kombination entspräche dann inhaltsgemäß in etwa einer Seitengrenzenextraktion mittels Radargrid bzw. Gitter. Anstelle nur eines seitlichen Randes können auch mehrere seitliche Ränder extrahiert und eine Karte mit mehreren Spuren erstellt werden. Die Entnahme von Spurmarkierungen ist nicht Gegenstand dieser Arbeit und es gibt eine Menge Algorithmen, wie man sie extrahiert. Die Erfindung besteht hier aus der Kombination der seitlichen Markierungslage und der Ego-Position, wie in den vorstehenden Absätzen erläutert. Wir nähern uns dem Ziel dieser Erfindung, d. h. der Kennzeichnung der Merkmale der Straßengrenzen. Dies kann leicht in einer zweiten Iteration erfolgen, bei der die aufgezeichneten Daten mit den geschätzten Rändern, wie oben erläutert, erweitert werden. Durch Auswahl aller Erkennungen bis zu einer bestimmten Entfernung, z. B. 0,5 m weit von der geschätzten Straßengrenze, können derartige Erkennungen als Straßengrenzerkennung gekennzeichnet werden. Ferner kann gekennzeichnet werden zu welcher Straßengrenzenseite die jeweilige Detektion gehört.In the event that a camera image is to be used as a sensor input, the image can be converted to a bird's eye view. After that, the lane markers can be extracted and then recombined with the ego-driven position or path. In terms of content, such a combination would then roughly correspond to a side boundary extraction using a radar grid or lattice. Instead of just one lateral edge, multiple lateral edges can be extracted and a multi-track map can be created. The extraction of lane markers is not the subject of this work and there are a lot of algorithms how to extract them. The invention here consists of the combination of the side marker position and the ego position as explained in the preceding paragraphs. We are approaching the goal of this invention, viz. H. the marking of the features of the road boundaries. This can easily be done in a second iteration, augmenting the recorded data with the estimated edges as discussed above. By selecting all detections up to a certain distance, e.g. B. 0.5 m far from the estimated road boundary, such detections can be flagged as road boundary detection. Furthermore, it can be identified to which side of the road boundary the respective detection belongs.

Ferner kann es zu Situationen kommen, in denen die Nutzung eines Gitters nicht vorteilhaft ist. Beispielsweise kann die Auflösung von Rasterzellen zu grob sein, was zu unscharfen Straßengrenzen führen kann. D. h. die Erkennung hinter der innersten Straßengrenze kann fälschlicherweise als Straßengrenze eingestuft werden. Auch das Prinzip der Auswahl aller Detektionen in der Nähe der Straßengrenze bis zu einer bestimmten Entfernung kann zu dieser Unschärfe beitragen (Fehleinstufung von Erkennungen). Daher die Kennzeichnung auch durchgeführt werden, bei der weder ein Gitter noch ein Histogramm zur Identifizierung der innersten Grenzen benötigt wird. Bei diesem erfindungsgemäßen Verfahren wird die Geometrie des Bewegungsweges geschätzt, indem die innere Straßengrenze auf der Basis von Sensormessungen bestimmt bzw. berechnet wird. Im Folgenden werden Ausführungsbeispiele beschrieben, bei denen als Sensor ein Radarsensor verwendet wird. Ausdrücklich umfasst sind jedoch auch andere aus dem Stand der Technik bekannte Sensoren, wie z. B. Lidar- oder Kamerasensoren. Der Radarsensor liefert dabei in jedem Scanzyklus eine Liste von Objekten bzw. Zielen mit der entsprechenden relativen Position der jeweiligen Ziele und deren Geschwindigkeit im Verhältnis zum Fahrzeug, welches den Radarsensor umfasst und dem Ortspunkt 0 (x = 0; y = 0) entspricht. Basierend auf der relativen Geschwindigkeit zum Fahrzeug werden die Objekte dann als statische oder mobile Ziele eingestuft. Für die Abschätzung der Straßengrenze werden vorliegend jedoch nur die statischen Ziele verwendet, denen jeweils ein Ortspunkt zugeordnet werden kann. Die Abschätzung erfolgt dann, indem ein Polygonnetz bzw. eine Delaunay-Triangulation (Delaunay-Dreiecksbildung oder Delaunay-Triangulierung) auf der Grundlage der Position der statischen Ziele bzw. deren Ortspunkte und der des Fahrzeugs berechnet bzw. eingefügt wird. Das Erstellen des Polygonnetzes bzw. die Delaunay-Triangulierung erfolgt insbesondere durch ein Verfahren bzw. einer Verfahrensausgestaltung gemäß DE 10 2018 215 448 B3 , auf das somit direkt Bezug genommen wird. Hierbei können die statischen Detektionen aus einem taktilen Sensor direkt genutzt werden, um die beschriebene Delaunay-Triangulation darauf aufzubauen. Dann kann der Ego-Pfad über diese Triangulation hinaus eingeschlagen werden. Ferner können folgende Verfahrensschritte ergriffen werden:

  • - Identifizieren von Polygonen bzw. Dreiecken, die sich mit dem Ego-Pfad überschneiden;
  • - Bestimmen der sich mit dem Ego-Pfad überschneidenden Kanten für jedes sich mit dem Ego-Pfad überschneidende Polygon bzw. Dreiecks, sowie
  • - Festlegen der Grenzen des Bewegungsweges indem alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich auch mit dem Ego-Pfad überschneiden, als Oberfläche des Bewegungsweges und alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden, als Grenzen bzw. Straßengrenzen/Straßenränder klassifiziert werden.
Furthermore, there may be situations where the use of a grid is not advantageous. For example, the resolution of raster cells can be too coarse, which can result in blurred street boundaries. i.e. detection beyond the innermost road boundary may be misclassified as a road boundary. Also the principle of selecting all detections close to the road boundary up to a certain distance can contribute to this blurring (misclassification of detections). Therefore, labeling can also be performed that does not require a grid or histogram to identify the innermost boundaries. In this method according to the invention, the geometry of the movement path is estimated by determining or calculating the inner road boundary on the basis of sensor measurements. Exemplary embodiments are described below in which a radar sensor is used as the sensor. However, other sensors known from the prior art, such as e.g. B. lidar or camera sensors. In each scan cycle, the radar sensor supplies a list of objects or targets with the corresponding relative position of the respective ones Targets and their speed in relation to the vehicle that includes the radar sensor and corresponds to location 0 (x=0; y=0). Objects are then classified as static or mobile targets based on relative speed to the vehicle. In the present case, however, only the static targets to which a location point can be assigned are used for estimating the road boundary. The assessment then takes place by calculating or inserting a polygon network or a Delaunay triangulation (Delaunay triangle formation or Delaunay triangulation) on the basis of the position of the static targets or their location points and that of the vehicle. The creation of the polygon mesh or the Delaunay triangulation is carried out in particular by a method or a method configuration according to FIG DE 10 2018 215 448 B3 , to which direct reference is made. Here, the static detections from a tactile sensor can be used directly in order to build up the Delaunay triangulation described thereon. Then the ego path can be taken beyond this triangulation. The following procedural steps can also be taken:
  • - Identifying polygons or triangles that intersect with the ego path;
  • - determining the edges intersecting the ego path for each polygon or triangle intersecting the ego path, and
  • - Determining the boundaries of the movement path by taking all edges of polygons intersecting the ego path that also intersect with the ego path as the surface of the movement path and all edges of polygons intersecting the ego path that do not intersect with intersect with the ego path are classified as boundaries or road boundaries/roadsides.

Hierbei kann erkannt werden, ob eine (Straßen-) Grenze links oder rechts ist, indem festgelegt wird, an welcher Seite des Ego-Pfades eines seiner Segmente bzw. eine seiner Kanten liegt. Wird ein Segment bzw. eine Kante als einer Seite zugeordnet, können alle damit verbundenen Segmente/Kanten auf demselben Weg bzw. derselben Straße klassifiziert werden, wobei jede Erkennung in dieser Kette von Segmenten/Kanten als (Straßen-) Grenze klassifiziert wird.Here it can be recognized whether a (road) boundary is to the left or to the right by determining on which side of the ego path one of its segments or one of its edges lies. If a segment/edge is assigned as a side, all connected segments/edges can be classified on the same path/road, with each detection in this chain of segments/edges being classified as a (road) boundary.

In 4 ist die Überschneidung des vom Fahrzeug angetriebenen Weges mit der Delaunay-Triangulation Tri der statischen Detektionen aus einem taktilen Sensor, wie z. B. Radar. Nur die Dreiecke, die durch den Ego-Pfad EP führen, werden für die Erfassung der Straßengrenze SG berücksichtigt. Insbesondere die Ränder solcher Dreiecke, die nicht den Ego-Pfad EP schneiden, bilden den innersten Rand bzw. die innerste Grenze links und rechts.In 4 is the intersection of the vehicle-driven path with the Delaunay triangulation Tri of the static detections from a tactile sensor, such as a B. Radar. Only the triangles that lead through the ego path EP are taken into account for the detection of the road boundary SG. In particular, the edges of such triangles that do not intersect the ego path EP form the innermost edge or the innermost border on the left and right.

Die erfindungsgemäßen Verfahren sind einfach zu implementieren oder in bestehenden Systemen nachzurüsten. Ferner benötigen sie nur eine angemessene Menge an Ressourcen (RAM und Prozessor) und vor allem können sie den menschlichen Betreiber für die Kennzeichnung der Straßengrenzen ersetzen. Anhand dieser Methode können somit Straßengrenzen auf der Grundlage künstlicher Intelligenz geschätzt werden, da sie automatisch die markierten Straßenabschnitte ausgeben. Ferner können die Verfahren auch in den Bereichen Trajektorienplanung im autonomen Fahren, Robotik, Geodäsie oder bei der Erstellung von HD-Karten eingesetzt werden, so dass die vorliegende Erfindung einen ganz besonderen Beitrag zum Stand der Technik leistet.The methods according to the invention are easy to implement or to retrofit in existing systems. Furthermore, they only require a reasonable amount of resources (RAM and processor) and most importantly, they can replace the human operator for road boundary marking. This method can thus be used to estimate road boundaries based on artificial intelligence, since they automatically output the marked road sections. Furthermore, the methods can also be used in the areas of trajectory planning in autonomous driving, robotics, geodesy or in the creation of HD maps, so that the present invention makes a very special contribution to the prior art.

BezugszeichenlisteReference List

11
Fahrzeugvehicle
22
Steuereinrichtungcontrol device
33
Lenkungsteering
44
Motorengine
55
Bremsebrake
66
Lidarsensorlidar sensor
77
Kameracamera
88th
Radarsensorradar sensor
9a-9d9a-9d
Ultraschallsensorultrasonic sensor
1010
Radarsensor radar sensor
EPEP
Ego-Pfadego path
SGSG
Straßengrenzeroad border
SGLSGL
Straßengrenze linksstreet boundary on the left
SGRSGR
Straßengrenze rechtsstreet boundary on the right
rSGLrSGL
rekonstruierte Straßengrenze linksreconstructed road boundary on the left
rSGRrSGR
rekonstruierte Straßengrenze rechtsreconstructed road boundary on the right
FAFA
Fahrzeugachsevehicle axle
Tritri
Triangulierungtriangulation

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • US 6751547 B2 [0007]US 6751547 B2 [0007]
  • US 6718259 B1 [0008]US 6718259 B1 [0008]
  • DE 102016107705 A1 [0009]DE 102016107705 A1 [0009]
  • DE 102015013084 A1 [0010]DE 102015013084 A1 [0010]
  • DE 102013201796 A1 [0010]DE 102013201796 A1 [0010]
  • DE 102018215448 B3 [0011, 0017, 0035]DE 102018215448 B3 [0011, 0017, 0035]

Claims (15)

Verfahren zum Kennzeichnen eines Bewegungsweges eines Fahrzeuges (1), bei dem Detektionspunkte umfassende Sensordaten mittels eines Sensors erfasst werden, wobei Ziele entlang des Bewegungsweges anhand der Sensordaten ermittelt werden, Ortspunkte für die jeweilige Position der Ziele und des Sensors festgelegt werden, anhand der Ortspunkte mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein Polygonnetz erstellt wird, dadurch gekennzeichnet, dass das Verfahren folgende Verfahrensschritte umfasst: - Identifizieren von Polygonen, die sich mit dem Ego-Pfad überschneiden; - Bestimmen der sich mit dem Ego-Pfad überschneidenden Kanten, für jedes sich mit dem Ego-Pfad überschneidende Polygon, und - Festlegen der Grenzen des Bewegungsweges indem alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich auch mit dem Ego-Pfad überschneiden, als Oberfläche des Bewegungsweges und alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden, als Grenzen gekennzeichnet werden.Method for identifying a movement path of a vehicle (1), in which sensor data comprising detection points is recorded by means of a sensor, with targets along the movement path being determined using the sensor data, location points for the respective position of the targets and the sensor being determined, using the location points several Polygons are determined, in particular continuously, so that a polygon network is created, characterized in that the method comprises the following method steps: - identifying polygons which intersect with the ego path; - determining the ego-path-intersecting edges, for each ego-path-intersecting polygon, and - defining the boundaries of the movement path by including all edges of the ego-path-intersecting polygons that also intersect with the ego-path Intersect Path as the surface of the motion path and all edges of the polygons intersecting the ego path that do not intersect the ego path as boundaries. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Sensor mindestens ein Lidarsensor (6), eine Kamera (7), ein Radarsensor (8) und/oder ein Ultraschallsensor (9a-9d) vorgesehen ist.procedure after claim 1 , characterized in that at least one lidar sensor (6), a camera (7), a radar sensor (8) and/or an ultrasonic sensor (9a-9d) is provided as the sensor. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass es sich bei dem Polygon um ein Dreieck bzw. den Polygonen um Dreiecke handelt.procedure after claim 1 or 2 , characterized in that the polygon is a triangle or the polygons are triangles. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das Polygonnetz anhand einer Delaunay-Triangulierung bestimmt wird.procedure after claim 3 , characterized in that the polygon mesh is determined using a Delaunay triangulation. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als statische Objekte Leitplanken, Infrastrukturen, parkende Verkehrsteilnehmer, Straßenmarkierungen, Straßenrandbebauungen und dergleichen vorgesehen sind.Method according to one of the preceding claims, characterized in that crash barriers, infrastructure, parked road users, road markings, roadside buildings and the like are provided as static objects. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die erkannten Grenzen auf der Grundlage einer Klassifizierung gekennzeichnet werden, insbesondere werden die Grenzen als Straßenrandbebauung, Leitplanke, Graskante, Straßenmarkierung oder dergleichen markiert.Method according to one of the preceding claims, characterized in that the recognized boundaries are marked on the basis of a classification, in particular the boundaries are marked as roadside development, crash barrier, grass edge, road marking or the like. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die erkannten Grenzen als linke und rechte Grenze festgelegt werden, wobei die Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden und sich links des Ego-Pfades befinden, der linken Grenze und die Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden und sich rechts des Ego-Pfades befinden, als rechte Grenze zugeordnet werden.Method according to one of the preceding claims, characterized in that the recognized boundaries are defined as left and right boundaries, the edges of the polygons intersecting with the ego path, which do not intersect with the ego path and are to the left of the ego path are assigned as the left boundary and the edges of the polygons intersecting the ego path that do not intersect with the ego path and are to the right of the ego path are assigned as the right boundary. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass wenn eine Kante einer Seite zugeordnet wird, können alle damit verbundenen Kanten auf derselben Grenze oder desselben Bewegungsweges klassifiziert werden.procedure after claim 7 , characterized in that when an edge is assigned to a side, all associated edges can be classified on the same boundary or movement path. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass jede der verbundenen Kanten als Grenze klassifiziert wird.Method according to one of the preceding claims, characterized in that each of the connected edges is classified as a boundary. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein GPS-Sensor, insbesondere ein DGPS-Sensor, vorgesehen ist.Method according to one of the preceding claims, characterized in that a GPS sensor, in particular a DGPS sensor, is provided. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass anhand der Koordinaten des GPS-Sensors eine hochauflösende Karte (HD-Maps) erstellt wird.procedure after claim 10 , characterized in that a high-resolution map (HD maps) is created using the coordinates of the GPS sensor. Verfahren zur Kennzeichnung eines Bewegungsweges eines Fahrzeuges (1), bei dem Detektionspunkte umfassende Sensordaten mittels eines Sensors erfasst werden und die Schätzung der Geometrie des Bewegungsweges anhand der Sensordaten erfolgt, insbesondere nach mindestens einem der vorhergehenden Ansprüche, wobei anhand von Sensorsignalen des Sensors ein Gitter mit Zellen erstellt wird, um statische Detektionen zu erfassen, wobei anhand eines Sensorsignals zwischen starken und schwachen Detektionen unterschieden wird und ein Histogramm, welches sich von einer Fahrzeugachse (FA) des Fahrzeuges (1) erstreckt, erstellt wird, welches das Auftreten von Detektionen in den Zellen des Gitters anzeigt.Method for characterizing a movement path of a vehicle (1), in which sensor data comprising detection points is recorded by means of a sensor and the geometry of the movement path is estimated on the basis of the sensor data, in particular according to at least one of the preceding claims, wherein on the basis of sensor signals from the sensor a grid with cells is created in order to record static detections, a distinction being made between strong and weak detections based on a sensor signal and a histogram, which extends from a vehicle axis (FA) of the vehicle (1), is created, which shows the occurrence of detections in the cells of the grid. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass die Grenzen aus dem Histogramm extrahiert werden, wobei die Grenzen anhand des Auftretens von Detektionen in den Zellen erfolgt.procedure after claim 12 , characterized in that the boundaries are extracted from the histogram, the boundaries being based on the occurrence of detections in the cells. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass als Gitter ein Radargrid, ein RCS-Gitter, ein Kamerabild, ein Lidarimage oder dergleichen vorgesehen ist.procedure after claim 12 or 13 , characterized in that a radar grid, an RCS grid, a camera image, a lidar image or the like is provided as the grid. System zur Schätzung der Geometrie eines Bewegungsweges eines Fahrzeuges (1), mit mindestens einem Sensor zur Erzeugung von Detektionspunkten umfassenden Sensordaten, und einer Steuereinrichtung (2), wobei die Schätzung der Geometrie des Bewegungsweges anhand der Sensordaten des Sensors durch die Steuereinrichtung (2) erfolgt, indem die Steuereinrichtung (2) die Schätzung der Geometrie des Bewegungsweges anhand von Kennzeichnungen durchführt, die mittels eines Verfahrens nach einem der vorhergehenden Ansprüche erzeugt wurden.System for estimating the geometry of a movement path of a vehicle (1), with at least one sensor for generating detection points comprising sensor data, and a control device (2), the geometry of the movement path being estimated by the control device (2) using the sensor data of the sensor , in that the control device (2) carries out the estimation of the geometry of the movement path on the basis of markings which were generated by means of a method according to one of the preceding claims.
DE102021207609.2A 2021-07-16 2021-07-16 Procedure for marking a movement path Pending DE102021207609A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021207609.2A DE102021207609A1 (en) 2021-07-16 2021-07-16 Procedure for marking a movement path

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021207609.2A DE102021207609A1 (en) 2021-07-16 2021-07-16 Procedure for marking a movement path

Publications (1)

Publication Number Publication Date
DE102021207609A1 true DE102021207609A1 (en) 2023-01-19

Family

ID=84547039

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021207609.2A Pending DE102021207609A1 (en) 2021-07-16 2021-07-16 Procedure for marking a movement path

Country Status (1)

Country Link
DE (1) DE102021207609A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022125695A1 (en) 2022-10-05 2024-04-11 Bayerische Motoren Werke Aktiengesellschaft Method and device for efficient object tracking and correspondingly equipped motor vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6718259B1 (en) 2002-10-02 2004-04-06 Hrl Laboratories, Llc Adaptive Kalman filter method for accurate estimation of forward path geometry of an automobile
US6751547B2 (en) 2001-11-26 2004-06-15 Hrl Laboratories, Llc Method and apparatus for estimation of forward path geometry of a vehicle based on a two-clothoid road model
DE102013201796A1 (en) 2013-02-05 2014-08-07 Robert Bosch Gmbh Method for providing a driving corridor for a vehicle and driver assistance system
DE102015013084A1 (en) 2015-10-08 2016-03-31 Daimler Ag Method for securing control parameters in a lane detection algorithm of a motor vehicle
DE102016107705A1 (en) 2015-04-27 2016-10-27 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Reactive path planning for autonomous driving
DE102018215448B3 (en) 2018-09-11 2019-10-31 Conti Temic Microelectronic Gmbh Method of estimating the geometry of a path of movement
DE102019218059A1 (en) 2019-11-22 2021-05-27 Zf Friedrichshafen Ag Detection of elongated objects

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6751547B2 (en) 2001-11-26 2004-06-15 Hrl Laboratories, Llc Method and apparatus for estimation of forward path geometry of a vehicle based on a two-clothoid road model
US6718259B1 (en) 2002-10-02 2004-04-06 Hrl Laboratories, Llc Adaptive Kalman filter method for accurate estimation of forward path geometry of an automobile
DE102013201796A1 (en) 2013-02-05 2014-08-07 Robert Bosch Gmbh Method for providing a driving corridor for a vehicle and driver assistance system
DE102016107705A1 (en) 2015-04-27 2016-10-27 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Reactive path planning for autonomous driving
DE102015013084A1 (en) 2015-10-08 2016-03-31 Daimler Ag Method for securing control parameters in a lane detection algorithm of a motor vehicle
DE102018215448B3 (en) 2018-09-11 2019-10-31 Conti Temic Microelectronic Gmbh Method of estimating the geometry of a path of movement
DE102019218059A1 (en) 2019-11-22 2021-05-27 Zf Friedrichshafen Ag Detection of elongated objects

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022125695A1 (en) 2022-10-05 2024-04-11 Bayerische Motoren Werke Aktiengesellschaft Method and device for efficient object tracking and correspondingly equipped motor vehicle

Similar Documents

Publication Publication Date Title
DE102014223363B4 (en) Method and device for localizing a motor vehicle in a fixed reference map
DE102010006828B4 (en) Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle
EP2561419B1 (en) Method for determining the lane course for a vehicle
DE112016000422B4 (en) SPEED CONTROL DEVICE AND SPEED CONTROL METHOD FOR VEHICLES
DE102015209467A1 (en) Method of estimating lanes
EP3529561B1 (en) System and method for generating digital road models from aerial or satellite images and from data captured by vehicles
DE102016210254A9 (en) VEHICLE VENTILATION AT CROSSINGS ON THE BASIS OF VISUAL VENTILATION POINTS, STATIONARY OBJECTS AND BY GPS
DE102009006113A1 (en) Vehicle's surrounding representation providing method, involves subjecting sensor objects to fusion to generate fusion objects, and fusing existence possibilities of fusion objects based on existence possibilities of sensor objects
EP2629243A1 (en) Method for detecting and tracking lane markings
EP3380810B1 (en) Method, device, map processing device and system for precise localization of a vehicle in its surroundings
DE102015203016A1 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE102018220024B3 (en) Method for fusing sensor data from several sensors and fusion device for fusing sensor data from several sensors
DE102018216110A1 (en) Method and device for providing an environment image of an environment of a mobile device and motor vehicle with such a device
DE102016202594A1 (en) Method and device for interpreting a vehicle environment of a vehicle and vehicle
DE102018133441A1 (en) Method and system for determining landmarks in the surroundings of a vehicle
DE102014212866A1 (en) Method for determining a parking space from a number of measuring points
DE102018121008A1 (en) CROSS TRAFFIC RECORDING USING CAMERAS
EP3938266A1 (en) Method and computer program product for identifying signal signs for the traffic control of track-guided vehicles, signal-sign identification system, and track-guided vehicle, in particular rail vehicle
DE102021207609A1 (en) Procedure for marking a movement path
EP2602744A1 (en) Method for detecting and tracking lane markings
DE102021119871B4 (en) Method and processor circuit for operating an automated driving function with an object classifier in a motor vehicle, and motor vehicle
DE102022207736B3 (en) Method for determining the rear course of a road boundary of a vehicle and assistance system
WO2020001690A1 (en) Method and system for identifying obstacles
DE102020208981A1 (en) Method for estimating the geometry of a movement path
DE102022002498B3 (en) Method for fusing sensor data

Legal Events

Date Code Title Description
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE

Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE