DE102021207609A1 - Procedure for marking a movement path - Google Patents
Procedure for marking a movement path Download PDFInfo
- Publication number
- DE102021207609A1 DE102021207609A1 DE102021207609.2A DE102021207609A DE102021207609A1 DE 102021207609 A1 DE102021207609 A1 DE 102021207609A1 DE 102021207609 A DE102021207609 A DE 102021207609A DE 102021207609 A1 DE102021207609 A1 DE 102021207609A1
- Authority
- DE
- Germany
- Prior art keywords
- path
- sensor
- ego
- edges
- boundaries
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000033001 locomotion Effects 0.000 title claims abstract description 41
- 238000001514 detection method Methods 0.000 claims abstract description 44
- 230000003068 static effect Effects 0.000 claims description 31
- 230000004888 barrier function Effects 0.000 claims description 7
- 244000025254 Cannabis sativa Species 0.000 claims description 4
- 238000011161 development Methods 0.000 claims description 2
- 229920001817 Agar Polymers 0.000 description 6
- 238000002372 labelling Methods 0.000 description 6
- 241001136792 Alle Species 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000035508 accumulation Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000005755 formation reaction Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 2
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 229910052755 nonmetal Inorganic materials 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Die vorliegende Erfindung betrifft u. a. Verfahren zum Kennzeichnen eines Bewegungsweges eines Fahrzeuges (1), bei dem Detektionspunkte umfassende Sensordaten mit t0tels eines Sensors erfasst werden, wobei Ziele entlang des Bewegungsweges anhand der Sensordaten ermittelt werden, Ortspunkte für die jeweilige Position der Ziele und des Sensors festgelegt werden, anhand der Ortspunkte mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein Polygonnetz erstellt wird, wobei das Verfahren folgende Verfahrensschritte umfasst:- Identifizieren von Polygonen, die sich mit dem Ego-Pfad überschneiden;- Bestimmen der sich mit dem Ego-Pfad überschneidenden Kanten, für jedes sich mit dem Ego-Pfad überschneidende Polygon, und- Festlegen der Grenzen des Bewegungsweges indem alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich auch mit dem Ego-Pfad überschneiden, als Oberfläche des Bewegungsweges und alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden, als Grenzen gekennzeichnet werden.The present invention relates i.a. Method for identifying a movement path of a vehicle (1), in which sensor data including detection points are recorded using a sensor, with targets along the movement path being determined using the sensor data, location points for the respective position of the targets and the sensor being determined using the location points several polygons are determined, in particular continuously, so that a polygon mesh is created, the method comprising the following method steps:- identifying polygons which intersect with the ego path;- determining the edges which intersect with the ego path, for each polygon intersecting the ego path, and- defining the boundaries of the path of motion by taking all edges of the polygons intersecting the ego path that also intersect the ego path as the surface of the path of motion and all edges of the polygons intersecting with the Ego path intersecting polygons that do not intersect with the ego path en, are marked as borders.
Description
Die vorliegende Erfindung betrifft Verfahren zur Kennzeichnung eines Bewegungsweges eines Fortbewegungsmittels, insbesondere eines Fahrzeugs, sowie ein System zur Schätzung der Geometrie eines Bewegungsweges, welches auf der Durchführung eines erfindungsgemäßen Verfahrens beruht.The present invention relates to a method for identifying a movement path of a means of transportation, in particular a vehicle, and a system for estimating the geometry of a movement path, which is based on the implementation of a method according to the invention.
Technologischer HintergrundTechnological background
Moderne Fortbewegungsmittel, wie z. B. Kraftfahrzeuge oder Motorräder, werden zunehmend mit Fahrerassistenzsystemen ausgerüstet, welche mit Hilfe von Sensorsystemen die Umgebung erfassen, Verkehrssituation erkennen und den Fahrer unterstützen, z. B. durch einen Brems- oder Lenkeingriff oder durch die Ausgabe einer optischen oder akustischen Warnung. Als Sensorsysteme zur Umgebungserfassung werden regelmäßig Radarsensoren, Lidarsensoren, Kamerasensoren oder dergleichen eingesetzt. Aus den durch die Sensoren ermittelten Sensordaten können anschließend Rückschlüsse auf die Umgebung gezogen werden, womit z. B. eine Objekt- und/oder Umgebungsklassifizierung vorgenommen werden kann. Ferner ist die Umgebungserfassung nahezu unverzichtbar im Bereich des (teil-) autonomen Fahrens. Durch die Verarbeitung der Sensor- und Umfelddaten können dann Assistenzfunktionen ausgeführt werden, durch die z. B. Unfälle mit anderen Verkehrsteilnehmern vermieden oder komplizierte Fahrmanöver erleichtert werden, indem die Fahraufgabe bzw. die Fahrzeugführung unterstützt oder sogar komplett übernommen wird (teil- / vollautomatisieret).Modern means of transportation such as B. motor vehicles or motorcycles are increasingly equipped with driver assistance systems, which use sensor systems to detect the environment, recognize the traffic situation and support the driver, z. B. by a braking or steering intervention or by the output of a visual or acoustic warning. Radar sensors, lidar sensors, camera sensors or the like are regularly used as sensor systems for detecting the surroundings. From the sensor data determined by the sensors, conclusions can then be drawn about the environment, e.g. B. an object and / or environment classification can be made. Furthermore, the detection of the surroundings is almost indispensable in the field of (partially) autonomous driving. By processing the sensor and environment data, assistance functions can then be carried out, e.g. B. Accidents with other road users can be avoided or complicated driving maneuvers can be made easier by supporting or even completely taking over the driving task or vehicle guidance (partly / fully automated).
Die Umgebungserfassung mittels Radarsensoren kommt in modernen Fortbewegungsmitteln häufig zur Anwendung. Diese basiert auf der Aussendung von gebündelten elektromagnetischen Wellen (Radarwellen bzw. Radarsignale) und deren Reflexion, z. B. durch andere Verkehrsteilnehmer, Hindernisse auf der Fahrbahn oder die Randbebauung der Fahrbahn. Die Unterscheidung von Hindernissen bzw. Objekten, wie z. B. anderen Verkehrsteilnehmern, Verkehrsschildern, Straßenmarkierungen, Randbebauungen, Leitplanken und dergleichen ist dabei von großer Bedeutung, um zu ermitteln, wann z. B. ein Brems- oder Lenkeingriff eingeleitet werden soll.Environment detection using radar sensors is often used in modern means of transportation. This is based on the emission of bundled electromagnetic waves (radar waves or radar signals) and their reflection, e.g. B. by other road users, obstacles on the road or the edge of the road. The differentiation of obstacles or objects such. B. other road users, traffic signs, road markings, peripheral buildings, crash barriers and the like is of great importance to determine when z. B. a braking or steering intervention is to be initiated.
Im Rahmen der Umgebungserfassung werden in der Regel Informationen über die Umgebung gewonnen, die hauptsächlich in zwei Teile aufgeteilt sind: statische und dynamische Umgebung. Um die statische Umgebung zu konstruieren, werden nur Detektionen aus nicht bewegten Objekten berücksichtigt, während für die dynamische Umgebung bewegte Objekte berücksichtigt werden. Die Interpretation beider Umgebungen ist jedoch wichtig, damit Fahrmanöver sicher geplant werden können. Die Auslegung der statischen Umgebung umfasst die Gewinnung von Informationen über den Fahrweg vor dem Fahrzeug, d. h., wo der Fahrkorridor des Ego-Fahrzeugs für die kommenden Sekunden (z. B. 3, 5, 6, 10 Sekunden oder dergleichen) und für den gegebenen Korridor zu ermitteln ist, und ob Hindernisse auf dem vorausgesagten Fahrkorridor liegen.In the context of environment detection, information about the environment is usually obtained, which is mainly divided into two parts: static and dynamic environment. To construct the static environment only detections from non-moving objects are considered, while for the dynamic environment moving objects are considered. However, the interpretation of both environments is important so that driving maneuvers can be planned safely. The design of the static environment includes obtaining information about the driving path in front of the vehicle, i. i.e. where to determine the travel corridor of the ego vehicle for the coming seconds (e.g. 3, 5, 6, 10 seconds or the like) and for the given corridor, and whether there are any obstacles on the predicted travel corridor.
Die vorliegende Erfindung konzentriert sich dabei hauptsächlich auf die erste Aufgabe der statischen Umweltinterpretation, d. h. die Gewinnung von Informationen über den Fahrweg vor dem Fahrzeug. Bisher wird diese Aufgabe hauptsächlich durch handgefertigte Algorithmen gelöst, bei denen Entwickler Verfahren schreiben, um zu bestimmen, welche statischen Detektionen von taktilen Sensoren (oder Pixel aus Kamerabild) für die Schätzung des Fahrkorridors verwendet werden können. Normalerweise sind derartige Algorithmen Szenarienabhängig, wobei für jedes Szenario eine spezielle Lösung entwickelt werden muss. Auf der anderen Seite wird ein neuer Trend beobachtet, der auf künstlicher Intelligenz beruht, um die statischen Szenarien zu interpretieren. Die sensorischen Informationen werden als Bild interpretiert, und die vorwiegend für die Bildverarbeitung verwendeten Algorithmen werden zur Szeneninterpretation statischer Umgebungen eingesetzt. Zunächst werden solche Algorithmen mit bereits markierten Bildern trainiert, die beispielsweise angeben, wo die Schätzung des Fahrbahnverlaufs vor dem Auto liegt. Nach dem Training werden diese Algorithmen auf einem anderen Datenbestand eingesetzt, um statische Umgebungsmerkmale zu identifizieren, für die sie trainiert wurden, z. B. Leitplankenabschnitte auf der Autobahn, Graskanten, Spurmarkierungen oder Bordsteine. Ein großer Nachteil dieser Algorithmen ist, dass sie am besten mit markierten Daten arbeiten. Das bedeutet, dass bereits markiert werden muss, zu welchen Teilen des Sensor-Bildes welche Merkmale gehören.The present invention focuses primarily on the first task of static environmental interpretation, i. H. obtaining information about the route in front of the vehicle. So far, this task is mainly solved by hand-made algorithms, where developers write methods to determine which static detections from tactile sensors (or pixels from camera image) can be used for driving corridor estimation. Normally, such algorithms are scenario-dependent, with a special solution having to be developed for each scenario. On the other hand, a new trend is observed that relies on artificial intelligence to interpret the static scenarios. The sensory information is interpreted as an image, and the algorithms used primarily for image processing are used for scene interpretation of static environments. First, such algorithms are trained with images that have already been marked, which indicate, for example, where the estimate of the course of the road ahead of the car is. After training, these algorithms are used on another dataset to identify static environmental features they were trained for, e.g. B. crash barrier sections on the highway, grass edges, lane markings or curbs. A major disadvantage of these algorithms is that they work best on tagged data. This means that it must already be marked which features belong to which parts of the sensor image.
Oft wird die Beschriftung bzw. das Labeling manuell durchgeführt und erfordert eine menschliche Eingabe, um die entsprechenden Merkmale im Bild zu kennzeichnen. Die menschliche Eingabe (=Input) ist eine begrenzte und teure Ressource und häufig auch fehleranfällig. Die Leistung der Al-basierten Algorithmen hängt jedoch auch direkt von der Menge und Qualität der gekennzeichneten bzw. gelabelten Daten ab. Beide Faktoren erhöhen die Notwendigkeit eines automatischen Kennzeichnungsverfahrens für die statische Umgebung. Es besteht daher ein besonderer Bedarf derartige Kennzeichnungsverfahren zu verbessern. An dieser Stelle setzt die vorliegende Erfindung an.Often the annotation or labeling is done manually and requires human input to identify the appropriate features in the image. Human input is a limited and expensive resource, and often error-prone. However, the performance of the Al-based algorithms also depends directly on the amount and quality of the labeled data. Both of these factors increase the need for an automatic static environment labeling process. There is therefore a particular need to improve such identification methods. This is where the present invention comes in.
Druckschriftlicher Stand der TechnikPrinted state of the art
Aus der
Die
Ferner offenbart die
Weitere Verfahren, welche zur Schätzung der Geometrie eines Bewegungsweges eines Fortbewegungsmittels dienen, sind aus der
Ferner offenbart die
Aufgabe der vorliegenden ErfindungObject of the present invention
Ausgehend vom Stand der Technik besteht die Aufgabe der vorliegenden Erfindung nunmehr darin, ein Verfahren zur Verfügung zu stellen, bei dem die Kennzeichnung des Bewegungsweges, in einfacher und kostengünstiger Weise verbessert wird.Proceeding from the prior art, the object of the present invention is now to provide a method in which the identification of the movement path is improved in a simple and cost-effective manner.
Lösung der Aufgabesolution of the task
Die vorstehende Aufgabe wird durch die gesamte Lehre des Anspruchs 1 sowie der nebengeordneten Ansprüche gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht.The above object is achieved by the entire teaching of
Die vorliegende Erfindung offenbart ein automatisches Kennzeichnungsverfahren (Labeling-Verfahren), um die Straßengrenzen links und rechts eines Fahrzeugs, die auf den Eingängen von Automobilsensoren wie Kameras, Radargeräten und Radargeräten basieren, zu kennzeichnen. Es werden dabei Informationen von ADAS-Sensoren und/oder Ego-Bewegung des Fahrzeuges genutzt. Die Ausgabe des Verfahrens bzw. des Algorithmus ist eine globale Kartenmarkierung mit den linken und rechten Straßengrenzen. Dabei wird keine manuelle Eingabe benötigt, wodurch die Fehleranfälligkeit und die Kosten verringert werden können. Zudem können Straßengrenzabschnitte viel schneller und genauer gekennzeichnet werden, d. h. die Kennzeichnungsmenge kann zusätzlich erhöht werden.The present invention discloses an automatic labeling method to label road boundaries left and right of a vehicle based on the inputs from automobile sensors such as cameras, radars, and radars. Information from ADAS sensors and/or ego movement of the vehicle is used. The output of the method or algorithm is a global map marker with the left and right road boundaries. No manual input is required, which means that the susceptibility to errors and the costs can be reduced. In addition, road boundary sections can be marked much faster and more precisely, i. H. the amount of marking can be increased additionally.
Bei dem erfindungsgemäßen Verfahren zum Erkennen von Straßengrenzen bzw. zur Kennzeichnung oder Beschriftung des Bewegungsweges eines Fortbewegungsmittels, insbesondere eines Fahrzeuges, werden Sensordaten mittels eines Sensors gesammelt. Dies erfolgt, indem insbesondere statische Ziele bzw. Objekte entlang des Bewegungsweges anhand der Sensordaten ermittelt und Ortspunkte für die jeweilige Position der Ziele und des Sensors festgelegt werden. Ferner wird ein Polygon anhand der Ortspunkte bestimmt, z. B. indem eine festlegbare Anzahl an Ortspunkten als Eckpunkte des Polygons dienen. Insbesondere kann das Polygon dabei Ortspunkte jeder Straßenseite umfassen. Anschließend wird das Polygon zur Kennzeichnung des Bewegungsweges bzw. zum Beschriften/Labeling der Straßengrenzen herangezogen. Diese Kennzeichnung kann z. B. in Form eines (offline) Algorithmus implementiert werden, d. h. anhand der Erfindung kann die innere Straßengrenze der Straße basierend auf den Sensormessungen ermittelt bzw. berechnet werden. Dadurch, dass zudem mehrere Polygone, insbesondere fortlaufend, bestimmt werden, sodass ein ganzes Polygonnetz bestimmt wird, kann das Polygonnetz zur Schätzung des Bewegungsweges herangezogen werden. Erfindungsgemäß umfasst das Verfahren die Verfahrensschritte:
- - Identifizieren von Polygonen, die sich mit dem Ego-Pfad überschneiden;
- - Bestimmen der sich mit dem Ego-Pfad überschneidenden Kanten, für jedes sich mit dem Ego-Pfad überschneidende Polygon, sowie
- - Festlegen der Grenzen des Bewegungsweges indem alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich auch mit dem Ego-Pfad überschneiden, als Oberfläche des Bewegungsweges und alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden, als Grenzen beschriftet bzw. gekennzeichnet werden.
- - Identifying polygons that intersect with the ego path;
- - determining the edges intersecting the ego path, for each polygon intersecting the ego path, and
- - Determining the boundaries of the movement path by taking all edges of polygons intersecting the ego path that also intersect with the ego path as the surface of the movement path and all edges of polygons intersecting the ego path that do not intersect with intersect the ego path, be labeled as boundaries.
Gemäß einer bevorzugten Ausgestaltung ist als erster Sensor ein Radarsensor vorgesehen, welcher Radardetektionen erzeugt, die aufgrund der Aussendung von gebündelten elektromagnetischen Wellen (Radarwellen bzw. Radarsignale) und deren Reflexion, z. B. an anderen Verkehrsteilnehmer, Hindernissen auf der Fahrbahn oder der Randbebauung der Fahrbahn entstehen. Jedoch können auch andere aus dem Stand der Technik bekannte Sensoren als erster Sensor vorgesehen sein, wie z. B. Kamera-, Ultraschall- oder Lidarsensoren, deren Detektionspunkte dem Algorithmus zugeführt werden. Ferner ist als zweiter Sensor bevorzugt ein Kamerasensor vorgesehen, mittels dem Straßenränder bzw. Straßen- oder Fahrbahnmarkierungen als statische Objekte erfasst werden können. Jedoch können auch hier andere bekannte Sensoren zum Einsatz kommen.According to a preferred embodiment, a radar sensor is provided as the first sensor, which generates radar detections due to the emission of bundled electromagnetic waves (radar waves or radar signals) and their reflection, z. B. to other road users, obstacles on the road or the edge of the road. However, other sensors known from the prior art can also be provided as the first sensor, e.g. B. camera, ultrasonic or lidar sensors, whose detection points are fed to the algorithm. Furthermore, a camera sensor is preferably provided as the second sensor, by means of which road edges or road or lane markings can be detected as static objects. However, other known sensors can also be used here.
Als besonders vorteilhaft hat es sich erwiesen, wenn es sich bei dem Polygon um ein Dreieck handelt, da dieses äußert einfach mit wenig Rechenaufwand berechnet werden kann. In gleicher vorteilhafter Weise kann ein gesamtes Polygonnetz anhand von Dreiecksbildungen erstellt werden. In einfacher Weise kann dies anhand einer Delaunay-Triangulierung bzw. Delaunay-Dreiecksbildung erfolgen, wie bereits in
Zweckmäßigerweise können als statische Objekte Leitplanken, Infrastrukturen, parkende Verkehrsteilnehmer, Straßenmarkierungen, Straßenrandbebauungen und dergleichen vorgesehen sein.Crash barriers, infrastructure, parked road users, road markings, roadside buildings and the like can expediently be provided as static objects.
Ferner kann auch die Art der erkannten Grenze auf der Grundlage einer Klassifizierung gekennzeichnet werden, z. B. Straßenrandbebauung aus Beton, Metallleitplanke, Graskante, Straßenmarkierung oder dergleichen.Furthermore, the type of boundary detected can also be identified based on a classification, e.g. B. Roadside buildings made of concrete, metal crash barriers, grass edges, road markings or the like.
Vorzugsweise werden die erkannten Grenzen als linke und rechte Grenze festgelegt, wobei die Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden und sich links des Ego-Pfades befinden, der linken Grenze und die Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden und sich rechts des Ego-Pfades befinden, als rechte Grenze zugeordnet werden.Preferably, the detected boundaries are defined as left and right boundaries, where the edges of the polygons intersecting the ego path that do not intersect with the ego path and are to the left of the ego path are the left boundary and the edges of the polygons intersecting the ego path that do not intersect the ego path and are to the right of the ego path are mapped as the right boundary.
Gemäß einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens können dann alle damit verbundenen Kanten zur selben Grenze oder zum selben Bewegungsweges zugehörig klassifiziert bzw. beschriftet werden, wenn eine Kante einer Seite zugeordnet wird.According to an advantageous embodiment of the method according to the invention, all associated edges can then be classified or labeled as belonging to the same boundary or to the same movement path if an edge is assigned to a side.
In vorteilhafter Weise kann dann jede der verbundenen Kanten als Grenze klassifiziert bzw. beschriftet/gekennzeichnet werden.Each of the connected edges can then advantageously be classified or labeled/identified as a boundary.
Zweckmäßigerweise kann ein DGPS-Sensor vorgesehen sein, der derart erweitert werden kann, dass die Ausgabe des vorgeschlagenen Algorithmus in Kombination mit DGPS-Koordinaten direkt zur Erstellung von hochauflösenden Karten (HD-Maps) verwendet werden, die in verschiedenen ADAS-Funktionen Anwendung finden können.Conveniently, a DGPS sensor can be provided, which can be extended in such a way that the output of the proposed algorithm in combination with DGPS coordinates can be used directly to create high-resolution maps (HD maps) that can be used in various ADAS functions .
Neben- oder untergeordnet beansprucht die vorliegende Erfindung auch ein Verfahren zur Kennzeichnung bzw. Beschriftung eines Bewegungsweges eines Fahrzeuges, bei dem Detektionspunkte umfassende Sensordaten mittels eines Sensors erfasst werden und die Schätzung der Geometrie des Bewegungsweges anhand der Sensordaten erfolgt, wobei anhand von Sensorsignalen des Sensors ein Gitter bzw. eine Karte mit Zellen erstellt wird, um statische Detektionen zu erfassen. Anhand des Sensorsignals (z. B. anhand der Intensität bzw. der Signalstärke oder der Laufzeit des Sensorsignals) wird dann zwischen starken und schwachen Detektionen unterschieden und ein Histogramm erstellt, welches sich von einer Fahrzeugachse des Fahrzeuges aus erstreckt. Dabei wird das Auftreten von Detektionen in den Zellen des Gitters angezeigt.In addition or subordinately, the present invention also claims a method for identifying or labeling a movement path of a vehicle, in which sensor data comprising detection points are recorded by means of a sensor and the geometry of the movement path is estimated on the basis of the sensor data, with sensor signals from the sensor Grid or map of cells is created to capture static detections. Based on the sensor signal (e.g. based on the intensity or the signal strength or the transit time of the sensor signal), a distinction is then made between strong and weak detections and a histogram is created, which extends from a vehicle axis of the vehicle. The occurrence of detections in the cells of the grid is displayed.
Vorzugsweise können die Grenzen (zusätzlich) aus dem Histogramm extrahiert werden, wobei die Grenzen anhand des Auftretens von Detektionen in den Zellen erfolgt. Hierbei können z. B. die Spitzen im Histogramm, welche das Vermehrte Auftreten von Detektionen anzeigen,
Zweckmäßigerweise kann als Gitter ein Radargrid, ein RCS-Gitter, ein Kamerabild, ein Lidarimage oder dergleichen vorgesehen sein. Darüber hinaus ist auch eine andere zum Stand der Technik zughörige Art einer Sensorsignaldarstellung denkbar.Preferably, the boundaries can be (additionally) extracted from the histogram, the boundaries being based on the occurrence of detections in the cells. Here z. B. the peaks in the histogram, which indicate the increased occurrence of detections,
A radar grid, an RCS grid, a camera image, a lidar image or the like can expediently be provided as the grid. In addition, is another type of sensor signal representation associated with the prior art is also conceivable.
Ferner umfasst die vorliegende Erfindung ein System zur Schätzung der Geometrie des Bewegungsweges eines Fortbewegungsmittels bzw. eines Fahrzeuges. Das System weist hierzu einen Sensor zum Erzeugen von Sensordaten, insbesondere einen Radarsensor zur Erzeugung von Radardetektionspunkten, und eine Steuereinrichtung auf. Anhand der Sensordaten bzw. der Detektionspunkte und den erfindungsgemäß erzeugten Kennzeichnungen erfolgt dann die Schätzung der Geometrie des Bewegungsweges, indem die Steuereinrichtung dazu hergerichtet ist, die Sensordaten des Sensors und die Kennzeichnungen entsprechend weiterzuverarbeiten. Zweckmäßigerweise kann die Steuereinrichtung derart hergerichtet sein, dass sie auf Aktoren des Fahrzeuges zugreifen kann, um entsprechende Fahr- und Assistenzfunktionen unterstützend und/oder (teil-) autonom auszuführen.Furthermore, the present invention includes a system for estimating the geometry of the movement path of a means of transportation or a vehicle. For this purpose, the system has a sensor for generating sensor data, in particular a radar sensor for generating radar detection points, and a control device. The geometry of the movement path is then estimated on the basis of the sensor data or the detection points and the identifiers generated according to the invention, in that the control device is set up to further process the sensor data of the sensor and the identifiers accordingly. The control device can expediently be set up in such a way that it can access actuators of the vehicle in order to carry out corresponding driving and assistance functions in a supportive and/or (partly) autonomous manner.
Zweckmäßigerweise kann es sich bei den erfindungsgemäßen Verfahren um rein computerimplementierte Verfahren handeln, wobei der Begriff „computerimplementiertes Verfahren“ im Sinne der Erfindung eine Ablaufplanung oder Vorgehensweise beschreibt, welche anhand eines Rechners verwirklicht bzw. durchgeführt wird. Der Rechner, wie z. B. ein Computer, ein Computernetzwerk, eine Steuereinheit (z. B. ECU bzw. Electronic Control Unit oder ADCU bzw. Assisted & Automated Driving Control Unit) bzw. eine Rechenvorrichtung darin oder eine andere aus dem Stand der Technik bekannte programmierbare Vorrichtung, kann dabei mittels programmierbarer Rechenvorschriften die entsprechenden Daten verarbeiten. In Bezug auf das erfindungsgemäße Verfahren bzw. das erfindungsgemäße System können dabei die wesentlichen Eigenschaften z. B. durch ein neues Programm, neue Programme, einen Algorithmus oder dergleichen bewirkt werden, welches auf der Steuereinheit ausgeführt wird.The methods according to the invention can expediently be purely computer-implemented methods, with the term “computer-implemented method” in the sense of the invention describing a flow plan or procedure that is realized or carried out using a computer. The calculator, such as a computer, a computer network, a control unit (e.g. ECU or Electronic Control Unit or ADCU or Assisted & Automated Driving Control Unit) or a computing device therein or another programmable device known from the prior art process the corresponding data using programmable calculation rules. With regard to the method according to the invention and the system according to the invention, the essential properties z. B. be caused by a new program, new programs, an algorithm or the like, which is executed on the control unit.
Figurenlistecharacter list
Im Folgenden wird die Erfindung anhand von zweckmäßigen Ausführungsbeispielen näher erläutert. Es zeigen:
-
1 eine vereinfachte schematische Darstellung eines Fahrzeuges, welches auf Kennzeichnungen zurückgreift, die anhand des erfindungsgemäßen Verfahrens erzeugt wurden; -
2 eine vereinfachte schematische Darstellung von Radardetektionen in einem Radargrid (Links) mit einem Ausschnitt (Rechts) daraus; -
3 eine vereinfachte schematische Darstellung einer statischen Umgebung (Links) sowie der Kombination aus Lateralem Offset und Ego-Pfad (Rechts), sowie -
4 eine vereinfachte schematische Darstellung von Radardetektionen in einem Koordinatensystem, wobei der Bewegungsweg anhand einer Triangulierung durchgeführt wurde.
-
1 a simplified schematic representation of a vehicle, which uses identifiers that were generated using the method according to the invention; -
2 a simplified schematic representation of radar detections in a radar grid (left) with a section (right) thereof; -
3 a simplified schematic representation of a static environment (left) and the combination of lateral offset and ego path (right), as well as -
4 a simplified schematic representation of radar detections in a coordinate system, where the movement path was carried out using a triangulation.
Bezugsziffer 1 in
Der Radarsensor 8 ist dabei derart ausgestaltet, dass das System zwischen statischen und bewegten Objekten unterscheiden kann. Diese Ausgestaltungsform ist hinreichend bekannt und soll nicht Teil dieser Erfindung sein. Aus den statischen Objekten können dabei Informationen über die Straßengeometrie vor dem Fahrzeug 1 abgeleitet werden. Derartige Informationen können jedoch auch mehrdeutig sein: Es gibt beispielsweise Szenarien, in denen nur auf statischen Informationen beruhende Korridore gute Kandidaten für die Straßenrandschätzung sind. Um derartige Unklarheiten zu beseitigen, kann zudem die Spureninformationen von bewegten Objekten zur Straßenrandschätzung herangezogen werden. Die Spuren der detektierten bewegten Objekte zeigen dabei die Positionsgeschichte bzw. Bewegungsgeschichte der Objekte bzw. Verkehrsteilnehmer im umliegenden Verkehr zum Fahrzeug 1 an.The
Für die Umsetzung der Erfindung wird zunächst ein Gitter bzw. Radargrid erstellt, um statische Detektionen zu erfassen und sie im Laufe der Zeit zu akkumulieren. Dafür können verschiedene Arten von Akkumulierungen verwendet werden, z. B. probabilistische Ansammlungen wie Bayes Grid oder RCS-basierte Akkumulationen. Letztere hat den Vorteil, dass der RCS-Wert von den Reflexionsparametern der Objekte abhängt. Daher kann zwischen starken Erkennungen (in der Regel aus Metallgegenständen) oder schwachen Erkennungen (aus nicht-metallenen wie Vegetation, Beton usw.) unterschieden werden. Nach dem Einsetzen der Detektionen in das statische Gitter muss der seitliche Offset (Rand) der Straße entnommen werden. Dies kann z. B. durch ein Histogramm, das sich z. B. bis zu 15 Meter in longitudinaler Richtung und 50 Meter seitlich nach links und rechts bzw. lateral in beiden Richtungen von der Sensorposition aus erstreckt. Das Histogramm zeigt dabei das Auftreten der besetzten Zellen in Längsrichtung an. Dann werden die ersten Spitzen des Histogramms links und rechts vom Sensor erkannt. Sie bezeichnen die innerste Grenzlage links und rechts von der Fahrzeugsachse, wie in
In
Für jeden Zeitstempel (t0, t1, t2 ... tn) kann links und rechts neben der Ego-Position bzw. dem Ego-Pfad EP in der globalen Karte die entsprechende Grenze links und rechts gekennzeichnet werden. Durch die Verbindung der Punkte kann dann der gesamte Verlauf des Bewegungsweges nach links und rechts rekonstruiert werden. Je nach Art der zu rekonstruierenden Straßengrenze kann dieser Algorithmus erweitert werden, um verschiedene Arten von Grenzen zu erkennen. Sofern nur die Straßengrenzen erkannt werden müssen, die von den Leitplanken stammen, und mittels Radar- oder Lidar-Sensor erfasst bzw. detektiert werden (welche derartige Ziele gut detektieren können), kann ein dediziertes statisches Gitter geschaffen werden, das es erlaubt, über die Zeit nur starke Reflexionen zu sammeln und schwächere abzulehnen bzw. zu verwerfen. Sofern Graskanten oder Betonbebauungen erfasst werden sollen, die mittels Radar- oder Lidar-Sensor erkannt werden sollen (aber nicht so starke Detektionen liefern), kann z. B. ein statisches Gitter geschaffen werden, das über die Zeit nur schwache Reflexionen akkumuliert und stärkere verwirft.For each time stamp (t 0 , t 1 , t 2 . . . t n ), the corresponding border can be identified on the left and right next to the ego position or the ego path EP in the global map. By connecting the points, the entire course of the movement path to the left and right can then be reconstructed. Depending on the type of road boundary to be reconstructed, this algorithm can be extended to recognize different types of boundaries. If only the road boundaries have to be recognized, which originate from the crash barriers, and are recorded or detected using radar or lidar sensors (which can detect such targets well), a dedicated static grid can be created that allows the Time to collect only strong reflections and reject or discard weaker ones. If grass edges or concrete buildings are to be detected, which are to be detected using radar or lidar sensors (but do not provide such strong detections), e.g. For example, a static grid can be created that only accumulates weak reflections over time and discards stronger ones.
Für den Fall, dass ein Kamerabild als Sensoreingang verwendet werden soll, kann das Bild in eine Vogelperspektive umgewandelt werden. Danach können die Spurmarkierungen extrahiert und dann mit der egogetriebenen Position bzw. dem Ego-Pfad neu kombiniert werden. Eine derartige Kombination entspräche dann inhaltsgemäß in etwa einer Seitengrenzenextraktion mittels Radargrid bzw. Gitter. Anstelle nur eines seitlichen Randes können auch mehrere seitliche Ränder extrahiert und eine Karte mit mehreren Spuren erstellt werden. Die Entnahme von Spurmarkierungen ist nicht Gegenstand dieser Arbeit und es gibt eine Menge Algorithmen, wie man sie extrahiert. Die Erfindung besteht hier aus der Kombination der seitlichen Markierungslage und der Ego-Position, wie in den vorstehenden Absätzen erläutert. Wir nähern uns dem Ziel dieser Erfindung, d. h. der Kennzeichnung der Merkmale der Straßengrenzen. Dies kann leicht in einer zweiten Iteration erfolgen, bei der die aufgezeichneten Daten mit den geschätzten Rändern, wie oben erläutert, erweitert werden. Durch Auswahl aller Erkennungen bis zu einer bestimmten Entfernung, z. B. 0,5 m weit von der geschätzten Straßengrenze, können derartige Erkennungen als Straßengrenzerkennung gekennzeichnet werden. Ferner kann gekennzeichnet werden zu welcher Straßengrenzenseite die jeweilige Detektion gehört.In the event that a camera image is to be used as a sensor input, the image can be converted to a bird's eye view. After that, the lane markers can be extracted and then recombined with the ego-driven position or path. In terms of content, such a combination would then roughly correspond to a side boundary extraction using a radar grid or lattice. Instead of just one lateral edge, multiple lateral edges can be extracted and a multi-track map can be created. The extraction of lane markers is not the subject of this work and there are a lot of algorithms how to extract them. The invention here consists of the combination of the side marker position and the ego position as explained in the preceding paragraphs. We are approaching the goal of this invention, viz. H. the marking of the features of the road boundaries. This can easily be done in a second iteration, augmenting the recorded data with the estimated edges as discussed above. By selecting all detections up to a certain distance, e.g. B. 0.5 m far from the estimated road boundary, such detections can be flagged as road boundary detection. Furthermore, it can be identified to which side of the road boundary the respective detection belongs.
Ferner kann es zu Situationen kommen, in denen die Nutzung eines Gitters nicht vorteilhaft ist. Beispielsweise kann die Auflösung von Rasterzellen zu grob sein, was zu unscharfen Straßengrenzen führen kann. D. h. die Erkennung hinter der innersten Straßengrenze kann fälschlicherweise als Straßengrenze eingestuft werden. Auch das Prinzip der Auswahl aller Detektionen in der Nähe der Straßengrenze bis zu einer bestimmten Entfernung kann zu dieser Unschärfe beitragen (Fehleinstufung von Erkennungen). Daher die Kennzeichnung auch durchgeführt werden, bei der weder ein Gitter noch ein Histogramm zur Identifizierung der innersten Grenzen benötigt wird. Bei diesem erfindungsgemäßen Verfahren wird die Geometrie des Bewegungsweges geschätzt, indem die innere Straßengrenze auf der Basis von Sensormessungen bestimmt bzw. berechnet wird. Im Folgenden werden Ausführungsbeispiele beschrieben, bei denen als Sensor ein Radarsensor verwendet wird. Ausdrücklich umfasst sind jedoch auch andere aus dem Stand der Technik bekannte Sensoren, wie z. B. Lidar- oder Kamerasensoren. Der Radarsensor liefert dabei in jedem Scanzyklus eine Liste von Objekten bzw. Zielen mit der entsprechenden relativen Position der jeweiligen Ziele und deren Geschwindigkeit im Verhältnis zum Fahrzeug, welches den Radarsensor umfasst und dem Ortspunkt 0 (x = 0; y = 0) entspricht. Basierend auf der relativen Geschwindigkeit zum Fahrzeug werden die Objekte dann als statische oder mobile Ziele eingestuft. Für die Abschätzung der Straßengrenze werden vorliegend jedoch nur die statischen Ziele verwendet, denen jeweils ein Ortspunkt zugeordnet werden kann. Die Abschätzung erfolgt dann, indem ein Polygonnetz bzw. eine Delaunay-Triangulation (Delaunay-Dreiecksbildung oder Delaunay-Triangulierung) auf der Grundlage der Position der statischen Ziele bzw. deren Ortspunkte und der des Fahrzeugs berechnet bzw. eingefügt wird. Das Erstellen des Polygonnetzes bzw. die Delaunay-Triangulierung erfolgt insbesondere durch ein Verfahren bzw. einer Verfahrensausgestaltung gemäß
- - Identifizieren von Polygonen bzw. Dreiecken, die sich mit dem Ego-Pfad überschneiden;
- - Bestimmen der sich mit dem Ego-Pfad überschneidenden Kanten für jedes sich mit dem Ego-Pfad überschneidende Polygon bzw. Dreiecks, sowie
- - Festlegen der Grenzen des Bewegungsweges indem alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich auch mit dem Ego-Pfad überschneiden, als Oberfläche des Bewegungsweges und alle Kanten der sich mit dem Ego-Pfad überschneidenden Polygone, die sich nicht mit dem Ego-Pfad überschneiden, als Grenzen bzw. Straßengrenzen/Straßenränder klassifiziert werden.
- - Identifying polygons or triangles that intersect with the ego path;
- - determining the edges intersecting the ego path for each polygon or triangle intersecting the ego path, and
- - Determining the boundaries of the movement path by taking all edges of polygons intersecting the ego path that also intersect with the ego path as the surface of the movement path and all edges of polygons intersecting the ego path that do not intersect with intersect with the ego path are classified as boundaries or road boundaries/roadsides.
Hierbei kann erkannt werden, ob eine (Straßen-) Grenze links oder rechts ist, indem festgelegt wird, an welcher Seite des Ego-Pfades eines seiner Segmente bzw. eine seiner Kanten liegt. Wird ein Segment bzw. eine Kante als einer Seite zugeordnet, können alle damit verbundenen Segmente/Kanten auf demselben Weg bzw. derselben Straße klassifiziert werden, wobei jede Erkennung in dieser Kette von Segmenten/Kanten als (Straßen-) Grenze klassifiziert wird.Here it can be recognized whether a (road) boundary is to the left or to the right by determining on which side of the ego path one of its segments or one of its edges lies. If a segment/edge is assigned as a side, all connected segments/edges can be classified on the same path/road, with each detection in this chain of segments/edges being classified as a (road) boundary.
In
Die erfindungsgemäßen Verfahren sind einfach zu implementieren oder in bestehenden Systemen nachzurüsten. Ferner benötigen sie nur eine angemessene Menge an Ressourcen (RAM und Prozessor) und vor allem können sie den menschlichen Betreiber für die Kennzeichnung der Straßengrenzen ersetzen. Anhand dieser Methode können somit Straßengrenzen auf der Grundlage künstlicher Intelligenz geschätzt werden, da sie automatisch die markierten Straßenabschnitte ausgeben. Ferner können die Verfahren auch in den Bereichen Trajektorienplanung im autonomen Fahren, Robotik, Geodäsie oder bei der Erstellung von HD-Karten eingesetzt werden, so dass die vorliegende Erfindung einen ganz besonderen Beitrag zum Stand der Technik leistet.The methods according to the invention are easy to implement or to retrofit in existing systems. Furthermore, they only require a reasonable amount of resources (RAM and processor) and most importantly, they can replace the human operator for road boundary marking. This method can thus be used to estimate road boundaries based on artificial intelligence, since they automatically output the marked road sections. Furthermore, the methods can also be used in the areas of trajectory planning in autonomous driving, robotics, geodesy or in the creation of HD maps, so that the present invention makes a very special contribution to the prior art.
BezugszeichenlisteReference List
- 11
- Fahrzeugvehicle
- 22
- Steuereinrichtungcontrol device
- 33
- Lenkungsteering
- 44
- Motorengine
- 55
- Bremsebrake
- 66
- Lidarsensorlidar sensor
- 77
- Kameracamera
- 88th
- Radarsensorradar sensor
- 9a-9d9a-9d
- Ultraschallsensorultrasonic sensor
- 1010
- Radarsensor radar sensor
- EPEP
- Ego-Pfadego path
- SGSG
- Straßengrenzeroad border
- SGLSGL
- Straßengrenze linksstreet boundary on the left
- SGRSGR
- Straßengrenze rechtsstreet boundary on the right
- rSGLrSGL
- rekonstruierte Straßengrenze linksreconstructed road boundary on the left
- rSGRrSGR
- rekonstruierte Straßengrenze rechtsreconstructed road boundary on the right
- FAFA
- Fahrzeugachsevehicle axle
- Tritri
- Triangulierungtriangulation
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 6751547 B2 [0007]US 6751547 B2 [0007]
- US 6718259 B1 [0008]US 6718259 B1 [0008]
- DE 102016107705 A1 [0009]DE 102016107705 A1 [0009]
- DE 102015013084 A1 [0010]DE 102015013084 A1 [0010]
- DE 102013201796 A1 [0010]DE 102013201796 A1 [0010]
- DE 102018215448 B3 [0011, 0017, 0035]DE 102018215448 B3 [0011, 0017, 0035]
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021207609.2A DE102021207609A1 (en) | 2021-07-16 | 2021-07-16 | Procedure for marking a movement path |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021207609.2A DE102021207609A1 (en) | 2021-07-16 | 2021-07-16 | Procedure for marking a movement path |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021207609A1 true DE102021207609A1 (en) | 2023-01-19 |
Family
ID=84547039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021207609.2A Pending DE102021207609A1 (en) | 2021-07-16 | 2021-07-16 | Procedure for marking a movement path |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021207609A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022125695A1 (en) | 2022-10-05 | 2024-04-11 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for efficient object tracking and correspondingly equipped motor vehicle |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6718259B1 (en) | 2002-10-02 | 2004-04-06 | Hrl Laboratories, Llc | Adaptive Kalman filter method for accurate estimation of forward path geometry of an automobile |
US6751547B2 (en) | 2001-11-26 | 2004-06-15 | Hrl Laboratories, Llc | Method and apparatus for estimation of forward path geometry of a vehicle based on a two-clothoid road model |
DE102013201796A1 (en) | 2013-02-05 | 2014-08-07 | Robert Bosch Gmbh | Method for providing a driving corridor for a vehicle and driver assistance system |
DE102015013084A1 (en) | 2015-10-08 | 2016-03-31 | Daimler Ag | Method for securing control parameters in a lane detection algorithm of a motor vehicle |
DE102016107705A1 (en) | 2015-04-27 | 2016-10-27 | GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) | Reactive path planning for autonomous driving |
DE102018215448B3 (en) | 2018-09-11 | 2019-10-31 | Conti Temic Microelectronic Gmbh | Method of estimating the geometry of a path of movement |
DE102019218059A1 (en) | 2019-11-22 | 2021-05-27 | Zf Friedrichshafen Ag | Detection of elongated objects |
-
2021
- 2021-07-16 DE DE102021207609.2A patent/DE102021207609A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6751547B2 (en) | 2001-11-26 | 2004-06-15 | Hrl Laboratories, Llc | Method and apparatus for estimation of forward path geometry of a vehicle based on a two-clothoid road model |
US6718259B1 (en) | 2002-10-02 | 2004-04-06 | Hrl Laboratories, Llc | Adaptive Kalman filter method for accurate estimation of forward path geometry of an automobile |
DE102013201796A1 (en) | 2013-02-05 | 2014-08-07 | Robert Bosch Gmbh | Method for providing a driving corridor for a vehicle and driver assistance system |
DE102016107705A1 (en) | 2015-04-27 | 2016-10-27 | GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) | Reactive path planning for autonomous driving |
DE102015013084A1 (en) | 2015-10-08 | 2016-03-31 | Daimler Ag | Method for securing control parameters in a lane detection algorithm of a motor vehicle |
DE102018215448B3 (en) | 2018-09-11 | 2019-10-31 | Conti Temic Microelectronic Gmbh | Method of estimating the geometry of a path of movement |
DE102019218059A1 (en) | 2019-11-22 | 2021-05-27 | Zf Friedrichshafen Ag | Detection of elongated objects |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022125695A1 (en) | 2022-10-05 | 2024-04-11 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for efficient object tracking and correspondingly equipped motor vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014223363B4 (en) | Method and device for localizing a motor vehicle in a fixed reference map | |
DE102010006828B4 (en) | Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle | |
EP2561419B1 (en) | Method for determining the lane course for a vehicle | |
DE112016000422B4 (en) | SPEED CONTROL DEVICE AND SPEED CONTROL METHOD FOR VEHICLES | |
DE102015209467A1 (en) | Method of estimating lanes | |
EP3529561B1 (en) | System and method for generating digital road models from aerial or satellite images and from data captured by vehicles | |
DE102016210254A9 (en) | VEHICLE VENTILATION AT CROSSINGS ON THE BASIS OF VISUAL VENTILATION POINTS, STATIONARY OBJECTS AND BY GPS | |
DE102009006113A1 (en) | Vehicle's surrounding representation providing method, involves subjecting sensor objects to fusion to generate fusion objects, and fusing existence possibilities of fusion objects based on existence possibilities of sensor objects | |
EP2629243A1 (en) | Method for detecting and tracking lane markings | |
EP3380810B1 (en) | Method, device, map processing device and system for precise localization of a vehicle in its surroundings | |
DE102015203016A1 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
DE102018220024B3 (en) | Method for fusing sensor data from several sensors and fusion device for fusing sensor data from several sensors | |
DE102018216110A1 (en) | Method and device for providing an environment image of an environment of a mobile device and motor vehicle with such a device | |
DE102016202594A1 (en) | Method and device for interpreting a vehicle environment of a vehicle and vehicle | |
DE102018133441A1 (en) | Method and system for determining landmarks in the surroundings of a vehicle | |
DE102014212866A1 (en) | Method for determining a parking space from a number of measuring points | |
DE102018121008A1 (en) | CROSS TRAFFIC RECORDING USING CAMERAS | |
EP3938266A1 (en) | Method and computer program product for identifying signal signs for the traffic control of track-guided vehicles, signal-sign identification system, and track-guided vehicle, in particular rail vehicle | |
DE102021207609A1 (en) | Procedure for marking a movement path | |
EP2602744A1 (en) | Method for detecting and tracking lane markings | |
DE102021119871B4 (en) | Method and processor circuit for operating an automated driving function with an object classifier in a motor vehicle, and motor vehicle | |
DE102022207736B3 (en) | Method for determining the rear course of a road boundary of a vehicle and assistance system | |
WO2020001690A1 (en) | Method and system for identifying obstacles | |
DE102020208981A1 (en) | Method for estimating the geometry of a movement path | |
DE102022002498B3 (en) | Method for fusing sensor data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE Free format text: FORMER OWNER: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE |