DE102018208205A1 - Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen - Google Patents
Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen Download PDFInfo
- Publication number
- DE102018208205A1 DE102018208205A1 DE102018208205.7A DE102018208205A DE102018208205A1 DE 102018208205 A1 DE102018208205 A1 DE 102018208205A1 DE 102018208205 A DE102018208205 A DE 102018208205A DE 102018208205 A1 DE102018208205 A1 DE 102018208205A1
- Authority
- DE
- Germany
- Prior art keywords
- polygon
- radar sensor
- objects
- sensor
- motor vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 title claims abstract description 12
- 238000001514 detection method Methods 0.000 claims description 10
- 238000009499 grossing Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Verfahren zum Kartographieren der Umgebung eines Kraftfahrzeugs mittels eines kraftfahrzeug-gestützten Sensors und einer kraftfahrzeug-gestützten Steuerung, wobei der Sensor ein RADAR Sensor ist und die Steuerung ausgestaltet ist, um anhand der mit dem RADAR Sensor aufgespürten Objekte die Umgebung des Kraftfahrzeugs zu kartographieren, wobei solche aufgespürten Objekte ignoriert werden, die von einem näher am RADAR Sensor liegenden aufgespürten unverdeckten Objekt verdeckt sein sollten.
Description
- Die Erfindung betrifft ein Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen nach Anspruch 1.
- Aus der
US 2017/206436 A1 ist z.B. ein Objektverfolgungssystem bekannt, das für den Einsatz in einem automatisierten Fahrzeug geeignet ist. Es besteht aus einer Kamera, einem Radarsensor und einem Controller. Der Controller ist so konfiguriert, dass er jeder Sicht-Spur, die einer Instanz eines mit der Kamera erkannten Objekts zugeordnet ist, eine Sicht-Identifikation zuweist, und jedem Radar-Objekt, der einer Instanz von gruppierten Tracklets zugeordnet ist, die mit Hilfe des Radarsensors erkannt wurden, eine Radar-Identifikation zuweist. Der Controller wird weiter konfiguriert, um Wahrscheinlichkeiten zu ermitteln, dass eine Vision-Spur und ein Radar-Objekt das gleiche Objekt anzeigen. Wenn die Kombination eine vernünftige Chance auf Übereinstimmung hat, wird sie in ein weiteres Screening der Daten einbezogen, um eine Kombination von Paarungen jeder Sicht-Spur zu einer Radarspur zu bestimmen, die die größte Wahrscheinlichkeit hat, die richtige Kombination zu sein. - Demgegenüber besteht die Aufgabe der vorliegenden Erfindung darin, ein einfacheres, schnelles und trotzdem zuverlässigeres Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen bereitzustellen, mit dem insbesondere autonome Kraftfahrzeuge ihre Umgebung „wahrnehmen“ können.
- Diese Aufgabe wird durch das in Anspruch 1 wiedergegebene Verfahren gelöst. Vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen und der Beschreibung.
- Erfindungsgemäß ist erkannt worden, dass wenn solche aufgespürten Objekte ignoriert werden, die von einem näher am RADAR Sensor liegenden aufgespürten unverdeckten Objekt verdeckt sein sollten, eine große Zahl an Fehldetektionen ignoriert werden kann und somit der Aufwand der Kartenerstellung sinkt.
- Mit anderen Worten, es werden nur solche Objekte in die Karte mitaufgenommen, die tatsächlich vom Sensor in dessen Sichtfeld positiv erkennbar sein sollten. Solche Objekte, zu denen der Sensor keine Sichtverbindung hat, also von einem näher am Sensor liegenden Objekt verdeckt sind, und aus welchen Gründen auch immer ein Detektionssignal erzeugen, werden ignoriert.
- Insbesondere bei RADAR Sensoren kommt es zu solchen Fehldetektionen aufgrund von Reflektionen oder Bodenecho.
- Aus den so ermittelten unverdeckten Objekten wird eine Karte erstellt, die den freien Raum um den Sensor bzw. das Fahrzeug herum abbildet. Dazu wird ein Polygon bestimmt, dessen Ecken jeweils in gleich beabstandeten Kreissegmenten mit dem RADAR Sensor im Mittelpunkt um das Kraftfahrzeug herum liegen und jede Ecke ein im jeweiligen Kreissegment dem RADAR Sensor am nächsten liegendes aufgespürtes unverdecktes Objekt oder bei leerem Kreissegment eine Ecke in Detektionsentfernung darstellt, so dass nur aufgespürte Objekte innerhalb des Polygons berücksichtigt werden.
- Das 360 Grad Umfeld wird demnach in Kreissegmenten aufgeteilt und in jedem Kreissegment ein erkanntes unverdecktes Objekt als Eckpunkt für das Polygon verwendet. Wird in einem Kreissegment kein Objekt detektiert, so wird eine vorgegebene Detektionsentfernung (oder Reichweite) des Sensors als virtuelles Objekt verwendet.
- Vorzugsweise werden gleich beabstandete Kreissegmente verwendet. Es ist jedoch auch denkbar, die Kreissegmente anderweitig aufzuteilen, z.B. in Fahrtrichtung vorne mit einer feineren Teilung als hinten, so dass dort mehr Objekte in die Karte einfließen.
- Um die Karte weiter zu vereinfachen, können zum Glätten des Polygons Ecken entfernt werden, die von RADAR Sensor aus besehen hinter einer Linie liegen, wobei die Linie dem euklidischen Abstand eines Eckpunktpaares entspricht, wenn dieser Abstand kleiner ist als ein bestimmter Schwellenwert, und alle möglichen Eckpunktpaare durchlaufen werden. Somit können „Zacken“ im Polygon bei näher aneinander liegenden Objekten entfernt oder geschlossen werden, was zu einer Datenreduktion führt.
- Um eine Unsicherheitsmarge in der Karte einzuführen, können die Eckpunkte des Polygons verschoben werden. Sinnvollerweise wird dabei das Polygon erweitert. Dazu können entweder die Eckpunkte im jeweiligen Kreissegment in radialer Richtung um eine vorbestimmte Größe nach Außen versetzt werden oder die Eckpunkte im jeweiligen Kreissegment auf der jeweiligen Normalen um eine vorbestimmte Größe nach Außen versetzt werden.
- Zur Verbesserung der Objekterkennung und Beschleunigung der Kartographierung, werden die näher am RADAR Sensor liegenden aufgespürten stationären sowie unverdeckten Objekte im zeitlichen Verlauf nachverfolgt und fließen in die Polygonbestimmung ein. Somit werden neben den vom Sensor momentan detektierten Objekten virtuelle detektierte Objekte in der Kartographierung verwendet, die die Sicherheit der Detektion erhöhen bzw. deren Wahrscheinlichkeit verbessern.
- Zusammengefasst wird erfindungsgemäß ein Polygon als Karte des Freiraums bestimmt, bei dem die Eckpunkte aus unverdeckten detektierten Objekten bestehen, die jeweils in einem Kreissegment in einem 360 Grad Umfeld des Fahrzeugs bzw. des Sensors liegen.
- Weitere Details der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen anhand der Zeichnung, in der
-
1 eine schematische Draufsicht auf ein Kraftfahrzeug beim Kartographieren; -
2A, B eine schematische Ansicht auf das Glätten des Polygons bzw. der Karte; -
3 eine schematische Ansicht auf das Erweitern des Polygons bzw. der Karte; -
4 ein schematisches Blockablaufdiagram der Kartographierung. - In den Figuren ist ein schematisch dargestelltes und als Ganzes mit 1 bezeichnetes autonomes Kraftfahrzeug (z.B. PKW) inmitten seines RADAR-Sensorfelds
2 dargestellt, das in Fahrtrichtung3 sich bewegt. - Das 360 Grad Sensorfeld
2 ist in Kreissegmente4 ausgehend vom Mittelpunkt5 bzw. Sensor6 eingeteilt. Vorliegend deckt jedes der acht Kreissegmente 45 Grad ab. Es versteht sich, dass dies eine vereinfachte Darstellung ist und die Kreissegmente anders eingeteilt sein können. - In den Figuren sind detektierte Objekte als Kreise
7 ,8 dargestellt. Die offenen Kreise7 bezeichneten detektierte Objekte, die unverdeckt sind oder wenn, in einem Kreissegment kein Objekt detektiert wird, so wird die vorgegebene Detektionsentfernung (oder Reichweite) des Sensors als virtuelles Objekt verwendet. - Objekte, die als flächiger Kreis
8 dargestellt sind, sind reale vom RADAR Sensor detektierte Objekte. - Diese werden gleichzeitig mit einem offenen Kreis
7 gekennzeichnet, wenn sie für die Kartographierung ausgewählt wurden. - Das 360 Grad Umfeld wird als in Kreissegmente
4 aufgeteilt und in jedem Kreissegment4 ein erkanntes unverdecktes Objekt7 als Eckpunkt für ein Polygon9 verwendet, wozu die Eckpunkte bzw. Objekte7 mittels Linien verbunden werden. - Nur solche Objekte
7 werden als Eckpunkte verwendet, die nicht verdeckt sind. Es werden also solche aufgespürten Objekte8 ignoriert, die von einem näher am RADAR Sensor6 liegenden aufgespürten unverdeckten Objekt7 verdeckt sind. - Das Polygon
9 wird also so bestimmt, dass dessen Ecken (Objekte7 ) jeweils in gleich beabstandeten Kreissegmenten4 mit dem RADAR Sensor6 im Mittelpunkt5 um das Kraftfahrzeug1 herum liegen und jede Ecke ein im jeweiligen Kreissegment4 dem RADAR Sensor am nächsten liegendes aufgespürtes unverdecktes Objekt7 oder bei leerem Kreissegment eine Ecke in Detektionsentfernung darstellt, so dass nur aufgespürte Objekte innerhalb des Polygons berücksichtigt werden. - Wie anhand von
2A und B dargestellt, werden um das Polygon9 zu Glätten bestimmte Ecken entfernt, die von RADAR Sensor6 aus besehen hinter einer Linie liegen, wobei die Linie dem euklidischen Abstand eines Eckpunktpaares entspricht, wenn dieser Abstand kleiner ist als ein bestimmter Schwellenwert, und alle möglichen Eckpunktpaare durchlaufen werden. - In
2A und2B ist beispielhaft ein Ausschnitt eines 360 Grad Sensorfelds2 mit Kreissegmenten4 und unverdeckten Objekten7 dargestellt. - Der Abstand der Eckpunktepaare
71 und72 bzw.73 und74 soll zur Verdeutlichung betrachtet werden. - Der Abstand a1 zwischen Eckpunkte
71 und72 ist kleiner als eine Vorgabe, so dass die Eckpunkte75 und76 , die hinter der Linie a1 liegen aus dem Polygon eliminiert werden. - Entsprechend ist der Abstand
a2 zwischen Eckpunkte73 und74 größer als eine Vorgabe, so dass der Eckpunkt77 , der zwar hinter der Liniea2 liegt nicht aus dem Polygon9 eliminiert wird.
Es wird unterstellt, dass der Sensor6 ein Sichtfeld von weniger als 180 Grad aufweist und die zu entfernenden Eckpunkte bzw. Objekte7 zwischen linken und rechten Grenzsegmenten10 ,11 liegen.
Die 360 Grad Sicht wird durch die Kombination von vier Einzel-Sensoren zum eigentlichen Sensor6 erreicht, die jeweils einen Öffnungswinkel ca. 150 Grad haben.
Die Auswertung zur Entfernung von verdeckten Detektionen wird je einzelnen Sensor aus Perspektive des jeweiligen Sensors durchgeführt.
Die Grenzsegmente sind die zu dem aktuellen Polygonpunktepaar gehörigen Segmente, ergeben sich also während der Auswertung aller Punktepaare. - Somit ergibt sich ein Verlauf des Polygons
9 wie in2B dargestellt. - Anschließend wird das Polygon
9 erweitert. Dazu werden nur die real detektierten Eckpunkte7 ,8 im jeweiligen Kreissegment4 in radialer Richtung um eine vorbestimmte Größe nach Außen versetzt, wie dies durch die gestrichelten Pfeile in3 angedeutet ist. So ergibt sich ein neuer Verlauf des Polygons 9*. - Der beschriebene Ablauf wird etwa alle 50 ms wiederholt, da dies in etwa der Zeit für die 360 Grad Sensoraufnahme entspricht.
- Die so erhaltenen Eckpunkte
7 bzw. unverdeckten und inkludierten Objekte werden in einer FIFO Warteschlange zwischengespeichert und als Detektionen zusätzlich zu den spontanen Messungen des RADAR Sensors6 bei der Polygonbestimmung berücksichtigt, so dass die Wahrscheinlichkeit von positiven Detektionen bzw. deren Berücksichtigung steigt. - Dies kann z.B. durch Erhöhen oder Erniedrigen der Wahrscheinlichkeiten der Belegung der Kreissegmente anhand eines inversen Sensor Models und sogenanntem „occupancy grid mapping“ durchgeführt werden.
- Im Prinzip funktioniert also das erfindungsgemäße Verfahren in fünf bis sechs Schritten, wie nachfolgend anhand von
4 dargelegt. - Im ersten Schritt I werden alle RADAR Sensordaten nach dem FiFo Prinzip eines Durchgangs gesammelt und in die Kreissegmente etc. aufgeteilt.
- Im zweiten Schritt
II wird wie oben beschrieben das Polygon9 mit den Eckpunkten7 bestimmt, wobei auch Daten aus dem occupancy grid mapping SchrittVI einfließen können. - Das so erhaltene Polygon
9 wird im SchrittIII geglättet und anschließend im SchrittIV erweitert (beides wie oben angegeben). - Somit erhält man ein Polygon 9* bzw. RADAR Sensordaten, die nur aus unverdeckten Objekten
7 bestehen und weiterverarbeitet werden können. - Die so erhaltenen Daten der Objekte
7 können in dem optionalen SchrittVI zum occupancy grid mapping verwendet werden. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- US 2017206436 A1 [0002]
Claims (5)
- Verfahren zum Kartographieren der Umgebung eines Kraftfahrzeugs mittels eines kraftfahrzeug-gestützten Sensors und einer kraftfahrzeug-gestützten Steuerung, wobei der Sensor ein RADAR Sensor ist und die Steuerung ausgestaltet ist, um anhand der mit dem RADAR Sensor aufgespürten Objekte die Umgebung des Kraftfahrzeugs zu kartographieren, dadurch gekennzeichnet, dass solche aufgespürten Objekte ignoriert werden, die von einem näher am RADAR Sensor liegenden aufgespürten unverdeckten Objekt verdeckt sein sollten.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass ein Polygon bestimmt wird, dessen Ecken jeweils in gleich beabstandeten Kreissegmenten mit dem RADAR Sensor im Mittelpunkt um das Kraftfahrzeug herum liegen und jede Ecke ein im jeweiligen Kreissegment dem RADAR Sensor am nächsten liegendes aufgespürtes unverdecktes Objekt oder bei leerem Kreissegment eine Ecke in Detektionsentfernung darstellt, so dass nur aufgespürte Objekte innerhalb des Polygons berücksichtigt werden. - Verfahren nach
Anspruch 2 , dadurch gekennzeichnet, dass zum Glätten des Polygons Ecken entfernt werden, die von RADAR Sensor aus besehen hinter einer Linie liegen, wobei die Linie dem euklidischen Abstand eines Eckpunktpaares entspricht, wenn dieser Abstand kleiner ist als ein bestimmter Schwellenwert, und alle möglichen Eckpunktpaare durchlaufen werden. - Verfahren nach
Anspruch 2 oder3 , dadurch gekennzeichnet, dass das Polygon erweitert wird, wozu entweder die Eckpunkte im jeweiligen Kreissegment in radialer Richtung um eine vorbestimmte Größe nach Außen versetzt werden oder die Eckpunkte im jeweiligen Kreissegment auf der jeweiligen Normalen um eine vorbestimmte Größe nach Außen versetzt werden. - Verfahren nach einem der
Ansprüche 2 bis4 , dadurch gekennzeichnet, dass die näher am RADAR Sensor liegenden aufgespürten stationären sowie unverdeckten Objekte im zeitlichen Verlauf nachverfolgt werden und in die Polygonbestimmung einfließen.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018208205.7A DE102018208205A1 (de) | 2018-05-24 | 2018-05-24 | Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen |
CN201910418540.4A CN110531353A (zh) | 2018-05-24 | 2019-05-20 | 用于映射机动车辆环境的方法 |
US16/420,293 US11209539B2 (en) | 2018-05-24 | 2019-05-23 | Method for mapping the environment of motor vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018208205.7A DE102018208205A1 (de) | 2018-05-24 | 2018-05-24 | Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018208205A1 true DE102018208205A1 (de) | 2019-11-28 |
Family
ID=68499378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018208205.7A Pending DE102018208205A1 (de) | 2018-05-24 | 2018-05-24 | Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen |
Country Status (3)
Country | Link |
---|---|
US (1) | US11209539B2 (de) |
CN (1) | CN110531353A (de) |
DE (1) | DE102018208205A1 (de) |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0567660B2 (de) * | 1992-04-21 | 2000-09-06 | IBP Pietzsch GmbH | Einrichtung zum Führen von Fahrzeugen |
US6212471B1 (en) * | 1999-04-28 | 2001-04-03 | Lockheed Martin Corporation | Dynamic optimal sensor employment for searching an area |
JP4523095B2 (ja) * | 1999-10-21 | 2010-08-11 | 富士通テン株式会社 | 情報処理装置、情報統合装置および情報処理方法 |
SE522893C2 (sv) * | 2001-06-28 | 2004-03-16 | Saab Ab | Metod för målföljning av objekt |
US7002572B1 (en) * | 2002-06-19 | 2006-02-21 | Cadence Design Systems, Inc. | Method and apparatus for constructing a convex polygon that encloses a set of points in a region |
DE10330011B4 (de) * | 2003-07-03 | 2005-05-12 | Eads Deutschland Gmbh | Verfahren zur Hinderniserkennung und Geländeklassifikation |
US7409323B1 (en) * | 2004-06-01 | 2008-08-05 | The United States Of America As Represented By The Secretary Of The Navy | Method for detecting a spatial random process using planar convex polygon envelope |
US7903024B2 (en) | 2007-10-25 | 2011-03-08 | Lockheed Martin Corporation | Adaptive moving target indicator (MTI) clutter rejection filter for radar systems |
US20130176192A1 (en) | 2011-09-30 | 2013-07-11 | Kenneth Varga | Extra-sensory perception sharing force capability and unknown terrain identification system |
CN101526611B (zh) | 2009-03-30 | 2011-12-28 | 清华大学 | 针对舰船的雷达散射截面检测方法 |
US9199668B2 (en) * | 2013-10-28 | 2015-12-01 | GM Global Technology Operations LLC | Path planning for evasive steering maneuver employing a virtual potential field technique |
US10101448B2 (en) * | 2014-12-12 | 2018-10-16 | Panasonic Intellectual Property Management Co., Ltd. | On-board radar apparatus and region detection method |
EP3040909A1 (de) * | 2015-01-05 | 2016-07-06 | Delphi Technologies, Inc. | Verfahren zur Bereitstellung einer Hüllkurve in Bezug auf einen Cluster |
US20160210775A1 (en) | 2015-01-21 | 2016-07-21 | Ford Global Technologies, Llc | Virtual sensor testbed |
DE102015211490A1 (de) * | 2015-06-22 | 2016-12-22 | Robert Bosch Gmbh | Verfahren zum Betreiben einer Radarvorrichtung |
US10565468B2 (en) | 2016-01-19 | 2020-02-18 | Aptiv Technologies Limited | Object tracking system with radar/vision fusion for automated vehicles |
US10768298B2 (en) * | 2016-06-14 | 2020-09-08 | Magna Electronics Inc. | Vehicle sensing system with 360 degree near range sensing |
US10157498B2 (en) * | 2016-08-18 | 2018-12-18 | Robert Bosch Gmbh | System and method for procedurally generated object distribution in regions of a three-dimensional virtual environment |
US11112249B1 (en) * | 2018-09-24 | 2021-09-07 | Rockwell Collins, Inc. | Systems and methods for four-dimensional routing around concave polygon avoidances |
-
2018
- 2018-05-24 DE DE102018208205.7A patent/DE102018208205A1/de active Pending
-
2019
- 2019-05-20 CN CN201910418540.4A patent/CN110531353A/zh active Pending
- 2019-05-23 US US16/420,293 patent/US11209539B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11209539B2 (en) | 2021-12-28 |
US20190361112A1 (en) | 2019-11-28 |
CN110531353A (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016220075A1 (de) | Kraftfahrzeug und Verfahren zur 360°-Umfelderfassung | |
DE102014208009A1 (de) | Erfassen von statischen und dynamischen Objekten | |
DE102011111440A1 (de) | Verfahren zur Umgebungsrepräsentation | |
DE102013018721A1 (de) | Verfahren zur Erkennung wenigstens einer Parklücke für einen Kraftwagen | |
EP1612580A1 (de) | Objekterkennungsverfahren für Fahrzeuge | |
DE102018127059A1 (de) | Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs | |
DE102015115012A1 (de) | Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102013207904A1 (de) | Bereitstellen einer effizienten Umfeldkarte für ein Fahrzeug | |
DE102014111125A1 (de) | Verfahren zum Erkennen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mittels eines Ultraschallsensors, Fahrerassistenzsystem sowie Kraftfahrzeug | |
DE102018104243B3 (de) | Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken | |
DE102019008093A1 (de) | Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem | |
DE102010011629A1 (de) | Verfahren zur Umgebungsrepräsentation eines Fahrzeugs | |
DE102018122374A1 (de) | Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug | |
DE102014208967A1 (de) | Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf | |
DE102015213558A1 (de) | Vorrichtung und Verfahren zur Fusion zweier Hinderniskarten zur Umfelddetektion | |
DE102009006214A1 (de) | Verfahren zum Bereitstellen einer Umfeldrepräsentation eines Fahrzeugs | |
DE102013214632A1 (de) | Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs | |
DE102016012345A1 (de) | Verfahren zum Erkennen von Objekten | |
DE102018003784A1 (de) | Verfahren zur Bestimmung einer Reichweite eines Umgebungssensors für ein Fahrzeug | |
DE102020203543A1 (de) | Verfahren und System zur Erstellung einer semantischen Repräsentation eines Umfelds eines Fahrzeugs | |
DE102019220069A1 (de) | Verlässlichere Klassifikation von Radardaten aus dynamischen Szenerien | |
DE102016011849A1 (de) | Verfahren zur Selbstlokalisierung eines Fahrzeugs | |
DE102018208205A1 (de) | Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen | |
DE102018222686A1 (de) | Auswerten von Ortungsmessungen eines Umfeldsensors für ein Kraftfahrzeug | |
DE102018121158A1 (de) | Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R082 | Change of representative |
Representative=s name: MARKOWITZ, MARKUS, DR.-ING., DE |