DE102018208205A1 - Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen - Google Patents

Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen Download PDF

Info

Publication number
DE102018208205A1
DE102018208205A1 DE102018208205.7A DE102018208205A DE102018208205A1 DE 102018208205 A1 DE102018208205 A1 DE 102018208205A1 DE 102018208205 A DE102018208205 A DE 102018208205A DE 102018208205 A1 DE102018208205 A1 DE 102018208205A1
Authority
DE
Germany
Prior art keywords
polygon
radar sensor
objects
sensor
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018208205.7A
Other languages
English (en)
Inventor
Lars KUHNERT
Nadja Wysietzky
Ahmed Benmimoun
Martin Klubal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Priority to DE102018208205.7A priority Critical patent/DE102018208205A1/de
Priority to CN201910418540.4A priority patent/CN110531353A/zh
Priority to US16/420,293 priority patent/US11209539B2/en
Publication of DE102018208205A1 publication Critical patent/DE102018208205A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Verfahren zum Kartographieren der Umgebung eines Kraftfahrzeugs mittels eines kraftfahrzeug-gestützten Sensors und einer kraftfahrzeug-gestützten Steuerung, wobei der Sensor ein RADAR Sensor ist und die Steuerung ausgestaltet ist, um anhand der mit dem RADAR Sensor aufgespürten Objekte die Umgebung des Kraftfahrzeugs zu kartographieren, wobei solche aufgespürten Objekte ignoriert werden, die von einem näher am RADAR Sensor liegenden aufgespürten unverdeckten Objekt verdeckt sein sollten.

Description

  • Die Erfindung betrifft ein Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen nach Anspruch 1.
  • Aus der US 2017/206436 A1 ist z.B. ein Objektverfolgungssystem bekannt, das für den Einsatz in einem automatisierten Fahrzeug geeignet ist. Es besteht aus einer Kamera, einem Radarsensor und einem Controller. Der Controller ist so konfiguriert, dass er jeder Sicht-Spur, die einer Instanz eines mit der Kamera erkannten Objekts zugeordnet ist, eine Sicht-Identifikation zuweist, und jedem Radar-Objekt, der einer Instanz von gruppierten Tracklets zugeordnet ist, die mit Hilfe des Radarsensors erkannt wurden, eine Radar-Identifikation zuweist. Der Controller wird weiter konfiguriert, um Wahrscheinlichkeiten zu ermitteln, dass eine Vision-Spur und ein Radar-Objekt das gleiche Objekt anzeigen. Wenn die Kombination eine vernünftige Chance auf Übereinstimmung hat, wird sie in ein weiteres Screening der Daten einbezogen, um eine Kombination von Paarungen jeder Sicht-Spur zu einer Radarspur zu bestimmen, die die größte Wahrscheinlichkeit hat, die richtige Kombination zu sein.
  • Demgegenüber besteht die Aufgabe der vorliegenden Erfindung darin, ein einfacheres, schnelles und trotzdem zuverlässigeres Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen bereitzustellen, mit dem insbesondere autonome Kraftfahrzeuge ihre Umgebung „wahrnehmen“ können.
  • Diese Aufgabe wird durch das in Anspruch 1 wiedergegebene Verfahren gelöst. Vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen und der Beschreibung.
  • Erfindungsgemäß ist erkannt worden, dass wenn solche aufgespürten Objekte ignoriert werden, die von einem näher am RADAR Sensor liegenden aufgespürten unverdeckten Objekt verdeckt sein sollten, eine große Zahl an Fehldetektionen ignoriert werden kann und somit der Aufwand der Kartenerstellung sinkt.
  • Mit anderen Worten, es werden nur solche Objekte in die Karte mitaufgenommen, die tatsächlich vom Sensor in dessen Sichtfeld positiv erkennbar sein sollten. Solche Objekte, zu denen der Sensor keine Sichtverbindung hat, also von einem näher am Sensor liegenden Objekt verdeckt sind, und aus welchen Gründen auch immer ein Detektionssignal erzeugen, werden ignoriert.
  • Insbesondere bei RADAR Sensoren kommt es zu solchen Fehldetektionen aufgrund von Reflektionen oder Bodenecho.
  • Aus den so ermittelten unverdeckten Objekten wird eine Karte erstellt, die den freien Raum um den Sensor bzw. das Fahrzeug herum abbildet. Dazu wird ein Polygon bestimmt, dessen Ecken jeweils in gleich beabstandeten Kreissegmenten mit dem RADAR Sensor im Mittelpunkt um das Kraftfahrzeug herum liegen und jede Ecke ein im jeweiligen Kreissegment dem RADAR Sensor am nächsten liegendes aufgespürtes unverdecktes Objekt oder bei leerem Kreissegment eine Ecke in Detektionsentfernung darstellt, so dass nur aufgespürte Objekte innerhalb des Polygons berücksichtigt werden.
  • Das 360 Grad Umfeld wird demnach in Kreissegmenten aufgeteilt und in jedem Kreissegment ein erkanntes unverdecktes Objekt als Eckpunkt für das Polygon verwendet. Wird in einem Kreissegment kein Objekt detektiert, so wird eine vorgegebene Detektionsentfernung (oder Reichweite) des Sensors als virtuelles Objekt verwendet.
  • Vorzugsweise werden gleich beabstandete Kreissegmente verwendet. Es ist jedoch auch denkbar, die Kreissegmente anderweitig aufzuteilen, z.B. in Fahrtrichtung vorne mit einer feineren Teilung als hinten, so dass dort mehr Objekte in die Karte einfließen.
  • Um die Karte weiter zu vereinfachen, können zum Glätten des Polygons Ecken entfernt werden, die von RADAR Sensor aus besehen hinter einer Linie liegen, wobei die Linie dem euklidischen Abstand eines Eckpunktpaares entspricht, wenn dieser Abstand kleiner ist als ein bestimmter Schwellenwert, und alle möglichen Eckpunktpaare durchlaufen werden. Somit können „Zacken“ im Polygon bei näher aneinander liegenden Objekten entfernt oder geschlossen werden, was zu einer Datenreduktion führt.
  • Um eine Unsicherheitsmarge in der Karte einzuführen, können die Eckpunkte des Polygons verschoben werden. Sinnvollerweise wird dabei das Polygon erweitert. Dazu können entweder die Eckpunkte im jeweiligen Kreissegment in radialer Richtung um eine vorbestimmte Größe nach Außen versetzt werden oder die Eckpunkte im jeweiligen Kreissegment auf der jeweiligen Normalen um eine vorbestimmte Größe nach Außen versetzt werden.
  • Zur Verbesserung der Objekterkennung und Beschleunigung der Kartographierung, werden die näher am RADAR Sensor liegenden aufgespürten stationären sowie unverdeckten Objekte im zeitlichen Verlauf nachverfolgt und fließen in die Polygonbestimmung ein. Somit werden neben den vom Sensor momentan detektierten Objekten virtuelle detektierte Objekte in der Kartographierung verwendet, die die Sicherheit der Detektion erhöhen bzw. deren Wahrscheinlichkeit verbessern.
  • Zusammengefasst wird erfindungsgemäß ein Polygon als Karte des Freiraums bestimmt, bei dem die Eckpunkte aus unverdeckten detektierten Objekten bestehen, die jeweils in einem Kreissegment in einem 360 Grad Umfeld des Fahrzeugs bzw. des Sensors liegen.
  • Weitere Details der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen anhand der Zeichnung, in der
    • 1 eine schematische Draufsicht auf ein Kraftfahrzeug beim Kartographieren;
    • 2A, B eine schematische Ansicht auf das Glätten des Polygons bzw. der Karte;
    • 3 eine schematische Ansicht auf das Erweitern des Polygons bzw. der Karte;
    • 4 ein schematisches Blockablaufdiagram der Kartographierung.
  • In den Figuren ist ein schematisch dargestelltes und als Ganzes mit 1 bezeichnetes autonomes Kraftfahrzeug (z.B. PKW) inmitten seines RADAR-Sensorfelds 2 dargestellt, das in Fahrtrichtung 3 sich bewegt.
  • Das 360 Grad Sensorfeld 2 ist in Kreissegmente 4 ausgehend vom Mittelpunkt 5 bzw. Sensor 6 eingeteilt. Vorliegend deckt jedes der acht Kreissegmente 45 Grad ab. Es versteht sich, dass dies eine vereinfachte Darstellung ist und die Kreissegmente anders eingeteilt sein können.
  • In den Figuren sind detektierte Objekte als Kreise 7, 8 dargestellt. Die offenen Kreise 7 bezeichneten detektierte Objekte, die unverdeckt sind oder wenn, in einem Kreissegment kein Objekt detektiert wird, so wird die vorgegebene Detektionsentfernung (oder Reichweite) des Sensors als virtuelles Objekt verwendet.
  • Objekte, die als flächiger Kreis 8 dargestellt sind, sind reale vom RADAR Sensor detektierte Objekte.
  • Diese werden gleichzeitig mit einem offenen Kreis 7 gekennzeichnet, wenn sie für die Kartographierung ausgewählt wurden.
  • Das 360 Grad Umfeld wird als in Kreissegmente 4 aufgeteilt und in jedem Kreissegment 4 ein erkanntes unverdecktes Objekt 7 als Eckpunkt für ein Polygon 9 verwendet, wozu die Eckpunkte bzw. Objekte 7 mittels Linien verbunden werden.
  • Nur solche Objekte 7 werden als Eckpunkte verwendet, die nicht verdeckt sind. Es werden also solche aufgespürten Objekte 8 ignoriert, die von einem näher am RADAR Sensor 6 liegenden aufgespürten unverdeckten Objekt 7 verdeckt sind.
  • Das Polygon 9 wird also so bestimmt, dass dessen Ecken (Objekte 7) jeweils in gleich beabstandeten Kreissegmenten 4 mit dem RADAR Sensor 6 im Mittelpunkt 5 um das Kraftfahrzeug 1 herum liegen und jede Ecke ein im jeweiligen Kreissegment 4 dem RADAR Sensor am nächsten liegendes aufgespürtes unverdecktes Objekt 7 oder bei leerem Kreissegment eine Ecke in Detektionsentfernung darstellt, so dass nur aufgespürte Objekte innerhalb des Polygons berücksichtigt werden.
  • Wie anhand von 2A und B dargestellt, werden um das Polygon 9 zu Glätten bestimmte Ecken entfernt, die von RADAR Sensor 6 aus besehen hinter einer Linie liegen, wobei die Linie dem euklidischen Abstand eines Eckpunktpaares entspricht, wenn dieser Abstand kleiner ist als ein bestimmter Schwellenwert, und alle möglichen Eckpunktpaare durchlaufen werden.
  • In 2A und 2B ist beispielhaft ein Ausschnitt eines 360 Grad Sensorfelds 2 mit Kreissegmenten 4 und unverdeckten Objekten 7 dargestellt.
  • Der Abstand der Eckpunktepaare 71 und 72 bzw. 73 und 74 soll zur Verdeutlichung betrachtet werden.
  • Der Abstand a1 zwischen Eckpunkte 71 und 72 ist kleiner als eine Vorgabe, so dass die Eckpunkte 75 und 76, die hinter der Linie a1 liegen aus dem Polygon eliminiert werden.
  • Entsprechend ist der Abstand a2 zwischen Eckpunkte 73und 74 größer als eine Vorgabe, so dass der Eckpunkt 77, der zwar hinter der Linie a2 liegt nicht aus dem Polygon 9 eliminiert wird.
    Es wird unterstellt, dass der Sensor 6 ein Sichtfeld von weniger als 180 Grad aufweist und die zu entfernenden Eckpunkte bzw. Objekte 7 zwischen linken und rechten Grenzsegmenten 10, 11 liegen.
    Die 360 Grad Sicht wird durch die Kombination von vier Einzel-Sensoren zum eigentlichen Sensor 6 erreicht, die jeweils einen Öffnungswinkel ca. 150 Grad haben.
    Die Auswertung zur Entfernung von verdeckten Detektionen wird je einzelnen Sensor aus Perspektive des jeweiligen Sensors durchgeführt.
    Die Grenzsegmente sind die zu dem aktuellen Polygonpunktepaar gehörigen Segmente, ergeben sich also während der Auswertung aller Punktepaare.
  • Somit ergibt sich ein Verlauf des Polygons 9 wie in 2B dargestellt.
  • Anschließend wird das Polygon 9 erweitert. Dazu werden nur die real detektierten Eckpunkte 7,8 im jeweiligen Kreissegment 4 in radialer Richtung um eine vorbestimmte Größe nach Außen versetzt, wie dies durch die gestrichelten Pfeile in 3 angedeutet ist. So ergibt sich ein neuer Verlauf des Polygons 9*.
  • Der beschriebene Ablauf wird etwa alle 50 ms wiederholt, da dies in etwa der Zeit für die 360 Grad Sensoraufnahme entspricht.
  • Die so erhaltenen Eckpunkte 7 bzw. unverdeckten und inkludierten Objekte werden in einer FIFO Warteschlange zwischengespeichert und als Detektionen zusätzlich zu den spontanen Messungen des RADAR Sensors 6 bei der Polygonbestimmung berücksichtigt, so dass die Wahrscheinlichkeit von positiven Detektionen bzw. deren Berücksichtigung steigt.
  • Dies kann z.B. durch Erhöhen oder Erniedrigen der Wahrscheinlichkeiten der Belegung der Kreissegmente anhand eines inversen Sensor Models und sogenanntem „occupancy grid mapping“ durchgeführt werden.
  • Im Prinzip funktioniert also das erfindungsgemäße Verfahren in fünf bis sechs Schritten, wie nachfolgend anhand von 4 dargelegt.
  • Im ersten Schritt I werden alle RADAR Sensordaten nach dem FiFo Prinzip eines Durchgangs gesammelt und in die Kreissegmente etc. aufgeteilt.
  • Im zweiten Schritt II wird wie oben beschrieben das Polygon 9 mit den Eckpunkten 7 bestimmt, wobei auch Daten aus dem occupancy grid mapping Schritt VI einfließen können.
  • Das so erhaltene Polygon 9 wird im Schritt III geglättet und anschließend im Schritt IV erweitert (beides wie oben angegeben).
  • Somit erhält man ein Polygon 9* bzw. RADAR Sensordaten, die nur aus unverdeckten Objekten 7 bestehen und weiterverarbeitet werden können.
  • Die so erhaltenen Daten der Objekte 7 können in dem optionalen Schritt VI zum occupancy grid mapping verwendet werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2017206436 A1 [0002]

Claims (5)

  1. Verfahren zum Kartographieren der Umgebung eines Kraftfahrzeugs mittels eines kraftfahrzeug-gestützten Sensors und einer kraftfahrzeug-gestützten Steuerung, wobei der Sensor ein RADAR Sensor ist und die Steuerung ausgestaltet ist, um anhand der mit dem RADAR Sensor aufgespürten Objekte die Umgebung des Kraftfahrzeugs zu kartographieren, dadurch gekennzeichnet, dass solche aufgespürten Objekte ignoriert werden, die von einem näher am RADAR Sensor liegenden aufgespürten unverdeckten Objekt verdeckt sein sollten.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein Polygon bestimmt wird, dessen Ecken jeweils in gleich beabstandeten Kreissegmenten mit dem RADAR Sensor im Mittelpunkt um das Kraftfahrzeug herum liegen und jede Ecke ein im jeweiligen Kreissegment dem RADAR Sensor am nächsten liegendes aufgespürtes unverdecktes Objekt oder bei leerem Kreissegment eine Ecke in Detektionsentfernung darstellt, so dass nur aufgespürte Objekte innerhalb des Polygons berücksichtigt werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass zum Glätten des Polygons Ecken entfernt werden, die von RADAR Sensor aus besehen hinter einer Linie liegen, wobei die Linie dem euklidischen Abstand eines Eckpunktpaares entspricht, wenn dieser Abstand kleiner ist als ein bestimmter Schwellenwert, und alle möglichen Eckpunktpaare durchlaufen werden.
  4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass das Polygon erweitert wird, wozu entweder die Eckpunkte im jeweiligen Kreissegment in radialer Richtung um eine vorbestimmte Größe nach Außen versetzt werden oder die Eckpunkte im jeweiligen Kreissegment auf der jeweiligen Normalen um eine vorbestimmte Größe nach Außen versetzt werden.
  5. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass die näher am RADAR Sensor liegenden aufgespürten stationären sowie unverdeckten Objekte im zeitlichen Verlauf nachverfolgt werden und in die Polygonbestimmung einfließen.
DE102018208205.7A 2018-05-24 2018-05-24 Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen Pending DE102018208205A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018208205.7A DE102018208205A1 (de) 2018-05-24 2018-05-24 Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen
CN201910418540.4A CN110531353A (zh) 2018-05-24 2019-05-20 用于映射机动车辆环境的方法
US16/420,293 US11209539B2 (en) 2018-05-24 2019-05-23 Method for mapping the environment of motor vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018208205.7A DE102018208205A1 (de) 2018-05-24 2018-05-24 Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen

Publications (1)

Publication Number Publication Date
DE102018208205A1 true DE102018208205A1 (de) 2019-11-28

Family

ID=68499378

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018208205.7A Pending DE102018208205A1 (de) 2018-05-24 2018-05-24 Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen

Country Status (3)

Country Link
US (1) US11209539B2 (de)
CN (1) CN110531353A (de)
DE (1) DE102018208205A1 (de)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0567660B2 (de) * 1992-04-21 2000-09-06 IBP Pietzsch GmbH Einrichtung zum Führen von Fahrzeugen
US6212471B1 (en) * 1999-04-28 2001-04-03 Lockheed Martin Corporation Dynamic optimal sensor employment for searching an area
JP4523095B2 (ja) * 1999-10-21 2010-08-11 富士通テン株式会社 情報処理装置、情報統合装置および情報処理方法
SE522893C2 (sv) * 2001-06-28 2004-03-16 Saab Ab Metod för målföljning av objekt
US7002572B1 (en) * 2002-06-19 2006-02-21 Cadence Design Systems, Inc. Method and apparatus for constructing a convex polygon that encloses a set of points in a region
DE10330011B4 (de) * 2003-07-03 2005-05-12 Eads Deutschland Gmbh Verfahren zur Hinderniserkennung und Geländeklassifikation
US7409323B1 (en) * 2004-06-01 2008-08-05 The United States Of America As Represented By The Secretary Of The Navy Method for detecting a spatial random process using planar convex polygon envelope
US7903024B2 (en) 2007-10-25 2011-03-08 Lockheed Martin Corporation Adaptive moving target indicator (MTI) clutter rejection filter for radar systems
US20130176192A1 (en) 2011-09-30 2013-07-11 Kenneth Varga Extra-sensory perception sharing force capability and unknown terrain identification system
CN101526611B (zh) 2009-03-30 2011-12-28 清华大学 针对舰船的雷达散射截面检测方法
US9199668B2 (en) * 2013-10-28 2015-12-01 GM Global Technology Operations LLC Path planning for evasive steering maneuver employing a virtual potential field technique
US10101448B2 (en) * 2014-12-12 2018-10-16 Panasonic Intellectual Property Management Co., Ltd. On-board radar apparatus and region detection method
EP3040909A1 (de) * 2015-01-05 2016-07-06 Delphi Technologies, Inc. Verfahren zur Bereitstellung einer Hüllkurve in Bezug auf einen Cluster
US20160210775A1 (en) 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual sensor testbed
DE102015211490A1 (de) * 2015-06-22 2016-12-22 Robert Bosch Gmbh Verfahren zum Betreiben einer Radarvorrichtung
US10565468B2 (en) 2016-01-19 2020-02-18 Aptiv Technologies Limited Object tracking system with radar/vision fusion for automated vehicles
US10768298B2 (en) * 2016-06-14 2020-09-08 Magna Electronics Inc. Vehicle sensing system with 360 degree near range sensing
US10157498B2 (en) * 2016-08-18 2018-12-18 Robert Bosch Gmbh System and method for procedurally generated object distribution in regions of a three-dimensional virtual environment
US11112249B1 (en) * 2018-09-24 2021-09-07 Rockwell Collins, Inc. Systems and methods for four-dimensional routing around concave polygon avoidances

Also Published As

Publication number Publication date
US11209539B2 (en) 2021-12-28
US20190361112A1 (en) 2019-11-28
CN110531353A (zh) 2019-12-03

Similar Documents

Publication Publication Date Title
DE102016220075A1 (de) Kraftfahrzeug und Verfahren zur 360°-Umfelderfassung
DE102014208009A1 (de) Erfassen von statischen und dynamischen Objekten
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102013018721A1 (de) Verfahren zur Erkennung wenigstens einer Parklücke für einen Kraftwagen
EP1612580A1 (de) Objekterkennungsverfahren für Fahrzeuge
DE102018127059A1 (de) Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102013207904A1 (de) Bereitstellen einer effizienten Umfeldkarte für ein Fahrzeug
DE102014111125A1 (de) Verfahren zum Erkennen eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs mittels eines Ultraschallsensors, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018104243B3 (de) Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken
DE102019008093A1 (de) Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem
DE102010011629A1 (de) Verfahren zur Umgebungsrepräsentation eines Fahrzeugs
DE102018122374A1 (de) Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug
DE102014208967A1 (de) Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf
DE102015213558A1 (de) Vorrichtung und Verfahren zur Fusion zweier Hinderniskarten zur Umfelddetektion
DE102009006214A1 (de) Verfahren zum Bereitstellen einer Umfeldrepräsentation eines Fahrzeugs
DE102013214632A1 (de) Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102016012345A1 (de) Verfahren zum Erkennen von Objekten
DE102018003784A1 (de) Verfahren zur Bestimmung einer Reichweite eines Umgebungssensors für ein Fahrzeug
DE102020203543A1 (de) Verfahren und System zur Erstellung einer semantischen Repräsentation eines Umfelds eines Fahrzeugs
DE102019220069A1 (de) Verlässlichere Klassifikation von Radardaten aus dynamischen Szenerien
DE102016011849A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs
DE102018208205A1 (de) Verfahren zum Kartographieren der Umgebung von Kraftfahrzeugen
DE102018222686A1 (de) Auswerten von Ortungsmessungen eines Umfeldsensors für ein Kraftfahrzeug
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R082 Change of representative

Representative=s name: MARKOWITZ, MARKUS, DR.-ING., DE