DE102014221473A1 - Gerät und verfahren für das selbstlokalisieren eines fahrzeugs - Google Patents

Gerät und verfahren für das selbstlokalisieren eines fahrzeugs Download PDF

Info

Publication number
DE102014221473A1
DE102014221473A1 DE102014221473.4A DE102014221473A DE102014221473A1 DE 102014221473 A1 DE102014221473 A1 DE 102014221473A1 DE 102014221473 A DE102014221473 A DE 102014221473A DE 102014221473 A1 DE102014221473 A1 DE 102014221473A1
Authority
DE
Germany
Prior art keywords
location
vehicle
information
point
location point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014221473.4A
Other languages
English (en)
Inventor
Byung Yong YOU
Myung Seon Heo
Young Chul Oh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Original Assignee
Hyundai Motor Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR1020140081139A priority Critical patent/KR20160002178A/ko
Priority to KR10-2014-0081139 priority
Application filed by Hyundai Motor Co filed Critical Hyundai Motor Co
Publication of DE102014221473A1 publication Critical patent/DE102014221473A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system

Abstract

Ein Gerät für eine Selbstlokalisation eines Fahrzeugs beinhaltet eine Sensoreinheit, einen Ortungspunktdetektor, ein Ortungspunkt-Erkennungsglied und ein Ortsschätzglied. Der Sensor beinhaltet wenigstens zwei Sensoren und ist konfiguriert, um Information über die Umgebung rund um das Fahrzeug zu messen, wobei jeder der wenigstens zwei Sensoren benutzt wird. Der Ortungspunktdetektor ist konfiguriert, Ortspunktinformation basierend auf gemessenen Daten durch jeden Sensor zu detektieren. Das Ortspunkt-Erkennungsglied ist konfiguriert, um selektiv Ortspunktinformation, welche basierend auf einer Datenmessung von wenigstens einem der wenigstens zwei Sensoren detektiert ist, um einen Ortungspunkt zu erkennen und die zusammengefügte Ortspunktinformation wiederzugeben, um eine Wahrscheinlichkeitsverteilung zu aktualisieren. Das Ortsschätzglied ist konfiguriert, die Wahrscheinlichkeitsverteilung, welche durch das Ortspunkt-Erkennungsglied aktualisiert ist, als eigenen Ort des Fahrzeugs zu schätzen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG
  • Diese Anmeldung basiert auf und beansprucht den Nutzen der Priorität der koreanischen Patentanmeldung Nr. 10-2014-0081139 , eingereicht am 30. Juni 2014 beim Korean Intellectual Property Office (Koreanisches Amt für Geistiges Eigentum), wobei deren gesamter Inhalt in seiner Gesamtheit als Referenz eingearbeitet ist.
  • TECHNISCHER BEREICH
  • Die vorliegende Offenbarung bezieht sich auf ein Gerät und ein Verfahren für eine Selbstlokalisierung eines Fahrzeugs, und spezieller ausgedrückt auf ein Gerät und ein Verfahren für eine Selbstlokalisierung eines Fahrzeugs, welche in der Lage sind, Landmark- bzw. Ortungspunktinformation zu detektieren, wobei eine Kamera und ein Radar benutzt werden, und die detektierte Ortungspunktinformation selektiv zusammenzufügen, um präzise einen eigenen Fahrzeugort zu erkennen, den Ort des aktuellen Fahrzeugs.
  • HINTERGRUND
  • Bei dem zunehmenden Interesse in einem autonomen Fahrzeug wird ein Lokalisierverfahren, welches in der Lage ist, präzise einen eigenen Fahrzeugort in einem Stadtzentrumsbereich zu schätzen, immer wichtiger. Das autonome Fahrzeug wird basierend auf einer präzisen Karte gefahren. Jedoch, wenn ein Fahrer eines Fahrzeugs nicht weiß, wo das aktuelle Fahrzeug auf einer präzisen Karte platziert ist, ist die präzise Karte von keinem Nutzen. In letzter Zeit wurde viel Forschung bezüglich des Positionierens durch Abscannen der Kartenumgebung betrieben, wobei eine zweidimensionale (2D)/dreidimensionale Lichtdetektierung und Reichweitenmessung (LiDAR), welches eine sehr hohe Reichweitenpräzision besitzt, benutzt werden, und dann die aktuell gescannten Daten mit Ortungspunktinformation, basierend auf Information über die abgescannte Kartenumgebung, verglichen werden.
  • Der Stand der Technik benutzt einen sehr teuren Sensor, wie zum Beispiel einen LiDAR-Sensor, und deshalb ist es weniger wahrscheinlich, dass dieser aktuell in einem Fahrzeug angewendet wird. Außerdem besitzt entsprechend dem Stand der Technik ein Verfahren für das Messen eines Fahrzeugortes durch das Vergleichen der gescannten Daten mit der Ortungspunktinformation, unzureichende Robustheit zu der Zeit eines Wechsels in der umgebenden Umgebung.
  • Außerdem benutzt der Stand der Technik nur eine Reichweite-Sensorinformation und ist deshalb nicht für den Gebrauch in einer komplexen Stadtzentrumsumgebung geeignet.
  • ZUSAMMENFASSUNG
  • Die vorliegende Offenbarung wurde durchgeführt, um die oben erwähnten Probleme zu lösen, welche im Stand der Technik auftreten, während Vorteile, welche durch den Stand der Technik erreicht sind, aufrechterhalten werden.
  • Ein Gesichtspunkt der vorliegenden Offenbarung stellt ein Gerät und ein Verfahren für eine Selbst- bzw. Eigenlokalisierung eines Fahrzeugs bereit, welche in der Lage sind, Ortungspunktinformation zu detektieren, wobei eine Kamera und ein Radar benutzt wird, und das selektive Zusammenfügen der detektierten Ortungspunktinformation, um präzise einen eigenen Fahrzeugort zu erkennen.
  • Ein Gesichtspunkt der vorliegenden Offenbarung bezieht sich auf ein Gerät für eine Selbstlokalisierung eines Fahrzeugs und beinhaltet eine Sensoreinheit, einen Ortungspunktdetektor, ein Ortungspunkt-Erkennungsglied und ein Ortsschätzglied. Die Sensoreinheit beinhaltet wenigstens zwei Sensoren und ist konfiguriert, Information über die Umgebung rund um das Fahrzeug zu messen, wobei jeder der wenigstens zwei Sensoren benutzt wird. Der Ortungspunktdetektor ist konfiguriert, um Ortungspunktinformation basierend auf Daten zu detektieren, welche durch jeden Sensor gemessen sind. Das Ortungspunkt-Erkennungsglied ist konfiguriert, selektiv die Ortungspunktinformation zu kombinieren, welche basierend auf einer Datenmessung von wenigstens einem der wenigstens zwei Sensoren detektiert ist, um einen Ortungspunkt zu erkennen, und die zusammengefügte Ortungspunktinformation wiederzugeben, um eine Wahrscheinlichkeitsverteilung zu aktualisieren. Das Ortsschätzglied ist konfiguriert, die Wahrscheinlichkeitsverteilung, welche durch das Ortungspunkt-Erkennungsglied aktualisiert ist, zu benutzen, um einen eigenen Ort des Fahrzeugs zu schätzen.
  • Die Sensoreinheit kann ein Bild-Fotografierglied, welches konfiguriert ist, Bilder rund um das Fahrzeug zu fotografieren, ein Funküberwachungsglied, welches konfiguriert ist, Objekte rund um das Fahrzeug zu detektieren, und eine relative Reichweite und die Richtung von den detektierten Objekten zu messen, und einen Satelliten-Navigationsempfänger beinhalten, welcher konfiguriert ist, Ortsinformation des Fahrzeugs zu empfangen.
  • Das Bild-Fotografierglied kann irgendeine von einer Einzelkamera, einer Stereoskop-Kamera, einer Kamera in allen Richtungen und eine Vielsichtkamera sein.
  • Das Funküberwachungsglied kann eine Funkortung und Reichweitenmessung (Radar) beinhalten.
  • Der Ortungspunktdetektor kann beinhalten: einen ersten Ortungspunktdetektor, welcher konfiguriert ist, Ortungspunktinformation von den Bildern rund um das Fahrzeug zu detektieren, einen zweiten Ortungspunktdetektor, welcher konfiguriert ist, Information über den Ortungspunkt zu detektieren, welcher durch das Funküberwachungsglied detektiert ist, und einen dritten Ortungspunktdetektor, welcher konfiguriert ist, die Ortsinformation als den Ortungspunkt zu detektieren.
  • Der Ortungspunktdetektor kann irgendein Filter, von einem Kalman-Filter und einem Partikelfilter, benutzen, um die detektierte Ortungspunktinformation zu vereinigen.
  • Das Ortsschätzglied kann die aktualisierte Wahrscheinlichkeitsverteilung benutzen, um einen Ort zu schätzen, bei welchem ein aktuelles Fahrzeug am wahrscheinlichsten als ein eigener Fahrzeugort zu lokalisieren ist.
  • Die Wahrscheinlichkeitsverteilung kann eine Gaußsche Wahrscheinlichkeitsverteilung sein.
  • Ein anderer Gesichtspunkt der vorliegenden Offenbarung umfasst ein Verfahren für eine Selbstlokalisierung eines Fahrzeugs, wobei Messinformation über die Umgebung rund um das Fahrzeug beinhaltet ist, wobei wenigstens ein Sensor benutzt wird. Ortungspunktinformation wird basierend auf Daten detektiert, welche durch Sensoren gemessen sind; das Erkennen eines Ortungspunktes wird durch selektives Kombinieren von Ortungspunktinformation realisiert, welche basierend auf Datenmessung des wenigstens einen Sensors detektiert ist. Eine Wahrscheinlichkeitsverteilung wird durch das Wiedergeben des erkannten Ortungspunktes aktualisiert. Ein eigener Fahrzeugort wird geschätzt, wobei die aktualisierte Wahrscheinlichkeitsverteilung benutzt wird.
  • Bei dem Messen der Information kann umgebende Umgebungsinformation des Fahrzeugs durch eine Kamera, ein Radar bzw. einen Globales-Positioniersystem-(GPS-)Empfänger gemessen werden.
  • Bei dem Erkennen des Ortungspunktes, wenn ein Fahrzeug in einem GPS-Schattenbereich platziert ist, kann die Ortungspunktinformation, welche durch die Kamera und das Radar detektiert ist, zusammengefügt werden, um den Ortungspunkt zu erkennen.
  • Bei dem Detektieren der Ortungspunktinformation können „Anwärter” auf Bereiche bzw. mögliche Bereiche bzw. Flächen, welche jeder der detektierten Ortungspunktinformation entsprechen, auf Kartendaten ausgewählt werden.
  • Bei dem Detektieren der Ortungspunktinformation kann detektiert werden, ob ein Bereich bzw. eine Fläche durch das Messen einer Bewegungsgeschwindigkeit eines aktuellen Fahrzeugs überfüllt bzw. verstopft ist, und eine chronisch überfüllte oder verstopfte mögliche Fläche kann als die Ortungspunktinformation aus einer chronisch überfüllten oder verstopften Fläche-Information-Datenbank, welche durch die Zeit klassifiziert ist, detektiert werden.
  • Bei dem Erkennen des Ortungspunktes kann die detektierte Ortungspunktinformation zusammengefügt werden, wobei wenigstens irgendein Filter, von einem Kalman-Filter und einem Partikelfilter, benutzt wird.
  • Die Wahrscheinlichkeitsverteilung kann eine Gaußsche Wahrscheinlichkeitsverteilung sein.
  • Bei dem Schätzen des eigenen Fahrzeugortes kann ein Ort, bei welchem das aktuelle Fahrzeug am meisten wahrscheinlich zu lokalisieren ist, als der eigene Fahrzeugort geschätzt werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die obigen und anderen Aufgaben, Merkmale und Vorteile der vorliegenden Offenbarung werden aus der folgenden detaillierten Beschreibung offensichtlicher, welche in Verbindung mit den beigefügten Zeichnungen gegeben wird.
  • 1 ist eine Blockkonfigurationszeichnung, welche ein Gerät für ein eigenes Lokalisieren des Fahrzeugs entsprechend einer beispielhaften Ausführungsform des vorliegenden erfinderischen Konzeptes darstellt.
  • 2 ist ein Ablaufdiagramm, welches ein Verfahren für ein eigenes Lokalisieren des Fahrzeugs entsprechend zu einer beispielhaften Ausführungsform des vorliegenden erfinderischen Konzeptes darstellt.
  • 3a bis 3d sind beispielhafte Zeichnungen, welche eine Wahrscheinlichkeitsverteilungsaktualisierung entsprechend zu einer beispielhaften Ausführungsform des vorliegenden erfinderischen Konzeptes darstellen.
  • DETAILLIERTE BESCHREIBUNG
  • Hier nachfolgend werden beispielhafte Ausführungsformen des vorliegenden erfinderischen Konzeptes im Detail mit Bezug auf die beigefügten Zeichnungen beschrieben.
  • Eine beispielhafte Ausführungsform des vorliegenden erfinderischen Konzeptes kann Ortungspunktinformation detektieren, wobei Sensoren, wie zum Beispiel eine Kamera und ein Radar, benutzt werden, und einen eigenen Ort eines Fahrzeugs basierend auf der detektierten Ortungspunktinformation erkennen. Hier bedeutet der Ortungspunkt ein unterscheidbares Merkmal innerhalb der Umgebung, in welcher ein Fahrzeug platziert ist.
  • 1 ist eine Blockkonfigurationszeichnung, welche ein Gerät für eine Selbstlokalisierung eines Fahrzeugs entsprechend einer beispielhaften Ausführungsform des vorliegenden erfinderischen Konzeptes darstellt.
  • Mit Bezug auf 1 kann ein Gerät für eine Selbstlokalisierung eines Fahrzeugs beinhalten: eine Sensoreinheit 10, einen Ortungspunktdetektor 20, ein Ortungspunkt-Erkennungsglied 30, ein Ortsschätzglied 40, einen Speicher 50, eine Anzeige 60 und Ähnliches.
  • Die Sensoreinheit 10 kann wenigstens zwei Sensoren beinhalten und kann konfiguriert sein, Information über die Umgebung rund um ein Fahrzeug zu messen. Die Sensoreinheit 10 kann eine Bild-Fotografiereinheit 11, ein Funküberwachungsglied 12, einen Satelliten-Navigationsempfänger 13 und Ähnliches beinhalten.
  • Das Bild-Fotografierglied 11 kann Bilder (z. B. ein Bild nach vorne, ein Bild nach hinten, Bilder zur Seite und Ähnliches) rund um ein Fahrzeug fotografieren. In diesem Fall kann das Bild-Fotografierglied 11 als eine einzelne Kamera, eine Stereoskop-Kamera, eine Kamera in alle Richtungen, eine Vielsichtkamera und Ähnliches implementiert sein.
  • Das Funküberwachungsglied 12 kann eine elektromagnetische Welle senden und ein Echosignal empfangen, welches, indem es reflektiert wird, von einem Objekt empfangen wird, um Information einer Reichweite oder eines Abstandes bis hin zu dem Objekt, einer Höhe, einer Orientierung, einer Geschwindigkeit und Ähnlichem zu messen. Das Funküberwachungsglied 12 kann als eine Funkortung und Reichweitenbestimmung (RADAR) implementiert sein, welche Charakteristika einer Funkwelle benutzt, um ein Objekt zu detektieren (z. B. eine Form eines Objektes) und eine relative Reichweite und Richtung messen. Das heißt, das Funküberwachungsglied 12 detektiert Ortungspunkte (Objekte), welche rund um ein Fahrzeug platziert sind, und misst die relative Reichweite und Richtung.
  • Der Satelliten-Navigationsempfänger 13 kann ein Globales-Positioniersystem-(GPS-)Empfänger sein, welcher Navigationsinformation, welche von einem Satelliten gesendet wird, empfängt. Der Satelliten-Navigationsempfänger 13 kann die Navigationsinformation benutzen (z. B. GPS-Information, GPS-Signal), um in der Lage zu sein, um zu bestätigen: einen aktuellen Ort eines Fahrzeugs (z. B. die Richtigkeit des Geländes), die gesamte Anzahl von Satelliten, welche in der Lage sind, Satellitensignale zu empfangen, die Anzahl der Satelliten, welche in der Lage sind, ein Signal in einer Sichtlinie (LOS) zu empfangen, eine aktuelle Fahrzeuggeschwindigkeit, den Grad eines Vielwegepfades eines GPS-Signals in möglichen Flächen und Ähnliches.
  • Der Ortungspunktdetektor 20 kann einen ersten Ortungspunktdetektor 21, einen zweiten Ortungspunktdetektor 22 und einen dritten Ortungspunktdetektor 23 beinhalten.
  • Der erste Ortungspunktdetektor 21 kann die Bildinformation bearbeiten, welche durch das Bild-Fotografierglied 11 fotografiert ist, um die Ortungspunktinformation zu detektieren. Hier kann der erste Ortungspunktdetektor 21 Ortungspunkte extrahieren, wie zum Beispiel eine Front-Fahrbahnkrümmung, welche in der Bildinformation beinhaltet ist, linke und rechte Fahrbahnarten (z. B. durchgezogene Linie, gepunktete Linie und Ähnliches), linke und rechte Fahrbahnfarben, eine Gesamtanzahl von Fahrbahnen, einen Fußgängerüberweg, eine Schwelle zur Geschwindigkeitsbegrenzung und ein Geschwindigkeits-Verkehrszeichen und Information über die extrahierten Ortungspunkte detektieren. Zum Beispiel kann der erste Ortungspunktdetektor 21 die Ortungspunktinformation detektieren, zum Beispiel ”es gibt einen Fußgänger, welcher 20 m vor dem aktuellen Fahrzeug kreuzt”. In diesem Fall kann der erste Ortungspunktdetektor 21 „Anwärter” auf die Kartendaten, basierend auf der Information (z. B. Ortungspunktinformation), über den detektierten Ortungspunkt auswählen.
  • Der zweite Ortungspunktdetektor 22 kann die Ortungspunktinformation basierend auf Daten detektieren, welche durch das Funküberwachungsglied 12 gemessen sind. Das heißt, der zweite Ortungspunktdetektor 22 kann, als die Ortungspunktinformation, Information detektieren, wie zum Beispiel ein Fahrbahn-Topographieobjekt benachbart zu einer Straße, ein finales Fahrbahnparken und Stoppen des Fahrzeugs, einen Mittelstreifen und Information rund um das Fahrzeug. Zum Beispiel detektiert der zweite Ortungspunktdetektor 22 die Ortungspunktinformation, zum Beispiel ”das aktuelle Fahrzeug fährt auf einer ersten Fahrbahn der drei Fahrbahnen”. In diesem Fall kann der zweite Ortungspunktdetektor 22 „Anwärter” auf die Kartendaten, basierend auf der detektierten Ortungspunktinformation, auswählen.
  • Der dritte Ortungspunktdetektor 23 kann, als die Ortungspunktinformation, Positionsinformation eines Fahrzeugs detektieren, welche in der Navigationsinformation (z. B. GPS-Information, GPS-Signal) beinhaltet ist, welche über den Satelliten-Navigationsempfänger 13 empfangen ist. Außerdem kann der dritte Ortungspunktdetektor 23 „Anwärter”, z. B. „Anwärter”-Bereiche bzw. -Flächen, basierend auf der detektierten Ortungspunktinformation detektieren. Mit anderen Worten, wenn die empfangene Empfindlichkeit der GPS-Information gut oder dürftig ist, kann der dritte Ortungspunktdetektor 23 einen Radius als „Anwärter”, z. B. „Anwärter”-Flächen, basierend auf der Positionsinformation detektieren, welche in der GPS-Information beinhaltet ist. In diesem Fall kann, wenn das GPS-Signal nicht empfangen werden kann, der dritte Ortungspunktdetektor 23 eine Fläche, in welcher das GPS-Signal nicht empfangen werden kann, als „Anwärter” auf die Kartendaten detektieren.
  • Das Ortungspunkt-Erkennungsglied 30 kann selektiv wenigstens eine der Ortungspunktinformation, welche durch jeden Ortungspunktdetektor 21 bis 23 detektiert ist, kombinieren (oder zusammenfügen), um den Ortungspunkt zu erkennen. In diesem Fall kann das Ortungspunkt-Erkennungsglied 30 die Ortungspunktinformation, welche durch ein Filter, wie zum Beispiel ein Kalman-Filter und/oder ein Partikelfilter detektiert ist, zusammenfügen (oder integrieren), um den Ortungspunkt zu erkennen.
  • Mit anderen Worten, das Ortungspunkt-Erkennungsglied 300 kann wenigstens eine der Messdaten, welche von dem Bild-Fotografierglied 11, dem Funküberwachungsglied 12 und dem Satelliten-Navigationsempfänger 13 ausgegeben sind, mit den Kartendaten kombinieren, um den Ortungspunkt zu erkennen.
  • Außerdem kann das Ortungspunkt-Erkennungsglied 30 die Information über den erkannten Ortungspunkt wiedergeben, um eine Wahrscheinlichkeitsverteilung zu aktualisieren, um einen Ort zu schätzen, bei welchem ein Fahrzeug am meisten wahrscheinlich als eine eigene Position platziert ist. In diesem Fall können als die Wahrscheinlichkeitsverteilung verschiedene bekannte Wahrscheinlichkeitsverteilungen, wie zum Beispiel eine Gaußsche Wahrscheinlichkeitsverteilung, angewendet werden.
  • Wenn ein neuer Ortungspunkt vorhanden ist, kann das Ortungspunkt-Erkennungsglied 30 die Wahrscheinlichkeitsverteilung basierend auf einem Messwert für den neuen Ortungspunkt durch den Sensor aktualisieren. Auf der anderen Seite kann, wenn ein neuer Ortungspunkt nicht vorhanden ist, das Ortungspunkt-Erkennungsglied 30 ein Ziel modellieren (z. B. einen Ortungspunkt), welches zu erhalten ist, um die Wahrscheinlichkeitsverteilung zur aktualisieren.
  • Das Ortsschätzglied 40 kann die aktualisierte Wahrscheinlichkeitsverteilung nutzen, um einen Ort zu schätzen, in welchem ein Fahrzeug am meisten wahrscheinlich als eine eigene Position platziert ist.
  • Der Speicher 50 kann verschiedene Arten von Datenspeichern, wie zum Beispiel die Kartendaten, die Wahrscheinlichkeitsverteilung (z. B. eine Wahrscheinlichkeitsverteilungsfunktion) und die Information über den Ortungspunkt (z. B. Ortungspunktinformation) speichern. Verschiedene Arten von Daten können in die Datenbank verbracht werden und gespeichert werden. Der Speicher 50 kann als ein optischer Speicher ein Zugriffsspeicher (RAM), ein dynamisches RAM (DRAN), ein universeller Serienbus-(USB-)Speicher, ein Festplattenlaufwerk (SSD), ein Nur-Lese-Speicher (ROM) und Ähnliches implementiert sein.
  • Die Anzeige 60 kann den eigenen Ort des Fahrzeugs anzeigen, welcher durch das Ortsschätzglied 40 auf den Kartendaten geschätzt ist. Als die Anzeige 60 kann eine Anzeige für einen Navigationsanschluss benutzt werden, oder die Anzeige 60 kann auch als eine getrennte Anzeigeeinrichtung implementiert sein. Zum Beispiel kann die Anzeige 60 als eine Flüssigkeitskristallanzeige, eine transparente Anzeige, eine Licht-emittierende-Diode-(LED-)Anzeige, ein Berührungsbildschirm und Ähnliches implementiert sein.
  • 2 ist ein Ablaufdiagramm, welches ein Verfahren für eine Selbstlokalisierung des Fahrzeugs entsprechend einer beispielhaften Ausführungsform des vorliegenden erfinderischen Konzeptes darstellt.
  • Mit Bezug auf 2 kann das Gerät für eine Selbstlokalisierung des Fahrzeugs Information über die Umgebung rund um das Fahrzeug mit wenigstens einem Sensor messen, welcher die Sensoreinheit 10 konfiguriert (S11). Das heißt, das Bild-Fotografierglied 11 kann die Bilder rund um das Fahrzeug fotografieren, das Funküberwachungsglied 12 kann Objekte (z. B. Ortungspunkte) rund um das Fahrzeug detektieren und kann die relative Reichweite und Richtung messen, und der Satelliten-Navigationsempfänger 13 kann die Navigationsinformation (z. B. GPS-Information) von dem Satelliten empfangen.
  • Der Ortungspunktdetektor 20 kann die Ortungspunktinformation basierend auf den Daten detektieren, welche durch wenigstens einen Sensor gemessen sind (S12). Hier kann die Ortungspunktinformation die Information über die Ortungspunkte, wie zum Beispiel die Fahrbahnkrümmung in Front, die linken und rechten Fahrbahnarten (z. B. durchgezogene Linie, gepunktete Linie und Ähnliches), die linken und rechten Fahrbahnfarben, den Fußgängerübergang, die Geschwindigkeitsbegrenzungserhöhung, das Geschwindigkeits-Verkehrszeichen, die topographischen Objekte (z. B. Straßenwelligkeit, Absperrung und Ähnliches), den Mittelstreifen, die Information rund um das Fahrzeug (z. B. hinteres Fahrzeug, vorderes Fahrzeug und Ähnliches) und das Endfahrbahnparken und Stoppen des Fahrzeugs beinhalten.
  • Der erste Ortungspunktdetektor 21 kann die Ortungspunkte aus den umgebenden Bildern extrahieren, welche durch das Bild-Fotografierglied 11 fotografiert sind, und kann die Information über die extrahierten Ortungspunkte detektieren. Außerdem kann der zweite Ortungspunktdetektor 22 die Information über die Ortungspunkte detektieren, welche durch das Funküberwachungsglied 12 detektiert sind, und der dritte Ortungspunktdetektor 23 kann die Ortungspunktinformation von der Navigationsinformation detektieren, welche über den Satelliten-Navigationsempfänger 13 empfangen ist. In diesem Fall können die ersten bis dritten Ortungspunktdetektoren 21, 22 und 23 die „Anwärter” selektieren, z. B. die „Anwärter”-Flächen, bei welchen das aktuelle Fahrzeug wahrscheinlich auf den Kartendaten, basierend auf der Ortungspunktinformation, lokalisiert werden kann.
  • Das Ortungspunkt-Erkennungsglied 30 kann selektiv wenigstens eine der detektierten Ortungspunktinformation kombinieren (oder vereinigen), um den Ortungspunkt zu erkennen (S13). In diesem Fall kann das Erkennungsglied 30 Wichtungen für jeden der detektierten Ortungspunkte zuordnen und wenigstens eine der Ortungspunktinformationen durch das Kalman-Filter und/oder das Partikelfilter und Ähnliches vereinigen.
  • Das Ortungspunkt-Erkennungsglied 30 kann die vereinigte Ortungspunktinformation wiedergeben, um die Wahrscheinlichkeitsverteilung zu aktualisieren (S14). Hier kann als die Wahrscheinlichkeitsverteilung die Gaußsche Wahrscheinlichkeitsverteilung benutzt werden, jedoch ist das vorliegende erfinderische Konzept nicht darauf begrenzt, und deshalb können verschiedene bekannte Wahrscheinlichkeitsverteilungen dafür angewendet werden.
  • Das Ortsschätzglied 40 kann die aktualisierte Wahrscheinlichkeitsverteilung benutzen, um die Positionsinformation des aktuellen Fahrzeugs zu schätzen (S15). Mit anderen Worten, das Ortsschätzglied 40 kann einen Ort, an welchem das aktuelle Fahrzeug wahrscheinlich platziert ist, als den eigenen Fahrzeugort schätzen.
  • Zum Beispiel wird angenommen, dass bei der Gangnam-Station die Schnittfläche Nr. 1 und die Schnittfläche Nr. 2 mit Gebäuden umgeben sind, und damit ist die empfangene Empfindlichkeit des GPS-Signals schwach, zwei Fußgängerüberwege sind dazwischen vorhanden, und eine Straße ist eine einzelne mit drei Fahrbahnen. Der Ortungspunktdetektor 20 kann die Ortungspunktinformation erfassen, z. B. ”einen Ort auf einer der Straßen, welche zwischen der Gangnam-Station-Schnittfläche 1 und der Gangnam-Station-Schnittfläche Nr. 2” vorhanden ist, durch den GPS-Empfänger 13, kann die Ortungsinformation, z. B. ”es gibt einen Fußgängerüberweg in 20 m, nach vorne gerichtet”, durch die Kamera 11 erfassen und kann Ortungsinformation, z. B. ”das aktuelle Fahrzeug fährt auf einer ersten Fahrbahn innerhalb von insgesamt drei Fahrbahnen”, durch das Radar 12 erfassen. Außerdem kann das Ortungspunkt-Erkennungsglied 30 die detektierte Ortungspunktinformation zusammenfügen, um den Ortungspunkt zu erkennen. Deshalb kann das Ortsschätzglied 40 basierend auf der Ortungspunktinformation, welche durch das Ortungspunkt-Erkennungsglied 30 zusammengefügt ist, schätzen, dass das aktuelle Fahrzeug aktuell 20 m hinter irgendeinem der zwei Fußgängerüberwege platziert ist, welche zwischen der Gangnam-Station-Schnittfläche Nr. 1 und der Gangnam-Station-Schnittfläche Nr. 2 sind, und auf einer ersten Fahrbahn innerhalb von drei Fahrbahnen fährt.
  • 3a bis 3d sind vereinfachte Zeichnungen, welche eine Wahrscheinlichkeitsverteilung-Aktualisierung entsprechend einer beispielhaften Ausführungsform des vorliegenden erfinderischen Konzepts darstellen.
  • Als Erstes kann der erste Ortungspunktdetektor 21 die Bildinformation bearbeiten, welche durch das Bild-Fotografierglied 11 erfasst ist, um den Ortungspunkt zu extrahieren. Außerdem kann der erste Ortungspunktdetektor 21 den extrahierten Ortungspunkt mit der Ortungspunktinformation vergleichen, welche in den Kartendaten beinhaltet ist, um „Anwärter”, z. B. „Anwärter”-Flächen, auf die Kartendaten auszuwählen, wie dies in 3a dargestellt ist.
  • Der zweite Ortungspunktdetektor 22 kann den Ortungspunkt erkennen, welcher um das Fahrzeug platziert ist, wobei das Funküberwachungsglied 12 benutzt wird, um die erkannte Ortungspunktinformation zu detektieren. Außerdem kann, wie in 3b dargestellt ist, der zweite Ortungspunktdetektor 22 „Anwärter”, z. B. „Anwärter”-Flächen, auf die Kartendaten basierend auf der detektierten Ortungspunktinformation auswählen.
  • Außerdem kann der dritte Ortungspunktdetektor 23, als die Ortungspunktinformation, die Ortsinformation detektieren, welche in der Navigationsinformation beinhaltet ist, welche über den Satelliten-Navigationsempfänger 13 empfangen ist. Außerdem kann, wie in 3c dargestellt ist, der dritte Ortungspunktdetektor 23 die „Anwärter” (z. B. eine Fläche, in welcher die empfangene Empfindlichkeit gut ist) basierend auf der Ortsinformation auswählen. Indessen kann der dritte Ortungspunktdetektor 23 die Fläche, in welcher die empfangene Empfindlichkeit dürftig oder keine Empfangsfläche ist, als „Anwärter”, z. B. „Anwärter”-Flächen, auswählen, wenn die empfangene Empfindlichkeit des GPS-Signals dürftig ist oder das GPS-Signal nicht empfangen werden kann.
  • Das Ortungspunkt-Erkennungsglied 30 kann die Ortungspunktinformation, welche von den ersten bis dritten Ortungspunktdetektoren 21 bis 23 ausgegeben ist, zusammenbringen, wie dies in 3d dargestellt ist, und die vereinigte Ortungspunktinformation wiedergeben, um die Wahrscheinlichkeitsverteilung zu aktualisieren.
  • Wie oben beschrieben, kann eine beispielhafte Ausführungsform des vorliegenden erfinderischen Konzeptes den Ortungspunkt basierend auf der Sensorvereinigung erkennen und kann den erkannten Ortungspunkt benutzen, um den eigenen Fahrzeugort zu schätzen. Das Gerät für eine Selbstlokalisierung des Fahrzeugs entsprechend einer beispielhaften Ausführungsform des vorliegenden erfinderischen Konzeptes kann die Ortungspunkt-Kartendaten zusammen mit der Ortsschätzung erzeugen. In diesem Fall kann das Gerät für eine Selbstlokalisierung des Fahrzeugs eine Koordinatensynchronisation des Bild-Fotografiergliedes 11 und des Funküberwachungsgliedes 12 durchführen und dann die Ortungspunkt-Kartendaten erzeugen, wobei die umgebenden Bilder, welche von dem Bild-Fotografierglied 11 fotografiert sind, ein Abstand zwischen den Objekten, rund um ein Fahrzeug, welcher durch das Funküberwachungsglied 12 und das aktuelle Fahrzeug gemessen ist, und die Kartendaten benutzt werden, und kann die erzeugten Ortungspunkt-Kartendaten in dem Speicher 50 speichern.
  • Außerdem kann eine beispielhafte Ausführungsform des vorliegenden erfinderischen Konzeptes den Ortungspunkt durch das Abgleichen wenigstens einer der Ausgabedaten innerhalb der Daten, welche von dem Bild-Fotografierglied 11, dem Funküberwachungsglied 12 und dem Satelliten-Navigationsempfänger 13 ausgegeben sind, mit den Kartendaten erkennen. Das Ortungspunkt-Detektieren entsprechend zu verschiedenen Situationen wird nachfolgend anhand eines Beispiels beschrieben.
  • Als Erstes kann, wenn der Ortungspunkt durch die Koordinatensynchronisation der Bildinformation und der Radarinformation detektiert ist, das Gerät für eine Selbstlokalisierung des Fahrzeugs die umgebenden Bilder und die Abstandsinformation, welche durch das Bild-Fotografierglied 11 und das Funküberwachungsglied 12 erfasst sind, mit den Kartendaten abgleichen, um eine Leitplanke als den Ortungspunkt zu erkennen.
  • Als Zweites kann, wenn die Straßenkrümmungsinformation als der Ortungspunkt benutzt wird, das Gerät für eine Selbstlokalisierung des Fahrzeugs die umgebenden Bilder, welche durch das Bild-Fotografierglied 11 fotografiert sind, mit der Straßenkrümmungsinformation abgleichen, welche in dem Speicher 50 als Datenbank vorliegt, um die Krümmungsinformation als den Ortungspunkt zu erkennen. Als Nächstes kann das Gerät für eine Selbstlokalisierung des Fahrzeugs die Krümmungsinformation mit den Kartendaten vergleichen, um den eigenen Fahrzeugort zu schätzen.
  • Als Drittes kann, wenn eine Busnummer von lokalen Omnibussen als der Ortungspunkt benutzt wird, das Gerät für eine Selbstlokalisierung des Fahrzeugs die Routenkartendaten von wenigstens einem Bus speichern, welcher auf einer Zielfläche fährt, eine Busnummer, welche um das aktuelle Fahrzeug fährt, durch das Bild-Fotografierglied 11 erkennen und die Busnummer mit den Routenkartendaten vergleichen, um den eigenen Fahrzeugort zu schätzen.
  • Als Viertes kann, wenn eine Bushaltestelle als Ortungspunkt benutzt wird, das Gerät für das Erkennen einer Selbstlokalisierung des Fahrzeugs das Bild-Fotografierglied 11 benutzen, um einen Punkt (außer für einen Fußgängerübergang) als den Ortungspunkt, welcher mit Leuten überfüllt ist (zum Beispiel: einen Gehweg), oder eine Omnibus-Haltestellenstruktur detektieren. Außerdem kann das Gerät für eine Selbstlokalisierung des Fahrzeugs die detektierte Ortspunktinformation mit der Bushaltestelleinformation der Kartendaten vergleichen, um den eigenen Fahrzeugort zu schätzen. In diesem Fall kann, da die Vielzahl der Businformationen erfasst ist, der Fehlerbereich reduziert werden.
  • Als Fünftes kann, wenn als Ortungspunkt eine Struktur benutzt wird, welche nicht als ein Bild oder über ein Radar detektiert werden kann, wie zum Beispiel eine Struktur, welche aus einem Stein gebildet ist (zum Beispiel ein Mittelstreifen), eine Struktur, kann das Gerät für eine Selbstlokalisierung des Fahrzeugs die Struktur detektieren, welche durch das Bild-Fotografierglied 11 detektiert wird oder welche durch das Funküberwachungsglied 12 als der Ortungspunkt detektiert wird. Außerdem kann das Gerät für eine Selbstlokalisierung des Fahrzeugs den detektierten Ortungspunkt mit den Kartendaten vergleichen, um den eigenen Fahrzeugort abzuschätzen.
  • Sechstens kann, wenn das Bild-Fotografierglied 11 und der Satelliten-Navigationsempfänger 13 benutzt werden, das Gerät für eine Selbstlokalisierung des Fahrzeugs als den Ortungspunkt einen Bauwerkabschnitt (z. B. Leitkegel, Schutzwand und Ähnliches) oder besondere Strukturen, zum Beispiel eine U-Bahn-Einlassstruktur, basierend auf dem Bild detektieren, welches durch das Bild-Fotografierglied 11 fotografiert ist. Außerdem kann das Gerät für eine Selbstlokalisierung des Fahrzeugs die Information aus den extrahierten besonderen Strukturen aus der Datenbank extrahieren und die extrahierte Information mit der Ortsinformation vereinigen, welche über den Satelliten-Navigationsempfänger 13 empfangen ist, um den eigenen Fahrzeugort zu schätzen.
  • Das obige Beispiel offenbart das Detektieren des Ortungspunktes, wobei die Kamera, das Radar und der GPS-Empfänger benutzt werden, jedoch kann der Ortungspunkt durch das Messen der Fahrzeuginformation detektiert werden. Wenn zum Beispiel ein chronisch verstopfter Bereich als der Ortungspunkt benutzt wird, überwacht das Gerät für eine Selbstlokalisierung des Fahrzeugs die Bewegungsgeschwindigkeiten des aktuellen Fahrzeugs und des umgebenden Fahrzeugs, wobei ein Fahrzeugradsensor und das Funküberwachungsglied 12 benutzt werden, um zu bestätigen, ob ein Bereich überfüllt bzw. verstopft ist oder nicht. Außerdem kann, wenn bestimmt ist, dass die Fläche verstopft ist, das Gerät für eine Selbstlokalisation des Fahrzeugs detektieren, als die Ortungspunktinformation, chronisch verstopfte „Anwärter”-Flächen von einer chronisch verstopften Flächeninformation-Datenbank, welche durch die Zeit klassifiziert sind, und kann den eigenen Fahrzeugort durch das Bestimmen schätzen, ob das Fahrzeug in der chronisch verstopften Fläche fährt, und zwar durch das Zusammenfügen der detektierten Ortungspunktinformation mit der Ortungspunktinformation, welche durch den Satelliten-Navigationsempfänger 13 detektiert ist.
  • Wie oben beschrieben, ist es entsprechend zu der beispielhaften Ausführungsform des vorliegenden erfinderischen Konzeptes möglich, den eigenen Fahrzeugort durch das Schätzen des eigenen Fahrzeugortes zu schätzen, wobei die Ortungspunktinformation benutzt wird, welche durch verschiedene Arten von Sensoren erlangt wird, welche in dem Fahrzeug befestigt sind, und den Ortungspunkt zu erkennen, wobei die Kamera und das Radar sogar in der abgeschatteten Fläche, in welcher die empfangene Empfindlichkeit des GPS niedrig ist, benutzt werden.
  • Entsprechend zu beispielhaften Ausführungsformen des vorliegenden erfinderischen Konzeptes ist es möglich, das autonome Fahrzeug in Flächen (zum Beispiel: Schattenfläche, Fläche mit keinem Empfang) zu fahren, in welchen die empfangene Empfindlichkeit des GPS-Signals schwach ist, durch das Detektieren der Ortungspunktinformation, wobei die Kamera und das Radar benutzt werden, und das Zusammenfügen der detektierten Ortungspunktinformation, um präzise den eigenen Fahrzeugort zu erkennen.
  • Deshalb ist es entsprechend zu den beispielhaften Ausführungsformen des vorliegenden erfinderischen Konzeptes möglich, die Zuverlässigkeit des Ortungspunktes aufgrund der robusten Erkennungsinformation zu erhöhen und die Genauigkeit der Selbstlokalisierung (z. B. Messung) des Fahrzeugs unter verschiedenen Situationen zu erhöhen, wobei nur der in Mengen produzierte Sensor für das Fahrzeug benutzt wird.
  • Bezugszeichenliste
  • 10
    SENSOREINHEIT
    11
    BILD-FOTOGRAFIERGLIED
    12
    FUNKÜBERWACHUNGSGLIED
    13
    SATELLITEN-NAVIGATIONSEMPFÄNGER
    20
    ORTUNGSPUNKTDETEKTOR
    21
    ERSTER ORTUNGSPUNKTDETEKTOR
    22
    ZWEITER ORTUNGSPUNKTDETEKTOR
    23
    DRITTER ORTUNGSPUNKTDETEKTOR
    30
    ORTUNGSPUNKT-ERKENNUNGSGLIED
    40
    ORTSSCHÄTZGLIED
    50
    SPEICHER
    60
    ANZEIGE
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 10-2014-0081139 [0001]

Claims (16)

  1. Gerät für eine Selbstlokalisierung eines Fahrzeugs, wobei das Gerät aufweist: eine Sensoreinheit, welche wenigstens zwei Sensoren beinhaltet und konfiguriert ist, Information über die Umgebung rund um das Fahrzeug zu messen, wobei jeder der wenigstens zwei Sensoren benutzt wird; einen Ortungspunktdetektor, welcher konfiguriert ist, Ortungspunktinformation basierend auf Daten zu detektieren, welche von jedem Sensor gemessen sind; ein Ortungspunkt-Erkennungsglied, welches konfiguriert ist, selektiv Ortungspunktinformation, welche basierend auf Datenmessung von wenigstens einem der wenigstens zwei Sensoren detektiert ist, um einen Ortungspunkt zu erkennen und die vereinigte Ortungspunktinformation wiederzugeben, um eine Wahrscheinlichkeitsverteilung zu aktualisieren; und ein Ortsschätzglied, welches konfiguriert ist, die Wahrscheinlichkeitsverteilung, welche durch das Ortspunkt-Erkennungsglied aktualisiert ist, zu benutzen, um einen eigenen Ort des Fahrzeugs zu schätzen.
  2. Gerät nach Anspruch 1, wobei die Sensoreinheit beinhaltet: ein Bild-Fotografierglied, welches konfiguriert ist, Bilder rund um das Fahrzeug zu fotografieren; ein Funküberwachungsglied, welches konfiguriert ist, Objekte rund um das Fahrzeug zu detektieren und eine relative Reichweite und Richtung von den detektierten Objekten zu messen; und einen Satelliten-Navigationsempfänger, welcher konfiguriert ist, um Ortsinformation des Fahrzeugs zu empfangen.
  3. Gerät nach Anspruch 2, wobei das Bild-Fotografierglied eines aus der Gruppe bestehend aus einer einzelnen Kamera, einer Stereoskop-Kamera, einer Kamera nach allen Richtungen und einer Vielsichtkamera ausgewählt ist.
  4. Gerät nach Anspruch 2, wobei das Funküberwachungsglied eine Funkdetektier- und -reichweitenmessung (RADAR) beinhaltet.
  5. Gerät nach Anspruch 2, wobei der Ortungspunktdetektor beinhaltet: einen ersten Ortungspunktdetektor, welcher konfiguriert ist, Ortungspunktinformation aus den Bildern rund um das Fahrzeug zu detektieren; einen zweiten Ortungspunktdetektor, welcher konfiguriert ist, Information über den Ortungspunkt zu detektieren, welcher durch das Funküberwachungsglied detektiert ist; und einen dritten Ortungspunktdetektor, welcher konfiguriert ist, die Ortsinformation als den Ortungspunkt zu detektieren.
  6. Gerät nach Anspruch 1, wobei der Ortungspunktdetektor ein Filter aus der Gruppe, bestehend aus einem Kalman-Filter und einem Partikelfilter, auswählt, um die detektierte Ortungspunktinformation zu vereinigen.
  7. Gerät nach Anspruch 1, wobei das Ortsschätzglied die aktualisierte Wahrscheinlichkeitsverteilung benutzt, um einen Ort zu schätzen, bei welchem ein aktuelles Fahrzeug am meisten wahrscheinlich als ein eigener Fahrzeugort lokalisiert ist.
  8. Gerät nach Anspruch 1, wobei die Wahrscheinlichkeitsverteilung eine Gaußsche Wahrscheinlichkeitsverteilung ist.
  9. Verfahren einer Selbstlokalisation eines Fahrzeugs, wobei das Verfahren aufweist: Messen von Information über die Umgebung rund um das Fahrzeug, wobei wenigstens ein Sensor benutzt wird; Detektieren von Ortspunktinformation basierend auf Daten, welche durch wenigstens einen Sensor gemessen sind; Erkennen eines Ortungspunktes durch selektives Kombinieren von Ortungspunktinformation, welche basierend auf Datenmessung des wenigstens einen Sensors detektiert ist; Aktualisieren einer Wahrscheinlichkeitsverteilung durch das Wiedergeben des erkannten Ortungspunktes; und Schätzen eines eigenen Fahrzeugortes, wobei die aktualisierte Wahrscheinlichkeitsverteilung benutzt wird.
  10. Verfahren nach Anspruch 9, wobei das Messen der Information das Messen der umgebenden Umgebungsinformation des Fahrzeugs durch eine Kamera, ein Radar bzw. einen Globalpositioniersystem-(GPS-)Empfänger beinhaltet.
  11. Verfahren nach Anspruch 10, wobei das Erkennen des Ortungspunktes das Vereinigen, wenn ein Fahrzeug in einer GPS-Schattenfläche platziert ist, der Ortungspunktinformation, welche durch die Kamera und das Radar detektiert ist, um den Ortungspunkt zu erkennen, beinhaltet.
  12. Verfahren nach Anspruch 9, wobei das Detektieren der Ortungspunktinformation das Auswählen von „Anwärter”-Flächen beinhaltet, welche jeder der detektierten Ortungspunktinformationen auf Kartendaten entsprechen.
  13. Verfahren nach Anspruch 9, wobei das Detektieren der Ortungspunktinformation das Detektieren, ob eine Fläche überfüllt bzw. verstopft ist, durch das Messen einer Bewegungsgeschwindigkeit eines aktuellen Fahrzeugs und Detektieren einer chronisch verstopften „Anwärter”-Fläche als die Ortungspunktinformation aus einer chronisch verstopften Flächeninformation-Datenbank, welche nach der Zeit klassifiziert ist, beinhaltet.
  14. Verfahren nach Anspruch 9, wobei das Erkennen des Ortungspunktes das Zusammenfügen der detektierten Ortungspunktinformation durch das Benutzen wenigstens eines Filters beinhaltet, welches aus der Gruppe ausgewählt ist, welche aus einem Kalman-Filter und einem Partikelfilter besteht.
  15. Verfahren nach Anspruch 9, wobei die Wahrscheinlichkeitsverteilung eine Gaußsche Wahrscheinlichkeitsverteilung ist.
  16. Verfahren nach Anspruch 9, wobei das Schätzen des eigenen Fahrzeugortes das Schätzen, als den eigenen Fahrzeugort, eines Ortes beinhaltet, bei welchem das aktuelle Fahrzeug am meisten wahrscheinlich platziert ist.
DE102014221473.4A 2014-06-30 2014-10-22 Gerät und verfahren für das selbstlokalisieren eines fahrzeugs Pending DE102014221473A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140081139A KR20160002178A (ko) 2014-06-30 2014-06-30 자차 위치 인식 장치 및 방법
KR10-2014-0081139 2014-06-30

Publications (1)

Publication Number Publication Date
DE102014221473A1 true DE102014221473A1 (de) 2015-12-31

Family

ID=54839835

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014221473.4A Pending DE102014221473A1 (de) 2014-06-30 2014-10-22 Gerät und verfahren für das selbstlokalisieren eines fahrzeugs

Country Status (5)

Country Link
US (1) US20150378015A1 (de)
JP (1) JP2016014647A (de)
KR (1) KR20160002178A (de)
CN (1) CN105277190A (de)
DE (1) DE102014221473A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016214030A1 (de) * 2016-07-29 2018-02-01 Volkswagen Aktiengesellschaft Verfahren und System zum Erfassen eines Verkehrsumfeldes einer mobilen Einheit
DE102016214028A1 (de) * 2016-07-29 2018-02-01 Volkswagen Aktiengesellschaft Verfahren und System zum Bestimmen einer Position einer mobilen Einheit
WO2019223931A1 (de) * 2018-05-25 2019-11-28 Daimler Ag Verfahren zum steuern eines zur durchführung eines automatisierten fahrbetriebs eingerichteten fahrzeugsystems eines fahrzeugs und vorrichtung zur durchführung des verfahrens
DE102019209117A1 (de) * 2019-06-25 2020-12-31 Continental Automotive Gmbh Verfahren zur Lokalisierung eines Fahrzeugs

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6411917B2 (ja) * 2015-02-27 2018-10-24 株式会社日立製作所 自己位置推定装置および移動体
US9772395B2 (en) * 2015-09-25 2017-09-26 Intel Corporation Vision and radio fusion based precise indoor localization
KR101878685B1 (ko) * 2016-02-12 2018-07-16 서울과학기술대학교 산학협력단 지도 정보를 이용한 차량 측위 시스템 및 방법
CN105701479B (zh) * 2016-02-26 2019-03-08 重庆邮电大学 基于目标特征的智能车辆多激光雷达融合识别方法
US10816654B2 (en) * 2016-04-22 2020-10-27 Huawei Technologies Co., Ltd. Systems and methods for radar-based localization
KR102078771B1 (ko) * 2016-07-12 2020-02-19 현대자동차주식회사 차량, 및 그 제어방법
US20200019792A1 (en) * 2016-09-27 2020-01-16 Nissan Motor Co., Ltd. Self-Position Estimation Method and Self-Position Estimation Device
US10377375B2 (en) * 2016-09-29 2019-08-13 The Charles Stark Draper Laboratory, Inc. Autonomous vehicle: modular architecture
JP2019532292A (ja) * 2016-09-29 2019-11-07 ザ・チャールズ・スターク・ドレイパー・ラボラトリー・インコーポレイテッド 車両位置特定の自律走行車両
US10599150B2 (en) 2016-09-29 2020-03-24 The Charles Stark Kraper Laboratory, Inc. Autonomous vehicle: object-level fusion
US10928821B2 (en) 2016-11-04 2021-02-23 Intel Corporation Unmanned aerial vehicle-based systems and methods for generating landscape models
US10444347B2 (en) * 2016-11-30 2019-10-15 GM Global Technology Operations LLC Accurate self localization using automotive radar synthetic aperture radar
EP3346418A1 (de) * 2016-12-28 2018-07-11 Volvo Car Corporation Verfahren und system zur fahrzeuglokalisierung von einem kamerabild
US20200005635A1 (en) 2017-01-31 2020-01-02 Pioneer Corporation Information processing apparatus, server apparatus, information processing system, information processing method, and program
US20180276842A1 (en) * 2017-03-27 2018-09-27 Blackberry Limited System and method for image based confirmation
CN106998447B (zh) * 2017-03-31 2018-05-11 大庆安瑞达科技开发有限公司 广域、油田红外全景成像雷达侦察指挥控制系统
US10101745B1 (en) 2017-04-26 2018-10-16 The Charles Stark Draper Laboratory, Inc. Enhancing autonomous vehicle perception with off-vehicle collected data
DE102017207544A1 (de) * 2017-05-04 2018-11-08 Volkswagen Aktiengesellschaft Verfahren, vorrichtungen und computerlesbares speichermedium mit instruktionen zur ortsbestimmung eines durch ein kraftfahrzeug erfassten datums
JP6747405B2 (ja) * 2017-08-25 2020-08-26 トヨタ自動車株式会社 自車位置自信度演算装置
KR102030693B1 (ko) * 2017-09-01 2019-10-10 엘지전자 주식회사 차량 제어 방법
EP3454079A1 (de) * 2017-09-12 2019-03-13 Aptiv Technologies Limited Verfahren zur bestimmung der angemessenheit eines radarziels als ein positionsorientierungspunkt
DE102017220023A1 (de) * 2017-11-10 2019-05-16 Continental Teves Ag & Co. Ohg Fahrzeug-zu-X-Kommunikationssystem
CN109798872B (zh) * 2017-11-16 2021-06-22 北京凌云智能科技有限公司 车辆定位方法、装置和系统
KR20190088119A (ko) * 2018-01-04 2019-07-26 삼성전자주식회사 차량의 지도 상의 위치를 보정하는 전자 장치 및 방법
CN110243360A (zh) * 2018-03-08 2019-09-17 深圳市优必选科技有限公司 机器人在运动区域的地图构建及定位方法
KR20190115982A (ko) * 2018-04-04 2019-10-14 삼성전자주식회사 지도 데이터를 생성하는 전자 장치 및 그 동작 방법
KR20190134861A (ko) * 2018-04-27 2019-12-05 삼성전자주식회사 차량의 위치를 결정하는 방법 및 이를 위한 차량
WO2020045232A1 (ja) * 2018-08-31 2020-03-05 株式会社デンソー 地図生成装置及び地図生成プログラム
CN109490914B (zh) * 2018-11-30 2020-05-29 北京摩拜科技有限公司 物体定位方法、服务器及系统
TWI687706B (zh) * 2019-04-02 2020-03-11 廣達電腦股份有限公司 移動裝置之定位系統
JPWO2020217714A1 (ja) * 2019-04-26 2021-05-06 株式会社Otsl 推定システム、推定装置、推定方法及びコンピュータプログラム
KR102115905B1 (ko) * 2019-05-17 2020-05-28 주식회사 만도 운전자 보조 시스템 및 그 제어방법
CN110203254B (zh) * 2019-05-31 2021-09-28 卡斯柯信号有限公司 列车定位系统中卡尔曼滤波器的安全检测方法
KR102224105B1 (ko) * 2019-07-02 2021-03-05 한국교통대학교산학협력단 라이다를 이용한 차선 정보 생성 시스템
WO2021053620A1 (en) * 2019-09-18 2021-03-25 Thales Canada Inc. Method and system for high-integrity vehicle localization and speed determination
JP2021099276A (ja) * 2019-12-23 2021-07-01 株式会社デンソー 自己位置推定装置、方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140081139A (ko) 2012-12-21 2014-07-01 양희성 크레인을 이용한 배전설비 교체 기구

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4796191A (en) * 1984-06-07 1989-01-03 Etak, Inc. Vehicle navigational system and method
US5948043A (en) * 1996-11-08 1999-09-07 Etak, Inc. Navigation system using GPS data
US7266477B2 (en) * 2005-06-22 2007-09-04 Deere & Company Method and system for sensor signal fusion
JP2007232690A (ja) * 2006-03-03 2007-09-13 Denso Corp 現在地検出装置、地図表示装置、および現在地検出方法
DE102008020446A1 (de) * 2007-08-29 2009-03-05 Continental Teves Ag & Co. Ohg Korrektur einer Fahrzeugposition mittels markanter Punkte
JP5266846B2 (ja) * 2008-04-01 2013-08-21 セイコーエプソン株式会社 測位方法、プログラム及び測位装置
US7868821B2 (en) * 2009-01-15 2011-01-11 Alpine Electronics, Inc Method and apparatus to estimate vehicle position and recognized landmark positions using GPS and camera
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
JP4934167B2 (ja) * 2009-06-18 2012-05-16 クラリオン株式会社 位置検出装置および位置検出プログラム
JP2011013075A (ja) * 2009-07-01 2011-01-20 Toyota Infotechnology Center Co Ltd 車両位置推定システム
KR101663650B1 (ko) * 2010-06-29 2016-10-07 삼성전자주식회사 거리 신호를 이용하여 위치를 인식하는 장치 및 방법
US8452535B2 (en) * 2010-12-13 2013-05-28 GM Global Technology Operations LLC Systems and methods for precise sub-lane vehicle positioning
US9542846B2 (en) * 2011-02-28 2017-01-10 GM Global Technology Operations LLC Redundant lane sensing systems for fault-tolerant vehicular lateral controller
US9140792B2 (en) * 2011-06-01 2015-09-22 GM Global Technology Operations LLC System and method for sensor based environmental model construction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140081139A (ko) 2012-12-21 2014-07-01 양희성 크레인을 이용한 배전설비 교체 기구

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016214030A1 (de) * 2016-07-29 2018-02-01 Volkswagen Aktiengesellschaft Verfahren und System zum Erfassen eines Verkehrsumfeldes einer mobilen Einheit
DE102016214028A1 (de) * 2016-07-29 2018-02-01 Volkswagen Aktiengesellschaft Verfahren und System zum Bestimmen einer Position einer mobilen Einheit
WO2019223931A1 (de) * 2018-05-25 2019-11-28 Daimler Ag Verfahren zum steuern eines zur durchführung eines automatisierten fahrbetriebs eingerichteten fahrzeugsystems eines fahrzeugs und vorrichtung zur durchführung des verfahrens
DE102019209117A1 (de) * 2019-06-25 2020-12-31 Continental Automotive Gmbh Verfahren zur Lokalisierung eines Fahrzeugs

Also Published As

Publication number Publication date
JP2016014647A (ja) 2016-01-28
CN105277190A (zh) 2016-01-27
KR20160002178A (ko) 2016-01-07
US20150378015A1 (en) 2015-12-31

Similar Documents

Publication Publication Date Title
DE102014221473A1 (de) Gerät und verfahren für das selbstlokalisieren eines fahrzeugs
US10240934B2 (en) Method and system for determining a position relative to a digital map
JP5841849B2 (ja) 符号化されたマーカーを用いたナビゲーションシステム及び方法
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
US8134480B2 (en) Image processing system and method
CN108627175A (zh) 用于识别车辆位置的系统和方法
JP2011511281A (ja) センサにより検出されたオブジェクトとマップマッチングする方法
EP3343172A1 (de) Erzeugung und verwendung von erweiterten karten
JP2007303841A (ja) 車両位置推定装置
US20200072620A1 (en) Method and arrangement for sourcing of location information, generating and updating maps representing the location
KR20200002257A (ko) 꼭지점 검출 기반의 도로 표지판 검출 방법 및 장치
CN112292582A (zh) 用于生成高清晰度地图的方法和系统
JP4595773B2 (ja) 車両制御装置
US20200184816A1 (en) Localization in complex traffic scenarios with the aid of markings
JP2019120629A (ja) 位置計算装置、位置計算プログラム及び座標マーカ
AU2018253534A1 (en) Information processing device and information processing system
JP2018084492A (ja) 自己位置推定方法及び自己位置推定装置
KR102137043B1 (ko) 환경센서와 정밀지도를 이용한 측위 정확도 개선 시스템
Fuerstenberg et al. Feature-level map building and object recognition for intersection safety applications
KR102105590B1 (ko) 저가 상용 gnss의 측위 정확도 개선 시스템 및 방법
JP2020201180A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2020201179A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
Kojima et al. High accuracy local map generation method based on precise trajectory from GPS doppler
CN105283873A (zh) 用于发现经过车辆的一个或多个人员的方法和系统
CN111766619A (zh) 一种道路标牌智能识别辅助的融合导航定位方法及装置

Legal Events

Date Code Title Description
R012 Request for examination validly filed