DE102022126385A1 - Visuell-drahtlos-gestützte positionsbestimmung unter nutzung der mehrwegausbreitung für die aussenraum-positionsbestimmung - Google Patents

Visuell-drahtlos-gestützte positionsbestimmung unter nutzung der mehrwegausbreitung für die aussenraum-positionsbestimmung Download PDF

Info

Publication number
DE102022126385A1
DE102022126385A1 DE102022126385.1A DE102022126385A DE102022126385A1 DE 102022126385 A1 DE102022126385 A1 DE 102022126385A1 DE 102022126385 A DE102022126385 A DE 102022126385A DE 102022126385 A1 DE102022126385 A1 DE 102022126385A1
Authority
DE
Germany
Prior art keywords
positioning system
vehicle
feature
map
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022126385.1A
Other languages
English (en)
Inventor
Brent Navin Roger Bacchus
Rakesh Kumar
Bo Yu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102022126385A1 publication Critical patent/DE102022126385A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/46Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being of a radio-wave signal type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/08Position of single direction-finder fixed by determining direction of a plurality of spaced sources of known location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/08Access point devices
    • H04W88/10Access point devices adapted for operation in multiple networks, e.g. multi-mode access points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Abstract

Ein visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem enthält ein Kraftfahrzeug mit einem Funkempfänger. Eine Karte enthält Kandidatenorte für Zugangspunkte (APs) und den Zugangspunkten entsprechende Medienzugangssteuerungs-IDs (MAC-IDs). Ein drahtloser Entfernungssensor bestimmt verschiedene Entfernungen verschiedener detektierter APs, die für das Kraftfahrzeug sichtbar sind. Ein Bilderhebungsmerkmal identifiziert Bilddaten, die für das Kraftfahrzeug sichtbar sind. Ein Echtzeit-Merkmalsgleichheitsprüfungselement prüft durch das Bilderhebungsmerkmal identifizierte Merkmale mit Daten von der Karte auf Gleichheit. Ein Filter empfängt eine Ausgabe von dem Echtzeit-Merkmalsgleichheitsprüfungselement, um eine Kraftfahrzeuglage zu erzeugen.

Description

  • EINLEITUNG
  • Die vorliegende Offenbarung betrifft die Fahrzeugpositionsbestimmung unter Nutzung drahtloser Technologie.
  • Für die Positionsbestimmung und Kartierung werden drahtlose Signale und visuelle Merkmale getrennt verwendet. Üblicherweise erfordert die Positionsbestimmung unter Verwendung drahtloser Signale, dass eine drahtlose Infrastruktur vor der Verwendung genau kartiert wird. Der Betrieb des globalen Positionsbestimmungssystems (GPS-Betrieb) für Fahrzeuge einschließlich Kraftfahrzeugen unter Verwendung drahtloser Signale stellt eine drahtlose Infrastruktur bereit, kann aber durch Umgebungsbedingungen, einschließlich Gebäuden, ein Bauwerk, reflektierenden Oberflächen und dergleichen, negativ beeinflusst werden. Falls die Fahrzeugumgebung negative Umgebungsbedingungen enthält, die die genaue Verwendung drahtloser Signale vermindern, ist ein genauer Ort eines Kraftfahrzeugs oder die Lage notwendig.
  • Außerdem ist bekannt, dass die Mehrwegausbreitung die Leistungsfähigkeit eines drahtlos-gestützten Positionsbestimmungssystems verschlechtert. In der drahtlosen Kommunikation und in der Funkkommunikation ist die Mehrwegausbreitung eine Ausbreitungserscheinung, die dazu führt, dass Signale eine Empfangsantenne über zwei oder mehr Wege erreichen. Ursachen für die Mehrwegausbreitung enthalten atmosphärische Leitung, lonosphärenreflexion und lonosphärenbrechung und die Reflexion an Wasserkörpern und terrestrischen Objekten wie etwa Bergen und Gebäuden. Wenn dasselbe Signal über mehr als einen Weg empfangen wird, kann der Mehr-Signalwegempfang Interferenz und Phasenverschiebung des Empfangssignals erzeugen, sodass die Verwendung des Empfangssignals einen ungenauen Ort eines Kraftfahrzeugs erzeugen kann. Destruktive Interferenz verursacht Fading, was verursachen kann, dass ein drahtloses Signal in bestimmten Bereichen zu schwach wird, um ausreichend empfangen zu werden.
  • Obwohl aktuelle Kraftfahrzeug-Positionsbestimmungssysteme ihren beabsichtigten Zweck erfüllen, besteht somit eine Notwendigkeit eines neuen und verbesserten Kraftfahrzeug-Positionsbestimmungssystems.
  • ZUSAMMENFASSUNG
  • Gemäß mehreren Aspekten enthält ein visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem ein Kraftfahrzeug mit einem Funkempfänger. Eine Karte enthält Kandidatenorte für Zugangspunkte (APs) und den Zugangspunkten entsprechende Medienzugangssteuerungs-IDs (MAC-IDs) und identifiziert Signalreflektoren. Ein drahtloser Entfernungssensor bestimmt verschiedene Entfernungen verschiedener detektierter APs, die für das Kraftfahrzeug sichtbar sind. Ein Bilderhebungsmerkmal identifiziert Bilddaten, die für das Kraftfahrzeug sichtbar sind. Ein Echtzeit-Merkmalsgleichheitsprüfungselement prüft durch das Bilderhebungsmerkmal identifizierte Merkmale mit Daten von der Karte auf Gleichheit. Ein Filter empfängt eine Ausgabe von dem Echtzeit-Merkmalsgleichheitsprüfungselement, um eine Kraftfahrzeuglage zu erzeugen.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung wird für einzelne der verschiedenen Entfernungen eine MAC-Zuordnung vorgenommen; und vereinigt ein Sensorfusionsmodul die Positionsbestimmungseingabe von einem GPS-Empfänger, von IMU-Sensoren und von in der Cloud berechneten Positionen, um eine Endausgabe der genauen Position, die die Kraftfahrzeuglage definiert, zu erzeugen.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung wird an Ausgaben von der MAC-Zuordnung eine LOS-NLOS-Zuordnung ausgeführt, um die Mehrdeutigkeit zwischen mehreren AP-Orten aufzulösen, um zu bestimmen, welcher identifizierte AP ein „echter“ AP ist.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung gibt es ein Datenerhebungsmerkmal, wobei durch das Datenerhebungsmerkmal erhobene Daten Betriebs- und Ortsdaten von einer Fahrzeug-Inertialmesseinheit (IMU) und/oder von einem Fahrzeug-Raddrehzahlsensor (WSS) und/oder von einer Vorrichtung des globalen Positionsbestimmungssystems (GPS) enthalten.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung empfängt eine Bildmerkmals-Extraktionsfunktion die Bilddaten, um zu beurteilen, ob einem Datenbankinhalt für glaubwürdige und zuverlässige Informationen vertraut werden kann.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung enthält das Bilderhebungsmerkmal eine Kamera und/oder eine LIDAR-Komponente, die sich in dem Kraftfahrzeug befindet.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung enthält die Karte Orte von Signalreflektoren, die Oberflächen definieren, an denen drahtlose Signale reflektiert werden können; und semantische Daten, die Straßen und Kreuzungen identifizieren.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung stellt der Funkempfänger Entfernungsmesswerte für verschiedene APs als Sichtlinien-Messwerte (LOS-Messwerte) oder Nicht-Sichtlinien-Messwerte (NLOS-Messwerte) bereit.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung enthält die Karte ferner Bildmerkmale, die aus Systemen entwickelt worden sind, die Scale Invariant Feature Transform (SIFT), Speeded Up Robust Features (SURF) und ihre Koordinaten enthalten.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung enthalten die Signalreflektoren eine erste Oberfläche, die eine Oberfläche eines Zeichens definiert, und/oder eine zweite Oberfläche, die eine Wand eines Gebäudes definiert, und/oder eine dritte Oberfläche, die ein visuelles Merkmal definiert.
  • Gemäß mehreren Aspekten enthält ein visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem ein Kraftfahrzeug mit einem Funkempfänger und mit einem Sender. Eine Karte enthält Kandidatenorte für Zugangspunkte (APs), wobei die Karte außerdem Identifizierungssignalreflektoren enthält. Ein Fahrzeug-Bordpositionsbestimmungssystem des Kraftfahrzeugs erhebt drahtlos Positionsbestimmungsmesswerte von detektierten der APs. Der Sender arbeitet dafür, die drahtlosen Positionsbestimmungsmesswerte in Echtzeit an eine Cloud-Edge zu senden. Ein Sensorfusionsmodul vereinigt eine Positionseingabe von Quellen einschließlich eines GPS-Empfängers, IMU-Sensoren und in der Cloud berechneten Positionen, die von der Cloud-Edge zurückgegeben werden, um eine Endausgabe des genauen Orts zu erzeugen, die eine Kraftfahrzeuglage definiert.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung werden den detektierten der APs MAC-Adressen zugeordnet und werden den detektierten der APs die Kandidatenorte der Zugangspunkt-APs zugeordnet.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung werden unter Verwendung einer vorhergesagten Kraftfahrzeuglage und von Orten der Signalreflektoren von der Karte Nicht-Sichtlinien-Messwerte (NLOS-Messwerte) und Sichtlinienmesswerte (LOS-Messwerte) zugeordnet.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung wird diesem kartierten AP-Ort ein Messwert mit größerer Entfernung zugeordnet, sodass der Messwert mit größerer Entfernung des kartierten AP eine Reflexion definiert, falls zwischen der vorhergesagten Kraftfahrzeuglage und einem kartierten AP-Ort ein Signalreflektor liegt.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung wird dem kartierten AP ein kürzerer der Entfernungsmesswerte zugeordnet und definiert der kartierte AP ein LOS-Merkmal, falls der Signalreflektor nicht zwischen der vorhergesagten Kraftfahrzeuglage und einem kartierten AP-Ort liegt.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung enthält eine Gruppe für die Positionsbestimmung in der Cloud ein Bayes-Filter, das Daten aus einer Abtastwert-Punktwolke, einer Gruppe globaler virtueller APs und einer Gruppe planarer Oberflächenmodelle wiedergewinnt.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung wird ein einzelner Messwert der Signaldaten der drahtlosen Positionsbestimmung an das Bayes-Filter übergeben, wobei eine Ausgabe des Bayes-Filters einen Anfangspositionsschätzwert des Kraftfahrzeugs definiert.
  • Gemäß mehreren Aspekten enthält ein Verfahren zum Bestimmen einer Kraftfahrzeugposition eines Kraftfahrzeugs mit einem Funkempfänger: Identifizieren von Kandidatenorten von Zugangspunkten (APs) und einem Zugangspunkt entsprechenden Medienzugangssteuerungs-IDs (MAC-IDs) auf einer Karte; außerdem das Herunterladen von Identitäten von Signalreflektoren von der Karte; das Bestimmen verschiedener Entfernungen verschiedener detektierter der APs, die für das Kraftfahrzeug sichtbar sind, unter Verwendung eines drahtlosen Entfernungssensors; das Wiedergewinnen von Bilddaten, die für das Kraftfahrzeug sichtbar sind, unter Verwendung eines Bilderhebungsmerkmals; das Gleichheitsprüfen von Merkmalen, die durch das Bilderhebungsmerkmal identifiziert wurden, mit Daten von der Karte; und das Senden einer Ausgabe von einem Echtzeit-Merkmalsgleichheitsprüfungselement an ein Filter, um eine Kraftfahrzeuglage zu erzeugen.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung enthält das Verfahren ferner: Durchführen einer Startoperation bei einer Schlüssel-ein-Operation des Kraftfahrzeugs; Abtasten von Partikeln von einem vorhergehenden Betrieb des Kraftfahrzeugs, um eine Anfangskartenreferenz aufzubauen; Laden planarer Reflektoren, die zuvor während der Abtastung identifiziert wurden, von der Kartenreferenz; und Erfassen von Weglängen und Leistungen der Zugangspunkte (APs) von der Kartenreferenz.
  • Gemäß einem anderen Aspekt der vorliegenden Offenbarung enthält das Verfahren ferner: Eingeben von LOS- und NLOS-AP-Positionen in die Kartenreferenz; Zuordnen der AP-Weglängen und Leistungen auf der Grundlage von MAC-IDs der APs; und Aktualisieren von Partikelgewichten der APs, Auswählen aus mehreren Partikelgewichten mit einer kleinsten Wahrscheinlichkeit, dass sie nicht Reflektoren sind.
  • Weitere Bereiche der Anwendbarkeit gehen aus der hier gegebenen Beschreibung hervor. Selbstverständlich sind die Beschreibung und spezifische Beispiele nur zur Veranschaulichung bestimmt und sollen sie den Schutzumfang der vorliegenden Offenbarung nicht einschränken.
  • Figurenliste
  • Die hier beschriebenen Zeichnungen dienen nur zur Veranschaulichung und sollen den Schutzumfang der vorliegenden Offenbarung in keiner Weise einschränken; es zeigen:
    • 1 eine schematische Darstellung eines visuell-drahtlos-gestützten Positionsbestimmungssystems gemäß einem beispielhaften Aspekt;
    • 2 einen Ablaufplan, der Prozessschritte zum Bestimmen einer Lage eines Kraftfahrzeugs des Systems aus 1 darstellt;
    • 3 eine schematische Darstellung, die Schritte zum Ausführen eines Echtzeit-Positionsbestimmungsprozesses unter Verwendung von Daten in der Cloud für das System aus 1 darstellt;
    • 4 eine schematische Darstellung, die von 3 geändert ist, um einen Echtzeit-Positionsbestimmungsprozess mit Daten in der Cloud und Filterung, positioniert in dem Kraftfahrzeug, darzustellen;
    • 5 eine schematische Darstellung, die Ausgangspartikel von einem Partikelfilter, das zurückreflektierende Oberflächen in dem System aus 1 identifiziert, darstellt.
    • 6 einen Graphen, der Gewichtungswirkungen der in 5 dargestellten Partikel darstellt; und
    • 7 einen Ablaufplan, der Prozessschritte zum Bestimmen einer Fahrzeugposition darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung ist dem Wesen nach lediglich beispielhaft und soll die vorliegende Offenbarung, die vorliegende Anwendung oder die vorliegenden Verwendungen nicht einschränken.
  • In 1 wird ein visuell-drahtlos-gestütztes Positionsbestimmungssystem 10 gemäß mehreren Aspekten verwendet, um eine Position oder Lage eines Kraftfahrzeugs 12 auf einer Karte 14 zu bestimmen. Das Kraftfahrzeug 12 ist mit einem Funkempfänger 16 wie etwa, aber nicht beschränkt auf, einem Wi-Fi-Funktionstonmanagement (FTM), 5G, und dergleichen ausgestattet. Eine Umgebung, in der das Kraftfahrzeug 12 arbeitet, kann eine Leistungsfähigkeit des globalen Positionsbestimmungssystems (GPS) behindern. Die Karte 14 enthält Kandidatenorte für Zugangspunkte (APs) und ihre entsprechenden Medienzugangssteuerungs-IDs (MAC-IDs). Es werden die Orte potentieller Signalreflektoren, die Oberflächen definieren, an denen drahtlose Signale reflektiert werden können, wie etwa eine erste Oberfläche 18, die eine Oberfläche eines Zeichens 20 definiert, eine zweite Oberfläche 22 wie etwa eine Wand eines Gebäudes 24, ein Objekt 26 wie etwa ein Baum und dergleichen identifiziert. Ferner kann die Karte 14 aus Systemen wie etwa Scale Invariant Feature Transform (SIFT) entwickelte Bildmerkmale und ihre Koordinaten enthalten. Ferner enthält die Karte 14 andere relevante semantische Daten, die z. B. Straßen, Zeichen, Kreuzungen und dergleichen identifizieren. Der Funkempfänger 16 kann außerdem Entfernungsmesswerte zu verschiedenen APs bereitstellen, wobei allerdings wegen der oben erwähnten Signalreflektoren mehrere Entfernungen berichtet werden können und Messwerte als Sichtlinien-Messwerte (LOS- Messwerte) oder Nicht-Sichtlinien-Messwerte (NLOS-Messwerte) bereitgestellt werden können.
  • In 2 und wieder in 1 stellt ein Ablaufplan 28 Prozessschritte für den Betrieb des visuell-drahtlos-gestützten Positionsbestimmungssystems 10 bereit. In einem ersten Prozess 30 werden unter Verwendung eines drahtlosen Entfernungssensors 32, der einen AoA-Sensor 32 enthält, verschiedene Entfernungen verschiedener detektierter APs, die für das Kraftfahrzeug 12 sichtbar sind, bestimmt. In einem zweiten Zuordnungsprozess oder MAC-Zuordnungsprozess 34 wird für einzelne der verschiedenen Entfernungen eine MAC-Zuordnung vorgenommen. In einem dritten Prozess 36 wird daraufhin an den Ausgaben von dem MAC-Zuordnungsprozess 34 eine LOS-NLOS-Zuordnung 38 ausgeführt. Die LOS-NLOS-Zuordnung 38 löst die Mehrdeutigkeit zwischen mehreren AP-Orten auf, um zu bestimmen, welcher identifizierte AP ein „echter“ AP ist, wobei der echte AP einen AP definiert, der keine Daten von einer Reflexion oder von einem Reflektor zurückgesendete Daten enthält. Eine beispielhafte Mehrdeutigkeit kann einen Reflektor enthalten, der zwischen einer bestimmten Kraftfahrzeugposition und einem auf der Karte identifizierten AP positioniert ist. Ein derartiger Reflektor kann als eine Reflexion und kein echter oder wahrer Fahrzeug-AP ausgesondert werden. Eine Ausgabe von der LOS-NLOS-Zuordnung 38 wird in ein Filter 40 eingegeben.
  • Parallel mit dem ersten Prozess 30 wird auf die Karte 14 zugegriffen, um AP-Orte und IDs für die von dem ersten Prozess 30 ausgegebenen Einheiten zu identifizieren, damit sie in dem MAC-Zuordnungsprozess 34 verwendet werden. Außerdem wird auf die Karte 14 zugegriffen, um einen oder mehrere Reflektoren zu identifizieren, die in die LOS-NLOS-Zuordnung 38 eingegeben werden.
  • Außerdem identifiziert parallel mit dem ersten Prozess 30 ein Bilddetektionsprozess 42 Bilddaten von einem Bilderhebungsmerkmal, einschließlich einer Kamera 44, einer Laserabbildungs,- Laserdetektions- und Laserentfernungsmessungs-Komponente (LIDAR-Komponente) 46 oder dergleichen des Kraftfahrzeugs 12. Diese Bilddaten werden an einen Bildmerkmals-Extraktionsprozess 48 weitergeleitet, der z. B. einen Scale-Invariant-Feature-Transform-System-Algorithmus (SIFT-System-Algorithmus) 50 verwenden kann, der verwendet wird, um visuelle Merkmale aus einem Bild zu extrahieren. Die Ausgabe von dem Bildmerkmals-Extraktionsprozess 48 wird für einen Merkmalsgleichheitsprüfungsprozess 52 weitergeleitet, der durch die Kamera 44, durch die LIDAR-Komponente 46 oder dergleichen identifizierte Merkmale mit Daten von der Karte 14 in Echtzeit auf Gleichheit prüft. Die Ausgabe von dem Merkmalsgleichheitsprüfungsprozess 52 wird an das Filter 40 weitergeleitet.
  • Ferner werden in einem Datenerhebungsmerkmal oder Datenerhebungsprozess 54 weitere Fahrzeugdaten erhoben, um beim Identifizieren einer Lage des Kraftfahrzeugs 12 zu helfen. Diese Daten enthalten Betriebs- und Ortsdaten wie etwa eine Fahrzeug-Inertialmesseinheit (Fahrzeug-IMU) 56, einen Fahrzeug-Raddrehzahlsensor (Fahrzeug-WSS) 58 oder eine Vorrichtung 60 des globalen Positionsbestimmungssystems (Fahrzeug-GPS-Vorrichtung). Die Daten werden direkt an das Filter 40 weitergeleitet. Eine Ausgabe von dem Filter 40 definiert eine Kraftfahrzeuglage 62. Die Fahrzeuglage 62 kann ebenfalls zur weiteren Iteration an den dritten Prozess 36 und an den LOS-NLOS-Zuordnungsprozess 38 zurückgegeben werden.
  • Den detektierten drahtlosen APs werden unter Verwendung von MAC-Adressen kartierte APs zugeordnet. Unter Verwendung der Fahrzeuglage 62 des Kraftfahrzeugs 12 und der anhand von 1 beschriebenen Orte der reflektierenden Oberflächen von der Karte 14 werden NLOS/LOS-Messwerte zugeordnet. Falls zwischen einer vorhergesagten Kraftfahrzeuglage und einem kartierten AP-Ort ein Reflektor liegt, wird diesem kartierten AP ein Messwert mit größerer Entfernung zugeordnet, sodass der Messwert mit größerer Entfernung des kartierten AP eine Reflexion definiert. Falls ein Reflektor nicht zwischen der vorhergesagten Kraftfahrzeuglage und einem kartierten AP-Ort liegt, wird dem kartierten AP der kürzere der zwei Entfernungsmesswerte zugeordnet und definiert der kartierte AP ein LOS-Merkmal.
  • In 3 und wieder in den 1 und 2 erhebt ein Fahrzeug-Bordpositionsbestimmungssystem 64 des Kraftfahrzeugs 12 drahtlos Positionsbestimmungs-Messwerte 66 mit nahen Wi-Fi-APs und sendet es die Messwerte unter Verwendung eines Senders in Echtzeit an eine Cloud/Edge 68. Daraufhin verwendet das Fahrzeug-Bordpositionsbestimmungssystem 64 ein Sensorfusionsmodul 70, um die Positionsbestimmungseingabe von mehreren Quellen, einschließlich eines GPS-Empfängers 72, Sensoren 74 einer Inertialmesseinheit (IMU), in der Cloud berechneten Positionen 76 und dergleichen, zu vereinigen, um eine präzise Positions-Endausgabe zu erzeugen, die die Lage 62 definiert.
  • Das Fahrzeug-Bordpositionsbestimmungssystem 64 wird unter Verwendung einer Gruppe 80 für die Positionsbestimmung in der Cloud unterstützt. Die Messwerte 66 der drahtlosen Positionsbestimmung werden für die Übertragung als eine Messwertegruppe 78 für die Übertragung in Echtzeit an die Cloud/Edge 68 gruppiert. Die Gruppe 80 für die Positionsbestimmung in der Cloud enthält ein Bayes-Filter 82, das Daten von einer Abtastwert-Punktwolke 84, von einer Gruppe globaler virtueller APs 86 und von einer Gruppe planarer Oberflächenmodelle 88 wiedergewinnt. Ein einzelner Messwert der Signaldaten 90 der drahtlosen Positionsbestimmung wird ebenfalls an das Bayes-Filter 82 übergeben. Eine Ausgabe des Bayes-Filters 82 definiert einen Anfangspositionsschätzwert 92 des Kraftfahrzeugs 12. Nach mehreren Iterationen des Signals der drahtlosen Positionsbestimmung über die Gruppe 80 für die Positionsbestimmung in der Cloud wird von der Gruppe 80 für die Positionsbestimmung in der Cloud an das Fahrzeug-Bordpositionsbestimmungssystem 64 ein genauer Ort 94 des Kraftfahrzeugs 12 zurückzugeben, um beim Bestimmen der Lage 62 zu helfen.
  • In 4 und wieder in den 1 bis 3 kann eine Echtzeit-Fahrzeugpositionsbestimmung ebenfalls unter Verwendung einer Gruppe 96 für die Positionsbestimmung in der Cloud ausgeführt worden, die gegenüber der anhand von 4 beschriebenen Gruppe 80 für die Positionsbestimmung in der Cloud geändert ist.
  • Das Bayes-Filter 82 ist aus der Gruppe 96 für die Positionsbestimmung in der Cloud verschoben und zusammen mit den Herunterlademodulen einschließlich einer Abtastwert-Punktwolke 84a, einer Gruppe globaler virtueller APs 86a und einer Gruppe planarer Oberflächenmodelle 88a in einem Fahrzeug-Bordpositionsbestimmungssystem 98 positioniert. Ansonsten fungiert das Fahrzeug-Bordpositionsbestimmungssystem 98 mit dem Bayes-Filter 82 damit ähnlich wie das Fahrzeug-Bordpositionsbestimmungssystem 64.
  • In 5 und wieder in den 1 bis 4 empfängt auf der Cloud-Seite wie etwa in der Gruppe 80 für die Positionsbestimmung in der Cloud der Echtzeit-Positionsbestimmungsprozess Messwerte der drahtlosen Positionsbestimmung von dem Kraftfahrzeug 12, die in 1, 3 und 4 gezeigt sind, und setzt er ein Partikelfilter wie etwa das Bayes-Filter 82 wirksam ein, um die Position des Kraftfahrzeugs 12 (in dieser Ansicht nicht gezeigt) zu schätzen. Wie in 5 weiter gezeigt ist, ist eine Straße 100 mit mehreren entlang der Straße 100 positionierten Reflektoren, einschließlich einer ersten reflektierenden Oberfläche 102, eines ersten Gebäudes 104 mit einer zweiten reflektierenden Oberfläche 106, einer dritten reflektierenden Oberfläche 108 und einer vierten reflektierenden Oberfläche, die etwa ein Stoppschild definiert, dargestellt. In einer Fahrtrichtung 112 des Fahrzeugs stellt ein erster Satz von leeren Punkten 114 Partikel von dem Partikelfilter wie etwa von dem Bayes-Filter 82 dar und stellt ein zweiter Satz von Vollpunkten 116 Abtastwerte von einer Abtastwert-Positionsdatenbank 118 dar. Ein Gewicht einer Partikel uj kann, wie in Gleichung 1 gezeigt ist, wie folgt berechnet werden: w j = 1 i d ( s i ,   u j ) P D P _ d i f f ( s i ,   u j )
    Figure DE102022126385A1_0001
  • Für Gleichung 1 ist die Funktion d() eine Funktion, die die Entfernung zwischen si und uj zurückgibt; und gibt die Funktion parallelverteilte Verarbeitung (PDP) PDP_diff() die Differenz zwischen si und uj zurück.
  • In 6 und wieder in 5 stellt ein Graph 120 eine Leistung 122 in dBm gegenüber einer Verzögerungszeit 124 in Mikrosekunden dar. Eine erste Kurve 126 repräsentiert die PDP-Verteilung von si für Gleichung 1 und eine zweite Kurve 128 repräsentiert die von dem Kraftfahrzeug 12 in Echtzeit erhobene PDP. Die Funktion PDP_diff() aus Gleichung 1 gibt die angesammelte Differenz zwischen der ersten Kurve 126 und der zweiten Kurve 128 zurück.
  • Falls, weiter anhand von 5 und 6, eine Partikel uj sehr nahe einem Abtastwert si ist und uj und si sehr ähnliche Leistungsverzögerungsprofile aufweisen, trägt si ein höheres Gewicht zu uj bei.
  • In 7 und wieder in den 1 bis 6 stellt ein Prozessablaufplan 130 Operationsschritte für eine Folgeentwicklungsoperation des visuell-drahtlos-gestützten Positionsbestimmungssystems 10 dar. Zum Beispiel wird bei einer Schlüssel-ein-Operation des anhand von 1 beschriebenen Kraftfahrzeugs 12 eine Startoperation 132 durchgeführt. In einer Abtastoperation 134 werden Partikel von einer vorhergehenden Operation des Systems abgetastet, um eine Anfangskartenreferenz aufzubauen. In einer ersten Ladeoperation 136 werden zuvor in der Abtastoperation 134 identifizierte planare Reflektoren von der Karte geladen. In einer Erfassungsoperation 138 werden Weglängen und Leistungen der identifizierten APs erfasst. In einer zweiten Ladeoperation 140 werden LOS- und NLOS-AP-Positionen geladen. In einer Zuordnungsoperation 142 werden die in der vorhergehenden Erfassungsoperation 138 geladenen AP-Messwerte auf der Grundlage der MAC-IDs den Karteninformationen zugeordnet. In einer Aktualisierungsoperation 144 werden Partikelgewichte unter Verwendung der Partikelgewichte mit einer höchsten Wahrscheinlichkeit, Nicht-Reflektoren zu sein, aktualisiert. Falls die Partikelbeurteilungen von der Aktualisierungsoperation 144 abgeschlossen sind, wird in einer Abfrageoperation 146 eine Abfrage durchgeführt. Falls eine Antwort 148 von der Abfrageoperation 146 NEIN ist, wird das Programm bei einer Neuabfrageoperation 150 fortgesetzt, in der die Partikel neu abgefragt und ausgebreitet werden. Nach der Neuabfrageoperation 150 kehrt das Programm zu der ersten Ladeoperation 136 zurück. Falls eine Antwort 152 von der Abfrageoperation 146 JA ist, endet das Programm bei einer Endoperation 154.
  • Gemäß einem ersten Aspekt enthält ein System für autonomes Fahren (ADS) eine Cloud-gestützte oder lokale Karte, die relevante Merkmale bereitstellt, die in Echtzeit angepasst werden können, um die Lage des Kraftfahrzeugs 12 in einer von dem global Navigationssatellitensystem (GNSS) zurückgewiesenen Umgebung zu bestimmen.
  • Gemäß einem zweiten Aspekt stellt unter Verwendung eines Fahrzeug-zu-Fahrzeug-Systems (V2V-Systems) eine genaue Lage des Kraftfahrzeugs 12, die in einer von dem GNSS zurückgewiesenen Umgebung bereitgestellt wird, einen Grad der für V2V-Anwendungen erforderlichen Genauigkeit bereit.
  • Gemäß einem dritten Aspekt kann die genaue Lage 62 für ein verkehrserkennendes System verwendet werden, um die Verkehrsbedingungen spezifischer Straßen in einer von dem GPS zurückgewiesenen Umgebung zu lernen. Diese Daten können mit einer Cloud-gestützten Schnittstelle gemeinsam genutzt werden und verwendet werden, um neue Kraftfahrzeugstrecken zu bestimmen, um überfüllte Bereiche zu vermeiden.
  • Ein visuell-drahtlos-gestütztes Positionsbestimmungssystem der vorliegenden Offenbarung bietet mehrere Vorteile. Diese enthalten ein System, in dem ein Algorithmus die Lokalisierung in einer Außenumgebung unter Verwendung einer Kombination visueller Merkmale und drahtloser Signale bereitstellt. Durch Identifizieren und Modellieren von Quellen von Reflexionen unter Verwendung von Karten wie etwa der Karte 14 werden Mehrwegeffekte berücksichtigt. Unter Verwendung von Entfernungsmessungen wird eine genaue Lokalisierung oder Lage 62 modelliert, während die Mehrwegeffekte und die Reflexionen berücksichtigt werden. Um Reflexionen und dynamische Objekte in der Umgebung während der Kartierung zu identifizieren, werden visuelle Merkmale genutzt. Um bei der Erzeugung einer widerspruchsfreien Karte zusammen mit drahtlosen Messwerten zu helfen, werden visuelle Merkmale verwendet. Ein Satz von Positionsbestimmungsalgorithmen setzt die planaren Modelle in den gemeinsamen visuellen/drahtlosen Karten wirksam ein, um den Mehrwegeffekt zu schätzen und die Positionsbestimmungsgenauigkeit zu verbessern.
  • Die Beschreibung der vorliegenden Offenbarung ist dem Wesen nach lediglich beispielhaft und Änderungen, die nicht von dem Hauptpunkt der vorliegenden Offenbarung abweichen, sollen in dem Schutzumfang der vorliegenden Offenbarung liegen. Derartige Änderungen werden nicht als eine Abweichung von dem Erfindungsgedanken und Schutzumfang der vorliegenden Offenbarung angesehen.

Claims (10)

  1. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem, das umfasst: ein Kraftfahrzeug mit einem Funkempfänger; eine Karte, die Kandidatenorte für Zugangspunkte (APs) und den Zugangspunkten entsprechende Medienzugangssteuerungs-IDs (MAC-IDs) enthält, wobei die Karte außerdem Signalreflektoren identifiziert; einen drahtlosen Entfernungssensor, der verschiedene Entfernungen verschiedener detektierter APs, die für das Kraftfahrzeug sichtbar sind, bestimmt; ein Bilderhebungsmerkmal, das Bilddaten, die für das Kraftfahrzeug sichtbar sind, identifiziert; ein Echtzeit-Merkmalsgleichheitsprüfungselement, das durch das Bilderhebungsmerkmal identifizierte Merkmale mit Daten von der Karte auf Gleichheit prüft; und ein Filter, das eine Ausgabe von dem Echtzeit-Merkmalsgleichheitsprüfungselement empfängt, um eine Kraftfahrzeuglage zu erzeugen.
  2. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem nach Anspruch 1, das ferner eine für einzelne der verschiedenen Entfernungen vorgenommene MAC-Zuordnung; und ein Sensorfusionsmodul zum Vereinigen der Positionsbestimmungseingabe von einem GPS-Empfänger, von IMU-Sensoren und von in der Cloud berechneten Positionen enthält, wobei das Sensorfusionsmodul eine Endausgabe der genauen Position erzeugt, die die Kraftfahrzeuglage definiert.
  3. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem nach Anspruch 2, das ferner eine LOS-NLOS-Zuordnung enthält, die an Ausgaben von der MAC-Zuordnung ausgeführt wird, um die Mehrdeutigkeit zwischen mehreren AP-Orten aufzulösen, um zu bestimmen, welcher identifizierte AP ein „echter“ AP ist.
  4. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem nach Anspruch 3, das ferner ein Datenerhebungsmerkmal enthält, wobei die durch das Datenerhebungsmerkmal erhobenen Daten Betriebs- und Ortsdaten von einer Fahrzeug-Inertialmesseinheit (IMU) und/oder von einem Fahrzeug-Raddrehzahlsensor (WSS) und/oder von einer Vorrichtung des globalen Positionsbestimmungssystems (GPS) enthalten.
  5. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem nach Anspruch 1, das ferner eine Bildmerkmals-Extraktionsfunktion enthält, die die Bilddaten empfängt, um zu beurteilen, ob einem Datenbankinhalt für glaubwürdige und zuverlässige Informationen vertraut werden kann.
  6. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem nach Anspruch 1, wobei das Bilderhebungsmerkmal eine Kamera und/oder eine LIDAR-Komponente, die sich in dem Kraftfahrzeug befindet, definiert.
  7. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem nach Anspruch 1, wobei die Karte Orte von Signalreflektoren, die Oberflächen definieren, an denen drahtlose Signale reflektiert werden können; und semantische Daten, die Straßen und Kreuzungen identifizieren, enthält.
  8. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem nach Anspruch 1, wobei der Funkempfänger Entfernungsmesswerte für verschiedene APs als Sichtlinien-Messwerte (LOS-Messwerte) oder Nicht-Sichtlinien-Messwerte (NLOS-Messwerte) bereitstellt.
  9. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem nach Anspruch 1, wobei die Karte ferner Bildmerkmale enthält, die aus Systemen entwickelt worden sind, die Scale Invariant Feature Transform (SIFT), Speeded Up Robust Features (SURF) und ihre Koordinaten enthalten.
  10. Visuell-drahtlos-gestütztes Kraftfahrzeug-Positionsbestimmungssystem nach Anspruch 1, wobei die Signalreflektoren eine erste Oberfläche, die eine Oberfläche eines Zeichens definiert, und/oder eine zweite Oberfläche, die eine Wand eines Gebäudes definiert, und/oder eine dritte Oberfläche, die ein visuelles Merkmal definiert, enthalten.
DE102022126385.1A 2022-01-28 2022-10-11 Visuell-drahtlos-gestützte positionsbestimmung unter nutzung der mehrwegausbreitung für die aussenraum-positionsbestimmung Pending DE102022126385A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/587,699 2022-01-28
US17/587,699 US20230245464A1 (en) 2022-01-28 2022-01-28 Visual wireless based positioning exploiting multipath for outdoor positioning

Publications (1)

Publication Number Publication Date
DE102022126385A1 true DE102022126385A1 (de) 2023-08-03

Family

ID=87160569

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022126385.1A Pending DE102022126385A1 (de) 2022-01-28 2022-10-11 Visuell-drahtlos-gestützte positionsbestimmung unter nutzung der mehrwegausbreitung für die aussenraum-positionsbestimmung

Country Status (3)

Country Link
US (1) US20230245464A1 (de)
CN (1) CN116558531A (de)
DE (1) DE102022126385A1 (de)

Also Published As

Publication number Publication date
CN116558531A (zh) 2023-08-08
US20230245464A1 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
DE102011117809B4 (de) Verfahren zum Ergänzen der GPS- oder GPS/Sensor-Fahrzeugpositionsbestimmung unter Verwendung zusätzlicher fahrzeuginterner Bilderfassungssensoren
DE102016112913A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position
US20080262721A1 (en) Map generation system and map generation method by using GPS tracks
EP1938042B1 (de) Erzeugung von optimierten terrain-datenbanken
DE112010001235T5 (de) Verfahren und Vorrichtung zum Verbessern einer GPS-Empfängergenauigkeit unter Verwendung einer eingebetteten Kartendatenbank
CN102208013A (zh) 风景匹配参考数据生成系统和位置测量系统
DE102010029483A1 (de) Verfahren und Vorrichtung zur Kommunikation
CN109815300A (zh) 一种车辆定位方法
DE102018005869A1 (de) System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
CN112292582A (zh) 用于生成高清晰度地图的方法和系统
DE102015000394B4 (de) Fahrzeugflotten-basierte Messung von Umgebungsdaten
DE102018209607A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Position eines Kraftfahrzeugs
EP3904830A1 (de) Vorrichtung und verfahren zur verwaltung von karten
DE102021115042A1 (de) Vorrichtung und Verfahren zum Sammeln von kartenerzeugenden Daten
DE102017122440A1 (de) Verfahren zum Lokalisieren und Weiterbilden einer digitalen Karte durch ein Kraftfahrzeug; Lokalisierungseinrichtung
CN117029840A (zh) 一种移动车辆定位方法及系统
DE102022126385A1 (de) Visuell-drahtlos-gestützte positionsbestimmung unter nutzung der mehrwegausbreitung für die aussenraum-positionsbestimmung
WO2019188820A1 (ja) 情報送信装置、データ構造、制御方法、プログラム及び記憶媒体
CN116430404A (zh) 相对位置的确定方法和装置、存储介质及电子装置
JP2022136145A (ja) データ構造、情報処理装置、及び地図データ生成装置
DE102017204615A1 (de) Verfahren und Vorrichtung zur Positionsbestimmung und zum Bestimmen eines Laufzeitverlängerungsanteils
Choi et al. Point Cloud-Based Lane Detection for Optimal Local Path Planning
Jomrich et al. Lane Accurate Detection of Map Changes based on Low Cost Smartphone Data.
Kreibich et al. Lane-level matching algorithm based on GNSS, IMU and map data
JP7211513B2 (ja) 地図データ生成装置

Legal Events

Date Code Title Description
R012 Request for examination validly filed