DE102021214580A1 - Systeme und Verfahren zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren - Google Patents

Systeme und Verfahren zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren Download PDF

Info

Publication number
DE102021214580A1
DE102021214580A1 DE102021214580.9A DE102021214580A DE102021214580A1 DE 102021214580 A1 DE102021214580 A1 DE 102021214580A1 DE 102021214580 A DE102021214580 A DE 102021214580A DE 102021214580 A1 DE102021214580 A1 DE 102021214580A1
Authority
DE
Germany
Prior art keywords
passenger
driver
location
arrival
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021214580.9A
Other languages
English (en)
Inventor
Samarjit Das
Sirajum Munir
Vivek Jain
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102021214580A1 publication Critical patent/DE102021214580A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/02Systems for determining distance or velocity not using reflection or reradiation using radio waves
    • G01S11/04Systems for determining distance or velocity not using reflection or reradiation using radio waves using angle measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/02Systems for determining distance or velocity not using reflection or reradiation using radio waves
    • G01S11/06Systems for determining distance or velocity not using reflection or reradiation using radio waves using intensity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/02Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using radio waves
    • G01S3/14Systems for determining direction or deviation from predetermined direction
    • G01S3/46Systems for determining direction or deviation from predetermined direction using antennas spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/48Systems for determining direction or deviation from predetermined direction using antennas spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems the waves arriving at the antennas being continuous or intermittent and the phase difference of signals derived therefrom being measured
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0072Transmission between mobile stations, e.g. anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0258Hybrid positioning by combining or switching between measurements derived from different systems
    • G01S5/02585Hybrid positioning by combining or switching between measurements derived from different systems at least one of the measurements being a non-radio measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0278Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves involving statistical or probabilistic considerations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0619Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal using feedback from receiving side
    • H04B7/0621Feedback content
    • H04B7/0626Channel coefficients, e.g. channel state information [CSI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Telephone Function (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es ist ein System zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig in einem Ridehailing-Dienst zu finden, bereitgestellt. Eine Fahrervorrichtung kann mit einer Fahrgastvorrichtung kommunizieren. Die Fahrervorrichtung kann GPS-Koordinaten der Fahrgastvorrichtung empfangen, sodass der relative Standort der Fahrgastvorrichtung mittels GPS bestimmt werden kann. Als Reaktion darauf, dass sich die Fahrgastvorrichtung innerhalb eines Schwellenabstands von der Fahrervorrichtung befindet, können sich die Fahrgastvorrichtung und die Fahrervorrichtung mittels WiFi verbinden, um Daten zu teilen, sodass die Lokalisierungsfähigkeit des Systems verbessert wird. Mindestens ein Prozessor kann WiFi-Datenpakete von der Fahrgastvorrichtung empfangen, Kanalzustandsinformationen (CSI) aus den WiFi-Datenpaketen messen und extrahieren, eine Ankunftswinkel(AoA)-Anwendung ausführen, um den Ankunftswinkel basierend auf den CSI zu bestimmen, und einen Standort des Fahrgastes basierend auf dem bestimmten Ankunftswinkel aus den CSI anzeigen.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft Systeme und Verfahren zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren.
  • Hintergrund
  • Ridehailing-Dienste haben in den letzten Jahren an Popularität zugenommen. Diese Dienste ermöglichen einem Fahrgast, einen Fahrer über eine Anwendung auf sowohl einer mobilen Vorrichtung des Fahrgastes als auch einer mobilen Vorrichtung des Fahrers anzufordern. Gegenwärtige Ridehailing-Anwendungen sind auf Signale von globalen Positionierungssystemen (GPS) angewiesen, um Fahrern zu helfen, die Fahrgäste zu lokalisieren, und umgekehrt. Dies kann an Orten wie innerstädtischen Gebieten, in denen große Gebäude die GPS-Signale blockieren oder stören können, an Orten, an denen Fahrer in Gebäude gehen müssen, um den Fahrgast abzuholen, oder an überfüllten Orten wie Flughäfen, Stadien und Theatern schwierig sein.
  • Kurzfassung
  • Gemäß einer Ausführungsform beinhaltet ein System zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu finden, eine Benutzerschnittstelle; eine Speicherung, die dazu ausgelegt ist, eine Ankunftswinkel(AoA)-Anwendung (AoA: Angle of Arrival) zu verwalten, die bei ihrer Ausführung einen Ankunftswinkel eines eingehenden WiFi-Signals bestimmt; und mindestens einen Prozessor in Kommunikation mit der Benutzerschnittstelle und der Speicherung, wobei der mindestens eine Prozessor. Der mindestens eine Prozessor ist programmiert zum Empfangen eines Standorts einer mobilen Vorrichtung eines Fahrgastes mittels GPS und Durchführen, als Reaktion darauf, dass der Standort der mobilen Vorrichtung des Fahrgastes sich innerhalb eines Schwellenabstands von einer mobilen Vorrichtung eines Fahrers befindet, der folgenden Schritte: Empfangen von WiFi-Datenpaketen von der mobilen Vorrichtung des Fahrgastes an der mobilen Vorrichtung des Fahrers, Messen und Extrahieren von Kanalzustandsinformationen (CSI: Channel State Information) aus den empfangenen WiFi-Datenpaketen, Ausführen der AoA-Anwendung, um den Ankunftswinkel basierend auf den CSI zu bestimmen, und Anzeigen, auf der Benutzerschnittstelle, eines Grobstandorts des Fahrgastes basierend auf dem bestimmten Ankunftswinkel.
  • Gemäß einer Ausführungsform beinhaltet ein Verfahren zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu finden, Empfangen eines Standorts einer Fahrgastvorrichtung an einer Fahrervorrichtung mittels GPS und Durchführen der folgenden Schritte als Reaktion darauf, dass sich der Standort der Fahrgastvorrichtung innerhalb eines Schwellenabstands von der Fahrervorrichtung befindet: Nutzen einer WiFi-Antenne an der Fahrervorrichtung zum Detektieren von WiFi-Signalen, die von der Fahrgastvorrichtung ausgehen, Empfangen von WiFi-Datenpaketen von der Fahrgastvorrichtung, Extrahieren von Kanalzustandsinformationen (CSI) aus den empfangenen WiFi-Datenpaketen, Bestimmen eines Ankunftswinkels basierend auf den CSI und Anzeigen, auf einer Benutzerschnittstelle, eines Standorts der Fahrgastvorrichtung basierend auf dem bestimmten Ankunftswinkel.
  • Gemäß einer Ausführungsform beinhaltet eine Dashcam-Anzeige zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig in einer Ridehailing-Umgebung zu finden, Folgendes: eine oder mehrere WiFi-Antennen, die dazu ausgelegt sind, WiFi-Datenpakete von einer mobilen Vorrichtung eines Fahrgastes zu empfangen; einen Drahtlossendeempfänger, der dazu ausgelegt ist, mit einer mobilen Vorrichtung eines Fahrers zu kommunizieren; eine Speicherung, die dazu ausgelegt ist, eine Ankunftswinkel(AoA)-Anwendung zu verwalten, die bei ihrer Ausführung einen Ankunftswinkel eines eingehenden WiFi-Signals von der mobilen Vorrichtung des Fahrgastes bestimmt; und einen Prozessor, der mit der Speicherung und dem Drahtlossendeempfänger gekoppelt ist. Der Prozessor ist programmiert zum: Empfangen von WiFi-Datenpaketen von der mobilen Vorrichtung des Fahrgastes, Messen und Extrahieren von Kanalzustandsinformationen (CSI) aus den empfangenen WiFi-Datenpaketen, Ausführen der AoA-Anwendung, um den Ankunftswinkel basierend auf den CSI zu bestimmen, und Bewirken, dass der Drahtlossendeempfänger ein Signal zu der mobilen Vorrichtung des Fahrers sendet, um einen Standort des Fahrgastes basierend auf dem bestimmten Ankunftswinkel anzuzeigen.
  • Figurenliste
    • 1 veranschaulicht einen internen Fahrgastraum eines Fahrzeugs mit einer mobilen Vorrichtung zum Ansehen eines Standorts eines Fahrgastes in einer Ridehailing-Anwendung gemäß einer Ausführungsform.
    • 2 ist eine Dashcam-Anzeige gemäß einer Ausführungsform.
    • 3 veranschaulicht ein Beispiel für ein System zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren, gemäß einer Ausführungsform.
    • 4 veranschaulicht ein Signalverarbeitungsflussdiagramm von einer mobilen Vorrichtung des Fahrgastes zu einer mobilen Vorrichtung des Fahrers gemäß einer Ausführungsform.
    • 5 ist ein Flussdiagramm zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren, gemäß einer Ausführungsform.
    • 6 ist ein Flussdiagramm zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren, gemäß einer Ausführungsform.
    • 7 ist ein Flussdiagramm zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren, gemäß einer Ausführungsform.
    • 8 ist ein Flussdiagramm zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren, gemäß einer Ausführungsform.
    • 9 veranschaulicht einen internen Fahrgastraum eines Fahrzeugs mit einer mobilen Vorrichtung zum Ansehen eines Standorts eines Fahrgastes mit einem Feinstandort in einer Ridehailing-Anwendung gemäß einer Ausführungsform.
    • 10 ist ein Flussdiagramm zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren, gemäß einer Ausführungsform, bei dem eine Signalverarbeitung von Drahtlosdaten und eine Bilddetektion zur verbesserten Standortbestimmung fusioniert oder abgeglichen werden.
    • 11 veranschaulicht eine beispielhafte Ausgabe einer Menschendetektionsanwendung, die Begrenzungsrahmen um detektierte Menschen herum platziert, gemäß einer Ausführungsform.
    • 12 veranschaulicht eine beispielhafte Ausgabe einer Fusion der Menschendetektionsanwendung und einer Signalverarbeitung von Drahtlosdaten, um einen Begrenzungsrahmen um die identifizierte Person herum zu platzieren, gemäß einer Ausführungsform.
    • 13 veranschaulicht eine Draufsicht eines Fahrgastes, der einen Fahrer anfordert, mit dem Fahrgast bereitgestellten Informationen, wie etwa dem Ankunftswinkel und dem Abstand des Fahrzeugs des Fahrers, gemäß einer Ausführungsform.
    • 14 veranschaulicht eine Kartendraufsicht eines Standorts des Fahrgastes und des Fahrers, der auf der Fahrgastvorrichtung ansehbar ist, gemäß einer Ausführungsform.
    • 15 ist eine Perspektivansicht einer Ausführungsform mit erweiterter Realität, in der der Fahrgast seine mobile Vorrichtung hochhalten kann, um die Umgebung anzusehen, und das Fahrzeug des Fahrers hervorgehoben werden kann, gemäß einer Ausführungsform.
  • Ausführliche Beschreibung
  • Hierin sind Ausführungsformen der vorliegenden Offenbarung beschrieben. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich Beispiele sind und andere Ausführungsformen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht notwendigerweise maßstabsgetreu; manche Merkmale könnten übertrieben oder minimiert sein, um Einzelheiten von bestimmten Komponenten zu zeigen. Daher sollen spezifische, hierin offenbarte strukturelle und funktionelle Einzelheiten nicht als beschränkend interpretiert werden, sondern lediglich als eine repräsentative Basis zum Lehren eines Fachmanns auf dem Gebiet, die Ausführungsformen verschiedenartig einzusetzen. Wie Durchschnittsfachleute auf dem Gebiet verstehen werden, können verschiedene Merkmale, die mit Bezugnahme auf irgendeine der Figuren veranschaulicht und beschrieben sind, mit Merkmalen kombiniert werden, die in einer oder mehreren anderen Figuren veranschaulicht sind, um Ausführungsformen zu erzeugen, die nicht ausdrücklich veranschaulicht oder beschrieben sind. Die Kombinationen von veranschaulichten Merkmalen liefern repräsentative Ausführungsformen für typische Anwendungen. Verschiedene Kombinationen und Modifikationen der Merkmale, die mit den Lehren dieser Offenbarung konsistent sind, könnten jedoch für bestimmte Anwendungen oder Implementierungen gewünscht sein.
  • Da Menschen auf Ridehailing-Dienste (z. B. UBER, LYFT) angewiesen sind, wird es für die Fahrer und die Fahrgäste zunehmend wichtig, sich gegenseitig zu finden. Gegenwärtig verwenden Fahrer und Fahrgäste mobile Vorrichtungen (z. B. Smartphones), um sich über eine durch den Ridehailing-Dienst bereitgestellte Anwendung zu finden. Der Fahrer und der Fahrgast können sich basierend auf Signalen von globalen Positionierungssystemen (GPS) gegenseitig lokalisieren. In Stadtzentren und -gebieten wie der Innenstadt, in denen große Gebäude und Hochhäuser vorhanden sind, sind GPS-Signale jedoch nicht immer zuverlässig. Es gibt auch Orte wie etwa Flughäfen, an denen die Fahrer möglicherweise in Gebäude gehen müssen, um Passagiere abzuholen, und GPS funktioniert möglicherweise nicht in den Innenräumen. In überfüllten Umgebungen wie Stadien, Flughäfen, Theatern und Gaststuben kann es auch schwierig sein, den tatsächlichen Fahrgast an der Straße oder auf dem Fußweg unter vielen anderen Leuten zu lokalisieren, die auch an der Straße oder auf dem Fußweg stehen. Dies wird auch in Zeiten mit reduzierter Sichtbarkeit schlimmer, wie etwa nachts oder während schlechten Wetters (z. B. Regen, Schnee usw.).
  • Fahrgäste haben sich über die Verfügbarkeit zur Lokalisierung des angeforderten Fahrers oder der Fähigkeit des Fahrers, den Fahrgast zu lokalisieren, beschwert. Dies kann die Zeit der Fahrer und der Fahrgäste verschwenden und sie zwingen, sich gegenseitig über das Telefon anzurufen, um zu besprechen, wo sie sich genau befinden. Diese verschwendete Zeit übersetzt sich in verlorenes Einkommen für die Fahrer. Falls Fahrer eine Minute pro Fahrt während des Abholens sparen können, könnte sich dies im Laufe eines Tages in eine oder mehrere ganze Fahrten an Arbeit für den Fahrer übersetzen. Dies erzeugt Frustration und kann eine schlechte Benutzererfahrung hervorbringen. Dies erzeugt außerdem überfüllte Straßenränder in innerstädtischen Gebieten.
  • Gemäß verschiedenen hierin beschriebenen Ausführungsformen schlägt diese Offenbarung neuartige Techniken vor, um einem Fahrer eines Ridehailing-Dienstes zu ermöglichen, einen Fahrgast eines Ridehailing-Dienstes besser zu lokalisieren, und umgekehrt. In Ausführungsformen hat der Fahrer eine mobile Vorrichtung in seinem Fahrzeug, die in der Lage ist, mit der mobilen Vorrichtung des Fahrgastes mittels WiFi zu kommunizieren, wenn sich der Fahrer und der Fahrgast innerhalb eines bestimmten Abstands voneinander befinden. Dies kann die GPS-basierten Lokalisierungssysteme ergänzen oder ersetzen, die gegenwärtig durch den Ridehailing-Dienstanbieter eingesetzt werden. Beispielsweise können sich der Fahrer und der Fahrgast gegenseitig über GPS-Signale und kartenbasierte Merkmale lokalisieren, bis sich der Fahrer innerhalb des WiFi-Bereichs des Fahrgastes befindet. Dann kann die mobile Vorrichtung des Fahrers eine Verbindung direkt mit der mobilen Vorrichtung des Fahrgastes mittels WiFi initiieren und einen Transfer von Datenpaketen vom Fahrgast zum Fahrer initiieren. In einer anderen Ausführungsform hört die mobile Vorrichtung des Fahrers alle eingehenden WiFi-Pakete ab, ohne eine direkte Verbindung mit der mobilen Vorrichtung des Fahrgastes zu erstellen. Die mittels der WiFi-Verbindung empfangenen Daten werden dann verwendet, um den Abstand und Ankunftswinkel (AoA) der WiFi-empfangenen Pakete zu schätzen. In Ausführungsformen erfasst eine Kamera, die an der mobilen Vorrichtung des Fahrers - oder an anderer Stelle im Fahrzeug - bereitgestellt ist, Bilder der Umgebung. Es wird Objektdetektion genutzt sowie eine Winkel- und Abstandsschätzung für jede Person detektiert. Die bildbasierten Daten werden mit den WiFi-basierten Daten fusioniert und abgeglichene Ergebnisse ermöglichen, dass der Feinstandort des Fahrgastes bestimmt wird.
  • 1 veranschaulicht ein Beispiel für eine mobile Vorrichtung 100 zum Informieren des Fahrers über den Standort des Fahrgastes, der eine Fahrt angefordert hat. Die mobile Vorrichtung 100 kann ein Mobiltelefon, ein Smartphone, ein Tablet, Wearable-Technologie (z. B. Smartwatch), eine GPS-Kartenvorrichtung oder eine beliebige andere derartige Vorrichtung sein, die einem Benutzer (z. B. dem Fahrer) ermöglicht, den Standort des Fahrgastes, der die Fahrt anfordert, zu sehen. Um mit dem Fahrgast zu kommunizieren, der die Fahrt anfordert, kann die mobile Vorrichtung 100 mit Drahtloskommunikationsfähigkeiten ausgestattet sein, wie etwa 5G, LTE, WiFi, Bluetooth, GPS/GNSS und dergleichen. Ein entsprechender Empfänger oder Sendeempfänger kann in der mobilen Vorrichtung 100 für dieses spezifische Drahtloskommunikationsprotokoll bereitgestellt sein. Falls beispielsweise WiFi in dem hierin beschriebenen System genutzt wird, kann die mobile Vorrichtung mit einem IEEE 802.11-Sendeempfänger versehen sein.
  • Die mobile Vorrichtung 100 ist als an einem Armaturenbrett 102 eines Fahrzeugs 104 befestigt gezeigt. Diese Befestigung kann über eine Halterung erfolgen, was es ermöglicht, dass die mobile Vorrichtung 100 aus dem Halter entfernt werden kann, der sicherer an dem Armaturenbrett 102 angebracht ist.
  • Die mobile Vorrichtung kann auch in Form einer Dashcam-Anzeige 200 vorliegen, allgemein in 2 gezeigt, auch als eine Dashcam bezeichnet. Die Dashcam-Anzeige 200 kann alle der Kommunikationsfähigkeiten einer mobilen Vorrichtung beinhalten, wie etwa WiFi, Bluetooth, LTE, zellular usw. Die Dashcam-Anzeige 200 kann eine Kamera 202 beinhalten, die in Richtung der Windschutzscheibe des Fahrzeugs zeigt, um Bilder der Umgebung vor dem Fahrzeug zu erfassen. Die Dashcam-Anzeige 200 kann auch WiFi-Antennen 204 oder einen Empfänger oder Sendeempfänger beinhalten. Die WiFi-Antennen können extern befestigt sein, sodass sie vom Hauptgehäuse der Dashcam-Anzeige 200 hervorstehen. An einer entgegengesetzten Seite der Dashcam-Anzeige 200 von der Kamera 202 kann sich eine Anzeige befinden, die dem Fahrer ähnliche Informationen liefert wie die mobile Vorrichtung 100, wie etwa zum Beispiel den Standort des Fahrgastes. Die Seite der Dashcam-Anzeige 200 mit der Anzeige kann auch eine zweite Kamera beinhalten, die dieses Mal in den Innenraum des Fahrzeugs zeigt, um Bilder und/oder Videos des Fahrers und von Passagieren im Fahrzeug zu erfassen. Solche Informationen können für Ridehailing-Dienste und ihre Fahrer nützlich sein. Ein Mikrofon kann ebenfalls in der Dashcam-Anzeige 200 bereitgestellt sein. In einer anderen Ausführungsform kann die Dashcam-Anzeige 200 den Fahrgast lokalisieren und dann mit einem Smartphone des Fahrers unter Verwendung von Bluetooth oder WiFi kommunizieren, um den Standort des Fahrgastes im Smartphone des Fahrers anzuzeigen, wie in 1 gezeigt. In einer solchen Ausführungsform kann die Dashcam-Anzeige 200 einen Drahtlossendeempfänger (z. B. Bluetooth-Sendeempfänger, WiFi-Sendeempfänger usw.) beinhalten, der dazu ausgelegt ist, Informationen drahtlos zu dem Smartphone des Fahrers zu senden, wie etwa den Standort des Fahrgastes, nachdem solche Informationen an der Dashcam-Anzeige 200 verarbeitet wurden.
  • 3 veranschaulicht ein beispielhaftes System 300 zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren. Im Allgemeinen ermöglicht das System 300 eine Kommunikation zwischen der mobilen Vorrichtung des Fahrers („Fahrervorrichtung“) und der mobilen Vorrichtung des Fahrgastes, der eine Fahrt anfordert („Fahrgastvorrichtung“), über ein Drahtloskommunikationsnetz. Wie erläutert wird, kann die Fahrervorrichtung den Standort der Fahrgastvorrichtung mittels GPS-Daten erkennen, und kann, sobald sie sich innerhalb eines bestimmten Bereichs befindet, direkt mit der Fahrgastvorrichtung mittels WiFi für eine genauere Bestimmung des Standorts der Fahrgastvorrichtung kommunizieren. In der veranschaulichten Ausführungsform ermöglicht das System auch zumindest, dass die Vorrichtung des Fahrers auf einen Server zugreift, der dafür ausgestattet ist, eine Datenverarbeitung wie etwa maschinelles Lernen, Signalverarbeitung, Ankunftswinkelbestimmungen und Abstandsbestimmungen basierend auf den Daten, die zwischen der Fahrervorrichtung und der Fahrgastvorrichtung mittels WiFi kommuniziert werden, durchzuführen.
  • In einer oder mehreren Ausführungsformen beinhaltet das System 300 eine Fahrervorrichtung 302 und eine Fahrgastvorrichtung 304, die in der Lage sind, Daten über ein Netzwerk 306 hin und her zu kommunizieren. Die Fahrervorrichtung 302 und die Fahrgastvorrichtung 304 können jeweils eine Netzwerkschnittstellenkarte 308 beinhalten, die den jeweiligen Vorrichtungen 302, 304 ermöglicht, sich zu verbinden, um Daten zueinander zu senden und/oder voneinander zu empfangen und zu anderen externen Vorrichtungen (wie etwa dem nachstehend erläuterten Server 324) über das Netzwerk 306 zu senden. Die Fahrervorrichtung 302 und die Fahrgastvorrichtung 304 können jeweils eine mobile Vorrichtung (z. B. mobile Vorrichtung 100) mit hierin beschriebener Drahtloskommunikationstechnologie sein, wie etwa ein WiFi-Sendeempfänger, der dazu ausgelegt ist, WiFi-Pakete zu kommunizieren. Außerdem kann die Fahrervorrichtung 302 eine Dashcam mit den vorgenannten Drahtloskommunikationstechnologien sein.
  • Die Fahrervorrichtung 302 beinhaltet auch einen Prozessor 310, der funktionsfähig mit einer Speicherung 312, einer Anzeigevorrichtung 314, einer Kamera 316, Mensch-Maschine-Schnittstelle(HMI)-Steuerungen 318 und der Netzwerkvorrichtung 308 verbunden ist. Bilder oder Videos, die durch die Kamera 316 aufgenommen werden, können als Bilddaten 320 in der Speicherung 312 gespeichert werden. Die Speicherung 312 kann, wenn der Prozessor 310 auf sie zugreift, dazu ausgelegt sein, eine Ausführung verschiedener Anwendungen und einer Signalverarbeitung zu ermöglichen, wie etwa die Verarbeitung der Bilddaten 320 oder die Ausführung einer AoA- und/oder Abstandsanwendung 322. Alle offenbarten Funktionen zum Bestimmen des Standorts der Fahrgastvorrichtung 304 können lokal an der Fahrervorrichtung durchgeführt werden. Alternativ, wie in 3 veranschaulicht, kann die Fahrervorrichtung 302 dazu ausgelegt sein, sich mit einem Server 324 zu verbinden, der eine derartige Signalverarbeitung durchführt und die Ausgabe der Verarbeitung über das Netzwerk 306 an die Fahrervorrichtung 302 liefert. Die Fahrervorrichtung 302 kann über einen Web-Client 326 mit diesen Daten versorgt werden, der ein Web-Browser oder eine Web-Anwendung sein kann, der/die durch die Fahrervorrichtung 302 ausgeführt wird. Der Server 324 kann seine eigene AoA- und/oder Abstandsanwendung 328 hosten, auf die die Fahrervorrichtung 302 über das Netzwerk 306 zugreifen kann. Der Server 324 beinhaltet auch einen Prozessor 330, der funktionsfähig mit einer Speicherung 332 und einer Netzwerkvorrichtung 334 verbunden ist. Der Server 324 kann außerdem Bilddaten 336 beinhalten, die von der Kamera 316 der Fahrervorrichtung 302 über das Netzwerk 306 zu diesem gesendet werden. Der Server 324 kann auch Anweisungen hosten, die ermöglichen, dass ein maschinelles Lernmodell durch den Prozessor 330 genutzt wird. Auf dieses maschinelle Lernmodell kann der Prozessor 330 und/oder der Prozessor 310 der Fahrervorrichtung 302 zugreifen.
  • Es sollte angemerkt werden, dass das beispielhafte System 300 ein Beispiel ist und andere Systeme, die auf mehreren Einheiten von 100 bestehen, verwendet werden können. Obwohl beispielsweise nur eine Fahrervorrichtung 302 gezeigt ist, werden hierin offenbarte Systeme in Erwägung gezogen, die mehrere Fahrervorrichtung 302 beinhalten. Als eine andere Möglichkeit können, obwohl die beispielhafte Implementierung als eine webbasierte Anwendung gezeigt ist, alternative Systeme als unabhängige Systeme, lokale Systeme oder als Client-Server-Systeme mit Thick-Client-Software implementiert werden. Verschiedene Komponenten, wie etwa die Kamera 316 und assoziierte Bilddaten 320, können lokal an der Fahrervorrichtung 302 durch den Prozessor 310 empfangen und verarbeitet werden, oder können über das Netzwerk zu dem Server 324 zur Verarbeitung durch den Prozessor 330 gesendet werden, deren Ergebnisse zurück zu der Fahrervorrichtung 302 gesendet werden können.
  • Sowohl der Prozessor 310 der Fahrervorrichtung 302 als auch der Prozessor 330 des Servers 324 können eine oder mehrere integrierte Schaltungen beinhalten, die die Funktionalität einer Zentralverarbeitungseinheit (CPU) und/oder Grafikverarbeitungseinheit (GPU) implementieren. In manchen Beispielen sind die Prozessoren 310, 330 ein System-on-Chip (SoC), das die Funktionalität der CPU und GPU integriert. Das SoC kann optional andere Komponenten, wie etwa beispielsweise die Speicherung 312 oder 332 und die Netzwerkvorrichtungen 308 oder 334, in eine einzelne integrierte Vorrichtung einschließen. In anderen Beispielen sind die CPU und GPU mittels einer peripheren Verbindungsvorrichtung wie etwa PCI Express oder einer anderen geeigneten peripheren Datenverbindung miteinander verbunden. In einem Beispiel ist die CPU eine handelsübliche Zentralverarbeitungsvorrichtung, die einen Befehlssatz wie etwa einen der x86-, ARM-, Power- oder MIPS-Befehlssatzfamilien implementiert.
  • Ungeachtet der Einzelheiten führen die Prozessoren 310, 330 während des Betriebs gespeicherte Programmanweisungen aus, die aus den jeweiligen Speicherungen 312, 332 abgerufen werden. Die gespeicherten Programmanweisungen beinhalten dementsprechend Software, die den Betrieb der Prozessoren 310, 330 zum Durchführen der hierin beschriebenen Operationen steuert. Die Speicherungen 312, 332 können sowohl nichtflüchtigen Speicher als auch flüchtige Speichervorrichtungen beinhalten. Der nichtflüchtige Speicher beinhaltet Solid-State-Speicher, wie etwa NAND-Flash-Speicher, magnetische und optische Speicherungsmedien oder eine beliebige andere geeignete Datenspeicherungsvorrichtung, die Daten hält, wenn das System 300 deaktiviert wird oder Strom verliert. Der flüchtige Speicher beinhaltet statischen und dynamischen Direktzugriffsspeicher (RAM), der Programmanweisungen und Daten während des Betriebs des Systems 100 speichert.
  • Die GPU der Fahrervorrichtung 302 kann Hardware und Software zum Anzeigen zumindest zweidimensionaler (2D) und optional dreidimensionaler (3D) Grafiken für eine Anzeigevorrichtung 314 der Fahrervorrichtung 302 beinhalten. Die Anzeigevorrichtung 314 kann einen elektronischen Anzeigebildschirm beinhalten, wie etwa LED, LCD, OLED oder dergleichen. In manchen Beispielen führt der Prozessor 310 der Fahrervorrichtung 302 Softwareprogramme unter Verwendung der Hardwarefunktionalität in der GPU aus, um die Durchführung von maschinellem Lernen oder anderen hierin beschriebenen Rechenoperationen zu beschleunigen.
  • In anderen Ausführungsformen beinhaltet die Anzeigevorrichtung 314 ein Heads-Up-Display (HUD), das dazu ausgelegt ist, Informationen auf der Windschutzscheibe des Fahrzeugs anzuzeigen. Das HUD kann Teil des System des Fahrzeugs anstelle der Fahrervorrichtung 302 sein, kann sich aber nichtsdestotrotz in Kommunikation mit der Fahrervorrichtung 302 zur Anzeige solcher Informationen befinden. Beispielsweise kann die Fahrervorrichtung 302 die AoA- und/oder Abstandsanwendung 322 zur Grob- oder Feinstandortbestimmung der Fahrgastvorrichtung 304 wie hierin erläutert ausführen und kann die Standortinformationen zu dem HUD des Fahrzeugs senden, sodass der Standort des Fahrgastes auf der Windschutzscheibe des Fahrzeugs zur leichteren Ansicht durch den Fahrer angezeigt werden kann. Das Fahrzeug kann seine eigenen Objektdetektionssensoren (z. B. LIDAR, RADAR usw.) und assoziierte Software, die durch einen Fahrzeugprozessor ausführbar ist, zum Bestimmen des Vorhandenseins eines Menschen beinhalten; diese Informationen können mit den Bilddaten 320 und/oder den Ergebnissen der AoA- und/oder Abstandsanwendung 322 fusioniert werden, sodass das HUD-System den Standort des Fahrgastes, der den Fahrer für eine Fahrt anfordert, bestimmen und verifizieren und den Standort dieses Fahrgastes auf der Windschutzscheibe hervorheben oder anderweitig angeben kann.
  • Die HMI-Steuerungen 318 der Fahrervorrichtung 302 können beliebige verschiedener Vorrichtungen beinhalten, die der Fahrervorrichtung 302 des Systems 300 ermöglichen, eine Steuereingabe von einem Fahrer zu empfangen. Beispiele für geeignete Eingabevorrichtungen, die Eingaben einer menschlichen Schnittstelle empfangen, können einen Touchscreen auf der Fahrervorrichtung 302 beinhalten, können aber auch Tastaturen, Mäuse, Trackballs, Spracheingabevorrichtungen, Grafik-Tablets und dergleichen beinhalten. Wie hierin beschrieben, kann eine Benutzerschnittstelle die Anzeigevorrichtung 314 und/oder die HMI-Steuerungen 318 beinhalten.
  • Die Netzwerkvorrichtungen 308, 334 können jeweils beliebige verschiedene Vorrichtungen beinhalten, die der Fahrervorrichtung 302 bzw. dem Server 324 ermöglichen, Daten von externen Vorrichtungen über das Netzwerk 306 zu senden und/oder zu empfangen. Beispiele für geeignete Netzwerkvorrichtungen 308, 334 beinhalten einen Netzwerkadapter oder eine periphere Verbindungsvorrichtung, die Daten von einem anderen Computer oder einer anderen mobilen Vorrichtung oder einer externen Datenspeicherungsvorrichtung empfängt, was zum effizienten Empfangen großer Datensätze nützlich sein kann.
  • Die AoA- und/oder Abstandsanwendung 322 ist auf der Fahrervorrichtung 302 vorhanden und durch den Prozessor 310 ausführbar. Alternativ oder in Kombination ist die AoA- und/oder Abstandsanwendung 328 auf dem Server 324 vorhanden, sodass eine Offsite-Verarbeitung (z. B. entfernt von der Fahrervorrichtung 302) durch den Prozessor 330, der auf die Anwendung 328 zugreift, durchgeführt werden kann. In jeder Ausführungsform kann die AoA- und/oder Abstandsanwendung 322, 328 verschiedene Algorithmen zum Durchführen von Aspekten der hierin beschriebenen Operationen verwenden. In einem Beispiel kann die AoA- und/oder Abstandsanwendung 322, 328 Anweisungen beinhalten, die durch den jeweiligen Prozessor 310, 330 ausführbar sind. Die AoA- und/oder Abstandsanwendung 322, 328 kann Anweisungen beinhalten, die in den jeweiligen Speicher 312, 332 gespeichert und durch den jeweiligen Prozessor 310, 330 ausführbar sind. Computerausführbare Anweisungen können von Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung einer Vielfalt von Programmiersprachen und/oder -technologien erzeugt werden, einschließlich unter anderem, und entweder alleine oder in Kombination, JAVA, C, C++, C#, VISUAL BASIC, JAVASCRIPT, PYTHON, PERL, PL/SQL usw. Im Allgemeinen empfängt der Prozessor 310, 330 die Anweisungen z. B. von der jeweiligen Speicherung oder dem jeweiligen Speicher 312, 332, einem computerlesbaren Medium usw. und führt diese Anweisungen aus, wodurch ein oder mehrere Prozesse durchgeführt werden, einschließlich eines oder mehrerer der hierin beschriebenen Prozesse. Solche Anweisungen und andere Daten können unter Verwendung einer Vielfalt von computerlesbaren Medien gespeichert und übertragen werden.
  • Die AoA- und/oder Abstandsanwendung 322, 328 kann bei ihrer Ausführung durch den jeweiligen Prozessor 310, 330 Kanalzustandsinformationen (CSI), die aus von der Fahrgastvorrichtung 304 zu der Fahrervorrichtung 302 übertragenen WiFi-Paketen extrahiert werden, zum Bestimmen eines Ankunftswinkels und/oder eines Abstands zwischen der Fahrervorrichtung 302 und der Fahrgastvorrichtung 304 verwenden. Kurz gesagt können mehrere Verfahren zum Schätzen des Abstands und/oder des Ankunftswinkels verwendet werden, wie etwa Signalverarbeitung (z. B. MUSIC-Algorithmus, SpotFi-Algorithmus, Synthetische-Apertur-Verfahren, Dopplerverschiebungsschätzung usw.) oder maschinelles Lernen (z. B. LSTM (Long Short-Term Memory) oder Neuronalnetzwerk-basierter Ansatz basierend auf dem Trainieren des neuronalen Netzwerks zum Schätzen des AoA und Abstands durch Sammeln zusätzlicher Daten in vorherigen Schritten und Vergleichen der aktuellen Daten mit den zuvor gesammelten Daten). Eine zusätzliche Erläuterung der AoA- und/oder Abstandsanwendung 322, 328 ist hierin bereitgestellt.
  • In Systemen mit künstlicher Intelligenz (Kl) oder maschinellem Lernen bezeichnet modellbasiertes logisches Denken ein Inferenzverfahren, das basierend auf einem maschinellen Lernmodell eines zu analysierenden Weltbildes arbeitet. Wie hierin beschrieben, kann auf das maschinelle Lernmodell direkt an der Fahrervorrichtung 302 unter Verwendung der AoA- und/oder Abstandsanwendung 322 zugegriffen und ausgeführt werden oder kann am Server 324 unter Verwendung der AoA- und/oder Abstandsanwendung 328 ausgeführt und kann auf dieses über das Netzwerk 306 zugegriffen werden. Beide Ausführungsformen sind in 3 gezeigt. Im Allgemeinen wird das maschinelle Lernen, wie durch die AoA- und/oder Abstandsanwendung 322, 328 genutzt, dahingehend trainiert, eine Funktion zu lernen, die eine präzise Korrelation zwischen Eingabewerten und Ausgabewerten bereitstellt. Zur Laufzeit verwendet eine Maschinenlern-Engine das in dem maschinellen Lernmodell codierte Wissen an beobachteten Daten, um Schlussfolgerungen wie etwa eine Diagnose oder eine Vorhersage abzuleiten. Ein beispielhaftes maschinelles Lernsystem kann die TensorFlow-KI-Engine beinhalten, die durch Alphabet Inc. in Mountain View, CA, USA zur Verfügung gestellt wurde, obwohl andere maschinelle Lernsysteme zusätzlich oder alternativ verwendet werden können. Wie hierin ausführlich besprochen, kann die AoA- und/oder Abstandsanwendung 322, 328 die maschinellen Lernmodelle, die hierin beschrieben sind und dazu ausgelegt sind, Merkmale und Informationen zu erkennen, die in übertragenen WiFi-Paketen enthalten sind (z. B. HF-Kanalinformationen), zur Verwendung bei der Bestimmung eines Feinstandorts der Fahrgastvorrichtung 304 nutzen. Kurz gesagt kann das maschinelle Lernmodell HF-Kanalinformationen aus WiFi-Paketen erhalten (einschließlich Kanalschätzungsparameter wie etwa Empfangssignalstärke, Spitzenleistung oder Durchschnittsleistung, Phase usw. für den ganzen Kanal oder einzelne Teilkanäle, Impulsantwort für Breitbandkanäle usw.) und einen Neuronalnetzwerk-basierten Ansatz zum Schätzen des AoA und/oder der Richtung des empfangenen WiFi-Pakets nutzen.
  • Die Speicherung 312 kann auch Hochfrequenz(HF)-Kanalinformationen 338 beinhalten. Gleichermaßen kann, falls eine Verarbeitung wie etwa die AoA- und/oder Abstandsanwendung durch den Server 324 durchgeführt wird, die Speicherung 332 HF-Kanalinformationen 340 beinhalten. Wie hierin erläutert, werden, sobald die Fahrervorrichtung 302 und die Fahrgastvorrichtung 304 in der Lage sind, mittels WiFi zu kommunizieren, WiFi-Pakete von der Fahrgastvorrichtung 304 zu der Fahrervorrichtung 302 übertragen. Wenn ein WiFi-Paket an der Fahrervorrichtung 302 empfangen wird, werden die assoziierten Kanalzustandsinformationen (CSI) aus der Bitübertragungsschicht extrahiert. Die CSI liefern reichhaltige Informationen über die Art und Weise, wie ein Drahtlossignal vom WiFi-Sender (z. B. der Fahrgastvorrichtung) zu einem Empfänger (z. B. der Fahrervorrichtung) propagiert, und erfassen den kombinierten Effekt von Signalstreuung, Signal-Fading und Leistungsabfall mit der Entfernung. Die HF-Kanalinformationen 338 sind auch aus den Paketen bestimmbar, die durch die Fahrervorrichtung empfangen werden. Die HF-Kanalinformationen können Kanalschätzungsparameter beinhalten, wie etwa Empfangssignalstärke, Spitzenleistung oder Durchschnittsleistung, Phase usw. für den ganzen Kanal oder einzelne Teilkanäle, Impulsantwort für Breitbandkanäle usw. Die AoA- und/oder Abstandsanwendung 322, 328 kann die CSI zum Schätzen des Abstands und/oder Ankunftswinkels unter Verwendung von Signalverarbeitung oder maschinellem Lernen, wie hierin beschrieben, nutzen. Nach der AoA- und/oder Abstandsschätzung wird ein Klassifizierer verwendet, um einen Grobstandort des Fahrgastes basierend auf den HF-Kanalinformationen 338, 340 zu schätzen. Der Grobstandort kann angeben, ob sich der Fahrgast vor oder hinter dem Fahrzeug befindet, und ob sich der Fahrgast an der linken Seite oder rechten Seite des Fahrzeugs befindet. Als ein Klassifizierer kann ein neuronales Netzwerk verwendet werden, oder andere Klassifizierer können verwendet werden, wie etwa Support-Vektor-Maschinen (SVM).
  • Der Web-Client 326 kann eine Anwendung oder „App“ auf der Fahrervorrichtung 302 oder ein Web-Browser oder ein anderer webbasierter Client sein, der durch die Fahrervorrichtung 302 ausgeführt wird. Bei seiner Ausführung kann der Web-Client 326 eine Schnittstelle bereitstellen, um dem Fahrer zu ermöglichen, den Standort des Fahrgastes zu sehen, direkt mit dem Fahrgast zu kommunizieren, auf GPS-Richtungsinformationen zum Fahren des Fahrzeugs zuzugreifen und dergleichen. In dem Fall, in dem maschinelles Lernen, Signalverarbeitung und/oder eine AoA- und/oder Abstandsanwendung am Server 324 oder durch den Prozessor 330 durchgeführt wird, kann der Web-Client 326 auf die AoA- und/oder Abstandsanwendung 328 zugreifen, um Ergebnisse solcher Verarbeitungs- oder maschineller Lernmodelle zu empfangen. In einem praktischen Beispiel kann der Web-Client 326 eine App auf der Fahrervorrichtung 302 sein, die durch den Ridehailing-Dienstanbieter gesteuert wird (z. B. eine UBER-App oder eine LYFT-App), die auf verarbeitete Informationen zugreift und solche Informationen auf der Fahrervorrichtung 302 anzeigt, wie etwa den Standort der Fahrgastvorrichtung 304. Der Web-Client 326 kann ferner eine Eingabe, die über die HMI-Steuerungen 318 empfangen werden, über das Netzwerk 306 der AoA- und/oder Abstandsanwendung 328 und/oder dem maschinellen Lernmodell des Servers 324 bereitstellen.
  • 4 ist ein beispielhaftes System 400 zum Übertragen von WiFi-Paketen vom Fahrgast zum Fahrer, um den Fahrer zu unterstützen, den Fahrgast besser zu lokalisieren. Kasten 404 kann eine Dashcam (wie etwa Dashcam 200) oder ein mobiles Smartphone sein, die/das WiFi-Pakete vom Fahrgast empfängt. Obwohl diese Beschreibung und Figur eine Datenübertragung von der Fahrgastvorrichtung 304 zu der Fahrervorrichtung 302 veranschaulichen, sollte verstanden werden, dass dasselbe System verwendet werden kann, um Daten von der Fahrervorrichtung 302 zu der Fahrgastvorrichtung 304 zu transferieren, um den Fahrgast zu unterstützen, den Fahrer besser zu lokalisieren.
  • In standardmäßigen Ridehailing-Diensten wünscht ein Fahrgast eine Fahrt von einem Fahrer und fordert eine Fahrt an, indem er auf die App oder Website des Ridehailing-Dienstanbieters zugreift. Eine Verbindung zwischen dem Fahrer und dem Fahrgast wird hergestellt und sowohl der Fahrgast als auch der Fahrer können ihren gegenseitigen Standort mittels GPS sehen. Wie hierin beschrieben, hat GPS jedoch seine Beschränkungen und Mängel, insbesondere in städtischen Gebieten mit hohen Gebäuden oder großen Menschenmengen, die die GPS-Signalstärke stören können. Das hierin beschriebene System erstellt eine WiFi-Verbindung zwischen dem Fahrer und dem Fahrgast, sobald sie sich innerhalb eines Schwellenabstands befinden. Das hierin beschriebene und in 4 in einer simplifizierten Form veranschaulichte System kann stattfinden, sobald eine Verbindung hergestellt wird.
  • Wenn das GPS angibt, dass der Fahrer die Nähe des Fahrgastes erreicht und innerhalb eines Schwellenabstands (z. B. eines Radius von 0,5 Meilen) kommt, beginnt die Fahrgastvorrichtung 304 mit der Übertragung von WiFi-Paketen.
  • Gleichzeitig beginnt die Fahrervorrichtung 302 mit dem Abhören nach eingehenden WiFi-Signalen mittels ihres WiFi-Sendeempfängers oder -Empfängers. Dieser Schwellenabstand kann durch den Dienstanbieter eingestellt werden und kann basierend auf den Umständen variieren. Beispielsweise kann sich der Schwellenabstand zu Zeiten oder an Orten, zu/an denen die GPS-Signalqualität niedrig sein kann, erhöhen, sodass selbst schwache WiFi-Signalübertragungen abgehört und erstellt werden können. Gleichermaßen kann der Schwellenabstand zu Zeiten oder an Orten, zu/an denen die GPS-Signalqualität hoch ist, verringert werden, sodass sich aufgrund des guten GPS-Signals auf das GPS-Signal verlassen werden kann, bis sich der Fahrer und der Fahrgast sehr nahe zueinander befinden.
  • Es sollte verstanden werden, dass die Fahrervorrichtung 302 zwei Vorrichtungen enthalten kann, wie etwa eine Dashcam-Vorrichtung 200 und ein Smartphone des Fahrers. In dieser Ausführungsform kann die Dashcam 200 die eingehenden WiFi-Pakete abhören, die Extrahierung und Signalverarbeitung und/oder hierin beschriebenen Modelle durchführen und einen Grob- oder Feinstandort zu dem Smartphone zur Anzeige auf dem Smartphone des Fahrers transferieren. In anderen Ausführungsformen werden alle diese Funktionen durch eine einzige Vorrichtung durchgeführt, wie etwa eine Dashcam-Vorrichtung 200 oder ein Smartphone.
  • Sobald die Fahrervorrichtung 302 ein WiFi-Signal detektiert, das von der Fahrgastvorrichtung 304 ausgeht, kann eine WiFi-Übertragung stattfinden, allgemein bei 402 gezeigt. Ein oder mehrere durch die Fahrgastvorrichtung 304 erzeugte WiFi-Pakete werden durch den Sendeempfänger oder die Antennen der Fahrervorrichtung 302 empfangen. Bei Kasten 404 führt die Fahrervorrichtung 302 verschiedene Handlungen durch, wie etwa Extrahieren von CSI und Bestimmen des AoA und/oder Abstands zu der Fahrgastvorrichtung 304. Zuerst wird in einer Ausführungsform die MAC-Adresse der Fahrgastvorrichtung 304 mit der Fahrervorrichtung 302 geteilt, sodass die Fahrervorrichtung 302 weiß, welche Nachrichten sie abhören muss oder welche Nachrichten von der Fahrgastvorrichtung 304 kommen. Um die Einhaltung gesetzlicher Bestimmung zu gewährleisten, kann das Einverständnis des Fahrgastes erhalten werden, bevor die MAC-Adresse geteilt wird. Um Sicherheit und Datenschutz zu schützen, kann dem Fahrgast ferner auch eine temporäre MAC-Adresse zugewiesen werden, die zum Erzeugen dieser Nachrichten verwendet wird. Die temporäre MAC-Adresse kann auf mindestens zwei Weisen erzeugt werden. Auf eine Weise erzeugt die App des Ridehailing-Dienstanbieters eine temporäre MAC-Adresse, die mit sowohl der Fahrgastvorrichtung als auch der Fahrervorrichtung geteilt wird. Und auf eine andere Weise kann die Fahrgastvorrichtung 304 eine temporäre MAC-Adresse erzeugen und die App informieren, die im Gegenzug die Fahrervorrichtung 302 informiert.
  • Wenn ein WiFi-Paket an der Fahrervorrichtung 302 empfangen wird, werden assoziierte Kanalzustandsinformationen (CSI) gemessen und aus der Bitübertragungsschicht extrahiert, wie allgemein bei 406 gezeigt. Kanalzustandsinformationen repräsentieren Kanaleigenschaften des Drahtloslinks. Sie liefern reichhaltige Informationen über die Art und Weise, wie ein Drahtlossignal vom Sender zu einem Empfänger propagiert, und erfassen den kombinierten Effekt von Signalstreuung, Signal-Fading und Leistungsabfall mit der Entfernung.
  • Die CSI-Werte werden dann zum Schätzen des Abstands zu der Fahrgastvorrichtung 304 und/oder des Ankunftswinkels (AoA) des Pakets verwendet, das von der Fahrgastvorrichtung 304 über die WiFi-Übertragung 402 empfangen wird. Dies ist allgemein bei 408 gezeigt. Dies kann unter Verwendung entweder eines Signalverarbeitungsansatzes oder eines Maschinenlernansatzes durchgeführt werden, wie nachstehend weiter beschrieben wird. Die Ausgabe dieses Schritts ist eine Bestimmung des AoA und/oder Abstands zu der Fahrgastvorrichtung 304, was allgemein bei 410 gezeigt ist. Bei 408 werden die CSI-Werte unter Verwendung von Signalverarbeitungsalgorithmen, z. B. SpotFi, MUSIC, Synthetische-Apertur-Verfahren, Dopplerverschiebungsschätzung, oder unter Verwendung KI-basierter Techniken, z. B. LSTM, neuronales Netzwerk, analysiert, um den Ankunftswinkel (AoA) zu bestimmen und die Entfernung des Fahrgastes zu schätzen. Es kann eine Kombination von Signalverarbeitungs- und KI-basiertem Ansatz verwendet werden. Beispielsweise kann die Mehrwegausgabe von SpotFi als eine Eingabe für einen Kl-basierten Ansatz verwendet werden, der schließlich den AoA oder die Groblokalisierung des Fahrgastes bestimmt. Die Ergebnisse der AoA- und/oder Abstandsbestimmung ist bei 410 gezeigt, was die Ausgabe der AoA- und/oder Abstandsanwendung 322, 328 ist.
  • Mit Bezug auf 5 ist ein Flussdiagramm 500 zum Bestimmen eines Grobstandorts einer Fahrgastvorrichtung veranschaulicht. Das Flussdiagramm veranschaulicht HF-Kanalinformationen bei 502, Signalverarbeitung und/oder maschinelles Lernen bei 504, AoA und/oder Abstand bei 506, einen Klassifizierer bei 508 und einen Grobstandort bei 510. Diese Schritte schließen die oben vorgenommene Beschreibung ein und werden nachstehend zusätzlich beschrieben.
  • Bei 502 werden HF-Kanalinformationen (z. B. CSI-Daten) aus den WiFi-Paketen von der Fahrgastvorrichtung 304 erhalten, sobald die Fahrervorrichtung 302 WiFi-Pakete von der Fahrgastvorrichtung 304 empfängt. Diese können in einer Speicherung bei 312, 332 gespeichert werden, damit der assoziierte Prozessor auf sie zugreifen kann. Wenn ein WiFi-Paket an der Fahrervorrichtung 302 empfangen wird, werden die assoziierten CSI aus der Bitübertragungsschicht extrahiert und liefern reichhaltige Informationen über die Art und Weise, wie ein Drahtlossignal vom Sender zu einem Empfänger propagiert, und erfassen den kombinierten Effekt von Signalstreuung, Signal-Fading und Leistungsabfall mit der Entfernung. Die HF-Kanalinformationen können Kanalschätzungsparameter beinhalten, wie etwa Empfangssignalstärke, Spitzenleistung oder Durchschnittsleistung, Phase usw. für den ganzen Kanal oder einzelne Teilkanäle, Impulsantwort für Breitbandkanäle und dergleichen. CSI können beschreiben, wie ein Signal von der Fahrgastvorrichtung 304 zu der Fahrervorrichtung 302 propagiert, und repräsentieren den kombinierten Effekt von beispielsweise Streuung, Signal-Fading und Leistungsabfall mit der Entfernung. Zwei Ebenen von CSI können aus den WiFi-Paketen extrahiert werden: momentane CSI (auch als Kurzzeit-CSI bezeichnet) oder statistische CSI (auch als Langzeit-CSI bezeichnet). Die Beschreibung in statistischen CSI kann zum Beispiel die Art der Fading-Verteilung, die durchschnittliche Kanalverstärkung, die Sichtlinienkomponenten und die räumliche Korrelation beinhalten. Eine oder beide Arten von CSI können aus den WiFi-Paketen bestimmt werden.
  • Bei 504 werden die CSI-Werte verwendet, um den AoA und/oder Abstand zwischen der Fahrervorrichtung 302 und der Fahrgastvorrichtung zu schätzen. Dies kann unter Verwendung der AoA- und/oder Abstandsanwendung 322, 328 durchgeführt werden und ist auch bei 408 gezeigt. Die Ausgabe einer solchen Bestimmung ist bei 506 gezeigt. Bei 504 können mehrere Verfahren zum Schätzen des Abstands und des AoA verwendet werden. Ein solches Verfahren ist ein Signalverarbeitungsansatz. Ein Beispiel für ein Signalverarbeitungsverfahren beinhaltet Nutzen eines MUSIC-Algorithmus (MUSIC: Multiple Signal Classification - Mehrfachsignalklassifizierung) für Funkrichtungsfindung. MUSIC schätzt den Frequenzinhalt des Signals oder der Autokorrelationsmatrix unter Verwendung eines Eigenraumverfahrens. Das Bild bei 408 repräsentiert ein Beispiel für das Schätzen des AoA mit MUSIC. Da unterschiedliche Propagationspfade unterschiedliche AoAs aufweisen, und wenn das Signal von einem Propagationspfad über ein Array von Antennen empfangen wird, dann wird der AoA eine entsprechende Phasenverschiebung über die Antennen im Array einführen. Die eingeführte Phasenverschiebung ist eine Funktion sowohl des Abstands zwischen den Antennen als auch des AoA. Bei 408 ist ein einheitliches lineares Array gezeigt, das M Antennen umfasst. Für einen AoA von θ läuft das Signal des Ziels einen zusätzlichen Abstand von d × sin(θ) zu der zweiten Antenne im Array im Vergleich zu der ersten Antenne. Dies führt zu einer zusätzlichen Phase von -2π × d × sin(θ) × f/c an der zweiten Antenne, wobei c die Lichtgeschwindigkeit ist und f die Frequenz des übertragenen Signals ist.
  • Ein SpotFi-Algorithmus kann auch zur Schätzung des AoA und/oder Abstands genutzt werden. Der Abstand zwischen der Fahrervorrichtung 302 und der Fahrgastvorrichtung 304 kann unter Verwendung der Empfangssignalstärke geschätzt werden. Komplexe Algorithmen wie etwa SpotFi können sowohl Winkelinformationen als auch einen Abstand zwischen den beiden Vorrichtungen geben. SpotFi kann Superauflösungsalgorithmen einbeziehen, die den AoA von Mehrwegkomponenten genau berechnen können, selbst wenn der Zugangspunkt mehrere Antennen (mindestens zwei) aufweist. SpotFi kann auch neuartige Filter- und Schätztechniken einbeziehen, um den AoA des direkten Pfades zwischen der Fahrgastvorrichtung 304 und der Fahrervorrichtung 302 durch Zuweisen von Werten für jeden Pfad in Abhängigkeit davon, wie wahrscheinlich der spezielle Pfad der direkte Pfad ist, zu identifizieren. Der Abstand kann auch unter Verwendung von RSSI des empfangenen Pakets und unter Verwendung eines Log-Distanz-Pfadverlustmodells geschätzt werden.
  • Ein anderes derartiges Verfahren zum Schätzen des Abstands und des AoA ist das Nutzen von maschinellem Lernen. Ein Neuronalnetzwerk-basierter Ansatz kann zum Schätzen des AoA des durch die Fahrgastvorrichtung 304 empfangenen WiFi-Pakets verwendet werden. Dieser Ansatz kann das dahingehende Trainieren des neuronalen Netzwerks erfordern, den AoA und Abstand durch Sammeln zusätzlicher Daten als einen vorherigen Schritt zu schätzen. Die maschinellen Lernalgorithmen können rohe CSI-Werte als Eingaben annehmen, um den AoA zu schätzen und eine Groblokalisierung durchzuführen, wie in 6 gezeigt. Alternativ können die maschinellen Lernalgorithmen Ausgaben von Signalverarbeitungsalgorithmen, z. B. die Mehrweg-AoAs von SpotFi, als Eingaben annehmen und eine Groblokalisierung durchführen, ohne die rohen CSI-Werte zu sehen, wie in 5 gezeigt. In einer anderen Ausführungsform kann der maschinelle Lernalgorithmus eine Eingabe der Kombination roher CSI-Werte und einer Ausgabe von Signalverarbeitungsalgorithmen annehmen, um eine Groblokalisierung durchzuführen, wie in 7 gezeigt.
  • Nachdem die AoA- und Abstandsschätzung unter Verwendung von WiFi bei 506 Ergebnisse produziert, wird dann ein Klassifizierer bei 508 verwendet, um einen Grobstandort des Fahrgastes zu schätzen. Der Grobstandort kann angeben, ob sich der Fahrgast vor oder hinter dem Fahrzeug des Fahrers befindet, und ob sich der Fahrgast an der linken Seite oder rechten Seite des Fahrzeugs befindet. Als ein Klassifizierer kann ein neuronales Netzwerk verwendet werden, oder andere Klassifizierer können verwendet werden, z. B. eine Support-Vektor-Maschine (SVM). Natürlich kann der Grobstandort an der Fahrervorrichtung 302 durch die AoA- und/oder Abstandsanwendung 322 oder am Server 324 durch die AoA- und/oder Abstandsanwendung 328 geschätzt werden. Der Klassifizierer erfasst ein Modell darüber, wie sich die CSI-Werte oder AoAs für unterschiedliche Standorte des Drahtlossenders der Vorrichtung des Fahrgastes ändern würden, d. h. den Standort des Fahrgastes basierend auf den zuvor beobachteten Proben, und verwendet dieses Modell zum Bestimmen des Standorts des Fahrgastes basierend auf zukünftigen empfangenen WiFi-Paketen. Die Ausgabe ist der Grobstandort bei 510. In einer anderen Ausführungsform, wenn eine Groblokalisierungsklassifizierung durchgeführt wird, setzt der Klassifizierer eine hierarchische Klassifizierung ein, anstatt eine 4-Wege-Quadranten-basierte Klassifizierung durchzuführen. Zuerst klassifiziert er, ob sich der Fahrgast vor oder hinter dem Auto befindet. Dann bestimmt er, ob sich der Fahrgast an der linken oder rechten Seite des Autos befindet.
  • Die Standortinformationen können kontinuierlich in Echtzeit aktualisiert werden, während sich das Fahrzeug des Fahrers (und somit die Fahrervorrichtung 302) bewegt und neuere WiFi-Pakete von der Fahrgastvorrichtung 304 empfangen werden.
  • 6 veranschaulicht eine andere Ausführungsform eines Flussdiagramms 600 zum Bestimmen eines Grobstandorts einer Fahrgastvorrichtung. In dieser Ausführungsform wird der Grobstandort 610 direkt aus den CSI-Werten 602 unter Verwendung eines Klassifizierers 608 (Neuronalnetzwerk-basiert, SVM-basiert oder andere Techniken) ohne eine Schätzung des Ankunftswinkels (AoA) geschätzt.
  • 7 veranschaulicht eine andere Ausführungsform eines Flussdiagramms 600 zum Bestimmen eines Grobstandorts einer Fahrgastvorrichtung. In dieser Ausführungsform werden die HF-Kanalinformationen von CSI-Werten 702 direkt in den Klassifizierer bei 708 sowie die Signalverarbeitung oder das maschinelle Lernen bei 704 eingespeist. Der Grobstandort 710 wird unter Verwendung eines Klassifizierers 708 (Neuronalnetzwerk-basiert, SVM-basiert oder andere Techniken) geschätzt, der sowohl eine AoA-Schätzung 706 (wie oben erwähnt geschätzt) als auch rohe CSI-Werte 702 verwendet.
  • In einer anderen Ausführungsform kann der Klassifizierer auch AoA- und Abstandsschätzungen von GPS erhalten und den Standort basierend auf einer Kombination oder Fusion von Schätzungen von GPS und WiFi-Daten entscheiden.
  • Ein Feinstandort der Fahrgastvorrichtung 304 kann auch geschätzt werden. Ein Beispiel für eine Feinschätzung ist im Flussdiagramm 800 von 8 gezeigt. In dieser Ausführungsform werden erneut die CSI-Daten oder HF-Kanalinformationen 702 erhalten, eine Signalverarbeitung oder ein maschinelles Lernen 704 durch den Prozessor durchgeführt, was zu einem AoA und/oder Abstand bei 706 basierend auf den empfangenen WiFi-Paketen führt. Nachdem der AoA geschätzt wurde, wird die Sequenz mehrerer AoAs, die aus mehreren WiFi-Paketen erfasst wurde, bei 808 durch den Prozessor geglättet. Die Glättung 808 kann unter Verwendung eines gleitenden Durchschnitts, LOESS (Locally Estimated Scatterplot Smoothing - lokal geschätzte Streudiagrammglättung), LOWESS (Locally Weighted Scatterplot Smooting - lokal gewichtete Streudiagrammglättung), eines anderen neuronalen Netzwerks oder anderer Glättungstechniken durchgeführt werden. Die Glättung führt zu dem Feinstandort 810.
  • Ein Beispiel für einen Grobstandort des Fahrgastes ist in 9 gezeigt. Die Fahrervorrichtung 302 (z. B. Dashcam-Einheit 200) ist erneut als im Fahrzeug befestigt gezeigt. Die Fahrervorrichtung 302 kann sowohl den Grob- als auch Feinstandort überlappend auf derselben Anzeige 314 anzeigen. Hier wird der Grobstandort durch den Keil 902 des ganzen Kreises veranschaulicht. Dieser Keil zeigt eine allgemeine Richtung an, in die sich die Fahrgastvorrichtung befindet. In anderen Ausführungsformen ist der Keil 902 ein Pfeil, eine Linie oder eine andere Art von Angabe zum Anzeigen der allgemeinen Richtung. Außerdem kann der Pfeil oder Keil seine Größe oder Intensität entsprechend dem Abstand von der Fahrgastvorrichtung 304 ändern. Der Grobstandort ist in 1 isoliert gezeigt, ohne eine Bereitstellung des Feinstandorts. Der Grobstandort ist durch einen Punkt 904 veranschaulicht. In dieser Ausführungsform befindet sich der Standort des Fahrgastes ungefähr 45 Grad zu der Seite und nach vorne relativ zu der WiFi-Antenne der Fahrgastvorrichtung 304.
  • Der Feinstandort kann auch mit GPS-Daten fusioniert werden, die zum Erzeugen einer Karte auf der Fahrervorrichtung 302 verwendet werden. Beispielsweise kann die App des Dienstanbieters, die auf der Anzeige der Fahrervorrichtung 302 angezeigt wird, eine Karte für Navigationszwecke beinhalten. Der Feinstandort, wie aus den WiFi-Paketen bestimmt, kann auf die GPS-basierte Karte überlagert werden, um dem Fahrer eine genaue Ansicht des Standorts des Fahrgastes zu geben.
  • In manchen Ausführungsformen kann der Fahrer zwei mobile Vorrichtungen verwenden, wie etwa die Dashcam 200 und ein Smartphone. In solchen Ausführungsformen kann das Smartphone zum Anzeigen von Informationen für den Fahrer geeigneter sein, wie etwa die GPS-Karte und dergleichen, wohingegen die Dashcam 200 die AoA- und/oder Abstandsanwendung und eine andere hierin beschriebene Verarbeitung ausführen kann. Zusätzlich kann die Dashcam 200 die Kommunikation mittels WiFi mit der Fahrgastvorrichtung durchführen, die Lokalisierungsverarbeitung durchführen und ein Signal zu dem Smartphone des Fahrers bezüglich des bestimmten Standorts des Fahrgastes senden. Das von der Dashcam zu dem Smartphone gesendete Signal kann über Bluetooth oder WiFi (z. B. über einen Drahtlossendeempfänger) oder eine drahtgebundene Verbindung vorgenommen werden. Nachdem der Grob- oder Feinstandort des Fahrgastes an der Fahrerseite durch die Dashcam 200 geschätzt wird, können diese Informationen mit dem Smartphone des Fahrers und/oder dem Fahrgast unter Verwendung einer direkten Verbindung oder einer drahtlosen Verbindung (Bluetooth, WiFi, zellular usw.) geteilt werden. Diese Informationen können dann am Smartphone des Fahrers auf eine Weise visualisiert werden, die den relativen Standort des Fahrzeugs bezüglich der Fahrgastvorrichtung zeigt.
  • Nachdem der Grob- oder Feinstandort der Fahrgastvorrichtung 304 durch die Fahrervorrichtung 302 geschätzt wird, können diese Informationen mit der Fahrgastvorrichtung 304 geteilt werden. Ein solcher Informationstransfer kann über die erstellte WiFi-Verbindung oder eine andere drahtlose Verbindung (z. B. LTE, zellular, 4G, 5G usw.) vorgenommen werden. Diese Informationen können an der Fahrgastvorrichtung 304 auf eine Weise visualisiert werden, die den relativen Standort des Fahrzeugs des Fahrers bezüglich der Fahrgastvorrichtung 304 zeigt.
  • Wie oben erläutert, kann die Fahrervorrichtung 302 ausgestattet sein, Bilder mittels einer Kamera 316 zu erfassen, um Bilddaten 320 zu erzeugen, auf die der Prozessor 310 zugreifen kann. Diese Kamera 316 kann die Kamera eines Smartphones oder die Kamera 202 der Dashcam 200 sein. Die Kamera 316 kann auch eine oder mehrere Kameras sein, die um ein Fahrzeug herum befestigt sind, um Bilder der Umgebung rund um das Fahrzeug zu erfassen. In einer Ausführungsform kann das hierin offenbarte System die Bilddaten mit den aus den WiFi-Paketen extrahierten Daten fusionieren, um Fahrern und Fahrgästen zusätzlich zu helfen, sich gegenseitig zu lokalisieren.
  • 10 veranschaulicht eine Ausführungsform eines Flussdiagramms 1000 eines Systems zum Bestimmen eines Feinstandorts einer Fahrgastvorrichtung basierend auf Drahtlospaketinformationen, die mit Bilddaten fusioniert sind. Das System erhält CSI-Daten oder HF-Kanalinformationen bei 1002, führt Signalverarbeitung und/oder maschinelles Lernen 1004 durch, um den AoA und/oder Abstand zu der Fahrgastvorrichtung bei 1006 zu schätzen, wie in vorherigen hierin beschriebenen Ausführungsformen erläutert. Das System kann auch eine Glättung 1008 durchführen, wie mit Bezug auf 8 erläutert. Dies erzeugt einen WiFi-basierten Datensatz oder Drahtlos-Datensatz, der zum Abgleichen mit bildbasierten Daten bereit ist.
  • Um die bildbasierten Daten zu erhalten, erhält die Kamera 316 Bilder 1010 eines Sichtfeldes. Falls die Kamera 316 aus der Windschutzscheibe heraus zeigt, würden die erhaltenen Bilder die der Sicht des Fahrers durch die Windschutzscheibe sein. In anderen Ausführungsformen werden eine oder mehrere andere Kameras an anderen Orten platziert, wie etwa zur Seite oder nach hinten vom Fahrzeug zeigend. Das Fahrzeug selbst kann mit Kameras als Teil seiner aktiven Sicherheitssysteme oder autonomer Fahrsysteme ausgestattet sein. Die von diesen Systemen erhaltenen Bilder können mit dem System 100 mittels einer drahtlosen oder direkten Verbindung geteilt werden.
  • Aus den Bilddaten 320, die die Kamerabilder 1010 beinhalten, können ein oder mehrere Prozessoren eine Objektdetektionstechnik 1012 zum Detektieren von Menschen in den Bildern implementieren. Verschiedene Objekt- und Menschendetektionstechniken und -modelle sind bekannt, wie etwa zum Beispiel YOLO (You Only Look Once), SSD (Single Shot Multibox Detector) und Faster-R-CNN. Mit YOLO sagt ein einzelnes neuronales Netzwerk Begrenzungsrahmen und Klassenwahrscheinlichkeiten direkt aus Vollbildern in einer Evaluierung vorher. Da die gesamte Detektions-Pipeline ein einzelnes Netzwerk ist, kann sie Endezu-Ende direkt auf Detektionsleistungsfähigkeit optimiert werden. Mit SSD wird ein einzelnes tiefes neuronales Netzwerk verwendet, das den Ausgaberaum von Begrenzungsrahmen in einen Satz von Standardrahmen über unterschiedliche Seitenverhältnisse und Maßstäbe pro Merkmalskartenort diskretisiert. Das neuronale Netzwerk erzeugt Bewertungen für das Vorhandensein jeder Objektkategorie in jedem Standardrahmen und erzeugt Anpassungen für den Rahmen, um besser mit der Objektform übereinzustimmen. Zusätzlich kombiniert das Netzwerk Vorhersagen aus mehreren Merkmalskarten mit unterschiedlichen Auflösungen, um Objekte mit verschiedenen Größen natürlich zu handhaben. Mit Faster-R-CNN werden zuerst Faltungsschichtfilter trainiert, zweckmäßige Merkmale des Bildes (z. B. einen Menschen) zu extrahieren und diese Merkmale zu filtern; als Nächstes schiebt ein kleines neuronales Netzwerk eine Merkmalskarte der Faltungsschichten auf und sagt vorher, ob es ein Objekt gibt oder nicht, und sagt auch den Begrenzungsrahmen dieser Objekte vorher; und schließlich sagen vollständig verbundene neuronale Netzwerke eine Objektklasse (Klassifizierung) und Begrenzungsrahmen (Regression) basierend auf den durch das RPN vorgeschlagenen Gebieten vorher. Diese Menschendetektionstechniken sind lediglich beispielhaft, und natürlich können andere verwendet werden, insbesondere, das sich die Technologie in diesem Gebiet weiterhin verbessert.
  • Die Ausgabe der Menschendetektionstechniken liefert Begrenzungsrahmen um jeden detektierten Menschen bei 1014. Ein Beispiel dafür ist in 11 gezeigt, bei der Begrenzungsrahmen 1102 um jeden detektieren Menschen 1104 platziert sind.
  • Bei 1016 findet der Prozessor den relativen Winkel jedes Begrenzungsrahmens. Anders ausgedrückt wird der entsprechende Winkel relativ zu der Kamera 316 für jeden Begrenzungsrahmen 1102 geschätzt. Infolgedessen wird jede in den Kamerabildern gesehene Person mit einem Winkel assoziiert. In einer Ausführungsform kann das System annehmen, dass A ein Satz von Winkel {A1°, A2°, A3°, ... AN° } für N Leute ist, die durch die Kamera detektiert werden. Dies kann als Bilddaten 320 oder 336 gespeichert werden.
  • Da sich sowohl die Kamera 316 als auch der WiFi-Sendeempfänger auf derselben Fahrervorrichtung 302 befinden, teilen sie beide dasselbe Koordinatensystem und können somit die bei 1006 und 1016 berechneten Winkel verglichen werden. Unter einer Gruppe von Leuten kann der Fahrgast bei Schritt 1018 identifiziert werden, indem die beste Übereinstimmung zwischen dem bei 1006 bestimmten AoA und den bei 1016 bestimmten Winkeln A gefunden wird. Um die beste Übereinstimmung zwischen AoAs zu finden, kann ein euklidischer Abstand verwendet werden. Dies führt zu einer Identifizierung des Fahrgastes bei 1020. Somit wird ein Feinstandort des identifizierten Fahrgastes bei 1022 präsentiert.
  • Sobald der Datenfahrgast identifiziert ist, kann der Fahrgast hervorgehoben, markiert oder anderweitig auf der Fahrervorrichtung 302 identifiziert werden. Dies ist in 12 gezeigt, in dem ein einzelner Begrenzungsrahmen 1202 über den identifizierten Fahrgast 1204 überlagert oder platziert wird. Das in 12 gezeigte Bild kann auf dem Bildschirm der Fahrervorrichtung 302 angezeigt werden, sodass der Fahrer den Fahrgast visuell auf dem Bildschirm identifizieren kann.
  • Das System zum Fusionieren WiFi-basierter Daten mit bildbasierten Daten in 10 kann auch zu einer visualisierten Identifizierung führen, die auf dem Heads-Up-Display (HUD) des Fahrzeugs angezeigt wird. Wie oben beschrieben, kann das Fahrzeug mit einem HUD-System ausgestattet sein. Die Identifizierung des Fahrgastes 1204 kann mittels des hierin beschriebenen Systems unter Verwendung von Bildern von Kameras, die am Fahrzeug befestigt sind und kontinuierlich die Umgebung überwachen, vorgenommen werden. Sobald der Fahrgast 1204 durch die Windschutzscheibe des Fahrzeugs sichtbar ist, kann das HUD-System mit dem hierin beschriebenen System kommunizieren und einen Rahmen oder eine andere Art von Angabe auf den identifizierten Fahrgast 1204 platzieren.
  • Obwohl hierin Bezüge auf WiFi beschrieben sind, sollte verstanden werden, dass die vorliegende Offenbarung nicht auf WiFi beschränkt ist. Andere Drahtloskommunikationstechnologien können verwendet werden, wie etwa Bluetooth, Ultrabreitband, DSRC (Dedicated Short-Range Communication - dedizierte Kurzstreckenkommunikation) und andere, oder eine Kombination davon. Für Ultrabreitband kann eine Kanalimpulsantwort (CIR - Channel Impulse Response) anstelle von CSI verwendet werden. Für andere Technologien muss das vorgeschlagene System möglicherweise die Amplitude und Phase der Drahtloskanäle unter Verwendung mehrerer Antennen erfassen.
  • In einer anderen Ausführungsform können die Antennen, anstatt sie in ein lineares Array zu platzieren, wie in 2 gezeigt, in ein dreieckiges oder rechteckiges Array platziert werden. In einer anderen Ausführungsform können mehrere Drahtlos-Chipsätze verwendet werden, anstatt einen einzelnen Drahtlos-Chipsatz zu verwenden.
  • Es sollte auch verstanden werden, dass solche Lokalisierungsinformationen zu der Fahrgastvorrichtung gesendet werden können, um dem Fahrgast zu ermöglichen, den Fahrer genauer zu lokalisieren. Eine solche Situation kann hilfreich sein, wenn die Straßen mit vielen unterschiedlichen Fahrzeugen überfüllt sind und es schwer zu sagen ist, welches Fahrzeug der tatsächliche Fahrer ist, der für die Fahrt angefordert wurde. In einer Ausführungsform, nachdem die Fahrervorrichtung 302 den Standort des Fahrgastes schätzt (entweder grob oder fein), wie hierin offenbart, können diese Lokalisierungsinformationen über eine zellulare Verbindung oder unter Verwendung von WiFi oder Bluetooth zu der Fahrgastvorrichtung 304 übertragen werden. Als ein Beispiel zeigt 13 einen Fall, bei dem sich ein Auto dem Fahrgast nähert, wobei die Fahrervorrichtung 302 schätzt, dass sich die Fahrgastvorrichtung im vorderen rechten Quadranten des Fahrzeugs befindet. Sie schätzt auch, dass der AoA des eingehenden WiFi-Signals von der Fahrgastvorrichtung 45 Grad von der Fahrervorrichtung beträgt. Sie kann auch den Abstand „X“ von der Fahrgastvorrichtung zu der Fahrervorrichtung schätzen. Dann können diese Informationen in einer App in der Fahrgastvorrichtung angezeigt werden, wie in den 14 und 15 gezeigt. 14 liefert dem Fahrgast eine Draufsicht des Standorts des Autos auf einer statischen Karte. 15 stellt den Standort des Fahrzeugs der Fahrgastvorrichtung unter Verwendung einer erweiterten Realität bereit. In beiden 14 und 15 kann die App dem Fahrgast zeigen, dass sich das Auto des Fahrers von der linken Seite des Fahrgastes mit einer Entfernung von X Metern und mit einem Winkel entlang der gestrichelten Linie nähert. Während das Auto weiterfährt, werden der Winkel und der Abstand aktualisiert und in der App der Fahrgastvorrichtung 304 angezeigt. Falls erweiterte Realität verwendet wird, kann der Fahrgast seine Vorrichtung hoch halten, wie in 15 gezeigt, sodass die Kamera Bilder der Umgebung erfasst, und dann den Standort des Fahrers in der Umgebung hervorheben, ähnlich zu den oben beschriebenen Ausführungsformen, z. B. Bilddaten von der Kamera der Fahrgastvorrichtung mit den Daten, die zu der Fahrgastvorrichtung übertragen werden, fusionieren.
  • Die hierin offenbarten Prozesse, Verfahren oder Algorithmen können zu einer Verarbeitungsvorrichtung, einer Steuerung oder einem Computer lieferbar sein/durch diese implementiert werden, die/der eine bestehende programmierbare elektronische Steuereinheit oder dedizierte elektronische Steuereinheit beinhalten kann. Gleichermaßen können die Prozesse, Verfahren oder Algorithmen als Daten und Anweisungen, die durch eine Steuerung oder einen Computer ausführbar sind, in vielen Formen gespeichert werden, einschließlich unter anderem Informationen, die permanent auf nicht beschreibbaren Speicherungsmedien gespeichert sind, wie etwa ROM-Vorrichtungen, und Informationen, die änderbar auf beschreibbaren Speicherungsmedien gespeichert sind, wie etwa Disketten, Magnetbändern, CDs, RAM-Vorrichtungen und anderen magnetischen und optischen Medien. Die Prozesse, Verfahren oder Algorithmen können auch in einem softwareausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen insgesamt oder teilweise unter Verwendung geeigneter Hardwarekomponenten umgesetzt werden, wie etwa anwendungsspezifischer integrierter Schaltungen (ASICs), feldprogrammierbarer Gate-Arrays (FPGAs), Zustandsmaschinen, Steuerungen oder anderer Hardwarekomponenten oder -vorrichtungen oder einer Kombination aus Hardware-, Software- und Firmwarekomponenten.
  • Obwohl beispielhafte Ausführungsformen vorstehend beschrieben sind, wird nicht beabsichtigt, dass diese Ausführungsformen alle möglichen Formen beschreiben, die durch die Ansprüche umspannt werden. Die in der Spezifikation verwendeten Wörter sind Wörter der Beschreibung anstatt Beschränkung, und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne vom Gedanken und Schutzumfang der Offenbarung abzuweichen. Wie zuvor beschrieben, können die Merkmale verschiedener Ausführungsformen kombiniert werden, um weitere Ausführungsformen der Erfindung zu bilden, die möglicherweise nicht ausdrücklich beschrieben oder veranschaulicht sind. Obwohl verschiedene Ausführungsformen so beschrieben sein könnten, dass sie Vorteile bereitstellen oder gegenüber anderen Ausführungsformen oder Implementierungen des Stands der Technik bezüglich einer oder mehrerer gewünschter Charakteristiken bevorzugt werden, erkennen Durchschnittsfachleute auf dem Gebiet, dass ein oder mehrere Merkmale oder eine oder mehrere Charakteristiken kompromittiert werden können, um gewünschte Gesamtsystemattribute zu erreichen, die von der spezifischen Anwendung und Implementierung abhängen. Diese Attribute können unter anderem Kosten, Stärke, Dauerhaftigkeit, Lebenszykluskosten, Marktfähigkeit, Erscheinungsbild, Verpackung, Größe, Gebrauchsfähigkeit, Gewicht, Herstellbarkeit, Montagefreundlichkeit usw. beinhalten. Demnach, in dem Ausmaß, dass jegliche Ausführungsformen als weniger wünschenswert als andere Ausführungsformen oder Implementierungen des Stands der Technik bezüglich einer oder mehrerer Charakteristiken beschrieben sind, liegen diese Ausführungsformen nicht außerhalb des Schutzumfangs der Offenbarung und können für bestimmte Anwendungen wünschenswert sein.

Claims (20)

  1. System zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu finden, wobei das System Folgendes umfasst: eine Benutzerschnittstelle; eine Speicherung, die dazu ausgelegt ist, eine Ankunftswinkel(AoA)-Anwendung zu verwalten, die bei ihrer Ausführung einen Ankunftswinkel eines eingehenden WiFi-Signals bestimmt; und mindestens einen Prozessor in Kommunikation mit der Benutzerschnittstelle und der Speicherung, wobei der mindestens eine Prozessor programmiert ist zum: Empfangen eines Standorts einer mobilen Vorrichtung eines Fahrgastes mittels GPS, als Reaktion darauf, dass sich der Standort der mobilen Vorrichtung des Fahrgastes innerhalb eines Schwellenabstands von einer mobilen Vorrichtung eines Fahrers befindet: Empfangen von WiFi-Datenpaketen von der mobilen Vorrichtung des Fahrgastes an der mobilen Vorrichtung des Fahrers, Messen und Extrahieren von Kanalzustandsinformationen (CSI) aus den empfangenen WiFi-Datenpaketen, Ausführen der AoA-Anwendung, um einen Ankunftswinkel basierend auf den CSI zu bestimmen, und Anzeigen, auf der Benutzerschnittstelle, eines Grobstandorts des Fahrgastes basierend auf dem bestimmten Ankunftswinkel.
  2. System nach Anspruch 1, wobei die Benutzerschnittstelle Teil der Fahrervorrichtung ist.
  3. System nach Anspruch 1, ferner umfassend ein Smartphone, das kommunikativ mit der mobilen Vorrichtung des Fahrers verbunden ist, wobei der mindestens eine Prozessor ferner programmiert ist, als Reaktion darauf, dass sich der Standort der mobilen Vorrichtung des Fahrgastes innerhalb eines Schwellenabstands von der mobilen Vorrichtung des Fahrers befindet, zum Übertragen des Grobstandorts des Fahrgastes von der mobilen Vorrichtung des Fahrers zu dem Smartphone, sodass der Grobstandort des Fahrgastes auf dem Smartphone angezeigt wird.
  4. System nach Anspruch 1, wobei der mindestens eine Prozessor ferner programmiert ist, als Reaktion darauf, dass sich der Standort der mobilen Vorrichtung des Fahrgastes innerhalb eines Schwellenabstands von der mobilen Vorrichtung des Fahrers befindet, zum Erhalten von Hochfrequenz(HF)-Kanalinformationen aus den WiFi-Paketen, einschließlich zumindest Signalstärkeinformationen.
  5. System nach Anspruch 1, wobei der mindestens eine Prozessor ferner programmiert ist zum Übertragen eines Signals zu der mobilen Vorrichtung des Fahrgastes, das den bestimmten Ankunftswinkel beinhaltet, sodass die Vorrichtung des Fahrgastes einen Standort der mobilen Vorrichtung des Fahrers anzeigen kann.
  6. System nach Anspruch 1, wobei der mindestens eine Prozessor ferner programmiert ist, als Reaktion darauf, dass sich der Standort der mobilen Vorrichtung des Fahrgastes innerhalb eines Schwellenabstands von der mobilen Vorrichtung des Fahrers befindet, zum Bestimmen des Grobstandorts basierend auf einem vortrainierten Neuronalnetzwerk-basierten Klassifizierer, der an Modellen arbeitet, die vergleichen, wie sich die CSI oder der Ankunftswinkel für verschiedene Standorte von Fahrgastvorrichtungen unterscheiden bzw. unterscheidet.
  7. System nach Anspruch 1, wobei der mindestens eine Prozessor ferner ausgelegt ist, als Reaktion darauf, dass sich der Standort der mobilen Vorrichtung des Fahrgastes innerhalb eines Schwellenabstands von der mobilen Vorrichtung des Fahrers befindet, zum Bestimmen eines Feinstandorts des Fahrgastes basierend auf dem bestimmten Ankunftswinkel.
  8. System nach Anspruch 7, ferner umfassend eine Kamera, die dazu ausgelegt ist, Bilder einer Umgebung zu erfassen, wobei die Speicherung dazu ausgelegt ist, Bilddaten bezüglich der erfassten Bilder zu verwalten, und der mindestens eine Prozessor ferner programmiert ist, als Reaktion darauf, dass sich der Standort der mobilen Vorrichtung des Fahrgastes innerhalb eines Schwellenabstands von der mobilen Vorrichtung des Fahrers befindet, zu Folgendem: Ausführen eines Objektdetektionsmodells basierend auf den Bilddaten, um einen oder mehrere Menschen in der Umgebung zu detektieren, Abgleichen eines detektierten Menschen mit dem bestimmten Ankunftswinkel, und Anzeigen, auf der Benutzerschnittstelle, eines Bildes der Umgebung, wie von der Kamera erfasst, mit einer Angabe auf die Umgebung überlagert, die den Fahrgast basierend auf dem Abgleich identifiziert.
  9. Verfahren zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu finden, wobei das Verfahren Folgendes umfasst: Empfangen eines Standorts einer Fahrgastvorrichtung an einer Fahrervorrichtung mittels GPS; als Reaktion darauf, dass sich der Standort der Fahrgastvorrichtung innerhalb eines Schwellenabstands von der Fahrervorrichtung befindet: Nutzen einer WiFi-Antenne an der Fahrervorrichtung, um WiFi-Signale zu detektieren, die von der Fahrgastvorrichtung ausgehen, Empfangen von WiFi-Datenpaketen von der Fahrgastvorrichtung, Extrahieren von Kanalzustandsinformationen (CSI) aus den empfangenen WiFi-Datenpaketen, Bestimmen eines Ankunftswinkels basierend auf den CSI, und Anzeigen, auf einer Benutzerschnittstelle, eines Standorts der Fahrgastvorrichtung basierend auf dem bestimmten Ankunftswinkel.
  10. Verfahren nach Anspruch 9, wobei der Schritt des Anzeigens an der Fahrervorrichtung durchgeführt wird.
  11. Verfahren nach Anspruch 9, ferner umfassend: Übertragen des bestimmten Ankunftswinkels von der Fahrervorrichtung zu einem Smartphone, und wobei der Schritt des Anzeigens am Smartphone durchgeführt wird.
  12. Verfahren nach Anspruch 9, ferner umfassend: Senden eines Signals zu der Fahrgastvorrichtung, das Daten einschließlich des bestimmten Ankunftswinkels beinhaltet, und Anzeigen, auf einer Benutzerschnittstelle der Fahrgastvorrichtung, eines Standorts des Fahrers basierend auf den Daten.
  13. Verfahren nach Anspruch 9, ferner umfassend: Erfassen eines Bildes einer Umgebung, Ausführen eines Objektdetektionsmodells basierend auf Bilddaten aus dem Bild, um einen oder mehrere Menschen in der Umgebung zu detektieren, Abgleichen eines Standorts eines detektierten Menschen in der Umgebung mit dem Ankunftswinkel, um einen Fahrgast zu identifizieren, Anzeigen, auf der Benutzerschnittstelle, des Bildes der Umgebung, und Überlagern einer Angabe auf dem angezeigten Bild der Umgebung, die den Fahrgast identifiziert, basierend auf dem abgeglichenen Standort des detektierten Menschen mit dem Ankunftswinkel.
  14. Verfahren nach Anspruch 9, wobei der Schritt des Bestimmens des Ankunftswinkels Ausführen einer Ankunftswinkel(AoA)-Anwendung beinhaltet, um eine Signalverarbeitung der extrahierten CSI durchzuführen.
  15. Verfahren nach Anspruch 9, wobei der Schritt des Bestimmens des Ankunftswinkels Ausführen einer Ankunftswinkel(AoA)-Anwendung beinhaltet, die ein vortrainiertes maschinelles Lernmodell nutzt, das CSI-Informationen mit geschätzten Standorten von Vorrichtungen korreliert.
  16. Dashcam-Anzeige zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig in einer Ridehailing-Umgebung zu finden, wobei die Dashcam-Anzeige Folgendes umfasst: eine oder mehrere WiFi-Antennen, die dazu ausgelegt sind, WiFi-Datenpakete von einer mobilen Vorrichtung eines Fahrgastes zu empfangen; einen Drahtlossendeempfänger, der dazu ausgelegt ist, mit einer mobilen Vorrichtung eines Fahrers zu kommunizieren; eine Speicherung, die dazu ausgelegt ist, eine Ankunftswinkel(AoA)-Anwendung zu verwalten, die bei ihrer Ausführung einen Ankunftswinkel eines eingehenden WiFi-Signals von der mobilen Vorrichtung des Fahrgastes bestimmt; und einen Prozessor, der mit der Speicherung und dem Drahtlossendeempfänger gekoppelt ist, wobei der Prozessor programmiert ist zum: Empfangen von WiFi-Datenpaketen von der mobilen Vorrichtung des Fahrgastes, Messen und Extrahieren von Kanalzustandsinformationen (CSI) aus den empfangenen WiFi-Datenpaketen, Ausführen der AoA-Anwendung, um einen Ankunftswinkel basierend auf den CSI zu bestimmen, und Bewirken, dass der Drahtlossendeempfänger ein Signal zu der mobilen Vorrichtung des Fahrers sendet, um einen Standort des Fahrgastes basierend auf dem bestimmten Ankunftswinkel anzuzeigen.
  17. Dashcam-Anzeige nach Anspruch 16, ferner umfassend eine Kamera, die dazu ausgelegt ist, Bilder einer Umgebung extern zu dem Fahrzeug zu erfassen, wobei der Prozessor ferner programmiert ist zum: Nutzen der Kamera, um ein Bild einer Umgebung extern zu dem Fahrzeug zu erfassen, Ausführen eines Objektdetektionsmodells basierend auf Bilddaten aus dem Bild, um einen oder mehrere Menschen in der Umgebung zu detektieren, und Abgleichen eines Standorts eines detektierten Menschen in der Umgebung mit dem Ankunftswinkel, um den Fahrgast zu identifizieren, wobei der Standort des Fahrgastes, der auf der mobilen Vorrichtung des Fahrers angezeigt wird, auf dem Abgleichen basiert.
  18. Dashcam-Anzeige nach Anspruch 17, wobei der Prozessor ferner programmiert ist zum: Senden eines Signals zu der mobilen Vorrichtung des Fahrers, um zu bewirken, dass die mobile Vorrichtung des Fahrers das durch die Kamera erfasste Bild der Umgebung anzeigt, und Senden eines Signals zu der mobilen Vorrichtung des Fahrers, um zu bewirken, dass die mobile Vorrichtung des Fahrers eine Angabe auf das angezeigte Bild der Umgebung überlagert, die den Fahrgast basierend auf dem Abgleichen identifiziert.
  19. Dashcam-Anzeige nach Anspruch 16, wobei die eine oder die mehreren WiFi-Antennen eine Mehrzahl von Antennen sind und die AoA-Anwendung als Eingabe einen Abstand zwischen den WiFi-Antennen verwendet, um den Ankunftswinkel zu bestimmen.
  20. Dashcam-Anzeige nach Anspruch 16, wobei der Prozessor ferner programmiert ist zum Bestimmen des Standorts des Fahrgastes basierend auf einem vortrainierten Neuronalnetzwerk-basierten Klassifizierer, der an Modellen arbeitet, die vergleichen, wie sich die CSI oder der Ankunftswinkel für verschiedene Standorte von Fahrgastvorrichtungen unterscheiden bzw. unterscheidet.
DE102021214580.9A 2020-12-28 2021-12-17 Systeme und Verfahren zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren Pending DE102021214580A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/135,290 US20220210605A1 (en) 2020-12-28 2020-12-28 Systems and methods for assisting drivers and riders to locate each other
US17/135,290 2020-12-28

Publications (1)

Publication Number Publication Date
DE102021214580A1 true DE102021214580A1 (de) 2022-06-30

Family

ID=81972228

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021214580.9A Pending DE102021214580A1 (de) 2020-12-28 2021-12-17 Systeme und Verfahren zur Unterstützung von Fahrern und Fahrgästen, sich gegenseitig zu lokalisieren

Country Status (3)

Country Link
US (1) US20220210605A1 (de)
CN (1) CN114755670A (de)
DE (1) DE102021214580A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230044015A1 (en) * 2021-08-05 2023-02-09 Gm Cruise Holdings Llc Systems and methods for improving accuracy of passenger pick-up location for autonomous vehicles

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965960B1 (en) * 2017-08-07 2018-05-08 Lyft, Inc. Facilitating transportation services by generating a directional indicator between a requester and a transportation vehicle
EP3492946B1 (de) * 2017-12-01 2021-05-12 Origin Wireless, Inc. Verfahren, vorrichtung und system zur objektverfolgung und -navigation

Also Published As

Publication number Publication date
CN114755670A (zh) 2022-07-15
US20220210605A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
CN109920246B (zh) 一种基于v2x通信与双目视觉的协同局部路径规划方法
EP2819901B1 (de) Verfahren und vorrichtung zur ermittlung der geschwindigkeit und/oder position eines fahrzeuges
DE102019115783A1 (de) Kollisionsverhinderung für ein verbundenes fahrzeug auf der grundlage eines digitalen verhaltenszwillings
DE102020131323A1 (de) Kamera-zu-lidar-kalibration und -validierung
DE102020103455A1 (de) Verfahren und system zur ausführung einer zusammengesetzten verhaltensrichtlinie für ein autonomes fahrzeug
DE102019102195B4 (de) Autonomes Antriebssystem für ein Fahrzeug, Fahrzeug mit solch einem autonomen Antriebssystem sowie Verfahren zum Erkennen einer Kollision zwischen einem autonomen Fahrzeug und einem Objekt
DE102016117710B4 (de) Verfahren und fusionssystem zur bestimmung der geschwindigkeit eines zielobjektes
DE112017001322T5 (de) Signalverarbeitungsvorrichtung und Signalverarbeitungsverfahren
DE112020000487T5 (de) Automatisches wählen von datenproben zur annotation
DE112019001046T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiler körper
DE102018112234A1 (de) Verkehrssituationswahrnehmung für ein autonomes fahrzeug
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE102015101358B4 (de) Verfahren zum Erfassen einer Fahreraufmerksamkeit gegenüber Objekten
DE102019115897A1 (de) Fahrerüberwachungssystem und verfahren zum betreiben desselben
DE112012005624T5 (de) System zum Herstellen eines aufspannenden Waldes in einem Fahrzeugnetzwerk
DE102019111725A1 (de) Monokulare visuelle odometrie: fahrzeuggesschwindigkeit und -gierrate von rückfahrkamera
DE102019108083A1 (de) Verkehrszeichenerkennung für vernetzte Fahrzeuge
DE112019001659T5 (de) Steuervorrichtung, steuerverfahren und programm
DE102020130674A1 (de) Fahrzeugposenerfassung mit bezugsmarker
DE112017007205T5 (de) Modusumschaltsteuergerät, Modusumschaltsteuerungssystem, Modusumschaltsteuerverfahren und Programm
DE112018004904T5 (de) Informationsverarbeitungseinrichtung, selbstpositionsschätzverfahren und programm
DE102020105649A1 (de) Verfahren und vorrichtung zur parallelen verfolgung und lokalisierung mittels eines multimodalen schmelzverfahrens
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE102019114578A1 (de) Wahrnehmungsunsicherheitsmodellierung aus tatsächlichen wahrnehmungssystemen für autonomes fahren
DE112017005228T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed