DE102021201774A1 - Augmented-Reality-Erkennung zum Lokalisieren von autonomen Fahrzeugen - Google Patents

Augmented-Reality-Erkennung zum Lokalisieren von autonomen Fahrzeugen Download PDF

Info

Publication number
DE102021201774A1
DE102021201774A1 DE102021201774.6A DE102021201774A DE102021201774A1 DE 102021201774 A1 DE102021201774 A1 DE 102021201774A1 DE 102021201774 A DE102021201774 A DE 102021201774A DE 102021201774 A1 DE102021201774 A1 DE 102021201774A1
Authority
DE
Germany
Prior art keywords
autonomous vehicle
electronic device
signal
image sensor
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021201774.6A
Other languages
English (en)
Inventor
Matthew Hortop
Patrick Hunt
Lacey Trelfa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rivian IP Holdings LLC
Original Assignee
Rivian IP Holdings LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rivian IP Holdings LLC filed Critical Rivian IP Holdings LLC
Publication of DE102021201774A1 publication Critical patent/DE102021201774A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/48Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for in-vehicle communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Offenbarte Ausführungsformen schließen Verfahren, Systeme und ein nichtflüchtiges computerlesbares Medium zur Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs ein. In einer nicht einschränkenden Ausführungsform schließt ein veranschaulichendes Verfahren ein Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server ein. Ein erstes Signal, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet, wird durch eine elektronische Vorrichtung empfangen. Der Insasse wird durch die elektronische Vorrichtung dazu aufgefordert, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten. Der festgelegte Bereich wird durch den Bildsensor für das autonome Fahrzeug abgebildet. Eine visuelle Darstellung des abgebildeten festgelegten Bereichs wird durch die elektronische Vorrichtung auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung erzeugt. Das autonome Fahrzeug wird innerhalb der erzeugten visuellen Darstellung identifiziert.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich auf autonome Fahrzeuge.
  • STAND DER TECHNIK
  • Die Ausführungen in diesem Abschnitt stellen lediglich Hintergrundinformationen bezüglich der vorliegenden Offenbarung bereit und stellen möglicherweise keinen Stand der Technik dar.
  • Autonome Fahrzeuge sind für Transportanwendungen von großem Interesse und können der Mitfahrgelegenheitsindustrie Vorteile bereitstellen. Wenn ein vorgesehener Insasse eine Anfrage nach einem Fahrzeug einer Mitfahrgelegenheit stellt, muss der vorgesehene Insasse möglicherweise den Fahrer des Fahrzeugs kontaktieren oder persönlich mit dem/der Fahrer(in) des Fahrzeugs interagieren, um sein/ihr bestimmtes Fahrzeug zu identifizieren, insbesondere wenn es sich in einem belebten Bereich, wie einer Stadt oder einem Flughafen, befindet. Eine solche Interaktion kann sich jedoch als Herausforderung herausstellen, sofern überhaupt möglich, wenn versucht wird, ein autonomes Fahrzeug innerhalb eines Pools von autonomen Fahrzeugen oder eines belebten Bereichs mit Hindernissen zu lokalisieren.
  • KURZDARSTELLUNG
  • Offenbarte Ausführungsformen schließen Verfahren, Systeme und ein nichtflüchtiges computerlesbares Medium zur Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs ein.
  • In einer nicht einschränkenden Ausführungsform schließt ein veranschaulichendes Verfahren ein Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server ein. Ein erstes Signal, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet, wird durch eine elektronische Vorrichtung empfangen. Der Insasse wird durch die elektronische Vorrichtung dazu aufgefordert, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten. Der festgelegte Bereich wird durch den Bildsensor für das autonome Fahrzeug abgebildet. Eine visuelle Darstellung des abgebildeten festgelegten Bereichs wird durch die elektronische Vorrichtung auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung erzeugt. Das autonome Fahrzeug wird innerhalb der erzeugten visuellen Darstellung identifiziert.
  • In einer anderen nicht einschränkenden Ausführungsform schließt ein veranschaulichendes System ein Computerverarbeitungssystem und einen Computerspeicher ein. Das Computerverarbeitungssystem ist dazu konfiguriert, Schritte auszuführen, die einschließen: Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server; Empfangen eines ersten Signals durch die elektronische Vorrichtung, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet; Auffordern des Insassen durch die elektronische Vorrichtung, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten; Abbilden der für das autonome Fahrzeug festgelegten Bereichs durch den Bildsensor; Erzeugen einer visuellen Darstellung des abgebildeten festgelegten Bereichs auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung durch die elektronische Vorrichtung; und Identifizieren des autonomen Fahrzeugs innerhalb der erzeugten visuellen Darstellung durch die elektronische Vorrichtung.
  • In einer anderen nicht einschränkenden Ausführungsform schließt ein nichtflüchtiges computerlesbares Medium Programmanweisungen zum Lokalisieren von autonomen Fahrzeugen ein. Die Programmanweisungen bewirken bei Ausführung, dass das Computerverarbeitungssystem Schritte ausführt, die einschließen: Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server; Empfangen eines ersten Signals durch die elektronische Vorrichtung, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet; Auffordern des Insassen durch die elektronische Vorrichtung, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten; Abbilden des für das autonome Fahrzeug festgelegten Bereichs durch den Bildsensor; Erzeugen einer visuellen Darstellung des abgebildeten festgelegten Bereichs auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung durch die elektronische Vorrichtung; und Identifizieren des autonomen Fahrzeugs innerhalb der erzeugten visuellen Darstellung durch die elektronische Vorrichtung.
  • Weitere Merkmale, Vorteile und Anwendungsbereiche sind anhand der hierin bereitgestellten Beschreibung ersichtlich. Es versteht sich, dass die Beschreibung und die spezifischen Beispiele nur zur Veranschaulichung gedacht sind und den Schutzumfang der vorliegenden Offenbarung nicht einschränken sollen.
  • Figurenliste
  • Die hierin beschriebenen Zeichnungen dienen nur der Veranschaulichung und sollen den Schutzumfang der vorliegenden Offenbarung in keiner Weise einschränken. Die Komponenten in den Figuren sind nicht notwendigerweise maßstabsgetreu, wobei der Schwerpunkt stattdessen auf einer Veranschaulichung der Prinzipien der offenbarten Ausführungsformen gelegt wird. In den Zeichnungen:
    • 1 ist ein Blockdiagramm in teilweise schematischer Form eines veranschaulichenden Rahmenkonzepts für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
    • 2A ist ein Blockdiagramm in teilweise schematischer Form einer Teildraufsicht auf ein veranschaulichendes Rahmenkonzept für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
    • 2B ist eine Grafik einer Signalstärke von erkannten Standortsignalen in Abhängigkeit von einer Bildsensorrichtung einer elektronischen Vorrichtung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
    • 3 ist ein Blockdiagramm in teilweise schematischer Form eines anderen veranschaulichenden Rahmenkonzepts für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
    • 4A bis 4D sind Draufsichten auf veranschaulichende Identifizierungen eines autonomen Fahrzeugs.
    • 5 ist ein Flussdiagramm eines veranschaulichenden Ansatzes einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs.
  • Gleiche Referenzsymbole in den verschiedenen Zeichnungen geben im Allgemeinen gleiche Elemente an.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende Beschreibung ist lediglich veranschaulichender Natur und soll die vorliegende Offenbarung, ihre Anwendung oder Verwendungen nicht einschränken. Es versteht sich, dass die erste Ziffer von dreistelligen Bezugszeichen und die ersten zwei Ziffern von vierstelligen Bezugszeichen der ersten Ziffer von einstelligen Nummern von Figuren bzw. den ersten zwei Ziffern von zweistelligen Nummern von Figuren entsprechen, in denen das Element zuerst erscheint.
  • 1 veranschaulicht ein veranschaulichendes Rahmenkonzept 100 für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß einem Beispiel der Offenbarung. Ein Insasse kann eine geeignete Anwendung nutzen, die auf einer elektronischen Vorrichtung 102 installiert ist, um ein autonomes Fahrzeug, z. B. aus einem Pool von autonomen Fahrzeugen, anzufordern, und dann die Anwendung auf der elektronischen Vorrichtung 102 dazu verwenden, das richtige vorgesehene autonome Fahrzeug aus einer Gruppe von Fahrzeugen 104 in der Nähe auszuwählen. Ein autonomes Fahrzeug kann mit einer Anordnung von Sensoren 105 konfiguriert sein, z. B. einschließlich LIDAR (Light Detection and Ranging), Kamerasystemen zum Erfassen von Echtzeitvideobildmaterial von Hindernissen und anderen Fahrzeugen und GPS (Global Positioning System). Ein autonomes Fahrzeug kann auch mit drahtlosen Kommunikationssystemen zum Senden und Empfangen von Kommunikationen in Bezug auf Straßeninformationen und Verkehr in Echtzeit sowie einem Computer zum Anwenden von Fahrregeln und Treffen von Fahrentscheidungen basierend auf Daten und Informationen, die anhand des Vorstehenden erfasst wurden, auf geeignete Weise, wie üblicherweise im Stand der Technik bekannt, konfiguriert werden. Eine Interaktion zwischen dem Insassen und der elektronischen Vorrichtung 102 kann über eine grafische Benutzeroberfläche 106 der elektronischen Vorrichtung 102 erfolgen. Die elektronische Vorrichtung 102 kann die Anfrage an eines oder mehrere Fernüberwachungs-Backend-Systeme 108 über ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110, wie das Internet, senden. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können ein bestimmtes autonomes Fahrzeug, z. B. aus einem Pool von autonomen Fahrzeugen, basierend auf einem oder mehreren Kriterien auswählen, die eine Entfernung zu dem Abholungsstandort des vorgesehenen Insassen, Zeitdauer, die zur Ankunft an dem Abholungsstandort des vorgesehenen Insassen gebraucht würde, Ziel des vorgesehenen Insassen und/oder von dem vorgesehenen Insassen gewünschte Fahrzeugausstattung einschließen können, aber nicht darauf beschränkt sind. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können dem ausgewählten autonomen Fahrzeug die Anfrage über ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110 bereitstellen. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können auch mit bordeigenen Computern des Pools von autonomen Fahrzeugen 104 kommunizieren, um verschiedene Gesichtspunkte von Fahrzeugmerkmalen, wie sie hierin weiter beschrieben sind, zu steuern.
  • Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können ein Computerverarbeitungssystem 108 einschließen, das eine oder mehrere Computerverarbeitungseinheiten (CPUs) 112 einschließen kann, die sich in einem oder mehreren Computersystemen befinden, und einen oder mehrere Speicher 114, die RAM, ROM und einen beliebigen geeigneten nichtflüchtigen Speicher einschließen können. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können auch eine oder mehrere Datenbanken 116, um Daten sowohl für Fahrzeuge als auch Fahrer zu speichern, wie hierin weiter erläutert wird, und eine oder mehrere Oberflächen 118 einschließen, um die Kommunikation über Netzwerke einschließlich des Internets zu erleichtern und um die Eingabe/Ausgabe von Daten zu erleichtern. Das/Die Fernüberwachungs-Backend-System(e) 108 führt/führen ein Überwachen von Fahrzeugen, Fahrzeugsystemen, Fahrzeugnutzung und Systemnutzung für einzelne Fahrzeuge und für einzelne Fahrer durch, die jene Fahrzeuge verwenden, und führt/führen Datenanalysen der Daten durch, die von den Fahrzeugen und den Fahrzeugsystemen gesammelt werden. In Beispielen kann der Pool von autonomen Fahrzeugen verschiedene Erkennungseinrichtungen und Sensoren zum Überwachen von Fahrzeugdynamik, Nutzung und Nachfrage nach Fahrzeugsysteme während des Fahrens des Pools von autonomen Fahrzeugen einschließen. Zum Beispiel können die autonomen Fahrzeuge GPS-Einheiten zum Überwachen von Standort, Geschwindigkeit und Richtung, Batterieüberwachungssensoren in der Form von elektrischen Schaltungen, zum Überwachen der Batterienutzung, Batterieentladung in Abhängigkeit von Zeit und Batterieladungsraten und andere geeignete Sensoren zum Überwachen des Zustands und Zustands von anderen wichtigen Subsystemen des Fahrzeugs, wie entfernbaren Modulen, und zum Erkennen von Warn- oder Fehlerzuständen einschließen. Solche Daten können in einem bordeigenen Computersystem mit geeignetem Speicher gespeichert werden und können über einen drahtlosen bordeigenen Transceiver des Fahrzeugs und/oder über drahtgebundene Kommunikation durch ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110 auf das/die Fernüberwachungs-Backend-System(e) 108 hochgeladen werden.
  • Jedes autonome Fahrzeug des Pools von autonomen Fahrzeugen kann eines oder mehrere Standortsignale aussenden. Zum Beispiel können das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug schnell pulsierende Fahrzeugaußenlichter mit einer spezifizierten Frequenz oder in einem spezifizierten Muster einschließen, die zur Erkennung vorgesehen sind. Die Impulse können, obwohl sie des Spektrums des sichtbaren Lichts sind, mit einer Frequenz pulsieren, die zu hoch ist, um von dem Insassen visuell als pulsierend oder flackernd empfunden zu werden. Das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug können auch Impulse von Licht des nicht sichtbaren Spektrums sein, wie Laserlicht, das von einer LIDAR-Vorrichtung ausgesendet wird, die an dem autonomen Fahrzeug befestigt ist. Das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug können aus einer Spektralverschiebung von Lichtfarben bestehen, z. B. einem gepulsten Muster, wobei unterschiedliche Wellenlängen beteiligt sind. Eine Kommunikation unter Verwendung von WLAN- und/oder Bluetooth-Signalen kann auch zum Kommunizieren von zusätzlichen Identifizierungsinformationen des vorgesehenen der Fahrzeuge 104 zwischen einem solchen Fahrzeug und der elektronischen Vorrichtung 102, z. B. über Textnachrichten oder andere geeignete Nachrichten, verwendet werden. Die elektronische Vorrichtung 102 kann das eine oder die mehreren Standortsignale des autonomen Fahrzeugs erkennen, sobald es sich in einer zugänglichen Reichweite des autonomen Fahrzeugs befindet. Der vorgesehene Insasse kann über eine visuelle Anweisung, die auf der grafischen Benutzeroberfläche 106 angezeigt wird, oder über eine Audioanweisung, oder beides, dazu aufgefordert werden, einen Bildsensor (in 1 nicht gezeigt) der elektronischen Vorrichtung 102 auf einen festgelegten Bereich auszurichten, sobald sich das autonome Fahrzeug innerhalb einer zugänglichen Reichweite befindet. Nachdem der Insasse den Bildsensor auf den festgelegten Bereich ausgerichtet hat, kann der Bildsensor der elektronischen Vorrichtung 102 eine Szene des Pools von autonomen Fahrzeugen 104 aufnehmen, wie hierin weiter beschrieben wird. Eine visuelle Darstellung des abgebildeten Bereichs kann durch die elektronische Vorrichtung 102 unter Verwendung von einer oder mehreren internen Verarbeitungskomponenten erzeugt werden. Die visuelle Darstellung des abgebildeten Bereichs kann auf der grafischen Benutzeroberfläche 106 angezeigt werden, wobei das autonome Fahrzeug von dem Insassen über eine oder mehrere Angaben 120 identifiziert wird, wie hierin weiter beschrieben wird. In einigen Fällen kann das autonome Fahrzeug teilweise durch eines oder mehrere Hindernisse 122 behindert sein und kann dennoch von dem vorgesehenen Insassen identifiziert werden. Ein Zugang zu dem autonomen Fahrzeug kann dem vorgesehenen Insassen über eine Zugangstaste (Feld) 122 auf der grafischen Benutzeroberfläche 106 bereitgestellt werden, z. B. einem entriegelten grafischen Feld auf dem berührungsempfindlichen Anzeigebildschirm, das die grafische Benutzeroberfläche 106 anzeigt, die der vorgesehene Passagier drücken kann.
  • 2A veranschaulicht ein Blockdiagramm von einer Teildraufsicht 200 auf ein veranschaulichendes Rahmenkonzept für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß einem Beispiel der Offenbarung. Die elektronische Vorrichtung 102 kann einen Bildsensor 202 einschließen. Der Bildsensor 202 kann gegenüber sichtbarem Licht, nicht sichtbarem Licht (z. B. Infrarotlicht) oder beidem empfindlich sein. Der Bildsensor 202 kann ein herkömmlicher Bildsensor der Art sein, wie sie üblicherweise in Smartphones zu finden ist. In einem Beispiel kann ein Benutzer, der bereits eine Anfrage nach einem Fahrzeug unter Verwendung der App, die auf der elektronischen Vorrichtung 102 läuft, kommuniziert hat, durch die elektronische Vorrichtung 102 darauf aufmerksam gemacht werden, dass sich ein vorgesehenes Fahrzeug in erkennbarer Reichweite des Benutzers befindet, und kann die Verwendung über eine visuelle Anweisung, eine Audioanweisung oder beides lenken, um die elektronische Vorrichtung auf einem Sichtfeld zeigen zu lassen, das eines oder mehrere Fahrzeuge umschließt, und um den Bildsensor der elektronischen Vorrichtung 102 durch laterales Neigen der elektronischen Vorrichtung 102 über das Sichtfeld zu scannen, wie in 2A veranschaulicht ist.
  • Die elektronische Vorrichtung 102 kann in einer oder mehreren Achsen eines dreidimensionalen Systems geneigt werden, z. B. eines x-, y-, z-Systems, wie es in 2A veranschaulicht ist. Ein Neigen der elektronischen Vorrichtung 102 ermöglicht, dass der Bildsensor 202 Bilder des festgelegten Bereichs mit unterschiedlichen Ausrichtungen aufnimmt, wodurch unterschiedliche Fahrzeuge in dem Sichtfeld auf unterschiedliche Sichtlinien ausgerichtet werden (z. B. gepunktete Linien 1, 2 und 3). Zum Beispiel kann die elektronische Vorrichtung 102 leicht vor und zurück geneigt werden, um die Signalstärke des einen oder der mehreren Standortsignale zu scannen und aufzunehmen. Das eine oder die mehreren Standortsignale können in Abhängigkeit von einer Ausrichtung der elektronischen Vorrichtung aufgezeichnet werden, wobei die Vektorrichtung des Bildsensors 202 der elektronischen Vorrichtung 102 und die Ausrichtung mit der höchsten Linie einer Sichtsignalstärke z. B. diejenige sein kann, die auf das vorgesehene autonome Fahrzeug zeigt. Jene Informationen können dann mit dem aufgenommenen Bild in Zusammenhang gebracht werden, das den verschiedenen Ausrichtungen zugeordnet ist, um das vorgesehene autonome Fahrzeug unter Verwendung einer Angabeeinrichtung 120 zu kennzeichnen, wie hierin weiter beschrieben wird.
  • Ein Verarbeiten der Bildinformationen durch die elektronische Vorrichtung 102 kann eine Ausrichtung der elektronischen Vorrichtung 102 bestimmen, welche die stärkste Linie eines Sichtsignals bereitstellt, um ein Bild des Pools von autonomen Fahrzeugen aufzunehmen. Zum Beispiel kann die elektronische Vorrichtung 102 einen internen Trägheitssensor aufweisen, der einem Prozessor der elektronischen Vorrichtung 102 Daten bereitstellt. Wie oben erwähnt ist, kann die elektronische Vorrichtung 102 den Benutzer dazu auffordern, den Bildsensor 202 langsam über ein Sichtfeld zu scannen, das mehrere Fahrzeuge enthält, kann die Signalstärke von erkannten Standortsignalen in Abhängigkeit von einer Ausrichtung basierend auf in Zusammenhang gebrachten Trägheitsdaten bewerten, die gleichzeitig durch die elektronische Vorrichtung aufgenommen werden, und dann identifizieren, welcher Standort in dem aufgenommenen Bildmaterial der größten Signalstärke der erkannten Standortsignale entspricht, und dann auf der elektronischen Vorrichtung jenen Standort anzeigen, der durch das Bildmaterial der Szene überlagert wird, um so das vorgesehene autonome Fahrzeug für den Benutzer zu identifizieren. In einem anderen Beispiel kann die elektronische Vorrichtung 102 einen Insassen über die grafische Benutzeroberfläche 106 dazu auffordern, die Ausrichtung der elektronischen Vorrichtung 102 hin zu unterschiedlichen Ausrichtungen zu verändern, um ein Sammeln von Daten zur Identifizierung des autonomen Fahrzeugs, das für den Insassen vorgesehen ist, innerhalb des Sichtfeld des Bildsensors 202 zu erleichtern. Obwohl der Bildsensor 202 der elektronischen Vorrichtung 102 während dieses Vorgangs herkömmlichen Bildsignalen ausgesetzt ist, ist der Computerprozessor der elektronischen Vorrichtung 102 dazu konfiguriert, die erkannten Standortsignale von dem Hintergrund von herkömmlichen Bildsignalen zu unterscheiden und zu bewerten, welche Ausrichtung (Sichtlinie) des Bildsensors der elektronischen Vorrichtung 102 mit der größten Intensität der erkannten Standortsignale zusammenhängt.
  • In dieser Hinsicht können vorhandene Bildsensoren, die üblicherweise in Smartphone-Kameras zu finden sind, zur Aufnahme der Standortsignale verwendet werden. Solche Smartphone-Kameras können pulsierendes Licht bei Raten erkennen, die schneller als Raten sind, die das menschliche Auge erkennen kann. Zum Beispiel können Smartphone-Kameras pulsierendes Licht bei Raten von weniger als oder mehr als 1.000 Bildern pro Sekunde erkennen, wie 300 Bilder pro Sekunde, 600 Bilder pro Sekunde, bis zu 1.000 Bilder pro Sekunde oder mehr. Die elektronische Vorrichtung 102 kann zusätzlich geeignete Filter, wie einen oder mehrere Infrarotfilter (IR-Filter) oder andere Farbfilter, einschließen. Der/Die Filter kann/können durch ein Betätigungselement unterstützt werden, um eine Bewegung der Filter in Bezug auf den Bildsensor 202 zu erlauben. Der/Die Filter können dazu angewendet werden, die durch den Bildsensor 202 aufgenommene Bildqualität zu verbessern, die durch den Bildsensor 202 aufgenommene Bildqualität abzustimmen und/oder eine oder mehrere gewünschte Wellenlängen zur Auswahl von Standortsignalen von spezifizierten Wellenlängen zur Aufnahme durch den Bildsensor 202 und zum Verarbeiten an der elektronischen Vorrichtung 102 auszuwählen. Wenn die Standortsignale zum Beispiel innerhalb eines Infrarotlichtspektrums liegen, kann die elektronische Vorrichtung 102 einen Infrarotfilter aus dem Lichtweg des Bildsensors 202 entfernen, wobei für ein Beispiel ein Betätigungselement verwendet wird, das intern an einen Prozessor der elektronischen Vorrichtung 102 gekoppelt ist und durch ihn gesteuert wird. Wenn die Standortsignale spezifizierte Farbwellenlängen, z. B. eine Folge von Signalimpulsen von einer oder mehreren Wellenlängen, z. B. nacheinander, umfassen, kann die elektronische Vorrichtung solche Filter, z. B. nacheinander, in den Lichtweg des Bildsensors 202 einfügen.
  • 2B veranschaulicht eine Darstellung 210 einer Position gegenüber einer Signalstärke zum Neigen einer elektronischen Vorrichtung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß einem Beispiel der Offenbarung. Zu Veranschaulichungszwecken veranschaulicht die Darstellungslinie 212 eine beispielhafte Kurve einer Signalstärke der erkannten Standortsignale in Bezug auf eine Position. In einem Beispiel hängen die Richtungslinien 1, 2, 3 von 2A mit den Positionen 1, 2, 3 von Darstellung 210 zusammen, die in 2B veranschaulicht ist, die einem Neigen der elektronischen Vorrichtung 102 zugeordnet ist. Wenn die elektronische Vorrichtung 102 so ausgerichtet ist, dass der Bildsensor 202 einer Sichtlinie entlang der Richtungslinie 1 zu dem Fahrzeug 104a von 2A folgt, ist eine entsprechende Linie eines Sichtsignals minimal, da der Bildsensor 202 nicht direkt auf das zentrale autonome Fahrzeug 104b zeigt, welches das Fahrzeug ist, das die Standortsignale von der Gruppe 104 von autonomen Fahrzeugen in der Nähe aussendet. Ebenso ist eine entsprechende Linie eines Sichtsignals minimal, wenn die elektronische Vorrichtung 102 so ausgerichtet ist, dass der Bildsensor 202 einer Sichtlinie entlang der Richtungslinie 3 zu dem Fahrzeug 104c folgt, da der Bildsensor 202 nicht direkt auf das zentrale autonome Fahrzeug 104b zeigt, das die Standortsignale aussendet. In einem Beispiel kann der Insasse durch eine gesprochene oder grafische Nachricht an der elektronischen Vorrichtung 102 dazu aufgefordert werden, den Bildsensor der elektronischen Vorrichtung 102 in unterschiedliche Richtungen zeigen zu lassen, um eine Bestimmung der stärkeren Linie eines Sichtsignals von erkannten Standortsignalen zu erleichtern. Die stärkere Linie eines Sichtsignals folgt in dem Beispiel von 2A der Richtungslinie 2 zu dem Fahrzeug 104b. Ein Ausrichten der elektronischen Vorrichtung 102, sodass der Bildsensor 202 auf die Richtungslinie 2 zeigt, zeigt den Bildsensor 202 an dem autonomen Fahrzeug 104b, der durch Fernüberwachungs-Backend-System(e) 106 dem vorgesehen Insassen zugeordnet werden soll. Wie durch Darstellungslinie 212 von 2B veranschaulicht ist, erreicht die Linie eines Sichtsignals, die der Richtungslinie 2 folgt, in diesem Beispiel resultierend daraus, dass der Bildsensor direkt so ausgerichtet ist, dass er das zentralste autonome Fahrzeug 104b betrachtet, seinen Höhepunkt. Zur Erzeugung der Darstellungslinie 212 kann die Anwendung, die auf der elektronischen Vorrichtung 102 läuft, die Signalstärke der Standortsignale über den Bildsensor aufnehmen und kann jene Signalstärke innerhalb von geeigneten Zeitintervallen integrieren. Zum Beispiel kann der Bildsensor 202 Strahlung, die das Standortsignal einschließt, in Abhängigkeit von der Zeit aufnehmen, und das Verarbeitungssystem der elektronischen Vorrichtung 102 kann dieses Signal in Abhängigkeit von der Zeit aufzeichnen und gleichzeitig die Ausrichtung der elektronischen Vorrichtung 102 in Abhängigkeit von der Zeit aufzeichnen. Wie zuvor erwähnt ist, kann das Standortsignal zum Beispiel ein spezifiziertes Impulsmuster, Wellenlängenmuster oder beides haben, und das Verarbeitungssystem der elektronischen Vorrichtung kann die aufgenommene Strahlung analysieren, um das erwartete Signalmuster zu erkennen, z. B. durch Verwendung einer Kreuzkorrelation, die beispielsweise einen mathematischen Vergleich der erkannten Strahlung mit der funktionellen Form des erwarteten Signals beinhaltet, oder unter Verwendung von anderen mathematischen Mustererkennungstechniken, die dem Fachmann bekannt sind. Bei Erkennung des Zeitablaufs des Standortsignals kann jene Erkennung mit der Ausrichtung, die in Abhängigkeit von der Zeit aufgezeichnet wurde, in Zusammenhang gebracht werden, um die Ausrichtung auszuwählen, die der stärksten Amplitude der Signalerkennung entspricht. Die Signalstärke des erkannten Signals könnte auch direkt mit der Ausrichtung während des Scanvorgangs in Zusammenhang gebracht werden. Diese Korrelation kann dann dazu verwendet werden, eine Grafik an dem richtigen Standort auf dem Sichtfeld der Oberfläche 106 des Anzeigebildschirms, die dem Fahrzeug entspricht, z. B. 104b, das als die richtige Quelle des erwarteten Standortsignals ausgerichtet ist, darüber zu legen, wie ausführlicher in Verbindung mit 4A bis 4D beschrieben ist.
  • In einem anderen Beispiel kann die Anwendung, die auf der elektronischen Vorrichtung 102 läuft, die Intensität des Standortsignals (z. B. der Darstellungslinie 212) durch Verwendung von Signalen erkennen, die unter der Steuerung von einem oder mehreren geeigneten Wellenlängenfiltern gesammelt werden, die steuerbar in dem Weg von Licht platziert sind, das auf den Bildsensor 202 auftrifft, um so zu erlauben, dass die gewünschten Wellenlängen, die das Standortsignal ausmachen, in Abhängigkeit von der Zeit aufgenommen werden, während die Ausrichtung der elektronischen Vorrichtung 102 gleichzeitig in Abhängigkeit von der Zeit aufgenommen wird. Bei diesem Ansatz kann zum Beispiel ein Bild des Sichtfeldes unter normaler Bildgebung aufgenommen werden, und die Anwendung, die auf der elektronischen Vorrichtung 102 läuft, kann den Benutzer anweisen, das Sichtfeld nach Betätigen von einem oder mehreren gewünschten Farbfilter in das Sichtfeld zu scannen, um die Signalstärke von einem oder mehreren gegebenen Wellenlängen in Abhängigkeit von der Zeit aufzuzeichnen, während die Ausrichtung der elektronischen Vorrichtung 102 auch in Abhängigkeit davon aufgezeichnet wird, um die Signalstärke mit einer Ausrichtung der elektronischen Vorrichtung 102 in Zusammenhang zu bringen. Die Signalstärke des erkannten Signals könnte auch direkt mit der Ausrichtung während des Scanvorgangs in Zusammenhang gebracht werden. Diese Korrelation kann dann durch das Verarbeitungssystem der elektronischen Vorrichtung 102 dazu verwendet werden, eine Grafik an dem richtigen Standort auf dem Sichtfeld der Oberfläche 106 des Anzeigebildschirms, die dem Fahrzeug entspricht, das als die richtige Quelle des erwarteten Standortsignals ausgerichtet ist, z. B. Fahrzeug 104b, zu überlagern, wie ausführlicher in Verbindung mit 4A bis 4D beschrieben ist.
  • 3 veranschaulicht ein veranschaulichendes Rahmenkonzept 300 für einen Ansatz einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß einem anderen Beispiel der Offenbarung. Dieses Beispiel ähnelt dem Beispiel von 1, außer dass in dem Beispiel von 3 genaue Positionsinformationen sowohl für das autonome Fahrzeug als auch den Benutzer, z. B. mindestens basierend auf Daten des Global Positioning System (GPS) und Karteninformationen, die primäre Daten bereitstellen, auf denen die Identifizierung des vorgesehenen autonomen Fahrzeugs basiert. Zum Beispiel bestimmt das autonome Fahrzeug 104b seine eigene Position genau, z. B. innerhalb von etwa 1 Meter oder weniger, basierend auf einem oder mehreren von GPS-Daten, hochauflösenden Karten, die auf das autonome Fahrzeug geladen sind, und LIDAR, das an dem autonomen Fahrzeug angebracht ist. Herkömmliche Ansätze, die im Stand der Technik bekannt sind, um genaue Positionen von autonomen Fahrzeugen unter Nutzung von GPS-Daten, hochauflösenden Karten, die auf das autonome Fahrzeug geladen sind, und LIDAR, das an dem autonomen Fahrzeug angebracht ist, zu identifizieren, können in dieser Hinsicht genutzt werden. Ebenso wird die Position der elektronischen Vorrichtung 102 des Benutzers ähnlich genau, z. B. bis zu innerhalb von 1 Meter oder weniger, unter Verwendung von GPS-Daten und Informationen von hochauflösenden Karten, auf die durch die elektronische Vorrichtung 102 zugegriffen wird, z. B. unter Verwendung von herkömmlichen Ansätzen, bestimmt, die dem Fachmann bekannt sind. Darüber hinaus kann die elektronische Vorrichtung 102 ihre absolute Ausrichtung mit einer Kombination von Trägheitssensordaten und Kompasstechnologie bestimmen, wie herkömmlicherweise bekannt ist. Mit diesen Informationen kann die elektronische Vorrichtung, wie unten erläutert ist, einen Benutzer über eine visuelle Anweisung, eine Audioanweisung oder beides dazu auffordern, die elektronische Vorrichtung auf einen punktgenauen Standort zeigen zu lassen, der das vorgesehene autonome Fahrzeug identifiziert. In anderer Hinsicht ähnelt 3 1, und die vorherige Erläuterung in Bezug auf 1-2 ist gleichermaßen auf das Beispiel von 3 anwendbar. Somit sind für 3, wo anwendbar, dieselben Bezugszeichen wie in 1 beibehalten worden.
  • Wie in 3 gezeigt ist, kann ein Insasse ähnlich wie in 1 eine geeignete Anwendung nutzen, die auf einer elektronischen Vorrichtung 102 installiert ist, um ein autonomes Fahrzeug aus einem Pool von autonomen Fahrzeugen anzufordern. Eine Interaktion zwischen dem Insassen und der elektronischen Vorrichtung 102 kann über eine grafische Benutzeroberfläche 106 der elektronischen Vorrichtung 102 erfolgen. Die elektronische Vorrichtung 102 kann die Anfrage an eines oder mehrere Fernüberwachungs-Backend-Systeme 108 über ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110, wie das Internet, senden. Das/Die Fernüberwachungs-Backend-System(e) 108 ist wie die/das in 1 beschriebene.
  • Wenn das autonome Fahrzeug 104b innerhalb einer gewünschten Nähe des Standorts des vorgesehenen Insassen angekommen ist, kann der Insasse über eine drahtlose Kommunikation mit der elektronischen Vorrichtung 102, z. B. entweder von dem autonomen Fahrzeug selbst oder von dem Backendsystem 108, darauf aufmerksam gemacht werden. Ein Insasse kann dann entweder durch eine visuelle Anweisung, eine Audioanweisung oder beides an der elektronischen Vorrichtung 102 dazu aufgefordert werden, die elektronische Vorrichtung 102 mit dem Bildsensor 202 zu einem festgelegten Bereich zeigen zu lassen, in dem sich das autonome Fahrzeug befindet. Zum Beispiel können der Standort und die Ausrichtung der elektronischen Vorrichtung dem Backendsystem 108 oder dem autonomen Fahrzeug 104b kommuniziert werden, und eines jener Systeme kann den Benutzer dazu anweisen, die elektronische Vorrichtung 102 entweder nach links oder nach rechts neu auszurichten, bis die richtige Sichtlinienausrichtung mit dem punktgenauen Standort des autonomen Fahrzeugs 104b erreicht ist. Zusätzlich kann die elektronische Vorrichtung 102 eine Funktionalität aufweisen, sodass, wenn sie den punktgenauen Standort des vorgesehenen Fahrzeugs über das drahtlose und/oder drahtgebundene Kommunikationsnetz 110 empfängt, der punktgenaue Standort mit dem aufgenommenen Bild in Zusammenhang gebracht wird, das dem Insassen auf der grafischen Benutzeroberfläche 106 der elektronischen Vorrichtung 102 angezeigt wird. Mit der vorgesehenen Korrelation des autonomen Fahrzeugs mit dem Bild auf der grafischen Benutzeroberfläche 106 kann das autonome Fahrzeug von dem Insassen über eine Angabe identifiziert werden, wie hierin weiter beschrieben wird.
  • 4A bis 4D veranschaulichen veranschaulichende Angaben eines autonomen Fahrzeugs gemäß Beispielen der Offenbarung. Eine Angabe an den vorgesehenen Insassen des jeweils zugeordneten autonomen Fahrzeugs kann durch den Insassen über die grafische Benutzeroberfläche 106 leicht angepasst werden. Zum Beispiel kann die Angabe eine oder mehrere geometrische Anmerkungen 402 sein, wie in 4A veranschaulicht ist, wie ein Pfeil, der durch einen Text begleitet ist, der besagt: „IHRE FAHRGELEGENHEIT“. In einem anderen Beispiel kann die Angabe farblich oder in Graustufe, z. B. mit einer farblichen oder Graustufenanmerkung 404, wie in 4B veranschaulicht ist, schattiert und/oder hervorgehoben werden. In noch einem anderen Beispiel kann die Angabe eine geometrische Anmerkung 406 sein, wie ein Kreis um das autonome Fahrzeug, wie in 4C veranschaulicht ist. 4D veranschaulicht eine andere beispielhafte Angabe eines über dem autonomen Fahrzeug liegenden Bildes 408. Das überlagerte Bild 408 kann das Gesicht des vorgesehenen Insassen oder eine Comicfigur sein.
  • 5 ist ein Flussdiagramm 500 eines veranschaulichenden Ansatzes einer Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs gemäß Beispielen der Offenbarung. Wie bei 502 gezeigt ist, wird einem Fernüberwachungs-Backend-System 108 eine Anfrage nach einem autonomen Fahrzeug durch die elektronische Vorrichtung 102 bereitgestellt, zum Beispiel über eine Benutzereingabe in eine Anwendung, die auf der elektronischen Vorrichtung 102 installiert ist. Die elektronische Vorrichtung 102 kann bei 504 ein erstes Signal empfangen, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet. Das Signal kann ein Standortsignal von dem autonomen Fahrzeug einschließen, das zum Beispiel schnell pulsierende Fahrzeugaußenlichter mit einer spezifizierten Frequenz oder in einem spezifizierten Muster einschließen kann, die zur Erkennung vorgesehen sind. Die Impulse können, obwohl sie des Spektrums des sichtbaren Lichts sind, mit einer Frequenz pulsieren, die zu hoch ist, um von dem Insassen visuell als pulsierend oder flackernd empfunden zu werden. Das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug können auch Impulse von Licht des nicht sichtbaren Spektrums sein, wie Laserlicht, das von einer LIDAR-Vorrichtung ausgesendet wird, die an dem autonomen Fahrzeug befestigt ist. Das eine oder die mehreren Standortsignale von jedem autonomen Fahrzeug können aus einer Spektralverschiebung von Lichtfarben bestehen, z. B. einem gepulsten Muster, wobei unterschiedliche Wellenlängen beteiligt sind.
  • Eine Kommunikation unter Verwendung von WLAN- und/oder Bluetooth-Signalen kann auch zum Kommunizieren von zusätzlichen Identifizierungsinformationen des vorgesehenen der Fahrzeuge 104 zwischen einem solchen Fahrzeug und der elektronischen Vorrichtung 102, z. B. über Textnachrichten oder andere geeignete Nachrichten, verwendet werden. Der vorgesehene Insasse kann bei 506 durch die elektronische Vorrichtung 102 dazu aufgefordert werden, einen Bildsensor 202 auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten. Zum Beispiel kann der vorgesehene Insasse durch Empfangen einer Textnachricht, eines Telefonanrufs, einer Popup-Benachrichtigung, eines Videoanrufs und/oder eines akustischen Alarms oder einer Sprachnachricht auf der elektronischen Vorrichtung 102 aufgefordert werden. Der Bildsensor 202 bildet bei 508 den für das autonome Fahrzeug festgelegten Bereich ab. Zum Beispiel kann der Benutzer durch die elektronische Vorrichtung über eine beliebige geeignete akustische oder grafische Nachricht oder Angabe, wie zuvor beschrieben ist, dazu aufgefordert werden, die elektronische Vorrichtung 102 in eine Richtung zeigen zu lassen, die dem festgelegten Bereich entspricht, in dem das vorgesehene Fahrzeug 104b erwartet wird, z. B. basierend auf bekannten GPS-Standortinformationen sowohl der elektronischen Vorrichtung 102 als auch des vorgesehenen Fahrzeugs 104b und basierend auf Richtungs- (Ausrichtung-)Informationen, die an der elektronischen Vorrichtung 102 über ihre Trägheitssensoren und ihre herkömmliche Kompassfunktionalität bekannt sind. Das Verarbeitungssystem kann gesammelte Standortsignaldaten in Abhängigkeit von der Ausrichtung verarbeiten, wie in den Beispielen oben beschrieben ist, um die Ausrichtung der elektronischen Vorrichtung zu bestimmen, die dem stärksten Standortsignal entspricht, und kann bestimmen, dass das Fahrzeug 104b die Quelle des Standortsignals ist und das vorgesehene Fahrzeug 104b ist. Bei 510 wird eine visuelle Darstellung des abgebildeten festgelegten Bereichs auf der grafischen Benutzeroberfläche 106 erzeugt und auf dem Anzeigebildschirm der elektronischen Vorrichtung 102 angezeigt. Das autonome Fahrzeug wird bei 512 durch die elektronische Vorrichtung 102 innerhalb der erzeugten visuellen Darstellung, z. B. über eine geeignete grafische Angabeeinrichtung, identifiziert, wie in 4A bis 4D gezeigt ist. Zum Beispiel kann die Angabeeinrichtung eine oder mehrere geometrische Anmerkungen 402 sein, wie in 4A veranschaulicht ist, wie ein Pfeil, der durch einen Text begleitet ist, der besagt: „IHRE FAHRGELEGENHEIT“. In einem anderen Beispiel kann die Angabe mit einer Farbe, z. B. mit einer farblichen Anmerkung 404, wie in 4B veranschaulicht ist, schattiert und/oder hervorgehoben werden. In noch einem anderen Beispiel kann die Angabe eine geometrische Anmerkung 406 sein, wie ein Kreis um das autonome Fahrzeug, wie in 4C veranschaulicht ist. 4D veranschaulicht eine andere beispielhafte Angabe eines über dem autonomen Fahrzeug liegenden Bildes 408. Das überlagerte Bild 408 kann das Gesicht des vorgesehenen Insassen oder eine Comicfigur sein.
  • Die hierin beschriebenen Verfahren und Systeme können unter Verwendung eines beliebigen geeigneten Computerverarbeitungssystems mit einer beliebigen geeigneten Kombination von Hardware, Software und/oder Firmware umgesetzt werden. Wie in 1 und 3 gezeigt ist, können Einheiten, die den Pool von autonomen Fahrzeugen 104 steuern, mit dem Fernüberwachungs-Backend-System 106 interagieren, das auf einem oder mehreren Computerservern über ein drahtloses und/oder drahtgebundenes Kommunikationsnetz 110 gehostet ist. Das Computerverarbeitungssystem 112 kann Softwarevorgänge, Programmanweisungen oder Abläufe ausführen, um oben beschriebene Berechnungen und Analysen umzusetzen. Solche Programmanweisungen, angesammelten Daten und verarbeitete Daten können auf einem oder mehreren nichtflüchtigen computerlesbaren Speichern 114 und/oder einem oder mehreren Datenspeichern zur Verwendung in Datenbanken 116 gespeichert werden. Kommunikationen können gemäß einer Client-Server-Architektur durchgeführt werden, wobei Insassen und autonome Fahrzeuge 104 auf das Fernüberwachungs-Backend-System 108 über einen oder mehrere Server über eines oder mehrere drahtlose und/oder drahtgebundene Kommunikationsnetze 110 zugreifen können.
  • Die Systeme können Elementverwaltungseinrichtungen, Echtzeitdatenpuffer, Übertragungseinrichtungen, Dateieingabeprozessoren, Datenbankindizes, Datenpuffer und Datenverwaltungseinrichtungen zum Verwalten von Daten und Verarbeiten einschließen. Das/Die Fernüberwachungs-Backend-System(e) 108 kann/können auch mehrere Anzeigen, Anzeigeoberflächen, Eingabe-/Ausgabevorrichtungen, wie Tastaturen, Mikrofone, Mäuse, Berührungsbildschirme und dergleichen, einschließen, um Administratoren oder Supportmitarbeitern zu erlauben, das/die Fernüberwachungs-Backend-System(e) 108 zu verwalten.
  • Diese schriftliche Beschreibung beschreibt veranschaulichende Ausführungsformen, aber auch andere Variationen fallen in den Schutzumfang der Offenbarung. Zum Beispiel können die Systeme und Verfahren Datensignale einschließen und nutzen, die über Netzwerke (z. B. ein Local Area Network, Wide Area Network, Internet, Kombinationen davon usw.), Glasfasermedium, Trägerwellen, drahtlose Netzwerke usw. zur Kommunikation mit einer oder mehreren Datenverarbeitungsvorrichtungen übertragen werden. Die Datensignale können beliebige oder alle der hierin offenbarten Daten tragen, die einer Vorrichtung oder von ihr bereitgestellt werden.
  • Die hierin beschriebenen Verfahren und Systeme können auf vielen unterschiedlichen Arten von Verarbeitungsvorrichtungen durch einen Programmcode umgesetzt werden, der Programmanweisungen umfasst, die durch das Vorrichtungsverarbeitungssystem ausführbar sind. Die Softwareprogrammanweisungen können einen Quellcode, Objektcode, Maschinencode oder beliebige andere gespeicherte Daten einschließen, die dazu geeignet sind, zu bewirken, dass ein Verarbeitungssystem die hierin beschriebenen Verfahren und Vorgänge durchführt. Beliebige geeignete Computersprachen können verwendet werden, wie C, C++, Java usw., wie für den Fachmann ersichtlich ist. Andere Umsetzungsformen können jedoch auch verwendet werden, wie Firmware oder sogar geeignet gestaltete Hardware, die dazu konfiguriert sind, die hierin beschriebenen Verfahren und Systeme auszuführen.
  • Die Daten der Systeme und Verfahren (z. B. Zuordnungen, Abbildungen, Dateneingabe, Datenausgabe, Zwischendatenergebnisse, Enddatenergebnisse usw.) können in einer oder mehreren unterschiedlichen Arten von computerimplementierten Datenspeichern gespeichert und umgesetzt werden, wie unterschiedliche Arten von Speichervorrichtungen und Programmiermodulen (z. B. RAM, ROM, Flash-Speicher, Flatfiles, Datenbanken, Programmierdatenstrukturen, Programmiervariablen, WENN-DANN-Aussagemodule (oder ähnlicher Art) usw.). Es wird darauf hingewiesen, dass Datenstrukturen Formate zur Verwendung beim Organisieren und Speichern von Daten in Datenbanken, Programmen, Speichern oder anderen nichtflüchtigen computerlesbaren Medien zur Verwendung durch ein Computerprogramm beschreiben.
  • Die hierin beschriebenen Computerkomponenten, Softwaremodule, Funktionen, Datenspeicher und Datenstrukturen können direkt oder indirekt miteinander verbunden sein, um den für ihre Vorgänge notwendigen Datenfluss zu erlauben. Es wird auch darauf hingewiesen, dass ein Modul oder Prozessor eine Codeeinheit einschließt, die einen Softwarevorgang durchführt, aber nicht darauf beschränkt ist, und zum Beispiel als eine Subroutine von Code oder als eine Codesoftwarefunktionseinheit oder als ein Objekt (wie in einem objektausgerichteten Paradigma) oder als ein Applet oder in einer Computerskriptsprache oder als eine andere Art von Computercode umgesetzt sein kann. Die Softwarekomponenten und/oder Funktionalität können je nach bestehender Situation auf einem einzigen Computer oder über mehrere Computer verteilt angeordnet sein.
  • Es versteht sich, dass, wie in der Beschreibung hierin und durchgehend in den folgenden Ansprüchen verwendet, die Bedeutung von „ein“, „eine“, „einer“, „eines“ und „der/die/das“ die Pluralreferenz einschließt, sofern der Kontext nicht eindeutig etwas anderes vorgibt. Es versteht sich auch, dass, wie in der Beschreibung hierin und in den folgenden Ansprüchen verwendet, die Bedeutung von „in“, sowohl „in“ als auch „auf” einschließt, sofern der Kontext nicht eindeutig etwas anderes vorgibt. Zusätzlich schließen die Bedeutungen von „und“ und „oder“, wie in der Beschreibung hierin und durchgehend in den folgenden Ansprüchen verwendet, sowohl die Adjunktion als auch die Disjunktion ein und können austauschbar verwendet werden, sofern der Kontext nicht ausdrücklich etwas anderes vorgibt; der Ausdruck „ausschließlich oder“ kann verwendet werden, um eine Situation anzugeben, in der nur die disjunkte Bedeutung gelten darf. Außerdem bezieht sich, wie in der Beschreibung hierin und in den folgenden Ansprüchen verwendet, die Bedeutung von „etwa“ und/oder „ungefähr“ auf ± 10 % der angegebenen Menge, sofern nicht anders angegeben.
  • Obwohl der offenbarte Gegenstand in Bezug auf veranschaulichende Ausführungsformen beschrieben worden ist, versteht es sich für den Fachmann, dass verschiedene Modifikationen daran vorgenommen werden können, ohne von dem Schutzumfang des beanspruchten Gegenstands, wie er in den Ansprüchen dargelegt ist, abzuweichen.

Claims (20)

  1. Verfahren zur Augmented-Reality-Erkennung zum Lokalisieren eines bestimmten autonomen Fahrzeugs, wobei das Verfahren umfasst: Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server; Empfangen eines ersten Signals durch die elektronische Vorrichtung, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet; Auffordern des Insassen durch die elektronische Vorrichtung, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten; Abbilden des für das autonome Fahrzeug festgelegten Bereichs durch den Bildsensor; Erzeugen einer visuellen Darstellung des abgebildeten festgelegten Bereichs auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung durch die elektronische Vorrichtung; und Identifizieren des autonomen Fahrzeugs innerhalb der erzeugten visuellen Darstellung durch die elektronische Vorrichtung.
  2. Verfahren nach Anspruch 1, wobei das Abbilden ein Scannen des festgelegten Bereichs mit dem Bildsensor einschließt und das Verfahren ferner umfasst: Bestimmen einer Ausrichtung der elektronischen Vorrichtung basierend auf Daten von einem Trägheitssensor innerhalb der elektronischen Vorrichtung während eines Scannens; Empfangen eines zweiten Signals von dem autonomen Fahrzeug während des Scannens durch die elektronische Vorrichtung, wobei das zweite Signal eine Linie eines Sichtsignals zwischen dem autonomen Fahrzeug und der elektronischen Vorrichtung ist; und Verarbeiten des zweiten Signals in Abhängigkeit von dem Scannen zur Verwendung bei dem Identifizieren des autonomen Fahrzeugs durch die elektronische Vorrichtung.
  3. Verfahren nach Anspruch 2, wobei das Verarbeiten des zweiten Signals ein Aufzeichnen einer Stärke des zweiten Signals in Abhängigkeit von dem Scannen einschließt, um einen Vektor zwischen der elektronischen Vorrichtung und dem autonomen Fahrzeug zu identifizieren.
  4. Verfahren nach Anspruch 1, ferner umfassend: Empfangen eines globalen Positionierungssignals von einem oder mehreren Satelliten durch das autonome Fahrzeug; Bestimmen einer Position des autonomen Fahrzeugs innerhalb von etwa einem Meter über eines oder mehrere von dem globalen Positionierungssignal, hochauflösenden Karten, die auf das autonome Fahrzeug geladen sind, gescannten Informationen, die durch das autonome Fahrzeug erhalten werden, oder abgebildeten Informationen, die durch das autonome Fahrzeug erhalten werden, durch das autonome Fahrzeug; und Bereitstellen des festgelegten Bereichs an den entfernten Server oder die elektronische Vorrichtung durch das autonome Fahrzeug, wobei der festgelegte Bereich die Position einschließt und die elektronische Vorrichtung die hochauflösenden Karten einschließt.
  5. Verfahren nach Anspruch 1, ferner umfassend: Auswählen des autonomen Fahrzeugs aus einem Pool von autonomen Fahrzeugen durch den entfernten Server; und Bereitstellen der Anfrage an das autonome Fahrzeug durch den entfernten Server.
  6. Verfahren nach Anspruch 1, wobei ein Identifizieren des autonomen Fahrzeugs ein Anzeigen einer Angabe auf einer Anzeige der elektronischen Vorrichtung einschließt, die das autonome Fahrzeug durch mindestens eines von einem Überlagern eines Bildes des autonomen Fahrzeugs, Hervorheben des autonomen Fahrzeugs mit einer geometrischen Anmerkung oder Hervorheben des autonomen Fahrzeugs mit einer farblichen Anmerkung hervorhebt.
  7. Verfahren nach Anspruch 1, wobei der festgelegte Bereich ein Hindernis einschließt, das mindestens einen Abschnitt des autonomen Fahrzeugs verdeckt.
  8. Verfahren nach Anspruch 1, wobei das erste Signal ein WLAN-Signal, ein Bluetooth-Signal oder ein pulsierendes Laserlicht einschließt.
  9. Verfahren nach Anspruch 1, ferner umfassend ein Bereitstellen eines Zugangs zu dem autonomen Fahrzeug für den Insassen über eine Zugangstaste auf der grafischen Benutzeroberfläche der elektronischen Vorrichtung.
  10. System zum Lokalisieren von autonomen Fahrzeugen, das System umfassend: ein Computerverarbeitungssystem; und einen Computerspeicher, wobei das Computerverarbeitungssystem dazu konfiguriert ist, Schritte auszuführen, die einschließen: Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server; Empfangen eines ersten Signals durch die elektronische Vorrichtung, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet; Auffordern des Insassen durch die elektronische Vorrichtung, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten; Abbilden des für das autonome Fahrzeug festgelegten Bereichs durch den Bildsensor; Erzeugen einer visuellen Darstellung des abgebildeten festgelegten Bereichs auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung durch die elektronische Vorrichtung; und Identifizieren des autonomen Fahrzeugs innerhalb der erzeugten visuellen Darstellung durch die elektronische Vorrichtung.
  11. System nach Anspruch 10, wobei das Abbilden ein Scannen des festgelegten Bereichs mit dem Bildsensor einschließt und die Schritte ferner umfassen: Bestimmen einer Ausrichtung der elektronischen Vorrichtung basierend auf Daten von einem Trägheitssensor innerhalb der elektronischen Vorrichtung während eines Scannens; Empfangen eines zweiten Signals von dem autonomen Fahrzeug während des Scannens durch die elektronische Vorrichtung, wobei das zweite Signal eine Linie eines Sichtsignals zwischen dem autonomen Fahrzeug und der elektronischen Vorrichtung ist; und Verarbeiten des zweiten Signals in Abhängigkeit von dem Scannen zur Verwendung bei dem Identifizieren des autonomen Fahrzeugs durch die elektronische Vorrichtung.
  12. System nach Anspruch 11, wobei das Verarbeiten des zweiten Signals ein Aufzeichnen einer Stärke des zweiten Signals in Abhängigkeit von dem Scannen einschließt, um einen Vektor zwischen der elektronischen Vorrichtung und dem autonomen Fahrzeug zu identifizieren.
  13. System nach Anspruch 10, ferner umfassend: Empfangen eines globalen Positionierungssignals von einem oder mehreren Satelliten durch das autonome Fahrzeug; Bestimmen einer Position des autonomen Fahrzeugs innerhalb von etwa einem Meter über eines oder mehrere von dem globalen Positionierungssignal, hochauflösenden Karten, die auf das autonome Fahrzeug geladen sind, gescannten Informationen, die durch das autonome Fahrzeug erhalten werden, oder abgebildeten Informationen, die durch das autonome Fahrzeug erhalten werden, durch das autonome Fahrzeug; und Bereitstellen des festgelegten Bereichs an den entfernten Server oder die elektronische Vorrichtung durch das autonome Fahrzeug, wobei der festgelegte Bereich die Position einschließt und die elektronische Vorrichtung die hochauflösenden Karten einschließt.
  14. System nach Anspruch 10, ferner umfassend: Auswählen des autonomen Fahrzeugs aus einem Pool von autonomen Fahrzeugen durch den entfernten Server; und Bereitstellen der Anfrage an das autonome Fahrzeug durch den entfernten Server.
  15. System nach Anspruch 10, wobei ein Identifizieren des autonomen Fahrzeugs ein Anzeigen einer Angabe auf einer Anzeige der elektronischen Vorrichtung einschließt, die das autonome Fahrzeug durch mindestens eines von einem Überlagern eines Bildes des autonomen Fahrzeugs, Hervorheben des autonomen Fahrzeugs mit einer geometrischen Anmerkung oder Hervorheben des autonomen Fahrzeugs mit einer farblichen Anmerkung hervorhebt.
  16. System nach Anspruch 10, wobei der festgelegte Bereich ein Hindernis einschließt, das mindestens einen Abschnitt des autonomen Fahrzeugs verdeckt.
  17. System nach Anspruch 10, wobei das erste Signal ein WLAN-Signal, ein Bluetooth-Signal oder ein pulsierendes Laserlicht einschließt.
  18. System nach Anspruch 10, ferner umfassend ein Bereitstellen eines Zugangs zu dem autonomen Fahrzeug für den Insassen über eine Zugangstaste auf der grafischen Benutzeroberfläche der elektronischen Vorrichtung.
  19. Nichtflüchtiges computerlesbares Medium, umfassend: Programmanweisungen zum Lokalisieren von autonomen Fahrzeugen, wobei die Programmanweisungen bei Ausführung bewirken, dass ein Computerverarbeitungssystem Schritte ausführt, die einschließen: Bereitstellen einer Anfrage nach einem autonomen Fahrzeug durch eine elektronische Vorrichtung an einen entfernten Server; Empfangen eines ersten Signals durch die elektronische Vorrichtung, das angibt, dass sich das autonome Fahrzeug innerhalb einer für einen vorgesehenen Insassen zugänglichen Reichweite befindet; Auffordern des Insassen durch die elektronische Vorrichtung, einen Bildsensor der elektronischen Vorrichtung auf einen festgelegten Bereich der zugänglichen Reichweite auszurichten; Abbilden des für das autonome Fahrzeug festgelegten Bereichs durch den Bildsensor; Erzeugen einer visuellen Darstellung des abgebildeten festgelegten Bereichs auf einer grafischen Benutzeroberfläche der elektronischen Vorrichtung durch die elektronische Vorrichtung; und Identifizieren des autonomen Fahrzeugs innerhalb der erzeugten visuellen Darstellung durch die elektronische Vorrichtung.
  20. Nichtflüchtiges computerlesbares Medium nach Anspruch 19, wobei die Schritte ferner ein Bereitstellen eines Zugangs zu dem autonomen Fahrzeug für den Insassen über eine Zugangstaste auf der grafischen Benutzeroberfläche der elektronischen Vorrichtung einschließen.
DE102021201774.6A 2020-03-05 2021-02-25 Augmented-Reality-Erkennung zum Lokalisieren von autonomen Fahrzeugen Pending DE102021201774A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/810,652 US11263787B2 (en) 2020-03-05 2020-03-05 Augmented reality detection for locating autonomous vehicles
US16/810,652 2020-03-05

Publications (1)

Publication Number Publication Date
DE102021201774A1 true DE102021201774A1 (de) 2021-09-09

Family

ID=77388804

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021201774.6A Pending DE102021201774A1 (de) 2020-03-05 2021-02-25 Augmented-Reality-Erkennung zum Lokalisieren von autonomen Fahrzeugen

Country Status (3)

Country Link
US (2) US11263787B2 (de)
CN (1) CN113361316A (de)
DE (1) DE102021201774A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3403146A4 (de) * 2016-01-15 2019-08-21 iRobot Corporation Autonome überwachungsrobotersysteme

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US8326228B2 (en) * 2008-12-19 2012-12-04 At&T Mobility Ii Llc Headset locator device
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
MY173040A (en) * 2010-03-30 2019-12-20 Ns Solutions Corp Information processing apparatus, system, vacant space guidance method and program
JP6065370B2 (ja) * 2012-02-03 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9852381B2 (en) * 2012-12-20 2017-12-26 Nokia Technologies Oy Method and apparatus for providing behavioral pattern generation for mixed reality objects
US9959674B2 (en) * 2013-02-26 2018-05-01 Qualcomm Incorporated Directional and X-ray view techniques for navigation using a mobile device
US9041741B2 (en) * 2013-03-14 2015-05-26 Qualcomm Incorporated User interface for a head mounted display
CN105103198A (zh) * 2013-04-04 2015-11-25 索尼公司 显示控制装置、显示控制方法以及程序
US10217284B2 (en) * 2013-09-30 2019-02-26 Qualcomm Incorporated Augmented virtuality
US10802582B1 (en) * 2014-04-22 2020-10-13 sigmund lindsay clements Eye tracker in an augmented reality glasses for eye gaze to input displayed input icons
CN104471519B (zh) * 2014-06-16 2020-09-25 华为技术有限公司 移动终端中呈现全景照片的方法和装置、以及移动终端
US20160140868A1 (en) * 2014-11-13 2016-05-19 Netapp, Inc. Techniques for using augmented reality for computer systems maintenance
US20160358383A1 (en) * 2015-06-05 2016-12-08 Steffen Gauglitz Systems and methods for augmented reality-based remote collaboration
US10019837B2 (en) * 2016-05-31 2018-07-10 Microsoft Technology Licensing, Llc Visualization alignment for three-dimensional scanning
WO2017222997A1 (en) * 2016-06-20 2017-12-28 Magic Leap, Inc. Augmented reality display system for evaluation and modification of neurological conditions, including visual processing and perception conditions
US10078916B2 (en) * 2016-07-01 2018-09-18 Invia Robotics, Inc. Pick to augmented reality
EP3321892A1 (de) * 2016-11-10 2018-05-16 Gemalto Sa Physischer schlüssel zur bereitstellung einer kommunikationsvorrichtung mit daten zur ermöglichung des zugriffs auf eine fahrzeugressource
US9841814B1 (en) * 2017-01-27 2017-12-12 Emergent AR Platforms Corp. Intentional user experience
WO2018160080A1 (en) * 2017-03-02 2018-09-07 Motorola Solutions, Inc. Method and apparatus for gathering visual data using an augmented-reality application
US11120264B2 (en) 2017-06-02 2021-09-14 Apple Inc. Augmented reality interface for facilitating identification of arriving vehicle
US20190073111A1 (en) * 2017-09-05 2019-03-07 Future Mobility Corporation Limited Methods and systems using a rotatable three-dimensional object providing visual user information on a display
US11173798B2 (en) * 2018-02-12 2021-11-16 Ford Global Technologies, Llc Systems and methods for vehicle wireless charging
US10546169B2 (en) * 2018-03-22 2020-01-28 Hall Labs Llc Augmented reality navigation system
US10318811B1 (en) * 2018-04-22 2019-06-11 Bubbler International Llc Methods and systems for detecting objects by non-visible radio frequencies and displaying associated augmented reality effects
US10809081B1 (en) * 2018-05-03 2020-10-20 Zoox, Inc. User interface and augmented reality for identifying vehicles and persons
KR102627612B1 (ko) * 2019-02-19 2024-01-22 삼성전자주식회사 증강현실을 이용한 주변 정보 표시 방법 및 그 전자 장치
US11598643B2 (en) * 2019-03-26 2023-03-07 Snap Inc. Augmented reality guidance interface
US10726631B1 (en) * 2019-08-03 2020-07-28 VIRNECT inc. Augmented reality system and method with frame region recording and reproduction technology based on object tracking

Also Published As

Publication number Publication date
US20220092829A1 (en) 2022-03-24
CN113361316A (zh) 2021-09-07
US11263787B2 (en) 2022-03-01
US20210279913A1 (en) 2021-09-09

Similar Documents

Publication Publication Date Title
DE102010038341B4 (de) Videoüberwachungssystem sowie Verfahren zur Konfiguration eines Videoüberwachungssystems
DE3132590C2 (de)
DE102004059129A1 (de) Fahrzeug-Anzeigesystem
EP2478510A1 (de) Verfahren und vorrichtung zur darstellung von hindernissen in einem einparkhilfesystem von kraftfahrzeugen
DE102008046038A1 (de) Anzeigevorrichtung
DE102018212655A1 (de) Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
DE102020129096A1 (de) Erzeugung dreidimensionaler punktwolken mittels einer polarimetrischen kamera in einem mit einem fahrassistenzsystem ausgestatteten fahrzeug
WO2015028294A1 (de) Überwachungsanlage sowie verfahren zur darstellung eines überwachungsbereichs
DE102018213268A1 (de) Verfahren zur anwendung in einem fahrzeug
DE102006006001B3 (de) Verfahren und Anordnung zum Einblenden ortsbezogener Informationen in eine visuelle Darstellung oder Ansicht einer Szene
DE102021201774A1 (de) Augmented-Reality-Erkennung zum Lokalisieren von autonomen Fahrzeugen
WO2019091725A1 (de) Verfahren und anzeigegerät zum führen einer arbeitsmaschine
DE60033210T2 (de) Vorrichtung zur Übertragung von digitalen Videobildern
EP2732242A1 (de) Verfahren und vorrichtung zur schritterkennung eines fussgängers für ein tragbares endgerät
DE102016210056A1 (de) Kameraanordnung zur Bestimmung des optischen Flusses, Fahrassistenzsystem und Überwachungskamera mit der Kameraanordnung
DE102019102672A1 (de) Intersensorisches lernen
DE102019116006A1 (de) Verfahren und vorrichtung zur objekterkennung in kamera-toträumen
DE102010034127A1 (de) Verfahren zum Anzeigen von Bildern auf einer Anzeigeeinrichtung in einem Kraftfahrzeug, Fahrerassistenzsystem und Kraftfahrzeug
DE102017117212A1 (de) System und Verfahren zur Stereotriangulation
DE19828318C2 (de) Drahthervorhebung
DE102007001738B4 (de) Verfahren und Computerprogrammprodukt zur Blickerfassung
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
WO2020043461A1 (de) Verfahren und anordnung zum erzeugen einer umgebungsrepräsentation eines fahrzeugs und fahrzeug mit einer solchen anordnung
DE102019105778A1 (de) Verfahren zur Klassifizierung von Objekten innerhalb eines Kraftfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed