DE112017006531T5 - Ferngesteuerter virtual-reality-parkdienst - Google Patents

Ferngesteuerter virtual-reality-parkdienst Download PDF

Info

Publication number
DE112017006531T5
DE112017006531T5 DE112017006531.3T DE112017006531T DE112017006531T5 DE 112017006531 T5 DE112017006531 T5 DE 112017006531T5 DE 112017006531 T DE112017006531 T DE 112017006531T DE 112017006531 T5 DE112017006531 T5 DE 112017006531T5
Authority
DE
Germany
Prior art keywords
vehicle
processor
camera
signal
remote control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017006531.3T
Other languages
English (en)
Inventor
Natalie Muenster
Ravin Ratnakant Sardal
Alexandru Mihai Gurghian
Parsa Mahmoudieh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE112017006531T5 publication Critical patent/DE112017006531T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Die Offenbarung stellt einen ferngesteuerten Virtual-Reality-Parkdienst bereit. Techniken und Beispiele bezüglich eines ferngesteuerten Virtual-Reality-Parkdienstes werden beschrieben. Ein Prozessor eines Steuersystems eines Fahrzeugs stellt eine drahtlose Kommunikation mit einer Fernsteuerung her. Der Prozessor kann eine Folge von Videobildern, die durch eine Kamera des Fahrzeugs aufgenommen werden, für die Fernsteuerung bereitstellen. Der Prozessor kann ein Signal von der Fernsteuerung empfangen. Der Prozessor kann das Fahrzeug manövrieren, damit es sich gemäß dem Signal von einem Standort zu einem anderen bewegt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft im Allgemeinen autonome Fahrzeuge und insbesondere einen ferngesteuerten Virtual-Reality-Parkdienst.
  • STAND DER TECHNIK
  • Durch den stetig zunehmenden Fahrzeugbesitz und die entsprechende Anzahl von verwendeten Fahrzeugen, ist das Parken ein Problem für viele Fahrzeugfahrer geworden. Zu einigen der häufigen Parkprobleme gehören zum Beispiel inadäquate Informationen für Fahrer, ineffiziente Verwendung der existierenden Parkkapazität, übermäßige Fahrzeugverwendung, ungünstige Parklücken, ungünstige Parkoptionen, verwirrende Parkregeln, Fehlen von ausreichend Parkraum bei Veranstaltungsorten und geringe Parkfluktuationsraten. Als ein Ergebnis neigen viele Fahrzeugfahrer dazu, Zeit für die Suche nach Parkplätzen zu verschwenden. Darüber hinaus können Verkehrsstaus entstehen oder verschlimmert werden, da Fahrzeugfahrer beim Suchen nach einer Parklücke Fahrzeuge fahren.
  • Figurenliste
  • Nicht einschränkende und nicht erschöpfende Ausführungsformen der vorliegenden Offenbarung werden in Bezug auf die folgenden Figuren beschrieben, wobei sich in den verschiedenen Figuren gleiche Bezugszeichen auf gleiche Teile beziehen, sofern nicht anderweitig angegeben.
    • 1 ist eine Darstellung, die ein beispielhaftes Szenario darstellt, in dem Ausführungsformen gemäß der vorliegenden Offenbarung verwendet werden können.
    • 2 ist ein Blockdiagramm, das eine beispielhafte Einrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt.
    • 3 ist ein Ablaufdiagramm, das einen beispielhaften Prozess gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt.
    • 4 ist ein Ablaufdiagramm, das einen beispielhaften Prozess gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt.
  • DETAILLIERTE BESCHREIBUNG
  • In der folgenden Beschreibung wird auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen durch Veranschaulichung konkrete beispielhafte Ausführungsformen gezeigt werden, in denen die Offenbarung umgesetzt werden kann. Diese Ausführungsformen werden mit ausreichender Genauigkeit beschrieben, um es dem Fachmann zu ermöglichen, die hier offenbarten Konzepte umzusetzen, und es versteht sich, dass Modifizierungen der verschiedenen offenbarten Ausführungsformen vorgenommen werden können und dass andere Ausführungsformen genutzt werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Die folgende detaillierte Beschreibung ist deshalb nicht in einschränkendem Sinn aufzufassen.
  • 1 veranschaulicht ein beispielhaftes Szenario 100, in dem Ausführungsformen gemäß der vorliegenden Offenbarung verwendet werden können. Um das vorstehend erwähnte Problem mit einem ferngesteuerten Bediener anzugehen, der ein autonomes Fahrzeug übernimmt, schlägt die vorliegende Offenbarung Techniken, Schemata, Prozesse und Einrichtungen bezüglich der Virtual-Reality-Übernahme des autonomen Fahrzeugs vor. Gemäß einem vorgeschlagenen Schema, wie im Szenario 100 gezeigt, kann ein Fahrzeug 110 mit einem Steuersystem ausgestattet, konfiguriert, oder anderweitig bereitgestellt sein oder kann dieses installiert sein, das mindestens einen Prozessor 115, eine nach vorn zeigende Kamera 112, eine nach hinten zeigende Kamera 117, einen drahtlosen Sendeempfänger 118 und einen oder mehrere Sendeempfänger 119(1)-119(M) beinhaltet. In einigen Ausführungsformen kann das Fahrzeug 110 ein vollständig autonomes Fahrzeug sein. Alternativ kann das Fahrzeug 110 in der Lage sein, in einem manuellen Modus (z. B. betrieben durch einen menschlichen Fahrer) und in einem autonomen Modus ohne menschliche Intervention unter normalen Bedingungen betrieben zu werden.
  • Gemäß dem Schema 100 kann ein Benutzer 150 eine Virtual-Reality-basierte Steuerung 120 nutzen, um die Steuerung des Fahrzeugs 110 zu übernehmen. Die Virtual-Reality-basierte Steuerung 120 kann ein Headset 122 und eine Recheneinrichtung 125 beinhalten, das kommunikativ an das Headset 122 gekoppelt ist. Die Recheneinrichtung 125 kann einen Prozessor 128 beinhalten, der die Vorgänge der Virtual-Reality-basierten Steuerung 120 steuern kann. Der Benutzer 150 kann das Headset 122 tragen und mit Vorgängen (z. B. Lenkung und/oder Geschwindigkeit) des Fahrzeugs 110 über eine drahtlose Kommunikation kommunizieren und diese Steuern. In einigen Ausführungsformen können Daten, die über die drahtlose Kommunikation übertragen und empfangen werden, mit einem User Datagram Protocol (UDP) übereinstimmen. In einigen Ausführungsformen kann die drahtlose Kommunikation direkt zwischen der Recheneinrichtung 125 und dem drahtlosen Sendeempfänger 118 des Fahrzeugs 110 hergestellt werden. Alternativ oder zusätzlich kann die drahtlose Kommunikation indirekt zwischen der Recheneinrichtung 125 und dem drahtlosen Sendeempfänger 118 des Fahrzeugs 110 über ein oder mehrere drahtgebundene und/oder drahtlose Netzwerke (dargestellt durch ein Netzwerk 130 in 1) und eine drahtlose Station 135 hergestellt werden.
  • Die Kamera 112 kann in der Lage sein, eine oder mehrere Folgen von Videobildern einer Vorderansicht des Fahrzeugs 110 aufzunehmen, die durch den Benutzer 150, der das Headset 122 trägt, angeschaut werden können. Auf ähnliche Weise kann die Kamera 117 in der Lage sein, eine oder mehrere Folgen von Videobildern einer Rückansicht des Fahrzeugs 110 aufzunehmen, die durch den Benutzer 150, der das Headset 122 trägt, angeschaut werden können. Die Kamera 112 kann an einer Kardanaufhängung 114 montiert sein, welche die dreidimensionale (3D) Bewegung der Kamera 112 ermöglicht. Die Kardanaufhängung 114 kann zum Beispiel durch 3D-Drucken individuell hergestellt werden. In einigen Ausführungsformen kann das Fahrzeug 110 ebenfalls einen oder mehrere Aktoren 116 und assoziierte Servos (nicht gezeigt) beinhalten, die in der Lage sind, die Position der Kamera 112 durch Drehen, Schwenken und/oder Rotieren der Kardanaufhängung 114 anzupassen. Das heißt, der eine oder die mehreren Aktoren 116 können kommunikativ an den Prozessor 115 gekoppelt sein, um Signale vom Prozessor 115 zu empfangen, um die Position und/oder Ausrichtung der Kamera 112 dementsprechend anzupassen.
  • Der Prozessor 115 kann eine oder mehrere Folgen von Videobildern von jeder der Kamera 112 und der Kamera 117 empfangen. Der Prozessor 115 kann die eine oder die mehreren Folgen von Videobildern über den drahtlosen Sendeempfänger 118 an den Prozessor 128 der Recheneinrichtung 125 übertragen, wodurch das Virtual-Reality-Betrachten der Videobilder durch den Benutzer 150 mit dem Headset 122 ermöglicht wird. Somit kann der Benutzer 150 einen Echtzeit-Video-Feed aus der Perspektive der Kamera 112 und der Kamera 117 ferngesteuert betrachten, als wäre der Benutzer 150 der Fahrer des Fahrzeugs 110, um ferngesteuert Vorgänge des Fahrzeugs 110 unter Verwendung einer Fahrereinstellung, einer Fahrzeuginnenraumeinstellung, eines Lenkrads, eines oder mehrerer Schaltknäufe und/oder eines Pedalsatzes der Virtual-Reality-basierten Steuerung 120 zu übernehmen oder zu steuern. Der Einfachheit halber sind die Fahrereinstellung, die Fahrzeuginnenraumeinstellung, das Lenkrad, der eine oder die mehreren Schaltknäufe und der Pedalsatz der Virtual-Reality-basierten Steuerung 120 in 1 nicht gezeigt. Beim Empfangen einer Benutzereingabe vom Benutzer 150 kann der Prozessor 128 ein Manövriersignal für den Prozessor 115 bereitstellen, um eine Lenkung des Fahrzeugs 110, eine Geschwindigkeit des Fahrzeugs 110 oder beides zu steuern.
  • Das Headset 122 kann mit einer der mehreren Komponenten (z. B. Beschleunigungsmesser(n) und/oder Gyroskop(en)) ausgestattet, konfiguriert oder anderweitig bereitgestellt sein, die in der Lage sind, Bewegungen des Headsets 122 zu erfassen, um (ein) Signal(e) zu erfassen und bereitzustellen, das/die ein Rollen 124, ein Nicken 126, ein Gieren 128 oder eine Kombination davon in Bezug auf die Position des Headsets 122 (und den Kopf des Benutzers 150) angibt/angeben. Beim Empfangen eines derartigen Signals/derartiger Signale vom Headset 122 kann der Prozessor 128 eine Änderung der Position und/oder Bewegung des Headsets 122 detektieren und kann ein Kameraanpassungssignal für den Prozessor 115 bereitstellen, um über den einen oder die mehreren Aktoren 114 eine Position der Kamera 112 (z. B. ein Rollen, ein Nicken, ein Gieren oder eine Kombination davon) als Reaktion auf die Detektion anzupassen. Echtzeit-Audio, (ein) Mikrofon(e) und/oder ein Knopf/Knöpfe können in oder am Headset 122 bereitgestellt sein, um einem Benutzer 150 zu gestatten, ein Pop-up eines Rückansicht-Video-Feeds von der Kamera 117 in einer Ecke einer Anzeige des Headsets 122 einzuleiten.
  • Durch den Echtzeit-Video-Feed von der Kamera 112 (und der Kamera 117) ermöglicht das Headset 122 einem Benutzer 150 das Ansehen einer Ansicht der Kamera 112 (und der Kamera 117) in einer Virtual-Reality-Einstellung, als würde der Benutzer 150 das Fahrzeug 110 tatsächlich fahren. Wenn die Position des Headsets 122 ohne Relation zu einem montierten Sensor erfasst wird, kann der Benutzer 150 in der Lage sein, die Kamera 110 auf eine Standardposition (z. B. nach vorn zeigende Pose) zurücksetzen. Zum Beispiel kann der Prozessor 128 eine Benutzereingabe zum Zurücksetzen oder anderweitigen Zurückbringen der Kamera 110 auf/in ihre Standardposition empfangen und kann demnach ein Zurücksetzungssignal für den Prozessor 115 bereitstellen, um eine Position der Kamera 112 anzupassen, um die Kamera 112 in eine nach vom zeigende Richtung in Bezug auf das Fahrzeug 110 gemäß dem Zurücksetzungssignal zu bewegen.
  • Der eine oder die mehreren Sensoren 119(1)-119(M) sind in der Lage, einen oder mehrere Aspekte oder Parameter in Bezug auf das Fahrzeug 110, in welchem die Einrichtung 200 installiert ist, zu erfassen und Sensordaten zu generieren, die ein Ergebnis des Erfassens darstellen. Zum Beispiel können der eine oder die mehreren Sensoren 119(1)-119(M) einen oder mehrere Beschleunigungsmesser, ein oder mehrere Gyroskope, einen oder mehrere Drucksensoren, einen oder mehrere piezoelektrische Sensoren, ein oder mehrere Mikrofone und/oder einen oder mehrere Bildsensoren beinhalten. Der eine oder die mehreren Sensoren 119(1)-119(M) können verschiedene Bedingungen in Bezug auf das Fahrzeug 110 detektieren, wie zum Beispiel und ohne Einschränkung, ob sich das Fahrzeug 110 bewegt, ob sich das Fahrzeug 110 nicht bewegt, ob das Fahrzeug 110 mit (einem) Insassen belegt ist, und ob ein menschlicher Fahrer die Steuerung des Fahrzeugs 110 zum autonomen Fahren oder zur Fernsteuerung des Fahrzeugs 110 freigegeben hat.
  • Gemäß dem Schema 100 kann die Virtual-Reality-basierte Steuerung 120 kommunikativ mit einem oder mehreren Parkverwaltungssystemen (durch einen Parkverwaltungsserver 140 in 1 dargestellt) über das Netzwerk 130 verbunden sein, um Parkinformationen über einen oder mehrere Parkplätze zu empfangen, wodurch die Bereitstellung eines ferngesteuerten Parkdienstes für Fahrzeuge, wie zum Beispiel das Fahrzeug 110, ermöglicht werden kann. Die vom Server 140 empfangenen Parkinformationen können Informationen über einen oder mehrere Parkplätze sowie die Belegung (Verfügbarkeit von unbelegten Parklücken) auf jedem des einen oder der mehreren Parkplätze beinhalten. Der ferngesteuerte Parkdienst ermöglicht dem Fahrer des Fahrzeugs 110, das Fahrzeug 110 zu stoppen (z. B. am Straßenrand oder in der Nähe eines Parkplatzes) und dem ferngesteuerten Parkdienst die Kontrolle über das Fahrzeugs 110 übernehmen zu lassen. Der Fahrer des ferngesteuerten Parkdienstes (z. B. Benutzer 150) kann ein Einparksystemprogramm oder eine -App verwenden der Parkinformationen vom Server 140 erhalten, um eine oder mehrere freie Parklücken auf einem oder mehreren Parkplätzen in der Nähe des Fahrzeugs 110 zu finden. Der Fahrer des ferngesteuerten Parkdienstes kann das Fahrzeug 110 dann durch das Fernsteuern des Fahrzeugs 110 parken, um das Fahrzeug 110 zu manövrieren, damit es sich von seinem aktuellen Standort zu einer der einen oder mehreren freien Parklücken auf einem Parkplatz bewegt.
  • Gemäß dem Schema 100 kann der Prozessor 115 während des Umsetzens des ferngesteuerten Parkdienstes kontinuierlich oder periodisch Sensordaten von dem einen oder den mehreren Sensoren 119(1)-119(M) empfangen, um auf der Grundlage der Sensordaten zu bestimmen, ob eine vordefinierte Situation in Bezug auf das Fahrzeug 110 existiert. Die vordefinierte Situation kann zum Beispiel und ohne Einschränkung das Manövrieren des Fahrzeugs 110 durch den Fahrer des ferngesteuerten Parkdienstes einschließlich einer oder mehrerer unsicherer Handlungen beinhalten (z. B. übermäßig schnelles Fahren und/oder zu dicht auf (ein) umgebende(s) Fahrzeug(e) und/oder (einen) Fußgänger auffahren). Als Reaktion auf das Bestimmen, dass die vordefinierte Situation existiert, kann der Prozessor 115 mindestens einen Vorgang von einem oder mehreren Vorgängen durchführen. Zu dem einen oder den mehreren Vorgängen können das Benachrichtigen der Fernsteuerung über die Situation und/oder das Einschränken von mindestens einem Aspekt des Manövrierens des Fahrzeugs durch die Fernsteuerung gehören. Zum Beispiel kann der Prozessor 115 eine Bremse anwenden, um das Fahrzeug 110 zu verlangsamen, ein Ausmaß der Lenkung durch den Fahrer des ferngesteuerten Parkdienstes einschränken, um eine Kollision zu vermeiden, oder beliebige anderen Maßnahmen ergreifen, um einen Zusammenstoß oder eine Kollision abzuschwächen oder zu vermeiden.
  • 2 veranschaulicht eine beispielhafte Einrichtung 200 gemäß einer Ausführungsform der vorliegenden Offenbarung. Die Einrichtung 200 kann zahlreiche Funktionen bezüglich der Techniken, Schemata, Verfahren und Systemen durchführen, die hierin beschrieben sind und in Zusammenhang mit einem ferngesteuerten Virtual-Reality-Parkdienst stehen, einschließlich der vorstehend in Bezug auf das Szenario 100 beschriebenen sowie der nachstehend in Bezug auf den Prozess 300 und Prozess 400 beschriebenen. Die Einrichtung 200 kann im Szenario 100 im Fahrzeug 110 umgesetzt sein, um verschiedene Ausführungsformen gemäß der vorliegenden Offenbarung zu bewirken. Das heißt, in einigen Ausführungsformen kann die Einrichtung 200 eine beispielhafte Umsetzung des Steuersystems des Fahrzeugs 110 sein. Die Einrichtung 200 kann eine, einen Teil oder alle der in 2 gezeigten Komponenten beinhalten. Die Einrichtung 200 kann ebenfalls eine oder mehrere andere Komponenten beinhalten, die für zahlreiche Ausführungsformen der vorliegenden Offenbarung nicht relevant sind, und daher ist/sind derartige Komponente(n) nicht in 2 gezeigt und eine Beschreibung davon wird hierin zum Zwecke der Kürze nicht bereitgestellt.
  • Die Einrichtung 200 kann mindestens einen Prozessor 210 beinhalten, der eine Steuerschaltung 212 und eine Kommunikationsschaltung 214 beinhalten kann. Der Prozessor 210 kann eine beispielhafte Umsetzung des Prozessors 115 der Fahrzeugs 110 sein. Der Prozessor 210 kann in der Form von einem oder mehreren Einkernprozessoren, einem oder mehreren Mehrkernprozessoren oder einem oder mehreren Prozessoren mit großen Befehlsvorrat (complex instruction set computing - CISC) umgesetzt sein. Daher kann der Prozessor 210 gemäß der vorliegenden Offenbarung in einigen Ausführungsformen mehrere Prozessoren beinhalten und in anderen Ausführungsformen einen einzelnen Prozessor, obwohl ein Singularausdruck „ein Prozessor“ hierin zum Bezeichnen des Prozessors 210 verwendet wird. In einem anderen Aspekt kann der Prozessor 210 in der Form von Hardware (und wahlweise Firmware) mit elektronischen Komponenten umgesetzt sein, einschließlich zum Beispiel und ohne Einschränkung eines oder mehreren Transistoren, einer oder mehreren Dioden, eines oder mehreren Kondensatoren, eines oder mehreren Widerständen und/oder eines oder mehreren Induktoren, die dazu konfiguriert und angeordnet sind, um bestimmte Zwecke in Übereinstimmung mit der vorliegenden Offenbarung zu erreichen. Anders ausgedrückt, ist der Prozessor 210 in mindestens einigen Ausführungsformen eine Maschine für spezielle Zwecke, die spezifisch zum Durchführen spezifischer Aufgaben, einschließlich eines ferngesteuerten Virtual-Reality-Parkdienstes, gemäß zahlreichen Ausführungsformen der vorliegenden Offenbarung ausgestaltet, ausgelegt und konfiguriert ist.
  • In einigen Ausführungsformen kann die Einrichtung 200 eine nach vorn zeigende Kamera 220 und eine nach hinten zeigend Kamera 225 beinhalten, die beide in der Lage sind, eine oder mehrere Folgen von Videobildern aufzunehmen. Jede der Kamera 220 und der Kamera 225 kann kommunikativ an den Prozessor 210 gekoppelt sein, um Videosignale der einen oder mehreren Folgen von Videobildern bereitzustellen, die durch die Kamera 220 und die Kamera 225 aufgenommen werden. In einigen Ausführungsformen kann die Kamera 220 an einer Kardanaufhängung (z. B. der Kardanaufhängung 114) montiert sein, welche eine 3D-Bewegung der Kamera 220 ermöglicht. In einigen Ausführungsformen kann die Einrichtung 200 ebenfalls einen oder mehrere Aktoren 250(1)-250(N) beinhalten, die in der Lage sind, die Position der Kamera 220 durch Drehen, Schwenken und/oder Rotieren der Kardanaufhängung anzupassen, an welcher die Kamera 220 befestigt ist. Das heißt, der eine oder die mehreren Aktoren 250(1)-250(N) können kommunikativ an den Prozessor 210 gekoppelt sein, um Signale vom Prozessor 210 zu empfangen, um die Position und/oder Ausrichtung der Kamera 220 dementsprechend anzupassen.
  • In einigen Ausführungsformen kann die Einrichtung 200 einen drahtlosen Sendeempfänger 230 beinhalten, der kommunikativ an den Prozessor 210 gekoppelt ist. Der drahtlose Sendeempfänger 230 kann in der Lage sein, drahtlose Kommunikationen mit einem oder mehreren Netzwerken (z. B. dem Netzwerk 130) und/oder einer Fernsteuerung (z. B. der Virtual-Reality-basierten Steuerung 120) herzustellen. In einigen Ausführungsformen kann der drahtlose Sendeempfänger 230 in der Lage sein, Daten gemäß dem UDP zu übertragen und zu empfangen.
  • In einigen Ausführungsformen kann die Einrichtung 200 eine Fahrzeugsteuerschnittstelle 240 beinhalten, die kommunikativ an den Prozessor 210 gekoppelt ist, sodass der Prozessor 210 das Fahrzeug (z. B. das Fahrzeug 110) ohne eine menschliche Eingabe, Steuerung und/oder Intervention autonom steuern, betreiben oder anderweitig manövrieren kann. Die Fahrzeugsteuerschnittstelle 240 kann mit den erforderlichen mechanischen, elektrischen, pneumatischen und/oder hydraulischen Komponenten des Fahrzeugs für das Steuern und/oder Manövrieren des Fahrzeugs kommunizieren. Somit kann die Fahrzeugsteuerschnittstelle 240 beim Empfangen von Signalen und/oder Befehlen von dem Prozessor 210 ein oder mehrere Teile des Fahrzeugs betätigen, aktivieren, steuern und/oder betreiben (z. B. um das Fahrzeug zu fahren und zu manövrieren).
  • In einigen Ausführungsformen kann die Einrichtung 200 einen oder mehrere Sensoren 260(1)-260(M) beinhalten. Der eine oder die mehreren Sensoren 260(1)-260(M) sind in der Lage, einen oder mehrere Aspekte oder Parameter in Bezug auf das Fahrzeug, in welchem die Einrichtung 200 installiert ist, zu erfassen und Sensordaten zu generieren, die ein Ergebnis des Erfassens darstellen. Zum Beispiel können der eine oder die mehreren Sensoren 260(1)-260(M) einen oder mehrere Beschleunigungsmesser, ein oder mehrere Gyroskope, einen oder mehrere Drucksensoren, einen oder mehrere piezoelektrische Sensoren, ein oder mehrere Mikrofone und/oder einen oder mehrere Bildsensoren beinhalten. Der eine oder die mehreren Sensoren 260(1)-260(M) können verschiedene Bedingungen in Bezug auf das Fahrzeug detektieren, wie zum Beispiel und ohne Einschränkung, ob sich das Fahrzeug bewegt, ob sich das Fahrzeug nicht bewegt, ob das Fahrzeug mit (einem) Insassen belegt ist, und ob ein menschlicher Fahrer die Steuerung des Fahrzeugs zum autonomen Fahren oder zur Fernsteuerung des Fahrzeugs freigegeben hat.
  • In einigen Ausführungsformen können Kommunikationen zwischen zwei oder mehreren Komponenten der Einrichtung 200 drahtlose Kommunikationen gemäß (einem/einer) geeigneten Protokoll(en), Standard(s) und/oder Spezifikation(en) sein. Zum Beispiel können die Kommunikationen zwischen dem Prozessor 210 und einem oder mehreren der Kamera 220, der Kamera 225, des drahtlosen Sendeempfängers 230, der Fahrzeugsteuerschnittstelle 240, des einen oder der mehreren Aktoren 250(1)-250(N) und des einen oder der mehreren Sensoren 260(1)-260(M) auf Wi-Fi-Technologien gemäß den Standards 802.11 des Institute of Electrical and Electronics Engineers (IEEE) basieren. Zusätzlich oder alternativ können andere drahtlose Technologien, wie zum Beispiel Bluetooth, Nahbereichskommunikation (Near-Field Communication - NFC), Infrarot und/oder Ultraschall, genutzt werden.
  • Die Kommunikationsschaltung 214 kann in der Lage sein, eine drahtlose Kommunikation über den drahtlosen Sendeempfänger 230 mit einer Fernsteuerung (z. B. dem Prozessor 128 der Recheneinrichtung 125 der Virtual-Reality-basierten Steuerung 120) herzustellen. Die Kommunikationsschaltung 214 kann in der Lage sein, ein Signal von der Fernsteuerung zu empfangen. Die Steuerschaltung 212 kann in der Lage sein, der Fernsteuerung die Folge von Videobildern, die durch die Kamera 220 aufgenommen werden, über den drahtlosen Sendeempfänger 230 bereitzustellen. Die Steuerschaltung 212 kann ebenfalls in der Lage sein, das Fahrzeug zu manövrieren, damit es sich gemäß dem Signal von einem Standort zu einem anderen bewegt.
  • In einigen Ausführungsformen kann die Kommunikationsschaltung 212 in der Lage sein, ein Vorliegen einer Bedingung in Bezug auf das Fahrzeug zu bestimmen und die Fernsteuerung über den drahtlosen Sendeempfänger 230 über die Bedingung zu benachrichtigen. In einigen Ausführungsformen kann das Empfangen des Signals ein Ergebnis des Benachrichtigens der Fernsteuerung über die Bedingung sein. In einigen Ausführungsformen kann die Bedingung Stoppen des Fahrzeugs, Freigeben der Steuerung des Fahrzeugs durch einen menschlichen Fahrer des Fahrzeugs oder beides beinhalten.
  • In einigen Ausführungsformen kann die Kommunikationsschaltung 214 in der Lage sein, ein Kameraanpassungssignal über den drahtlosen Sendeempfänger 230 von der Fernsteuerung zu empfangen. In derartigen Fällen kann die Steuerschaltung 212 in der Lage sein, den einen oder die mehreren Aktoren zu steuern, um die Position der Kamera 220 gemäß dem Kameraanpassungssignal anzupassen.
  • In einigen Ausführungsformen kann die Steuerschaltung 212 in der Lage sein, die Sensordaten von dem einen oder den mehreren Sensoren 260(1)-260(M) zu empfangen. Außerdem kann die Steuerschaltung 212 ebenfalls in der Lage sein, auf der Grundlage der Sensordaten zu bestimmen, dass eine Situation in Bezug auf das Fahrzeug existiert. Darüber hinaus kann die Steuerschaltung 212 in der Lage sein, mindestens einen Vorgang von einem oder mehreren Vorgängen als Reaktion auf das Bestimmen durchzuführen. Die Situation kann zum Beispiel das Manövrieren des Fahrzeugs durch die Fernsteuerung einschließlich einer oder mehrerer unsicherer Handlungen beinhalten. In derartigen Fällen kann die Steuerschaltung 212 die Fernsteuerung über den drahtlosen Sendeempfänger 230 über die Situation benachrichtigen. Die Steuerschaltung 212 kann ebenfalls die Fahrzeugsteuerschnittstelle 240 steuern, um mindestens einen Aspekt des Manövrierens des Fahrzeugs des Fahrzeugs durch die Fernsteuerung einzuschränken (z. B. Steuern der Fahrzeugsteuerschnittstelle 240, um eine Bremse anzuwenden, um das Fahrzeug zu verlangsamen, Einschränken eines Ausmaßes der Lenkung durch die Fernsteuerung, um eine Kollision zu vermeiden, Ergreifen beliebiger anderer geeigneter Maßnahmen, um einen Zusammenstoß oder eine Kollision abzuschwächen oder zu vermeiden).
  • 3 veranschaulicht einen beispielhaften Prozess 300 gemäß einer Ausführungsform der vorliegenden Offenbarung. Der Prozess 300 kann einen/eine oder mehrere Vorgänge, Handlungen oder Funktionen beinhalten, die als Blöcke angezeigt werden, wie etwa 310, 320, 330, 340, 350, 360, 370, 380, 390, 392 und 394. Obgleich sie als einzelne Blöcke veranschaulicht sind, können verschiedene Blöcke des Prozesses 300 in Abhängigkeit von den gewünschten Umsetzungen in zusätzliche Blöcke unterteilt, zu weniger Blöcken zusammengefasst oder beseitigt sein. Der Prozess 300 kann im Szenario 100 und/oder durch die Einrichtung 200 umgesetzt werden. Zu Veranschaulichungszwecken und ohne Einschränkung wird die folgende Beschreibung des Prozesses 300 im Kontext des Szenarios 100 bereitgestellt. Der Prozess 300 kann mit Block 310 beginnen.
  • Bei 310 kann der Prozess 300 umfassen, dass der Prozessor 115 des Fahrzeugs 110 eine drahtlose Kommunikation mit einer Fernsteuerung (z. B. dem Prozessor 128 der Recheneinrichtung 125 der Virtual-Reality-basierten Steuerung 120) herstellt. Der Prozess 300 kann von 310 zu 320 übergehen.
  • Bei 320 kann der Prozess 300 umfassen, dass der Prozessor 115 der Fernsteuerung eine Folge von Videobildern bereitstellt, die durch eine Kamera des Fahrzeugs (z. B. die Kamera 112 des Fahrzeugs 110) aufgenommen werden. Der Prozess 300 kann von 320 zu 330 übergehen.
  • Bei 330 kann der Prozess 300 umfassen, dass der Prozessor 115 ein Signal von der Fernsteuerung empfängt. Der Prozess 300 kann von 330 zu 340 übergehen.
  • Bei 340 kann der Prozess 300 umfassen, dass der Prozessor 115 das Fahrzeug 110 manövriert, damit es sich gemäß dem Signal von einem Standort zu einem anderen bewegt. Der Prozess 300 kann von 340 zu 350, 370 und/oder 390 übergehen.
  • Bei 350 kann der Prozess 300 umfassen, dass der Prozessor 115 bestimmt, dass eine Bedingung in Bezug auf das Fahrzeug 110 existiert. In einigen Ausführungsformen kann die Bedingung Stoppen des Fahrzeugs 110, Freigeben der Steuerung des Fahrzeugs 110 durch einen menschlichen Fahrer des Fahrzeugs 110 oder beides beinhalten. Der Prozess 300 kann von 350 zu 360 übergehen.
  • Bei 360 kann der Prozess 300 umfassen, dass der Prozessor 115 die Fernsteuerung über die Bedingung benachrichtigt. In einigen Ausführungsformen kann das Empfangen des Manövriersignals ein Ergebnis des Benachrichtigens der Fernsteuerung über die Bedingung durch den Prozessor 115 sein.
  • Bei 370 kann der Prozess 300 umfassen, dass der Prozessor 115 ein Kameraanpassungssignal von der Fernsteuerung empfängt. Der Prozess 300 kann von 370 zu 380 übergehen.
  • Bei 380 kann der Prozess 300 umfassen, dass der Prozessor 115 einen oder mehrere Aktoren 116 steuert, um eine Position der Kamera 112 gemäß dem Kameraanpassungssignal anzupassen. In einigen Ausführungsformen kann der Prozess 300 beim Steuern des einen oder der mehreren Aktoren 116, um die Position der Kamera 112 anzupassen, umfassen, dass der Prozessor 115 ein Rollen, ein Nicken, ein Gieren oder eine Kombination davon in Bezug auf die Position der Kamera 112 anpasst.
  • Bei 390 kann der Prozess 300 umfassen, dass der Prozessor 115 Sensordaten von einem oder mehreren Sensoren empfängt, die mit dem Fahrzeug 110 assoziiert sind (z. B. einem oder mehreren Sensoren 119(1)-119(M)). Der Prozess 300 kann von 390 zu 392 übergehen.
  • Bei 392 kann der Prozess 300 umfassen, dass der Prozessor 115 auf der Grundlage der Sensordaten bestimmt, dass eine Situation in Bezug auf das Fahrzeug 110 existiert. Der Prozess 300 kann von 392 zu 394 übergehen.
  • Bei 394 kann der Prozess 300 umfassen, dass der Prozessor 115 mindestens einen Vorgang von einem oder mehreren Vorgängen als Reaktion auf das Bestimmen durchführt. Die Situation kann zum Beispiel das Manövrieren des Fahrzeugs 110 durch die Fernsteuerung einschließlich einer oder mehrerer unsicherer Handlungen beinhalten. In derartigen Fällen kann der Prozess 300 umfassen, dass der Prozessor 115 die Fernsteuerung über die Situation benachrichtigt. Außerdem kann der Prozess 300 umfassen, dass der Prozessor 115 mindestens einen Aspekt des Manövrierens des Fahrzeugs 110 durch die Fernsteuerung einschränkt.
  • In einigen Ausführungsformen kann das Bereitstellen der Folge von Videobildern, das Empfangen des Signals oder beides gemäß dem UDP erfolgen.
  • 4 veranschaulicht einen beispielhaften Prozess 400 gemäß einer Ausführungsform der vorliegenden Offenbarung. Der Prozess 400 kann einen/eine oder mehrere Vorgänge, Handlungen oder Funktionen beinhalten, die als Blöcke, wie etwa 410, 420, 430 und 440, sowie als Unterblöcke 442, 444, 446 und 448 gezeigt sind. Obgleich sie als einzelne Blöcke veranschaulicht sind, können verschiedene Blöcke des Prozesses 400 in Abhängigkeit von den gewünschten Umsetzungen in zusätzliche Blöcke unterteilt, zu weniger Blöcken zusammengefasst oder beseitigt sein. Der Prozess 400 kann im Szenario 100 und/oder durch die Einrichtung 200 umgesetzt werden. Zu Veranschaulichungszwecken und ohne Einschränkung wird die folgende Beschreibung des Prozesses 400 im Kontext des Szenarios 100 bereitgestellt. Der Prozess 400 kann mit Block 410 beginnen.
  • Bei 410 kann der Prozess 400 umfassen, dass der Prozessor 128 einer Virtual-Reality-basierten Steuerung 120 eine drahtlose Kommunikation mit einem Steuersystem eines Fahrzeugs (z. B. dem Prozessor 115 des Fahrzeugs 110) herstellt. Der Prozess 400 kann von 410 zu 420 übergehen.
  • Bei 420 kann der Prozess 400 umfassen, dass der Prozessor 128 eine Folge von Videobildern empfängt, die durch eine mit dem Fahrzeug 110 assoziierte Kamera (z. B. der Kamera 112 des Fahrzeugs 110) aufgenommen werden. Der Prozess 400 kann von 420 zu 430 übergehen.
  • Bei 430 kann der Prozess 400 umfassen, dass der Prozessor 128 eine Virtual-Reality-Ansicht (z. B. am Headset 122 für den Benutzer 120) aus einer Perspektive eines Fahrers des Fahrzeugs 110 mindestens teilweise auf der Grundlage der Folge von Videobildern erzeugt. Der Prozess 400 kann von 430 zu 440 übergehen.
  • Bei 440 kann der Prozess 400 umfassen, dass der Prozessor 128 dem Prozessor 115 des Steuersystems ein Signal bereitstellt, um das Fahrzeug 110 von einem Standort zu einem anderen manövriert. Beim Bereitstellen des Signals für den Prozessor 115, um das Fahrzeug 110 von einem Standort zu einem anderen zu manövrieren, kann der Prozess 400 umfassen, dass der Prozessor 128 eine Reihe von Vorgängen ausführt, wie in den Unterblöcken 442, 444, 446 und 448 gezeigt.
  • Bei 442 kann der Prozess 400 umfassen, dass der Prozessor 128 einen aktuellen Standort des Fahrzeugs 110 bestimmt. Der Prozess 400 kann von 442 zu 444 übergehen.
  • Bei 444 kann der Prozess 400 umfassen, dass der Prozessor 128 einen Parkstandort einer verfügbaren Parklücke bestimmt. Der Prozess 400 kann von 444 zu 446 übergehen.
  • Bei 446 kann der Prozess 400 umfassen, dass der Prozessor 128 eine Route zum Bewegen des Fahrzeugs 110 vom aktuellen Standort zu dem Parkstandort bestimmt. Der Prozess 400 kann von 446 zu 448 übergehen.
  • Bei 448 kann der Prozess 400 umfassen, dass der Prozessor 128 das Signal gemäß der bestimmten Route generiert.
  • In einigen Ausführungsformen kann das Empfangen der Folge von Videobildern, das Bereitstellen des Signals für das Steuersystem oder beides gemäß dem UDP erfolgen.
  • In einigen Ausführungsformen kann der Prozess 400 beim Bereitstellen des Signals für das Steuersystem umfassen, dass der Prozessor 128 eine Benachrichtigung vom Steuersystem empfängt, die ein Vorliegen einer Bedingung in Bezug auf das Fahrzeug 110 angibt. Darüber hinaus kann der Prozess 400 umfassen, dass der Prozessor 128 das Signal für das Steuersystem als Reaktion auf das Empfangen der Benachrichtigung bereitstellt. In einigen Ausführungsformen kann die Bedingung Stoppen des Fahrzeugs 110, Freigeben der Steuerung des Fahrzeugs 110 durch einen menschlichen Fahrer des Fahrzeugs 110 oder beides beinhalten.
  • In einigen Ausführungsformen kann der Prozess 400 umfassen, dass der Prozessor 128 eine Änderung der Position eines Headsets (z. B. eines Rollens, eines Nickens, eines Gierens oder einer Kombination davon in Bezug auf die Position des Headsets 122) detektiert, das mit der Virtual-Reality-basierten Steuerung assoziiert ist. Außerdem kann der Prozess 400 umfassen, dass der Prozessor 128 dem Steuersystem ein Kameraanpassungssignal bereitstellt, um eine Position der mit dem Fahrzeug 110 assoziierten Kamera 112 als Reaktion auf das Detektieren anzupassen. In einigen Ausführungsformen kann die Anpassung der Kamera 112 das Anpassen eines Rollens, eines Nickens, eines Gierens oder einer Kombination davon in Bezug auf die Position der Kamera 112 umfassen.
  • In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen zur Veranschaulichung konkrete Umsetzungen gezeigt sind, in welchen die vorliegende Offenbarung angewendet werden kann. Es versteht sich, dass andere Umsetzungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“, „eine beispielhafte Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann, doch es muss nicht unbedingt jede Ausführungsform diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner sei darauf hingewiesen, dass, wenn ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben ist, es im Bereich des Fachwissens des Fachmanns liegt, ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Umsetzungen der hier offenbarten Systeme, Einrichtungen, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie zum Beispiel einen oder mehrere Prozessoren und Systemspeicher, wie sie hier erläutert sind. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können zudem physische und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert sind, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Daher können Umsetzungen der vorliegenden Offenbarung beispielsweise und nicht einschränkend zumindest zwei eindeutig unterschiedliche Arten computerlesbarer Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (-vorrichtungen) beinhalten RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (solid state drives - „SSDs“) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenwechselspeicher (phase-change memory - „PCM“), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das dazu verwendet werden kann, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
  • Eine Umsetzung der in dieser Schrift offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder festverdrahtet, drahtlos oder eine beliebige Kombination aus festverdrahtet oder drahtlos) auf einen Computer übertragen oder einem Computer bereitgestellt werden, sieht der Computer die Verbindung zweckgemäß als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen beinhalten, die dazu verwendet werden können, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus dem Vorstehenden sollen ebenfalls im Umfang computerlesbarer Medien beinhaltet sein.
  • Computerausführbare Anweisungen umfassen beispielsweise Anweisungen und Daten, die bei Ausführung auf einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die computerausführbaren Anweisungen können beispielsweise Binärdateien, Anweisungen in einem Zwischenformat, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht unbedingt auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Maßnahmen sind vielmehr als beispielhafte Umsetzungsformen der Ansprüche offenbart.
  • Der Fachmann wird erkennen, dass die vorliegende Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen angewendet werden kann, einschließlich eines Armaturenbrett-Fahrzeugcomputers, PCs, Desktop-Computern, Laptops, Nachrichtenprozessoren, Handgeräten, Multiprozessorsystemen, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbarer Unterhaltungselektronik, Netzwerk-PCs, Minicomputern, Mainframe-Computern, Mobiltelefonen, PDAs, Tablets, Pagern, Routern, Switches, verschiedener Speichergeräte und dergleichen. Die Offenbarung kann ebenfalls in Umgebungen mit verteilten Systemen angewendet werden, in denen sowohl lokale Computersysteme als auch ferngesteuerte Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine beliebige Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer verteilten Systemumgebung können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in Fernspeichervorrichtungen befinden.
  • Ferner können die in dieser Schrift beschriebenen Funktionen gegebenenfalls in einem oder mehreren der Folgenden durchgeführt werden: Hardware, Software, Firmware, digitale Komponenten oder analoge Komponenten. Eine oder mehrere anwendungsspezifische integrierte Schaltungen (application specific integrated circuits - ASICs) können zum Beispiel so programmiert sein, dass sie eines bzw. einen oder mehrere der in dieser Schrift beschriebenen Systeme und Vorgänge ausführen. Bestimmte Ausdrücke werden in der gesamten Beschreibung und den Patentansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Der Fachmann wird verstehen, dass auf Komponenten durch unterschiedliche Bezeichnungen Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch der Funktion nach.
  • Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um zumindest einen Teil ihrer Funktionen durchzuführen. Ein Sensor kann beispielsweise einen Computercode beinhalten, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind in dieser Schrift zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie es dem einschlägigen Fachmann bekannt ist.
  • Mindestens einige Ausführungsformen der vorliegenden Offenbarung sind auf Computerprogrammprodukte ausgerichtet, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Derartige Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie in dieser Schrift beschrieben zu funktionieren.
  • Wenngleich vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen und nicht als Einschränkung. Der einschlägige Fachmann wird erkennen, dass verschiedene Änderungen bezüglich Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der vorliegenden Offenbarung abzuweichen. Somit sollten die Breite und der Umfang der vorliegenden Offenbarung durch keine der vorstehend beschriebenen beispielhaften Ausführungsformen eingeschränkt werden, sondern lediglich gemäß den folgenden Patentansprüchen und ihren Äquivalenten definiert sein. Die vorstehende Beschreibung wurde zum Zwecke der Veranschaulichung und Beschreibung dargelegt. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die vorliegende Offenbarung nicht auf die genaue offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich. Ferner ist zu beachten, dass eine beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Mischumsetzungen der vorliegenden Offenbarung zu bilden.

Claims (20)

  1. Verfahren, umfassend: Herstellen, durch einen Prozessor eines Steuersystems eines Fahrzeugs, einer drahtlosen Kommunikation mit einer Fernsteuerung; Bereitstellen, durch den Prozessor, einer Folge von Videobildern, die durch eine Kamera des Fahrzeugs aufgenommen werden, für die Fernsteuerung; Empfangen, durch den Prozessor, eines Signals von der Fernsteuerung; und Manövrieren, durch den Prozessor, des Fahrzeugs, damit es sich gemäß dem Signal von einem Standort zu einem anderen bewegt.
  2. Verfahren nach Anspruch 1, wobei das Bereitstellen der Folge von Videobildern, das Empfangen des Signals oder beides gemäß einem User Datagram Protocol (UDP) erfolgt.
  3. Verfahren nach Anspruch 1, ferner umfassend: Empfangen, durch den Prozessor, von Sensordaten von einem oder mehreren Sensoren, die mit dem Fahrzeug assoziiert sind; Bestimmen, durch den Prozessor, dass eine Situation in Bezug auf das Fahrzeug existiert, auf der Grundlage der Sensordaten; und Durchführen, durch den Prozessor, von mindestens einem Vorgang von einem oder mehreren Vorgängen als Reaktion auf das Bestimmen, wobei der eine oder die mehreren Vorgänge Folgendes umfassen: Benachrichtigen der Fernsteuerung über die Situation; und Einschränken von mindestens einem Aspekt des Manövrierens des Fahrzeugs durch die Fernsteuerung.
  4. Verfahren nach Anspruch 3, wobei die Situation das Manövrieren des Fahrzeugs durch die Fernsteuerung einschließlich einer oder mehrerer unsicherer Handlungen umfasst.
  5. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen, durch den Prozessor, eines Vorliegens einer Bedingung in Bezug auf das Fahrzeug; und Benachrichtigen, durch den Prozessor, der Fernsteuerung über die Bedingung, wobei das Empfangen des Signals Empfangen des Signals als Reaktion auf das Benachrichtigen der Fernsteuerung über die Bedingung umfasst.
  6. Verfahren nach Anspruch 3, wobei die Bedingung Stoppen des Fahrzeugs, Freigeben der Steuerung des Fahrzeugs durch einen menschlichen Fahrer des Fahrzeugs oder beides umfasst.
  7. Verfahren nach Anspruch 1, ferner umfassend: Empfangen, durch den Prozessor, eines Kameraanpassungssignals von der Fernsteuerung; und Steuern, durch den Prozessor, eines oder mehrerer Aktoren, um eine Position der Kamera gemäß dem Kameraanpassungssignal anzupassen.
  8. Verfahren nach Anspruch 5, wobei das Steuern des einen oder der mehreren Aktoren, um die Position der Kamera anzupassen, Anpassen eines Rollens, eines Nickens, eines Gierens oder einer Kombination davon in Bezug auf die Position der Kamera umfasst.
  9. Verfahren, umfassend: Herstellen, durch einen Prozessor einer Virtual-Reality-basiertenSteuerung, einer drahtlosen Kommunikation mit einem Steuersystem eines Fahrzeugs; Empfangen, durch den Prozessor, einer Folge von Videobildern, die durch eine mit dem Fahrzeug assoziierte Kamera aufgenommen werden; Erzeugen, durch den Prozessor, einer Virtual-Reality-Ansicht aus der Perspektive eines Fahrers des Fahrzeugs mindestens teilweise auf der Grundlage der Folge von Videobildern; und Bereitstellen, durch den Prozessor, eines Signals für das Steuersystem, um das Fahrzeug von einem Standort zu einem anderen zu manövrieren.
  10. Verfahren nach Anspruch 9, wobei das Empfangen der Folge von Videobildern, das Bereitstellen des Signals für das Steuersystem oder beides gemäß einem User Datagram Protocol (UDP) erfolgt.
  11. Verfahren nach Anspruch 9, wobei das Bereitstellen eines Signals für das Steuersystem, um das Fahrzeug von einem Standort zu einem anderen zu manövrieren, Folgendes umfasst: Bestimmen eines aktuellen Standorts des Fahrzeugs; Bestimmen eines Parkstandorts einer verfügbaren Parklücke; Bestimmen einer Route, um das Fahrzeug vom aktuellen Standort zum Parkstandort zu bewegen; und Generieren des Signals gemäß der bestimmten Route.
  12. Verfahren nach Anspruch 9, wobei das Bereitstellen eines Signals für das Steuersystem Folgendes umfasst: Empfangen, durch den Prozessor, einer Benachrichtigung vom Steuersystem, die ein Vorliegen einer Bedingung in Bezug auf das Fahrzeug angibt; und Bereitstellen, durch den Prozessor, des Signals für das Steuersystem als Reaktion auf das Empfangen der Benachrichtigung.
  13. Verfahren nach Anspruch 12, wobei die Bedingung Stoppen des Fahrzeugs, Freigeben der Steuerung des Fahrzeugs durch einen menschlichen Fahrer des Fahrzeugs oder beides umfasst.
  14. Verfahren nach Anspruch 9, ferner umfassend: Detektieren, durch den Prozessor, einer Änderung der Position eines Headsets, das mit der Virtual-Reality-basierten Steuerung assoziiert ist; und Bereitstellen, durch den Prozessor, eines Kameraanpassungssignals für das Steuersystem, um eine Position der mit dem Fahrzeug assoziierten Kamera als Reaktion auf das Detektieren anzupassen.
  15. Einrichtung, die in einem Fahrzeug umsetzbar ist, umfassend: eine Kamera, die an einem Kardanring montiert ist und in der Lage ist, eine Folge von Videobildern aufzunehmen, einen oder mehrere Aktoren, die in der Lage sind, eine Position der Kamera anzupassen; eine Fahrzeugsteuerschnittstelle, die in der Lage ist, eine oder mehrere Komponenten des Fahrzeugs zu betreiben, um das Fahrzeug zu manövrieren; einen drahtlosen Sendeempfänger, der in der Lage ist, drahtlos mit einer Fernsteuerung zu kommunizieren; und einen Prozessor, der kommunikativ an die Kamera, den einen oder die mehreren Aktoren, die Fahrzeugsteuerschnittstelle und den drahtlosen Sendeempfänger gekoppelt ist, wobei der Prozessor in der Lage ist, Vorgänge durchzuführen, die Folgendes umfassen: Herstellen, über den drahtlosen Sendeempfänger, einer drahtlosen Kommunikation mit der Fernsteuerung; Bereitstellen, über den drahtlosen Sendeempfänger, der Folge von Videobildern, die durch die Kamera aufgenommen werden, für die Fernsteuerung; Empfangen, über den drahtlosen Sendeempfänger, eines Signals von der Fernsteuerung; und Manövrieren des Fahrzeugs, damit es sich gemäß dem Signal von einem Standort zu einem anderen bewegt.
  16. Einrichtung nach Anspruch 15, wobei das Bereitstellen der Folge von Videobildern, das Empfangen des Signals oder beides gemäß einem User Datagram Protocol (UDP) erfolgt.
  17. Einrichtung nach Anspruch 15, wobei der Prozessor ferner dazu in der Lage ist, Vorgänge durchzuführen, die Folgendes umfassen: Bestimmen eines Vorliegens einer Bedingung in Bezug auf das Fahrzeug; und Benachrichtigen, über den drahtlosen Sendeempfänger, der Fernsteuerung über die Bedingung, wobei das Empfangen des Signals Empfangen des Signals als Reaktion auf das Benachrichtigen der Fernsteuerung über die Bedingung umfasst, und wobei die Bedingung Stoppen des Fahrzeugs, Freigeben der Steuerung des Fahrzeugs durch einen menschlichen Fahrer des Fahrzeugs oder beides umfasst.
  18. Einrichtung nach Anspruch 15, wobei der Prozessor ferner dazu in der Lage ist, Vorgänge durchzuführen, die Folgendes umfassen: Empfangen, über den drahtlosen Sendeempfänger, eines Kameraanpassungssignals von der Fernsteuerung; und Steuern des eines oder mehrerer Aktoren, um die Position der Kamera gemäß dem Kameraanpassungssignal anzupassen.
  19. Einrichtung nach Anspruch 15, ferner umfassend: einen oder mehrere Sensoren, die in der Lage sind, einen oder mehrere Aspekte des Fahrzeugs zu erfassen und Sensordaten als Reaktion auf das Erfassen bereitzustellen, wobei der Prozessor ferner dazu in der Lage ist, Vorgänge durchzuführen, die Folgendes umfassen: Empfangen von Sensordaten von dem einen oder den mehreren Sensoren; Bestimmen, dass eine Situation in Bezug auf das Fahrzeug existiert, auf der Grundlage der Sensordaten; und Durchführen von mindestens einem Vorgang von einem oder mehreren Vorgängen als Reaktion auf das Bestimmen, wobei der eine oder die mehreren Vorgänge Folgendes umfassen: Benachrichtigen, über den drahtlosen Sendeempfänger, der Fernsteuerung über die Situation; und Steuern der Fahrzeugsteuerschnittstelle, um mindestens einen Aspekt des Manövrierens des Fahrzeugs durch die Fernsteuerung einzuschränken.
  20. Einrichtung nach Anspruch 19, wobei die Situation das Manövrieren des Fahrzeugs durch die Fernsteuerung einschließlich einer oder mehrerer unsicherer Handlungen umfasst.
DE112017006531.3T 2017-01-25 2017-01-25 Ferngesteuerter virtual-reality-parkdienst Pending DE112017006531T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2017/014980 WO2018140013A1 (en) 2017-01-25 2017-01-25 Virtual reality remote valet parking

Publications (1)

Publication Number Publication Date
DE112017006531T5 true DE112017006531T5 (de) 2019-09-26

Family

ID=62978208

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017006531.3T Pending DE112017006531T5 (de) 2017-01-25 2017-01-25 Ferngesteuerter virtual-reality-parkdienst

Country Status (4)

Country Link
US (2) US11220291B2 (de)
CN (1) CN110226144B (de)
DE (1) DE112017006531T5 (de)
WO (1) WO2018140013A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190384286A1 (en) * 2017-01-26 2019-12-19 Ford Global Technologies, Llc Virtual reality autonomous driving takeover
US11340609B2 (en) * 2018-05-03 2022-05-24 Formula Square Holdings Ltd Systems and methods for providing driving guidance
US11836410B2 (en) * 2019-08-06 2023-12-05 Universal City Studios Llc Interactive headgear
CN115042806B (zh) * 2022-07-29 2022-11-15 浙江吉利控股集团有限公司 一种代客泊车的路径显示方法、装置及电子设备
CN116896684B (zh) * 2023-08-02 2024-05-17 广州颖上信息科技有限公司 一种稳定器的虚拟控制系统及方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8108092B2 (en) * 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
WO2007143756A2 (en) * 2006-06-09 2007-12-13 Carnegie Mellon University System and method for autonomously convoying vehicles
US8525880B2 (en) * 2008-11-21 2013-09-03 Robert Bosch Gmbh Security system including modular ring housing
JP5168580B2 (ja) * 2008-12-01 2013-03-21 富士通株式会社 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置
DE102011109491A1 (de) * 2011-08-04 2013-02-07 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Fahrunterstützungsvorrichtung zur Unterstützung der Befahrung enger Fahrwege
US20130246207A1 (en) * 2012-03-19 2013-09-19 Uber Technologies, Inc. System and method for dynamically adjusting prices for services
US20140002651A1 (en) * 2012-06-30 2014-01-02 James Plante Vehicle Event Recorder Systems
CN103473951B (zh) * 2013-08-27 2015-09-23 东莞中国科学院云计算产业技术创新与育成中心 一种基于临场感的自动停车场管理系统
US9558408B2 (en) * 2013-10-15 2017-01-31 Ford Global Technologies, Llc Traffic signal prediction
US20150149265A1 (en) * 2013-11-27 2015-05-28 GM Global Technology Operations LLC Controlled parking of autonomous vehicles
US9406177B2 (en) * 2013-12-20 2016-08-02 Ford Global Technologies, Llc Fault handling in an autonomous vehicle
US9465388B1 (en) * 2014-03-03 2016-10-11 Google Inc. Remote assistance for an autonomous vehicle in low confidence situations
US9720410B2 (en) * 2014-03-03 2017-08-01 Waymo Llc Remote assistance for autonomous vehicles in predetermined situations
US20160084661A1 (en) * 2014-09-23 2016-03-24 GM Global Technology Operations LLC Performance driving system and method
US9494935B2 (en) * 2014-11-13 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Remote operation of autonomous vehicle in unexpected environment
FR3028767B1 (fr) * 2014-11-26 2017-02-10 Parrot Systeme video pour le pilotage d'un drone en mode immersif
US9931749B2 (en) * 2015-04-15 2018-04-03 John C. Nappo Remote presence robotic system
US20170083082A1 (en) * 2015-09-18 2017-03-23 Intellectual Fortress, LLC Image processing virtual reality controller system and method
CN105335571A (zh) * 2015-11-24 2016-02-17 大连楼兰科技股份有限公司 一种碰撞仿真虚拟现实的环境搭建方法
CN105654808A (zh) * 2016-02-03 2016-06-08 北京易驾佳信息科技有限公司 一种基于实际机动车的机动车驾驶人智能化训练系统
CN105974920A (zh) * 2016-06-14 2016-09-28 北京汽车研究总院有限公司 一种无人驾驶系统

Also Published As

Publication number Publication date
US20220026902A1 (en) 2022-01-27
CN110226144B (zh) 2022-12-13
WO2018140013A1 (en) 2018-08-02
US11584438B2 (en) 2023-02-21
US20190359258A1 (en) 2019-11-28
CN110226144A (zh) 2019-09-10
US11220291B2 (en) 2022-01-11

Similar Documents

Publication Publication Date Title
DE112017006531T5 (de) Ferngesteuerter virtual-reality-parkdienst
DE112017006571T5 (de) Übernahme von autonomem fahren mittels virtueller realität
DE102019128555A1 (de) Minderung einer intermittierenden verzögerung für ferngesteuerten fahrzeugvorgang
DE102019100495A1 (de) Tethering von mobilen vorrichtungen für ein ferngesteuertes einparkhilfesystem
DE102011103802A1 (de) Tragbares Bilderkennungssystem
DE102015203343A1 (de) Steuerung des halbautonomen modus
DE102018112234A1 (de) Verkehrssituationswahrnehmung für ein autonomes fahrzeug
DE102015207097A1 (de) Haptisches lenkrad
DE102015114780A1 (de) Automatisches Park- und Erinnerungssystem und Verfahren zur Verwendung
DE102018114285A1 (de) Einleitung von ferngesteuertem parken eines fahrzeugs über eine mobile vorrichtung
DE102019129700A1 (de) System und verfahren für die sicherheit einer elektrischen heckklappe
DE102015118489A1 (de) Fernbedienung eines autonomen Fahrzeugs in einer unerwarteten Umgebung
WO2016162237A1 (de) Steuerung für ein elektronisches multifunktionsgerät
DE102015122090A1 (de) Fahrzeugfernsteuerung und -Betrieb
DE102017125861A1 (de) Fahrzeugdämpfungsregelung
DE102018128278A1 (de) Leitfahrzeugüberwachung für eine adaptive geschwindigkeitsregelung
DE102018101124A1 (de) Angabe einer Fahrzeugbelegung und deren Verwendung
DE102019125567A1 (de) Fahrzeugsystem und verfahren zum festlegen einer variablen virtuellen grenze
DE102019100024A1 (de) Schnittstelle einer mobilen vorrichtung zur anhängerrückfahrhilfe
DE102018132369A1 (de) Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen
DE102019122394A1 (de) Verfolgung von intelligenten vorrichtungen in fahrzeugen
DE102018121917A1 (de) Fahrzeugkommunikationsverwaltungssysteme und -verfahren
DE112017004909T5 (de) Fahrzeugbetriebsverwaltungssystem
EP3374835A1 (de) Steuerung und fernsteuerung für ein unbemanntes flugobjekt sowie verfahren zum steuern des flugobjekts
DE112017007314T5 (de) Durch Fahrer überprüftes Selbstparken

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000

R012 Request for examination validly filed