-
TECHNISCHES GEBIET
-
Die vorliegende Offenbarung betrifft im Allgemeinen autonome Fahrzeuge und insbesondere einen ferngesteuerten Virtual-Reality-Parkdienst.
-
STAND DER TECHNIK
-
Durch den stetig zunehmenden Fahrzeugbesitz und die entsprechende Anzahl von verwendeten Fahrzeugen, ist das Parken ein Problem für viele Fahrzeugfahrer geworden. Zu einigen der häufigen Parkprobleme gehören zum Beispiel inadäquate Informationen für Fahrer, ineffiziente Verwendung der existierenden Parkkapazität, übermäßige Fahrzeugverwendung, ungünstige Parklücken, ungünstige Parkoptionen, verwirrende Parkregeln, Fehlen von ausreichend Parkraum bei Veranstaltungsorten und geringe Parkfluktuationsraten. Als ein Ergebnis neigen viele Fahrzeugfahrer dazu, Zeit für die Suche nach Parkplätzen zu verschwenden. Darüber hinaus können Verkehrsstaus entstehen oder verschlimmert werden, da Fahrzeugfahrer beim Suchen nach einer Parklücke Fahrzeuge fahren.
-
Figurenliste
-
Nicht einschränkende und nicht erschöpfende Ausführungsformen der vorliegenden Offenbarung werden in Bezug auf die folgenden Figuren beschrieben, wobei sich in den verschiedenen Figuren gleiche Bezugszeichen auf gleiche Teile beziehen, sofern nicht anderweitig angegeben.
- 1 ist eine Darstellung, die ein beispielhaftes Szenario darstellt, in dem Ausführungsformen gemäß der vorliegenden Offenbarung verwendet werden können.
- 2 ist ein Blockdiagramm, das eine beispielhafte Einrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt.
- 3 ist ein Ablaufdiagramm, das einen beispielhaften Prozess gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt.
- 4 ist ein Ablaufdiagramm, das einen beispielhaften Prozess gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt.
-
DETAILLIERTE BESCHREIBUNG
-
In der folgenden Beschreibung wird auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen durch Veranschaulichung konkrete beispielhafte Ausführungsformen gezeigt werden, in denen die Offenbarung umgesetzt werden kann. Diese Ausführungsformen werden mit ausreichender Genauigkeit beschrieben, um es dem Fachmann zu ermöglichen, die hier offenbarten Konzepte umzusetzen, und es versteht sich, dass Modifizierungen der verschiedenen offenbarten Ausführungsformen vorgenommen werden können und dass andere Ausführungsformen genutzt werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Die folgende detaillierte Beschreibung ist deshalb nicht in einschränkendem Sinn aufzufassen.
-
1 veranschaulicht ein beispielhaftes Szenario 100, in dem Ausführungsformen gemäß der vorliegenden Offenbarung verwendet werden können. Um das vorstehend erwähnte Problem mit einem ferngesteuerten Bediener anzugehen, der ein autonomes Fahrzeug übernimmt, schlägt die vorliegende Offenbarung Techniken, Schemata, Prozesse und Einrichtungen bezüglich der Virtual-Reality-Übernahme des autonomen Fahrzeugs vor. Gemäß einem vorgeschlagenen Schema, wie im Szenario 100 gezeigt, kann ein Fahrzeug 110 mit einem Steuersystem ausgestattet, konfiguriert, oder anderweitig bereitgestellt sein oder kann dieses installiert sein, das mindestens einen Prozessor 115, eine nach vorn zeigende Kamera 112, eine nach hinten zeigende Kamera 117, einen drahtlosen Sendeempfänger 118 und einen oder mehrere Sendeempfänger 119(1)-119(M) beinhaltet. In einigen Ausführungsformen kann das Fahrzeug 110 ein vollständig autonomes Fahrzeug sein. Alternativ kann das Fahrzeug 110 in der Lage sein, in einem manuellen Modus (z. B. betrieben durch einen menschlichen Fahrer) und in einem autonomen Modus ohne menschliche Intervention unter normalen Bedingungen betrieben zu werden.
-
Gemäß dem Schema 100 kann ein Benutzer 150 eine Virtual-Reality-basierte Steuerung 120 nutzen, um die Steuerung des Fahrzeugs 110 zu übernehmen. Die Virtual-Reality-basierte Steuerung 120 kann ein Headset 122 und eine Recheneinrichtung 125 beinhalten, das kommunikativ an das Headset 122 gekoppelt ist. Die Recheneinrichtung 125 kann einen Prozessor 128 beinhalten, der die Vorgänge der Virtual-Reality-basierten Steuerung 120 steuern kann. Der Benutzer 150 kann das Headset 122 tragen und mit Vorgängen (z. B. Lenkung und/oder Geschwindigkeit) des Fahrzeugs 110 über eine drahtlose Kommunikation kommunizieren und diese Steuern. In einigen Ausführungsformen können Daten, die über die drahtlose Kommunikation übertragen und empfangen werden, mit einem User Datagram Protocol (UDP) übereinstimmen. In einigen Ausführungsformen kann die drahtlose Kommunikation direkt zwischen der Recheneinrichtung 125 und dem drahtlosen Sendeempfänger 118 des Fahrzeugs 110 hergestellt werden. Alternativ oder zusätzlich kann die drahtlose Kommunikation indirekt zwischen der Recheneinrichtung 125 und dem drahtlosen Sendeempfänger 118 des Fahrzeugs 110 über ein oder mehrere drahtgebundene und/oder drahtlose Netzwerke (dargestellt durch ein Netzwerk 130 in 1) und eine drahtlose Station 135 hergestellt werden.
-
Die Kamera 112 kann in der Lage sein, eine oder mehrere Folgen von Videobildern einer Vorderansicht des Fahrzeugs 110 aufzunehmen, die durch den Benutzer 150, der das Headset 122 trägt, angeschaut werden können. Auf ähnliche Weise kann die Kamera 117 in der Lage sein, eine oder mehrere Folgen von Videobildern einer Rückansicht des Fahrzeugs 110 aufzunehmen, die durch den Benutzer 150, der das Headset 122 trägt, angeschaut werden können. Die Kamera 112 kann an einer Kardanaufhängung 114 montiert sein, welche die dreidimensionale (3D) Bewegung der Kamera 112 ermöglicht. Die Kardanaufhängung 114 kann zum Beispiel durch 3D-Drucken individuell hergestellt werden. In einigen Ausführungsformen kann das Fahrzeug 110 ebenfalls einen oder mehrere Aktoren 116 und assoziierte Servos (nicht gezeigt) beinhalten, die in der Lage sind, die Position der Kamera 112 durch Drehen, Schwenken und/oder Rotieren der Kardanaufhängung 114 anzupassen. Das heißt, der eine oder die mehreren Aktoren 116 können kommunikativ an den Prozessor 115 gekoppelt sein, um Signale vom Prozessor 115 zu empfangen, um die Position und/oder Ausrichtung der Kamera 112 dementsprechend anzupassen.
-
Der Prozessor 115 kann eine oder mehrere Folgen von Videobildern von jeder der Kamera 112 und der Kamera 117 empfangen. Der Prozessor 115 kann die eine oder die mehreren Folgen von Videobildern über den drahtlosen Sendeempfänger 118 an den Prozessor 128 der Recheneinrichtung 125 übertragen, wodurch das Virtual-Reality-Betrachten der Videobilder durch den Benutzer 150 mit dem Headset 122 ermöglicht wird. Somit kann der Benutzer 150 einen Echtzeit-Video-Feed aus der Perspektive der Kamera 112 und der Kamera 117 ferngesteuert betrachten, als wäre der Benutzer 150 der Fahrer des Fahrzeugs 110, um ferngesteuert Vorgänge des Fahrzeugs 110 unter Verwendung einer Fahrereinstellung, einer Fahrzeuginnenraumeinstellung, eines Lenkrads, eines oder mehrerer Schaltknäufe und/oder eines Pedalsatzes der Virtual-Reality-basierten Steuerung 120 zu übernehmen oder zu steuern. Der Einfachheit halber sind die Fahrereinstellung, die Fahrzeuginnenraumeinstellung, das Lenkrad, der eine oder die mehreren Schaltknäufe und der Pedalsatz der Virtual-Reality-basierten Steuerung 120 in 1 nicht gezeigt. Beim Empfangen einer Benutzereingabe vom Benutzer 150 kann der Prozessor 128 ein Manövriersignal für den Prozessor 115 bereitstellen, um eine Lenkung des Fahrzeugs 110, eine Geschwindigkeit des Fahrzeugs 110 oder beides zu steuern.
-
Das Headset 122 kann mit einer der mehreren Komponenten (z. B. Beschleunigungsmesser(n) und/oder Gyroskop(en)) ausgestattet, konfiguriert oder anderweitig bereitgestellt sein, die in der Lage sind, Bewegungen des Headsets 122 zu erfassen, um (ein) Signal(e) zu erfassen und bereitzustellen, das/die ein Rollen 124, ein Nicken 126, ein Gieren 128 oder eine Kombination davon in Bezug auf die Position des Headsets 122 (und den Kopf des Benutzers 150) angibt/angeben. Beim Empfangen eines derartigen Signals/derartiger Signale vom Headset 122 kann der Prozessor 128 eine Änderung der Position und/oder Bewegung des Headsets 122 detektieren und kann ein Kameraanpassungssignal für den Prozessor 115 bereitstellen, um über den einen oder die mehreren Aktoren 114 eine Position der Kamera 112 (z. B. ein Rollen, ein Nicken, ein Gieren oder eine Kombination davon) als Reaktion auf die Detektion anzupassen. Echtzeit-Audio, (ein) Mikrofon(e) und/oder ein Knopf/Knöpfe können in oder am Headset 122 bereitgestellt sein, um einem Benutzer 150 zu gestatten, ein Pop-up eines Rückansicht-Video-Feeds von der Kamera 117 in einer Ecke einer Anzeige des Headsets 122 einzuleiten.
-
Durch den Echtzeit-Video-Feed von der Kamera 112 (und der Kamera 117) ermöglicht das Headset 122 einem Benutzer 150 das Ansehen einer Ansicht der Kamera 112 (und der Kamera 117) in einer Virtual-Reality-Einstellung, als würde der Benutzer 150 das Fahrzeug 110 tatsächlich fahren. Wenn die Position des Headsets 122 ohne Relation zu einem montierten Sensor erfasst wird, kann der Benutzer 150 in der Lage sein, die Kamera 110 auf eine Standardposition (z. B. nach vorn zeigende Pose) zurücksetzen. Zum Beispiel kann der Prozessor 128 eine Benutzereingabe zum Zurücksetzen oder anderweitigen Zurückbringen der Kamera 110 auf/in ihre Standardposition empfangen und kann demnach ein Zurücksetzungssignal für den Prozessor 115 bereitstellen, um eine Position der Kamera 112 anzupassen, um die Kamera 112 in eine nach vom zeigende Richtung in Bezug auf das Fahrzeug 110 gemäß dem Zurücksetzungssignal zu bewegen.
-
Der eine oder die mehreren Sensoren 119(1)-119(M) sind in der Lage, einen oder mehrere Aspekte oder Parameter in Bezug auf das Fahrzeug 110, in welchem die Einrichtung 200 installiert ist, zu erfassen und Sensordaten zu generieren, die ein Ergebnis des Erfassens darstellen. Zum Beispiel können der eine oder die mehreren Sensoren 119(1)-119(M) einen oder mehrere Beschleunigungsmesser, ein oder mehrere Gyroskope, einen oder mehrere Drucksensoren, einen oder mehrere piezoelektrische Sensoren, ein oder mehrere Mikrofone und/oder einen oder mehrere Bildsensoren beinhalten. Der eine oder die mehreren Sensoren 119(1)-119(M) können verschiedene Bedingungen in Bezug auf das Fahrzeug 110 detektieren, wie zum Beispiel und ohne Einschränkung, ob sich das Fahrzeug 110 bewegt, ob sich das Fahrzeug 110 nicht bewegt, ob das Fahrzeug 110 mit (einem) Insassen belegt ist, und ob ein menschlicher Fahrer die Steuerung des Fahrzeugs 110 zum autonomen Fahren oder zur Fernsteuerung des Fahrzeugs 110 freigegeben hat.
-
Gemäß dem Schema 100 kann die Virtual-Reality-basierte Steuerung 120 kommunikativ mit einem oder mehreren Parkverwaltungssystemen (durch einen Parkverwaltungsserver 140 in 1 dargestellt) über das Netzwerk 130 verbunden sein, um Parkinformationen über einen oder mehrere Parkplätze zu empfangen, wodurch die Bereitstellung eines ferngesteuerten Parkdienstes für Fahrzeuge, wie zum Beispiel das Fahrzeug 110, ermöglicht werden kann. Die vom Server 140 empfangenen Parkinformationen können Informationen über einen oder mehrere Parkplätze sowie die Belegung (Verfügbarkeit von unbelegten Parklücken) auf jedem des einen oder der mehreren Parkplätze beinhalten. Der ferngesteuerte Parkdienst ermöglicht dem Fahrer des Fahrzeugs 110, das Fahrzeug 110 zu stoppen (z. B. am Straßenrand oder in der Nähe eines Parkplatzes) und dem ferngesteuerten Parkdienst die Kontrolle über das Fahrzeugs 110 übernehmen zu lassen. Der Fahrer des ferngesteuerten Parkdienstes (z. B. Benutzer 150) kann ein Einparksystemprogramm oder eine -App verwenden der Parkinformationen vom Server 140 erhalten, um eine oder mehrere freie Parklücken auf einem oder mehreren Parkplätzen in der Nähe des Fahrzeugs 110 zu finden. Der Fahrer des ferngesteuerten Parkdienstes kann das Fahrzeug 110 dann durch das Fernsteuern des Fahrzeugs 110 parken, um das Fahrzeug 110 zu manövrieren, damit es sich von seinem aktuellen Standort zu einer der einen oder mehreren freien Parklücken auf einem Parkplatz bewegt.
-
Gemäß dem Schema 100 kann der Prozessor 115 während des Umsetzens des ferngesteuerten Parkdienstes kontinuierlich oder periodisch Sensordaten von dem einen oder den mehreren Sensoren 119(1)-119(M) empfangen, um auf der Grundlage der Sensordaten zu bestimmen, ob eine vordefinierte Situation in Bezug auf das Fahrzeug 110 existiert. Die vordefinierte Situation kann zum Beispiel und ohne Einschränkung das Manövrieren des Fahrzeugs 110 durch den Fahrer des ferngesteuerten Parkdienstes einschließlich einer oder mehrerer unsicherer Handlungen beinhalten (z. B. übermäßig schnelles Fahren und/oder zu dicht auf (ein) umgebende(s) Fahrzeug(e) und/oder (einen) Fußgänger auffahren). Als Reaktion auf das Bestimmen, dass die vordefinierte Situation existiert, kann der Prozessor 115 mindestens einen Vorgang von einem oder mehreren Vorgängen durchführen. Zu dem einen oder den mehreren Vorgängen können das Benachrichtigen der Fernsteuerung über die Situation und/oder das Einschränken von mindestens einem Aspekt des Manövrierens des Fahrzeugs durch die Fernsteuerung gehören. Zum Beispiel kann der Prozessor 115 eine Bremse anwenden, um das Fahrzeug 110 zu verlangsamen, ein Ausmaß der Lenkung durch den Fahrer des ferngesteuerten Parkdienstes einschränken, um eine Kollision zu vermeiden, oder beliebige anderen Maßnahmen ergreifen, um einen Zusammenstoß oder eine Kollision abzuschwächen oder zu vermeiden.
-
2 veranschaulicht eine beispielhafte Einrichtung 200 gemäß einer Ausführungsform der vorliegenden Offenbarung. Die Einrichtung 200 kann zahlreiche Funktionen bezüglich der Techniken, Schemata, Verfahren und Systemen durchführen, die hierin beschrieben sind und in Zusammenhang mit einem ferngesteuerten Virtual-Reality-Parkdienst stehen, einschließlich der vorstehend in Bezug auf das Szenario 100 beschriebenen sowie der nachstehend in Bezug auf den Prozess 300 und Prozess 400 beschriebenen. Die Einrichtung 200 kann im Szenario 100 im Fahrzeug 110 umgesetzt sein, um verschiedene Ausführungsformen gemäß der vorliegenden Offenbarung zu bewirken. Das heißt, in einigen Ausführungsformen kann die Einrichtung 200 eine beispielhafte Umsetzung des Steuersystems des Fahrzeugs 110 sein. Die Einrichtung 200 kann eine, einen Teil oder alle der in 2 gezeigten Komponenten beinhalten. Die Einrichtung 200 kann ebenfalls eine oder mehrere andere Komponenten beinhalten, die für zahlreiche Ausführungsformen der vorliegenden Offenbarung nicht relevant sind, und daher ist/sind derartige Komponente(n) nicht in 2 gezeigt und eine Beschreibung davon wird hierin zum Zwecke der Kürze nicht bereitgestellt.
-
Die Einrichtung 200 kann mindestens einen Prozessor 210 beinhalten, der eine Steuerschaltung 212 und eine Kommunikationsschaltung 214 beinhalten kann. Der Prozessor 210 kann eine beispielhafte Umsetzung des Prozessors 115 der Fahrzeugs 110 sein. Der Prozessor 210 kann in der Form von einem oder mehreren Einkernprozessoren, einem oder mehreren Mehrkernprozessoren oder einem oder mehreren Prozessoren mit großen Befehlsvorrat (complex instruction set computing - CISC) umgesetzt sein. Daher kann der Prozessor 210 gemäß der vorliegenden Offenbarung in einigen Ausführungsformen mehrere Prozessoren beinhalten und in anderen Ausführungsformen einen einzelnen Prozessor, obwohl ein Singularausdruck „ein Prozessor“ hierin zum Bezeichnen des Prozessors 210 verwendet wird. In einem anderen Aspekt kann der Prozessor 210 in der Form von Hardware (und wahlweise Firmware) mit elektronischen Komponenten umgesetzt sein, einschließlich zum Beispiel und ohne Einschränkung eines oder mehreren Transistoren, einer oder mehreren Dioden, eines oder mehreren Kondensatoren, eines oder mehreren Widerständen und/oder eines oder mehreren Induktoren, die dazu konfiguriert und angeordnet sind, um bestimmte Zwecke in Übereinstimmung mit der vorliegenden Offenbarung zu erreichen. Anders ausgedrückt, ist der Prozessor 210 in mindestens einigen Ausführungsformen eine Maschine für spezielle Zwecke, die spezifisch zum Durchführen spezifischer Aufgaben, einschließlich eines ferngesteuerten Virtual-Reality-Parkdienstes, gemäß zahlreichen Ausführungsformen der vorliegenden Offenbarung ausgestaltet, ausgelegt und konfiguriert ist.
-
In einigen Ausführungsformen kann die Einrichtung 200 eine nach vorn zeigende Kamera 220 und eine nach hinten zeigend Kamera 225 beinhalten, die beide in der Lage sind, eine oder mehrere Folgen von Videobildern aufzunehmen. Jede der Kamera 220 und der Kamera 225 kann kommunikativ an den Prozessor 210 gekoppelt sein, um Videosignale der einen oder mehreren Folgen von Videobildern bereitzustellen, die durch die Kamera 220 und die Kamera 225 aufgenommen werden. In einigen Ausführungsformen kann die Kamera 220 an einer Kardanaufhängung (z. B. der Kardanaufhängung 114) montiert sein, welche eine 3D-Bewegung der Kamera 220 ermöglicht. In einigen Ausführungsformen kann die Einrichtung 200 ebenfalls einen oder mehrere Aktoren 250(1)-250(N) beinhalten, die in der Lage sind, die Position der Kamera 220 durch Drehen, Schwenken und/oder Rotieren der Kardanaufhängung anzupassen, an welcher die Kamera 220 befestigt ist. Das heißt, der eine oder die mehreren Aktoren 250(1)-250(N) können kommunikativ an den Prozessor 210 gekoppelt sein, um Signale vom Prozessor 210 zu empfangen, um die Position und/oder Ausrichtung der Kamera 220 dementsprechend anzupassen.
-
In einigen Ausführungsformen kann die Einrichtung 200 einen drahtlosen Sendeempfänger 230 beinhalten, der kommunikativ an den Prozessor 210 gekoppelt ist. Der drahtlose Sendeempfänger 230 kann in der Lage sein, drahtlose Kommunikationen mit einem oder mehreren Netzwerken (z. B. dem Netzwerk 130) und/oder einer Fernsteuerung (z. B. der Virtual-Reality-basierten Steuerung 120) herzustellen. In einigen Ausführungsformen kann der drahtlose Sendeempfänger 230 in der Lage sein, Daten gemäß dem UDP zu übertragen und zu empfangen.
-
In einigen Ausführungsformen kann die Einrichtung 200 eine Fahrzeugsteuerschnittstelle 240 beinhalten, die kommunikativ an den Prozessor 210 gekoppelt ist, sodass der Prozessor 210 das Fahrzeug (z. B. das Fahrzeug 110) ohne eine menschliche Eingabe, Steuerung und/oder Intervention autonom steuern, betreiben oder anderweitig manövrieren kann. Die Fahrzeugsteuerschnittstelle 240 kann mit den erforderlichen mechanischen, elektrischen, pneumatischen und/oder hydraulischen Komponenten des Fahrzeugs für das Steuern und/oder Manövrieren des Fahrzeugs kommunizieren. Somit kann die Fahrzeugsteuerschnittstelle 240 beim Empfangen von Signalen und/oder Befehlen von dem Prozessor 210 ein oder mehrere Teile des Fahrzeugs betätigen, aktivieren, steuern und/oder betreiben (z. B. um das Fahrzeug zu fahren und zu manövrieren).
-
In einigen Ausführungsformen kann die Einrichtung 200 einen oder mehrere Sensoren 260(1)-260(M) beinhalten. Der eine oder die mehreren Sensoren 260(1)-260(M) sind in der Lage, einen oder mehrere Aspekte oder Parameter in Bezug auf das Fahrzeug, in welchem die Einrichtung 200 installiert ist, zu erfassen und Sensordaten zu generieren, die ein Ergebnis des Erfassens darstellen. Zum Beispiel können der eine oder die mehreren Sensoren 260(1)-260(M) einen oder mehrere Beschleunigungsmesser, ein oder mehrere Gyroskope, einen oder mehrere Drucksensoren, einen oder mehrere piezoelektrische Sensoren, ein oder mehrere Mikrofone und/oder einen oder mehrere Bildsensoren beinhalten. Der eine oder die mehreren Sensoren 260(1)-260(M) können verschiedene Bedingungen in Bezug auf das Fahrzeug detektieren, wie zum Beispiel und ohne Einschränkung, ob sich das Fahrzeug bewegt, ob sich das Fahrzeug nicht bewegt, ob das Fahrzeug mit (einem) Insassen belegt ist, und ob ein menschlicher Fahrer die Steuerung des Fahrzeugs zum autonomen Fahren oder zur Fernsteuerung des Fahrzeugs freigegeben hat.
-
In einigen Ausführungsformen können Kommunikationen zwischen zwei oder mehreren Komponenten der Einrichtung 200 drahtlose Kommunikationen gemäß (einem/einer) geeigneten Protokoll(en), Standard(s) und/oder Spezifikation(en) sein. Zum Beispiel können die Kommunikationen zwischen dem Prozessor 210 und einem oder mehreren der Kamera 220, der Kamera 225, des drahtlosen Sendeempfängers 230, der Fahrzeugsteuerschnittstelle 240, des einen oder der mehreren Aktoren 250(1)-250(N) und des einen oder der mehreren Sensoren 260(1)-260(M) auf Wi-Fi-Technologien gemäß den Standards 802.11 des Institute of Electrical and Electronics Engineers (IEEE) basieren. Zusätzlich oder alternativ können andere drahtlose Technologien, wie zum Beispiel Bluetooth, Nahbereichskommunikation (Near-Field Communication - NFC), Infrarot und/oder Ultraschall, genutzt werden.
-
Die Kommunikationsschaltung 214 kann in der Lage sein, eine drahtlose Kommunikation über den drahtlosen Sendeempfänger 230 mit einer Fernsteuerung (z. B. dem Prozessor 128 der Recheneinrichtung 125 der Virtual-Reality-basierten Steuerung 120) herzustellen. Die Kommunikationsschaltung 214 kann in der Lage sein, ein Signal von der Fernsteuerung zu empfangen. Die Steuerschaltung 212 kann in der Lage sein, der Fernsteuerung die Folge von Videobildern, die durch die Kamera 220 aufgenommen werden, über den drahtlosen Sendeempfänger 230 bereitzustellen. Die Steuerschaltung 212 kann ebenfalls in der Lage sein, das Fahrzeug zu manövrieren, damit es sich gemäß dem Signal von einem Standort zu einem anderen bewegt.
-
In einigen Ausführungsformen kann die Kommunikationsschaltung 212 in der Lage sein, ein Vorliegen einer Bedingung in Bezug auf das Fahrzeug zu bestimmen und die Fernsteuerung über den drahtlosen Sendeempfänger 230 über die Bedingung zu benachrichtigen. In einigen Ausführungsformen kann das Empfangen des Signals ein Ergebnis des Benachrichtigens der Fernsteuerung über die Bedingung sein. In einigen Ausführungsformen kann die Bedingung Stoppen des Fahrzeugs, Freigeben der Steuerung des Fahrzeugs durch einen menschlichen Fahrer des Fahrzeugs oder beides beinhalten.
-
In einigen Ausführungsformen kann die Kommunikationsschaltung 214 in der Lage sein, ein Kameraanpassungssignal über den drahtlosen Sendeempfänger 230 von der Fernsteuerung zu empfangen. In derartigen Fällen kann die Steuerschaltung 212 in der Lage sein, den einen oder die mehreren Aktoren zu steuern, um die Position der Kamera 220 gemäß dem Kameraanpassungssignal anzupassen.
-
In einigen Ausführungsformen kann die Steuerschaltung 212 in der Lage sein, die Sensordaten von dem einen oder den mehreren Sensoren 260(1)-260(M) zu empfangen. Außerdem kann die Steuerschaltung 212 ebenfalls in der Lage sein, auf der Grundlage der Sensordaten zu bestimmen, dass eine Situation in Bezug auf das Fahrzeug existiert. Darüber hinaus kann die Steuerschaltung 212 in der Lage sein, mindestens einen Vorgang von einem oder mehreren Vorgängen als Reaktion auf das Bestimmen durchzuführen. Die Situation kann zum Beispiel das Manövrieren des Fahrzeugs durch die Fernsteuerung einschließlich einer oder mehrerer unsicherer Handlungen beinhalten. In derartigen Fällen kann die Steuerschaltung 212 die Fernsteuerung über den drahtlosen Sendeempfänger 230 über die Situation benachrichtigen. Die Steuerschaltung 212 kann ebenfalls die Fahrzeugsteuerschnittstelle 240 steuern, um mindestens einen Aspekt des Manövrierens des Fahrzeugs des Fahrzeugs durch die Fernsteuerung einzuschränken (z. B. Steuern der Fahrzeugsteuerschnittstelle 240, um eine Bremse anzuwenden, um das Fahrzeug zu verlangsamen, Einschränken eines Ausmaßes der Lenkung durch die Fernsteuerung, um eine Kollision zu vermeiden, Ergreifen beliebiger anderer geeigneter Maßnahmen, um einen Zusammenstoß oder eine Kollision abzuschwächen oder zu vermeiden).
-
3 veranschaulicht einen beispielhaften Prozess 300 gemäß einer Ausführungsform der vorliegenden Offenbarung. Der Prozess 300 kann einen/eine oder mehrere Vorgänge, Handlungen oder Funktionen beinhalten, die als Blöcke angezeigt werden, wie etwa 310, 320, 330, 340, 350, 360, 370, 380, 390, 392 und 394. Obgleich sie als einzelne Blöcke veranschaulicht sind, können verschiedene Blöcke des Prozesses 300 in Abhängigkeit von den gewünschten Umsetzungen in zusätzliche Blöcke unterteilt, zu weniger Blöcken zusammengefasst oder beseitigt sein. Der Prozess 300 kann im Szenario 100 und/oder durch die Einrichtung 200 umgesetzt werden. Zu Veranschaulichungszwecken und ohne Einschränkung wird die folgende Beschreibung des Prozesses 300 im Kontext des Szenarios 100 bereitgestellt. Der Prozess 300 kann mit Block 310 beginnen.
-
Bei 310 kann der Prozess 300 umfassen, dass der Prozessor 115 des Fahrzeugs 110 eine drahtlose Kommunikation mit einer Fernsteuerung (z. B. dem Prozessor 128 der Recheneinrichtung 125 der Virtual-Reality-basierten Steuerung 120) herstellt. Der Prozess 300 kann von 310 zu 320 übergehen.
-
Bei 320 kann der Prozess 300 umfassen, dass der Prozessor 115 der Fernsteuerung eine Folge von Videobildern bereitstellt, die durch eine Kamera des Fahrzeugs (z. B. die Kamera 112 des Fahrzeugs 110) aufgenommen werden. Der Prozess 300 kann von 320 zu 330 übergehen.
-
Bei 330 kann der Prozess 300 umfassen, dass der Prozessor 115 ein Signal von der Fernsteuerung empfängt. Der Prozess 300 kann von 330 zu 340 übergehen.
-
Bei 340 kann der Prozess 300 umfassen, dass der Prozessor 115 das Fahrzeug 110 manövriert, damit es sich gemäß dem Signal von einem Standort zu einem anderen bewegt. Der Prozess 300 kann von 340 zu 350, 370 und/oder 390 übergehen.
-
Bei 350 kann der Prozess 300 umfassen, dass der Prozessor 115 bestimmt, dass eine Bedingung in Bezug auf das Fahrzeug 110 existiert. In einigen Ausführungsformen kann die Bedingung Stoppen des Fahrzeugs 110, Freigeben der Steuerung des Fahrzeugs 110 durch einen menschlichen Fahrer des Fahrzeugs 110 oder beides beinhalten. Der Prozess 300 kann von 350 zu 360 übergehen.
-
Bei 360 kann der Prozess 300 umfassen, dass der Prozessor 115 die Fernsteuerung über die Bedingung benachrichtigt. In einigen Ausführungsformen kann das Empfangen des Manövriersignals ein Ergebnis des Benachrichtigens der Fernsteuerung über die Bedingung durch den Prozessor 115 sein.
-
Bei 370 kann der Prozess 300 umfassen, dass der Prozessor 115 ein Kameraanpassungssignal von der Fernsteuerung empfängt. Der Prozess 300 kann von 370 zu 380 übergehen.
-
Bei 380 kann der Prozess 300 umfassen, dass der Prozessor 115 einen oder mehrere Aktoren 116 steuert, um eine Position der Kamera 112 gemäß dem Kameraanpassungssignal anzupassen. In einigen Ausführungsformen kann der Prozess 300 beim Steuern des einen oder der mehreren Aktoren 116, um die Position der Kamera 112 anzupassen, umfassen, dass der Prozessor 115 ein Rollen, ein Nicken, ein Gieren oder eine Kombination davon in Bezug auf die Position der Kamera 112 anpasst.
-
Bei 390 kann der Prozess 300 umfassen, dass der Prozessor 115 Sensordaten von einem oder mehreren Sensoren empfängt, die mit dem Fahrzeug 110 assoziiert sind (z. B. einem oder mehreren Sensoren 119(1)-119(M)). Der Prozess 300 kann von 390 zu 392 übergehen.
-
Bei 392 kann der Prozess 300 umfassen, dass der Prozessor 115 auf der Grundlage der Sensordaten bestimmt, dass eine Situation in Bezug auf das Fahrzeug 110 existiert. Der Prozess 300 kann von 392 zu 394 übergehen.
-
Bei 394 kann der Prozess 300 umfassen, dass der Prozessor 115 mindestens einen Vorgang von einem oder mehreren Vorgängen als Reaktion auf das Bestimmen durchführt. Die Situation kann zum Beispiel das Manövrieren des Fahrzeugs 110 durch die Fernsteuerung einschließlich einer oder mehrerer unsicherer Handlungen beinhalten. In derartigen Fällen kann der Prozess 300 umfassen, dass der Prozessor 115 die Fernsteuerung über die Situation benachrichtigt. Außerdem kann der Prozess 300 umfassen, dass der Prozessor 115 mindestens einen Aspekt des Manövrierens des Fahrzeugs 110 durch die Fernsteuerung einschränkt.
-
In einigen Ausführungsformen kann das Bereitstellen der Folge von Videobildern, das Empfangen des Signals oder beides gemäß dem UDP erfolgen.
-
4 veranschaulicht einen beispielhaften Prozess 400 gemäß einer Ausführungsform der vorliegenden Offenbarung. Der Prozess 400 kann einen/eine oder mehrere Vorgänge, Handlungen oder Funktionen beinhalten, die als Blöcke, wie etwa 410, 420, 430 und 440, sowie als Unterblöcke 442, 444, 446 und 448 gezeigt sind. Obgleich sie als einzelne Blöcke veranschaulicht sind, können verschiedene Blöcke des Prozesses 400 in Abhängigkeit von den gewünschten Umsetzungen in zusätzliche Blöcke unterteilt, zu weniger Blöcken zusammengefasst oder beseitigt sein. Der Prozess 400 kann im Szenario 100 und/oder durch die Einrichtung 200 umgesetzt werden. Zu Veranschaulichungszwecken und ohne Einschränkung wird die folgende Beschreibung des Prozesses 400 im Kontext des Szenarios 100 bereitgestellt. Der Prozess 400 kann mit Block 410 beginnen.
-
Bei 410 kann der Prozess 400 umfassen, dass der Prozessor 128 einer Virtual-Reality-basierten Steuerung 120 eine drahtlose Kommunikation mit einem Steuersystem eines Fahrzeugs (z. B. dem Prozessor 115 des Fahrzeugs 110) herstellt. Der Prozess 400 kann von 410 zu 420 übergehen.
-
Bei 420 kann der Prozess 400 umfassen, dass der Prozessor 128 eine Folge von Videobildern empfängt, die durch eine mit dem Fahrzeug 110 assoziierte Kamera (z. B. der Kamera 112 des Fahrzeugs 110) aufgenommen werden. Der Prozess 400 kann von 420 zu 430 übergehen.
-
Bei 430 kann der Prozess 400 umfassen, dass der Prozessor 128 eine Virtual-Reality-Ansicht (z. B. am Headset 122 für den Benutzer 120) aus einer Perspektive eines Fahrers des Fahrzeugs 110 mindestens teilweise auf der Grundlage der Folge von Videobildern erzeugt. Der Prozess 400 kann von 430 zu 440 übergehen.
-
Bei 440 kann der Prozess 400 umfassen, dass der Prozessor 128 dem Prozessor 115 des Steuersystems ein Signal bereitstellt, um das Fahrzeug 110 von einem Standort zu einem anderen manövriert. Beim Bereitstellen des Signals für den Prozessor 115, um das Fahrzeug 110 von einem Standort zu einem anderen zu manövrieren, kann der Prozess 400 umfassen, dass der Prozessor 128 eine Reihe von Vorgängen ausführt, wie in den Unterblöcken 442, 444, 446 und 448 gezeigt.
-
Bei 442 kann der Prozess 400 umfassen, dass der Prozessor 128 einen aktuellen Standort des Fahrzeugs 110 bestimmt. Der Prozess 400 kann von 442 zu 444 übergehen.
-
Bei 444 kann der Prozess 400 umfassen, dass der Prozessor 128 einen Parkstandort einer verfügbaren Parklücke bestimmt. Der Prozess 400 kann von 444 zu 446 übergehen.
-
Bei 446 kann der Prozess 400 umfassen, dass der Prozessor 128 eine Route zum Bewegen des Fahrzeugs 110 vom aktuellen Standort zu dem Parkstandort bestimmt. Der Prozess 400 kann von 446 zu 448 übergehen.
-
Bei 448 kann der Prozess 400 umfassen, dass der Prozessor 128 das Signal gemäß der bestimmten Route generiert.
-
In einigen Ausführungsformen kann das Empfangen der Folge von Videobildern, das Bereitstellen des Signals für das Steuersystem oder beides gemäß dem UDP erfolgen.
-
In einigen Ausführungsformen kann der Prozess 400 beim Bereitstellen des Signals für das Steuersystem umfassen, dass der Prozessor 128 eine Benachrichtigung vom Steuersystem empfängt, die ein Vorliegen einer Bedingung in Bezug auf das Fahrzeug 110 angibt. Darüber hinaus kann der Prozess 400 umfassen, dass der Prozessor 128 das Signal für das Steuersystem als Reaktion auf das Empfangen der Benachrichtigung bereitstellt. In einigen Ausführungsformen kann die Bedingung Stoppen des Fahrzeugs 110, Freigeben der Steuerung des Fahrzeugs 110 durch einen menschlichen Fahrer des Fahrzeugs 110 oder beides beinhalten.
-
In einigen Ausführungsformen kann der Prozess 400 umfassen, dass der Prozessor 128 eine Änderung der Position eines Headsets (z. B. eines Rollens, eines Nickens, eines Gierens oder einer Kombination davon in Bezug auf die Position des Headsets 122) detektiert, das mit der Virtual-Reality-basierten Steuerung assoziiert ist. Außerdem kann der Prozess 400 umfassen, dass der Prozessor 128 dem Steuersystem ein Kameraanpassungssignal bereitstellt, um eine Position der mit dem Fahrzeug 110 assoziierten Kamera 112 als Reaktion auf das Detektieren anzupassen. In einigen Ausführungsformen kann die Anpassung der Kamera 112 das Anpassen eines Rollens, eines Nickens, eines Gierens oder einer Kombination davon in Bezug auf die Position der Kamera 112 umfassen.
-
In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil davon bilden und in denen zur Veranschaulichung konkrete Umsetzungen gezeigt sind, in welchen die vorliegende Offenbarung angewendet werden kann. Es versteht sich, dass andere Umsetzungen verwendet werden können und strukturelle Änderungen vorgenommen werden können, ohne vom Schutzumfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“, „eine beispielhafte Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann, doch es muss nicht unbedingt jede Ausführungsform diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner sei darauf hingewiesen, dass, wenn ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben ist, es im Bereich des Fachwissens des Fachmanns liegt, ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen umzusetzen, ob dies nun ausdrücklich beschrieben ist oder nicht.
-
Umsetzungen der hier offenbarten Systeme, Einrichtungen, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder verwenden, der Computerhardware beinhaltet, wie zum Beispiel einen oder mehrere Prozessoren und Systemspeicher, wie sie hier erläutert sind. Umsetzungen innerhalb des Umfangs der vorliegenden Offenbarung können zudem physische und andere computerlesbare Medien zum Transportieren oder Speichern von computerausführbaren Anweisungen und/oder Datenstrukturen beinhalten. Bei derartigen computerlesbaren Medien kann es sich um beliebige verfügbare Medien handeln, auf die durch ein Universal- oder Spezialcomputersystem zugegriffen werden kann. Bei computerlesbaren Medien, auf denen computerausführbare Anweisungen gespeichert sind, handelt es sich um Computerspeichermedien (-vorrichtungen). Bei computerlesbaren Medien, die computerausführbare Anweisungen transportieren, handelt es sich um Übertragungsmedien. Daher können Umsetzungen der vorliegenden Offenbarung beispielsweise und nicht einschränkend zumindest zwei eindeutig unterschiedliche Arten computerlesbarer Medien umfassen: Computerspeichermedien (-vorrichtungen) und Übertragungsmedien.
-
Computerspeichermedien (-vorrichtungen) beinhalten RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (solid state drives - „SSDs“) (z. B. auf Grundlage von RAM), Flash-Speicher, Phasenwechselspeicher (phase-change memory - „PCM“), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium, das dazu verwendet werden kann, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, und auf das durch einen Universal- oder Spezialcomputer zugegriffen werden kann.
-
Eine Umsetzung der in dieser Schrift offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder festverdrahtet, drahtlos oder eine beliebige Kombination aus festverdrahtet oder drahtlos) auf einen Computer übertragen oder einem Computer bereitgestellt werden, sieht der Computer die Verbindung zweckgemäß als Übertragungsmedium an. Übertragungsmedien können ein Netzwerk und/oder Datenverbindungen beinhalten, die dazu verwendet werden können, gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu transportieren, und auf die durch einen Universal- oder Spezialcomputer zugegriffen werden kann. Kombinationen aus dem Vorstehenden sollen ebenfalls im Umfang computerlesbarer Medien beinhaltet sein.
-
Computerausführbare Anweisungen umfassen beispielsweise Anweisungen und Daten, die bei Ausführung auf einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Die computerausführbaren Anweisungen können beispielsweise Binärdateien, Anweisungen in einem Zwischenformat, wie etwa Assemblersprache, oder auch Quellcode sein. Obwohl der Gegenstand in für Strukturmerkmale und/oder methodische Handlungen spezifischer Sprache beschrieben wurde, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht unbedingt auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt ist. Die beschriebenen Merkmale und Maßnahmen sind vielmehr als beispielhafte Umsetzungsformen der Ansprüche offenbart.
-
Der Fachmann wird erkennen, dass die vorliegende Offenbarung in Network-Computing-Umgebungen mit vielen Arten von Computersystemkonfigurationen angewendet werden kann, einschließlich eines Armaturenbrett-Fahrzeugcomputers, PCs, Desktop-Computern, Laptops, Nachrichtenprozessoren, Handgeräten, Multiprozessorsystemen, Unterhaltungselektronik auf Mikroprozessorbasis oder programmierbarer Unterhaltungselektronik, Netzwerk-PCs, Minicomputern, Mainframe-Computern, Mobiltelefonen, PDAs, Tablets, Pagern, Routern, Switches, verschiedener Speichergeräte und dergleichen. Die Offenbarung kann ebenfalls in Umgebungen mit verteilten Systemen angewendet werden, in denen sowohl lokale Computersysteme als auch ferngesteuerte Computersysteme, die durch ein Netzwerk (entweder durch festverdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine beliebige Kombination aus festverdrahteten und drahtlosen Datenverbindungen) verbunden sind, Aufgaben ausführen. In einer verteilten Systemumgebung können sich Programmmodule sowohl in lokalen Speichervorrichtungen als auch in Fernspeichervorrichtungen befinden.
-
Ferner können die in dieser Schrift beschriebenen Funktionen gegebenenfalls in einem oder mehreren der Folgenden durchgeführt werden: Hardware, Software, Firmware, digitale Komponenten oder analoge Komponenten. Eine oder mehrere anwendungsspezifische integrierte Schaltungen (application specific integrated circuits - ASICs) können zum Beispiel so programmiert sein, dass sie eines bzw. einen oder mehrere der in dieser Schrift beschriebenen Systeme und Vorgänge ausführen. Bestimmte Ausdrücke werden in der gesamten Beschreibung und den Patentansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Der Fachmann wird verstehen, dass auf Komponenten durch unterschiedliche Bezeichnungen Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich dem Namen nach unterscheiden, nicht jedoch der Funktion nach.
-
Es ist anzumerken, dass die vorstehend erörterten Sensorausführungsformen Computerhardware, -software, -firmware oder eine beliebige Kombination daraus umfassen können, um zumindest einen Teil ihrer Funktionen durchzuführen. Ein Sensor kann beispielsweise einen Computercode beinhalten, der dazu konfiguriert ist, in einem oder mehreren Prozessoren ausgeführt zu werden, und kann eine Hardware-Logikschaltung/elektrische Schaltung beinhalten, die durch den Computercode gesteuert wird. Diese beispielhaften Vorrichtungen sind in dieser Schrift zum Zwecke der Veranschaulichung bereitgestellt und sollen nicht einschränkend sein. Ausführungsformen der vorliegenden Offenbarung können in weiteren Arten von Vorrichtungen umgesetzt werden, wie es dem einschlägigen Fachmann bekannt ist.
-
Mindestens einige Ausführungsformen der vorliegenden Offenbarung sind auf Computerprogrammprodukte ausgerichtet, die eine solche Logik (z. B. in Form von Software) umfassen, die auf einem beliebigen computernutzbaren Medium gespeichert ist. Derartige Software veranlasst bei Ausführung in einer oder mehreren Datenverarbeitungsvorrichtungen eine Vorrichtung dazu, wie in dieser Schrift beschrieben zu funktionieren.
-
Wenngleich vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben wurden, versteht es sich, dass diese lediglich als Beispiele dienen und nicht als Einschränkung. Der einschlägige Fachmann wird erkennen, dass verschiedene Änderungen bezüglich Form und Detail daran vorgenommen werden können, ohne vom Geist und Umfang der vorliegenden Offenbarung abzuweichen. Somit sollten die Breite und der Umfang der vorliegenden Offenbarung durch keine der vorstehend beschriebenen beispielhaften Ausführungsformen eingeschränkt werden, sondern lediglich gemäß den folgenden Patentansprüchen und ihren Äquivalenten definiert sein. Die vorstehende Beschreibung wurde zum Zwecke der Veranschaulichung und Beschreibung dargelegt. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die vorliegende Offenbarung nicht auf die genaue offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich. Ferner ist zu beachten, dass eine beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination genutzt werden können, um zusätzliche Mischumsetzungen der vorliegenden Offenbarung zu bilden.