-
GEBIET DER TECHNIK
-
Die vorliegende Offenbarung ist auf Systeme und Verfahren zum Betreiben einer Drohne in der Nähe von Menschen, Fahrzeugen oder anderen Objekten gerichtet.
-
ALLGEMEINER STAND DER TECHNIK
-
Da Drohnen in der Gesellschaft immer allgegenwärtiger werden und in Geschäftsmodellen vorherrschen, ist die Interaktion zwischen Drohnen und Umstehenden ein potenzielles Problem. Zum Beispiel können einige Drohnenvorgänge Menschen in die Nähe der Drohne bringen. Drohnenpropeller, die sich mit hohen Geschwindigkeiten drehen, sind eine potenzielle Gefahr.
-
Eine Drohne kann in einem autonomen Modus betrieben werden oder von einem Dispatcher gesteuert werden. In jedem Fall könnte eine Drohne, die aktuell „ausgeschaltet“ ist (z. B. Rotoren/Propeller), gestartet werden (veranlasst werden, sich zu drehen), wenn sich ein Mensch in der Nähe der Drohne befindet, was nicht ideal ist.
-
KURZDARSTELLUNG
-
Eine Drohne kann dazu konfiguriert sein, autonom und/oder halbautonom (durch einen entfernten Bediener oder Dienstanbieter geleitet) betrieben zu werden. Unabhängig von dem Betriebsmodus kann die Drohne verschiedene Kommunikationsmodi und/oder verschiedene Sensoren nutzen, um das Vorhandensein eines Objektes und/oder einen Abstand zwischen der Drohne und dem Objekt zu detektieren. Die Drohne kann entweder autonom oder auf Befehl dazu konfiguriert sein, (1) sicherzustellen, dass sich keine Objekte innerhalb eines festgelegten Freibereiches befinden, und/oder (2) die Anschaltung der Drohnenrotoren zu verhindern, bis bestimmt wurde, dass der festgelegte Freibereich nicht belegt ist.
-
In einigen Fällen können die Rotoren der thatDrohne deaktiviert werden, während sich Objekte in dem festgelegten Freibereich befinden. Wenn zum Beispiel ein Benutzer ein Paket abholt, das durch die Drohne geliefert wird, und sich der Benutzer in dem festgelegten Freibereich befindet, kann/können der/die Drohnenrotor(en) deaktiviert werden.
-
In anderen Beispielen kann eine mobile Vorrichtung des Benutzers als Notausschalter fungieren. Das Vorhandensein der mobilen Vorrichtung innerhalb des festgelegten Freibereiches kann die Rotoren der Drohne deaktivieren. In einigen Fällen kann die Größe des festgelegten Freibereiches durch eine Reichweite des Kommunikationsverfahrens vorgegeben sein, das zwischen der Drohne und der mobilen Vorrichtung eingesetzt wird.
-
Eine Bestimmung, ob der festgelegte Freibereich belegt/nicht belegt ist, kann durch einen Dispatcher basierend auf einem Videos durchgeführt werden, das durch die Drohne vor Ereignissen, wie etwa Start, Aufwärmen, Landen und dergleichen, erlangt wird. In einem autonomen Modus kann eine Drohne bestätigen, dass sich der Benutzer und die mobile Vorrichtung zusammen an einem Ort befinden, indem der Benutzer aufgefordert wird, eine Taste zu drücken oder einen Touchscreen der mobilen Vorrichtung zu berühren.
-
Die Drohne kann auch dazu konfiguriert sein, mit einem vernetzten Fahrzeug zu kommunizieren. Zum Beispiel kann die Drohne Signale von dem vernetzten Fahrzeug empfangen, die bestätigen, dass sich der Benutzer in dem Fahrzeug befindet und sich in einem sicheren Abstand von der Drohne befindet.
-
Figurenliste
-
Eine detaillierte Beschreibung wird im Hinblick auf die beigefügten Zeichnungen dargelegt. Die Verwendung der gleichen Bezugszeichen kann ähnliche oder identische Elemente angeben. Für verschiedene Ausführungsformen können andere Elemente und/oder Komponenten verwendet werden als jene, die in den Zeichnungen veranschaulicht sind, und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht vorhanden. Die Elemente und/oder Komponenten in den Figuren sind nicht zwingend maßstabsgetreu gezeichnet. Für die gesamte Offenbarung gilt, dass Ausdrücke im Singular und Plural je nach Kontext austauschbar verwendet werden können.
- 1 veranschaulicht eine beispielhafte Architektur, in der die Systeme und das Verfahren der vorliegenden Offenbarung angewandt werden können.
- 2 ist eine schematische Darstellung der Architektur aus 1.
- 3 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung.
- 4 ist ein Ablaufdiagramm eines anderen beispielhaften Verfahrens der vorliegenden Offenbarung.
- 5 ist ein Ablaufdiagramm noch eines anderen beispielhaften Verfahrens der vorliegenden Offenbarung.
-
DETAILLIERTE BESCHREIBUNG
-
Es wird nun auf die Zeichnungen Bezug genommen, in denen 1 eine veranschaulichende Architektur 100 darstellt, in der Techniken und Strukturen der vorliegenden Offenbarung umgesetzt sein können. Die Architektur 100 beinhaltet eine Drohne 102, eine Mobilvorrichtung 104, ein vernetztes Fahrzeug 106, einen Dienstanbieter 108 und ein Netzwerk 110.
-
In einigen Fällen können einige oder alle dieser Komponenten in der Architektur 100 über verschiedene Drahtlosprotokolle direkt miteinander kommunizieren. In anderen Fällen können einige oder alle dieser Komponenten in der Architektur 100 unter Verwendung des Netzwerkes 110 und/oder direkt miteinander kommunizieren. Das Netzwerk 110 kann Kombinationen von Netzwerken beinhalten, welche die Komponenten in der Architektur 100 in die Lage versetzen, miteinander zu kommunizieren. Das Netzwerk 110 kann einen beliebigen oder eine Kombination aus mehreren unterschiedlichen Netzwerktypen beinhalten, wie etwa Mobilfunk, Kabel, das Internet, drahtlose Netzwerke und andere private und/oder öffentliche Netzwerke. In einigen Fällen kann das Netzwerk 110 Wi-Fi oder Wi-Fi-Direct beinhalten. Das Netzwerk 110 kann Kurzstrecken- oder Hochfrequenzverbindungen, wie etwa BLUETOOTH oder Ultrabreitband (ultra-wideband - UWB), beinhalten.
-
Unter jetziger gemeinsamer Bezugnahme auf 1 und 2 kann die Drohne 102 eine Steuerung 114, eine Sensorplattform 116, einen Rotor 118 (kann mehr als einen Rotor beinhalten) und eine Kommunikationsschnittstelle 120 umfassen. Die Steuerung 114 kann einen Prozessor 122 und Speicher 124 zum Speichern von Anweisungen beinhalten. Der Prozessor 122 führt in dem Speicher 124 gespeicherte Anweisungen aus, um beliebige in dieser Schrift offenbarte Verfahren durchzuführen. Wenn auf Handlungen Bezug genommen wird, die durch die Steuerung 114 oder die Drohne 102 durchgeführt werden, schließt dies implizit die Ausführung von Anweisungen durch den Prozessor 122 ein. In einem Beispiel kann der Speicher 124 Flugsteuerungslogik, Sensoranalyselogik und/oder Bildverarbeitungslogik speichern und ausführen.
-
Die Sensorplattform 116 kann ein beliebiges oder mehrere beliebige von einem Ultraschallwandler, einem Mikrofon, einem Lautsprecher, einem Bewegungssensor, einem Wärmescanner, einer Infrarotkamera, LIDAR (Light Detection and Ranging) und Radar umfassen - um nur einige zu nennen. Jeder dieser Sensoren kann verwendet werden, um das Vorhandensein von Objekten, wie etwa Menschen, Tieren, Fahrzeugen und dergleichen, zu detektieren. Verschiedene Anwendungsfälle mit einigen dieser Sensoren werden nachstehend ausführlicher offenbart.
-
Die Kommunikationsschnittstelle 120 kann es der Steuerung 114 ermöglichen, unter Verwendung eines beliebigen geeigneten drahtlosen Langstreckenkommunikationsprotokolls auf das Netzwerk 110 zuzugreifen. Die Kommunikationsschnittstelle 120 kann es der Steuerung 114 ermöglichen, mit der mobilen Vorrichtung 104 und/oder dem vernetzten Fahrzeug 106 über ein drahtloses Kommunikationsprotokoll mit kurzer Reichweite zu kommunizieren. Drahtlose Kommunikation mit kurzer Reichweite kann ermöglichen, dass Lokalisierungstechnologien, wie etwa BLUETOOTH 5.1 und/oder UWB, aktiviert werden.
-
Zum Beispiel kann der Rotor 118 mit einem Blatt oder Propeller 154 gekoppelt sein, das/der verwendet wird, um Auftrieb für die Drohne 102 bereitzustellen. Der Rotor 118 kann durch Signale betrieben werden, die von der Steuerung 114 empfangen werden. Das heißt, die Steuerung 114 kann den Rotor 118 anzuschalten und/oder abzuschalten, um zu veranlassen, dass sich das Blatt oder der Propeller dreht oder die Drehung einstellt.
-
Die Steuerung 114 kann dazu konfiguriert sein, das Vorhandensein eines Objektes, wie etwa eines Menschen 126, innerhalb eines festgelegten Freibereiches 128 zu bestimmen. Der festgelegte Freibereich 128 kann durch einen Umfang 130 definiert sein, der sich in einem Abstand D um die Drohne 102 erstreckt. Der Durchmesser D ist als Referenzlinie in 1 veranschaulicht. Die Größe und/oder Form des festgelegten Freibereiches 128 kann gemäß den Betriebsparametern sowie der Drohnenkonfiguration variieren. Zum Beispiel kann der vorgesehene Freibereich 128 eine Größe aufweisen, die ein vorbestimmtes Vielfaches der Gesamtgröße der Drohne 102 ist. Wenn die Drohne 102 eine Grundfläche mit einem Durchmesser von ungefähr fünf Fuß aufweist, kann der festgelegte Freibereich 128 eine Größe aufweisen, die dem Dreifachen des Durchmessers der Drohne 102 entspricht, was zu einem festgelegten Freibereich 128 mit einem Durchmesser von fünfzehn Fuß um die Drohne 102 führt. Es versteht sich, dass die Größe des festgelegten Freibereiches 128 willkürlich gewählt oder unter Verwendung von (einem) beliebigen Sicherheitsfaktors oder -parameters/-parametern berechnet werden kann, der/die durch Bediener gewünscht wird/werden. Der Zweck des festgelegten Freibereiches 128 besteht darin, die Wahrscheinlichkeit zu verringern oder zu beseitigen, dass die Drohne 102 zu einem beliebigen Zeitpunkt, zu dem sich der Rotor 118 dreht, auf einen Benutzer oder ein Fahrzeug trifft.
-
In einem Beispiel kann die Detektion von Objekten in dem festgelegten Freibereich 128 durch die Steuerung erfolgen, wenn eine Änderung des Flugzustands für die Drohne 102 auftritt oder kurz bevorsteht. Zum Beispiel kann die Steuerung 114 die Ausgabe der Sensorplattform 116 nutzen, um nach dem Vorhandensein eines Objektes innerhalb des festgelegten Freibereiches 128 zu suchen, wenn die Drohne 102 im Begriff ist, in dem festgelegten Freibereich 128 zu landen.
-
In einem anderen Beispiel kann die Steuerung 114 die Ausgabe der Sensorplattform 116 nutzen, um nach dem Vorhandensein eines Objektes innerhalb des festgelegten Freibereiches 128 zu suchen, wenn die Drohne 102 im Begriff ist, den Rotor 118 in Erwartung eines Starts anzuschalten. In noch einem anderen Beispiel kann die Steuerung 114 die Ausgabe der Sensorplattform 116 nutzen, um nach dem Vorhandensein eines Objektes innerhalb des festgelegten Freibereiches 128 zu suchen, wenn die Drohne 102 abhebt (z. B. von einer gelandeten Position zum Fliegen übergeht).
-
Jedes von der mobilen Vorrichtung 104 und dem vernetzten Fahrzeug 106 kann mit entsprechenden/komplementären Sensoren in ihren jeweiligen Sensorplattformen konfiguriert sein. Zum Beispiel kann die mobile Vorrichtung 104 eine Sensorplattform 130 aufweisen, die ein beliebiges oder mehrere beliebige von einem Ultraschallwandler, einem Mikrofon, einem Lautsprecher, einem Bewegungssensor, einem Wärmescanner, einer Infrarotkamera, LIDAR (Light Detection and Ranging) und Radar umfasst - um nur einige zu nennen. Die mobile Vorrichtung 104 kann zudem eine Drohnenanwendung 148 umfassen, die es dem Benutzer ermöglicht, mit der Drohne 102 zu interagieren. Zum Beispiel kann die Drohnenanwendung 148 verwendet werden, um Notaussignale zu emittieren sowie Warnmeldungen von der Drohne 102 zu empfangen, wie in dieser Schrift ausführlicher erörtert wird.
-
Das vernetzte Fahrzeug 106 kann zudem eine Sensorplattform 132 aufweisen, die ein beliebiges oder mehrere beliebige von einem Ultraschallwandler, einem Mikrofon, einem Lautsprecher, einem Bewegungssensor, einem Wärmescanner, einer Infrarotkamera, LIDAR (Light Detection and Ranging) und Radar umfasst. In einigen Fällen können die Sensoren, die an jedem von der Drohne 102, der mobilen Vorrichtung 104 und/oder dem vernetzten Fahrzeug 106 eingesetzt werden, während der Herstellung ausgewählt werden, um die Kompatibilität sicherzustellen. Der Kürze und Klarheit halber werden in dieser Schrift beispielhafte Anwendungsfälle bereitgestellt. Es versteht sich jedoch, dass die Drohne 102, die mobile Vorrichtung 104 und/oder das vernetzte Fahrzeug 106 jeweils (einen) komplementäre(n) Sensor(en) relativ zueinander aufweisen. Das vernetzte Fahrzeug 106 kann zudem eine Kommunikationsschnittstelle 152 umfassen, die eine Kurz- und/oder Langstreckenkommunikation mit der Drohne 102, der mobilen Vorrichtung 104 und/oder dem Dienstanbieter 108 ermöglicht.
-
In einem beispielhaften Anwendungsfall kann die Steuerung 114 der Drohne 102 ihren Standort zum Beispiel aus GPS-Signalen des Kommunikationsmoduls bestimmen. Wie vorstehend angemerkt, kann die Steuerung 114 Lokalisierungstechnologien, wie etwa BLUETOOTH, UWB, Wi-Fi und dergleichen, beinhalten, um genaue Standortinformationen zu erlangen. Sobald der Standort der Drohne 102 bestimmt ist, kann die Steuerung 114 bestimmen, ob eine Änderung des Drohnenflugs erfolgt oder bald erfolgen wird (dieser Zeitrahmen kann nach Bedarf angepasst werden). Zum Beispiel kann die Steuerung 114 der Drohne 102 bestimmen, dass die Drohne 102 im Begriff ist, zu landen. In einem Beispiel kann die Steuerung 114 der Drohne 102 basierend auf einem automatisierten Flugplan, den die Steuerung 114 ausführt, um die Drohne autonom zu einem Standort zu fliegen, bestimmen, dass die Drohne 102 im Begriff ist zu landen. In einem anderen Beispiel kann die Steuerung 114 der Drohne 102 basierend auf Signalen oder Befehlen, die von dem Dienstanbieter 108 empfangen werden, bestimmen, dass die Drohne 102 im Begriff ist, zu landen. Zum Beispiel kann die Drohne 102 durch einen entfernten Bediener 146 gesteuert werden, der einen Prozess zur Drohnenlandung eingeleitet hat. Der gleiche Prozess kann auch für den Drohnenstart erfolgen, wobei die Drohne durch einen entfernten Bediener 146 gesteuert wird.
-
In Beispielen, in denen ein entfernter Bediener 146 die Drohne 102 steuert, kann der entfernte Bediener 146 Bilder von einer oder mehreren beliebigen der Kamera(s), die in der Sensorplattform 116 der Drohne beinhaltet sind, oder der Kamera(s), die der Sensorplattform von einem oder beiden von der mobilen Vorrichtung 104 und dem vernetzten Fahrzeug 106 zugeordnet sind. Da jede Kamera Bilder aus einer einzigartigen Perspektive erlangen kann, kann der entfernte Bediener 146 bestimmen, ob Objekte in einem Landebereich 134 vorhanden sind, in dem die Drohne landen kann. Der entfernte Bediener 146 kann zudem beurteilen, ob Objekte nahe dem Landebereich 134 in einer sicheren Entfernung zurückversetzt sind. In diesem Beispiel entspricht der Landebereich 134 in Bezug auf den Standort mindestens teilweise dem in 1 veranschaulichten festgelegten Freibereich 128.
-
In einem autonomen Betriebsmodus kann die Steuerung 114 der Drohne 102 eine Bildverarbeitungslogik ausführen, um die Kameraausgabe von ihrer eigenen Kamera oder der von anderen Objekten zu nutzen, um zu beurteilen, wann sich eine Person innerhalb des festgelegten Freibereiches 128 befinden kann. Zum Beispiel kann die Steuerung 114 einen Menschen in der Kameraausgabe identifizieren. Wenn ein Mensch detektiert wird, kann die Steuerung 114 Abstands- oder Entfernungsmesssensoren verwenden, um einen Abstand zwischen der Drohne 102 und dem detektierten Menschen zu bestimmen. Zum Beispiel kann die Steuerung 114 einen LIDAR-, Radar- oder Ultraschallsensor ausführen, um Abstandsmessungen zu erlangen.
-
In anderen Anwendungsfällen kann der entfernte Bediener Ausgaben von der Sensorplattform 116 nutzen, wie etwa Wärmesignaturen, Ultraschallrückkopplung, Audiorückkopplung, Lasersignale und/oder andere ähnliche Sensorausgaben, die genutzt werden können, um einen Abstand zwischen der Drohne 102 und Objekten nahe dem Landebereich 134 zu bestimmen.
-
In einigen Fällen kann eine grafische Benutzerschnittstelle 150 dargestellt werden, die eine virtuelle Grenze 136 um den Landebereich 134 legt, um den entfernten Bediener beim Beurteilen des Abstands zu unterstützen. Die virtuelle Grenze 136 entspricht dem vorstehend offenbarten festgelegten Freibereich 128. Die virtuelle Grenze 136 ist in 1 grafisch veranschaulicht, es können jedoch Bilder/Videos, die von der Drohne, der mobilen Vorrichtung und/oder dem vernetzten Fahrzeug erlangt werden, um die virtuelle Grenze 136 erweitert werden, wodurch ein Augmented-Reality-Erlebnis für den entfernten Bediener erzeugt wird. Zum Beispiel kann der Benutzer 126 in der Schnittstelle 150 erscheinen, wenn er in der Kameraausgabe erfasst wird.
-
Die Steuerung 114 kann Lokalisierungsinformationen verwenden, die von einem oder beiden von der mobilen Vorrichtung 104 und dem vernetzten Fahrzeug 106 erlangt werden, um zu bestimmen, ob sich die mobile Vorrichtung 104 und das vernetzte Fahrzeug 106 innerhalb des festgelegten Freibereiches 128 befinden. Zum Beispiel kann die Steuerung 114 spezifische Standortinformationen nutzen, die von der mobilen Vorrichtung 104 erlangt werden, und diese Standortinformationen mit dem bekannten Standort der Drohne 102 vergleichen, um zu bestimmen, ob sich die mobile Vorrichtung 104 innerhalb des festgelegten Freibereiches 128 befindet. Ein ähnlicher Prozess kann verwendet werden, um zu bestimmen, wann sich das verbundene Fahrzeug 106 innerhalb des festgelegten Freibereiches 128 befindet. Wie vorstehend angemerkt, kann dies den Austausch von Informationen über drahtlose Langstrecken- oder Kurzstreckenkommunikationsverbindungen beinhalten. Die Standortinformationen können allgemeine Standortinformationen sein, die aus Mobilfunknetzinteraktionen oder spezifischeren Lokalisierungstechnologien, welche Hochfrequenzkommunikationen (HF-Kommunikationen) nutzen können, erlangt werden können.
-
Wenn ein Objekt, wie etwa ein Mensch, innerhalb des festgelegten Freibereiches 128 detektiert wird, kann die Steuerung 114 veranlassen, dass die Drohne 102 schwebt, anstatt zu landen. Die Steuerung 114 kann einen akustischen Befehl von einem Lautsprecher der Sensorplattform 116 emittieren, um die Person zu warnen, den festgelegten Freibereich 128 zu räumen. In einigen Fällen kann die Steuerung 114 eine Warnmeldung an die mobile Vorrichtung 104 und/oder das verbundene Fahrzeug 106 übertragen, um die Person zu warnen, sich von dem festgelegten Freibereich 128 zu entfernen. Zum Beispiel kann die mobile Vorrichtung 104 eine Nachricht 144 anzeigen, die den Benutzer anweist, dass er sich innerhalb eines festgelegten Freibereiches befindet und auf Abstand gehen muss. Andere Warnmeldungen können zur Anzeige übertragen werden, wie etwa eine Meldung, die einen Benutzer warnt, dass die Drohne im Begriff ist, ihre(n) Rotoren anzuschalten oder abzuheben. Es ist vorteilhaft, das Bewusstsein des Benutzers zu erhöhen, wenn die Drohne gestartet wird. Zum Beispiel kann eine plötzliche Windböe die Drohne vom Kurs abbringen und können Umstehende gefährdet sein, wenn sie sich zu nahe an der Drohne befinden.
-
Wenn sich die Person nicht bewegt, kann die Steuerung 114 einen neuen Landebereich lokalisieren, der es der Drohne 102 ermöglicht, in einem geeigneten Abstand von der Person oder dem Fahrzeug zu landen. Der geeignete Abstand kann einen beliebigen Abstand beinhalten, der gleich oder größer als der durch die Größe des festgelegten Freibereiches 128 spezifizierte ist.
-
In einigen Fällen kann die Steuerung 114 zwei oder mehr Sensorausgaben nutzen, um die Abstandsbefunde basierend auf einem anderen Sensor zu bestätigen. Zum Beispiel kann die Steuerung 114 bestimmen, dass sich die mobile Vorrichtung 104 außerhalb des festgelegten Freibereiches 128 befindet, und unter Verwendung anderer Sensorausgaben, wie etwa eines LIDAR-gemessenen Abstands oder einer Ultraschallsensorausgabe, bestätigen, dass diese Tatsache wahr ist. Jede Sensorausgabe, die verwendet wird, um den Abstand zwischen der Drohne 102 und einem Objekt zu bestimmen oder abzuleiten, kann unter Verwendung der Ausgabe eines anderen Sensortyps überprüft oder verifiziert werden.
-
Während in einigen Fällen abgeleitet werden kann, dass sich der Benutzer der mobilen Vorrichtung 104 und die mobile Vorrichtung 104 zusammen an einem Ort befinden, kann es zusätzlich Fälle geben, in denen der Benutzer von der mobilen Vorrichtung 104 getrennt ist. Dies kann dazu führen, dass sich die mobile Vorrichtung 104 außerhalb des festgelegten Freibereiches 128 befindet, während sich der Benutzer in dem festgelegten Freibereich 128 befindet. Somit kann die Steuerung 114 in einigen Fällen die Ausgabe eines Sensors, wie etwa eines thermischen Scanners, verwenden, um zu bestätigen, dass sich der Benutzer nicht in dem festgelegten Freibereich 128 befindet, selbst wenn sich die mobile Vorrichtung 104 nicht innerhalb des festgelegten Freibereiches 128 befindet.
-
Als ausfallsicherer Vorgang kann die Steuerung 114 ein Signal von der mobilen Vorrichtung 104 empfangen, dass sich der Benutzer mit der mobilen Vorrichtung 104 zusammen an einem Ort befinden. Zum Beispiel kann der Benutzer aufgefordert werden, eine Taste an der mobilen Vorrichtung 104 zu drücken, um zu bestätigen, dass er sich an dem gleichen Standort wie die mobile Vorrichtung 104 befindet. In einem anderen Beispiel kann die Steuerung 114 ein Signal von der mobilen Vorrichtung 104 empfangen, dass der Finger oder die Hand des Benutzers einen Touchscreen der mobilen Vorrichtung 104 berührt. Somit kann die kapazitive Funktionalität des Bildschirms der mobilen Vorrichtung zudem verwendet werden, um sicherzustellen, dass der Verbraucher die mobile Vorrichtung hält und sich daher dort befindet, wo das GPS der mobilen Vorrichtung angibt, dass sie sich befindet. Zusammenfassend kann die Steuerung 114 basierend auf einer Detektion einer physischen Interaktion zwischen dem Benutzer und der mobilen Vorrichtung bestimmen, dass sich ein Benutzer einer mobilen Vorrichtung mit der mobilen Vorrichtung zusammen an einem Ort befindet.
-
In Situationen, in denen sich der Benutzer und seine mobile Vorrichtung 104 innerhalb des festgelegten Freibereiches 128 befinden, kann die mobile Vorrichtung 104 dazu konfiguriert sein, Audiosignale, wie etwa einen Schallimpuls oder ein Ultraschallsignal, zu emittieren, um als ein Signal an die Steuerung 114 der Drohne 102 zu fungieren, um in einem gestoppten Zustand zu bleiben. In einigen Fällen wird die mobile Vorrichtung 014 dahingehend ausgelöst, diesen Signaltyp zu emittieren, wenn die mobile Vorrichtung 104 in den festgelegten Freibereich 128 eintritt. Somit kann die mobile Vorrichtung 104 dazu programmiert sein, den Abstand zwischen sich selbst und der Drohne 102 unter Verwendung eines beliebigen der in dieser Schrift offenbarten Abstandsmessverfahren zu erfassen. Wenn die mobile Vorrichtung 104 bestimmt, dass der Abstand zwischen sich selbst und der Drohne 102 bei oder unter dem Abstand D liegt, der für den festgelegten Freibereich 128 spezifiziert ist, kann die mobile Vorrichtung 104 automatisch damit beginnen, die Signale zum Deaktivieren der Drohne 102 zu emittieren. Selbst wenn der Benutzer vergisst, die mobile Vorrichtung 104 für diesen Interaktionstyp zu aktivieren, wird die mobile Vorrichtung 104 automatisch dahingehend ausgelöst, derartige Signale auszugeben.
-
Somit kann die mobile Vorrichtung 104 als ein Notausschalter fungieren, der verhindert, dass die Steuerung 114 den Rotor 108 anschaltet, wenn sich die mobile Vorrichtung 104 in der Nähe oder innerhalb des festgelegten Freibereiches 128 befindet. Zum Beispiel kann ein Benutzer wünschen, ein Paket von der Drohne 102 zu erlangen oder die Drohne 102 zu warten. Während sich der Benutzer innerhalb des festgelegten Freibereiches 128 befindet, emittiert die mobile Vorrichtung 104 ein Signal, das durch einen Empfänger der Sensorplattform 116 der Drohne 102 empfangen wird. Solange der Sensor das Notausschaltersignal von der mobilen Vorrichtung 104 empfängt, kann die Steuerung 114 den Rotor 118 abschalten, um eine unerwünschte oder unbeabsichtigte Anschaltung des Propellers der Drohne 102 zu verhindern. In einem Beispiel kann die Drohne 102 einen Schalter 138 umfassen, der zwischen dem Rotor 118 und einer Leistungsquelle 140 positioniert ist. Die Steuerung 114 kann den Schalter 138 auslösen und öffnen, um zu verhindern, dass Leistung von der Leistungsquelle 140 an den Rotor 118 geliefert wird.
-
Während die vorstehenden Ausführungsformen Interaktionen zwischen der mobilen Vorrichtung 104 und der Drohne 102 offenbaren, kann das vernetzte Fahrzeug 106 zudem dazu konfiguriert sein, auch Drohnensicherheitsmerkmale bereitzustellen. Wie vorstehend angemerkt, kann das vernetzte Fahrzeug 106 dazu konfiguriert sein, der Steuerung 114 der Drohne 102 und/oder dem Dienstanbieter 108 Fahrzeugstandortinformationen bereitzustellen, die verwendet werden können, um einen Abstand zwischen dem vernetzten Fahrzeug 106 und der Drohne 102 zu bestimmen. Wie bei der mobilen Vorrichtung 104 kann das vernetzte Fahrzeug 106 zudem Lokalisierungsfähigkeiten beinhalten, um einen aktuellen Standort des vernetzten Fahrzeugs 106 genauer zu identifizieren.
-
Das vernetzte Fahrzeug 106 kann eine Mensch-Maschine-Schnittstelle (human-machine interface - HMI 142) umfassen, die eine interaktive Anzeige bereitstellen kann, welche ein Benutzer nutzen kann, um Informationen über Drohnenvorgänge zu empfangen sowie Eingaben bereitzustellen, die verwendet werden können, um die Benutzersicherheit zu verbessern. Zum Beispiel kann die Sensorplattform 132 des vernetzten Fahrzeugs 106 die Anwesenheit des Benutzers innerhalb der Kabine des vernetzten Fahrzeugs 106 überwachen. In einem Beispiel kann die Sensorplattform 132 Sicherheitsgurtsensoren beinhalten, die detektieren, wann ein Sicherheitsgurt durch einen Benutzer angelegt ist. Die Sensorplattform 132 kann einen Körpergewichtssensor beinhalten, der in einen Sitz des vernetzten Fahrzeugs 106 integriert ist. Die Sensorplattform 132 kann kapazitive Elemente beinhalten, die in ein Lenkrad, eine Konsole, eine Armlehne, eine Türverkleidung oder eine andere ähnliche Fahrzeugkomponente integriert sind. Jeder dieser beispielhaften Sensoren kann verwendet werden, um die Anwesenheit des Benutzers in der Kabine des vernetzten Fahrzeugs 106 zu detektieren. Ein Signal, das angibt, dass sich der Benutzer innerhalb der Kabine des vernetzten Fahrzeugs 106 befindet, kann unter Verwendung eines beliebigen der in dieser Schrift offenbarten Kommunikationsverfahren an die Drohne 102 und/oder den Dienstanbieter 108 übertragen werden. Das Fahrzeug kann zudem als alternatives Mittel für den Benutzer dienen, um mit der Drohne 102 und/oder dem Dienstanbieter 108 zu kommunizieren, falls die mobile Vorrichtung 104 aus einem beliebigen Grund nicht funktionsfähig ist.
-
In einigen Fällen können sich mehrere Personen in dem Fahrzeug oder um den festgelegten Freibereich 128 befinden. Zum Beispiel können sich in dem Fall, dass eine Drohne zur Wartung an ein Fahrzeug entsendet wird, mehrere Fahrgäste in dem Fahrzeug befinden. In einem derartigen Ereignis können die mobilen Vorrichtungen aller Fahrgäste einen „Anwesenheitsnachweis“ für alle Fahrgäste bereitstellen. Somit kann die Drohne 102, anstatt nur eine einzelne mobile Vorrichtung zu verfolgen und mit dieser zu kommunizieren, dazu konfiguriert sein, das Vorhandensein mehrerer mobiler Vorrichtungen zu bestimmen und zu bestätigen, dass sich diese mehreren mobilen Vorrichtungen gesichert oder sicher in der Kabine des Fahrzeugs befinden. Wenn zum Beispiel mehrere mobile Vorrichtungen vorhanden sind und die Sensorplattform 132 des Fahrzeugs angibt, dass mehrere Benutzer in dem Fahrzeug anwesend sind, kann die Drohne darüber informiert werden, dass sich alle Personen sicher innerhalb des Fahrzeugs befinden. In einem Anwendungsfall kann die Sensorplattform 132 bestimmen, dass mehrere Sitze in dem Fahrzeug belegt sind. Die Kameraausgabe könnte zudem verwendet werden, um eine Gesichtserkennung durchzuführen, um mehrere Benutzer in der Fahrzeugkabine zu detektieren.
-
In einem beispielhaften Szenario könnte ein Dispatcher die Anzahl der Fahrgäste/Insassen in dem Fahrzeug verifizieren, bevor die Drohne entsendet wird. Der Dispatcher des Dienstanbieters 108 kann über eine HMI 142 des Fahrzeugs kommunizieren, um die Anwesenheit von Fahrgästen zu bestätigen. In einigen Fällen kann einer der Benutzer, wie etwa ein Fahrer des Fahrzeugs, als der primäre Administrator/die Verbindung vor Ort mit speziellen Berechtigungen zugewiesen werden, um mit der Entsendung (Dienstanbieter 108) und/oder der Drohne zu interagieren.
-
3 ist ein Ablaufdiagramm eines beispielhaften Verfahrens der vorliegenden Offenbarung. Das Verfahren kann einen Schritt 302 zum Bestimmen einer Änderung des Drohnenflugstatus beinhalten, die einschließt, dass ein Rotor der Drohne aktiv ist. Dies kann beinhalten, dass die Drohne versucht zu landen, ihre(n) Rotor(en) vor dem Start zu aktivieren und/oder zum Flug abzuheben. Zum Beispiel kann das Verfahren einen Schritt 304 zum Bestimmen des Vorhandenseins einer mobilen Vorrichtung innerhalb eines festgelegten Freibereiches, der um die Drohne eingerichtet ist, beinhalten. Die Detektion der mobilen Vorrichtung wird als die Anwesenheit eines Menschen abgeleitet. Dies kann alternativ das Erfassen des Vorhandenseins eines vernetzten Fahrzeugs beinhalten.
-
Als Nächstes beinhaltet das Verfahren einen Schritt 306 zum Verhindern der Landung der Drohne, wenn ein Objekt, wie etwa ein Mensch, eine mobile Vorrichtung und/oder ein anderes ähnliches Objekt, in dem festgelegten Freibereich detektiert wird. Das Verfahren kann zudem einen Schritt 308 zum Bereitstellen einer Warnmeldung an einen Benutzer der mobilen Vorrichtung beinhalten, sich von dem festgelegten Freibereich zu entfernen. Das Verfahren kann einen Schritt 310 zum Detektieren, dass sich die mobile Vorrichtung und der Benutzer nicht innerhalb des festgelegten Freibereiches befinden, sowie einen Schritt 312 zum Veranlassen oder Zulassen, dass die Drohne landet, beinhalten.
-
Wenn die Drohne gelandet ist, kann die Drohne dazu konfiguriert sein, vor einer weiteren Änderung des Drohnenzustands, wie etwa Rotoreinsatz vor dem Flug und/oder dem Abheben, Personen innerhalb des festgelegten Freibereiches zu erfassen. Somit kann das Verfahren einen Schritt 314 zum Detektieren eines Notaussignals, das durch die mobile Vorrichtung emittiert wird, wenn sich die mobile Vorrichtung innerhalb des festgelegten Freibereiches befindet, nachdem die Drohne gelandet ist, sowie einen Schritt 316 zum Abschalten eines Rotors der Drohne, wenn das Notaussignal empfangen wird, beinhalten.
-
In einigen Fällen kann das Verfahren einen Schritt 318 zum Bestimmen, dass sich ein Benutzer der mobilen Vorrichtung mit der mobilen Vorrichtung zusammen an einem Ort befindet, beinhalten, indem eine physische Interaktion zwischen dem Benutzer und der mobilen Vorrichtung detektiert wird. Zum Beispiel kann die Drohne ein Signal detektieren oder empfangen, das angibt, dass der Benutzer eine Taste drückt oder einen Touchscreen auf der mobilen Vorrichtung berührt. In einem alternativen Schritt kann bestimmt werden, dass sich der Benutzer in einem Fahrzeug befindet, wenn die Drohne Signale von verschiedenen Fahrzeugsensoren, wie etwa Sitzdrucksensoren, Sicherheitsgurtsensoren und dergleichen, empfängt.
-
Das Verfahren kann zudem verschiedene Schritte beinhalten, wie etwa Erlangen von Lokalisierungsinformationen von der mobilen Vorrichtung oder einem vernetzten Fahrzeug, um einen Standort der mobilen Vorrichtung oder des vernetzten Fahrzeugs zu verfeinern. In einigen Fällen beinhaltet das Verfahren einen Schritt zum Erlangen einer Kameraausgabe von jeder von einer ersten Kamera der Drohne und einer zweiten Kamera der mobilen Vorrichtung. Die Kameraausgabe kann einem Dienstanbieter zur Verwendung durch einen entfernten Bediener der Drohne bereitgestellt werden.
-
4 ist ein Ablaufdiagramm eines anderen beispielhaften Verfahrens. Das Verfahren kann einen Schritt 402 zum Bestimmen, wann die Drohne gelandet ist, beinhalten. Dies kann Detektieren, dass die Drohne den Boden berührt hat, unter Verwendung einer Kameraansicht sowie Detektieren, dass sich der/die Rotor(en) der Drohne nicht dreht/drehen, beinhalten.
-
Das Verfahren kann einen Schritt 404 zum Bestimmen, dass sich eine Person innerhalb des festgelegten Freibereiches befindet, beinhalten. Wie vorstehend angemerkt, kann dies Messen von Abständen zwischen der Drohne und der Person unter Verwendung von LIDAR, Ultraschallerfassung, Radar und dergleichen beinhalten. Erneut kann der Benutzer aus einer beliebigen Anzahl von Gründen mit der Drohne interagieren. Während dieser Prozesse ist es vorteilhaft, die Anwesenheit des Benutzers zu identifizieren und Änderungen des Drohnenstatus zu verhindern, die den/die Rotor(en) der Drohne anschalten können.
-
Zum Beispiel kann das Verfahren einen Schritt 406 zum Bestimmen beinhalten, wann eine Änderung des Drohnenflugstatus, die den Rotor anschaltet, bevorsteht. Zum Beispiel kann geplant werden, dass die Drohne in einem autonomen Modus zu einem anderen Standort fliegt.
-
In einem anderen Beispiel kann die Drohne ein Signal empfangen haben, um ihre Rotoren in Erwartung des Fluges anzuschalten. Dieses Signal kann von einem entfernten Bediener der Drohne empfangen werden. Wenn diese erwartete Änderung des Flugstatus erfolgt, kann das Verfahren einen Schritt 408 zum Verhindern des Anschaltens des Rotors beinhalten, wenn sich die Person innerhalb des festgelegten Freibereiches befindet. Wie vorstehend angemerkt, kann verhindert werden, dass der/die Rotor(en) angeschaltet wird/werden, indem ein Schalter ausgelöst wird, der den/die Rotor(en) und die Leistungsquelle der Drohne elektrisch koppelt. Andere Verfahren zum Deaktivieren der Anschaltung der Rotoren können ebenfalls genutzt werden.
-
5 ist ein Ablaufdiagramm noch eines anderen beispielhaften Verfahrens. Das Verfahren kann einen Schritt 502 zum Bestimmen, dass sich eine Drohne in einer gelandeten Konfiguration befindet, beinhalten. Das heißt, der Drohnenflugstatus ist „gelandet“. Als Nächstes beinhaltet das Verfahren einen Schritt 504 zum Detektieren eines Notaussignals, das durch eine mobile Vorrichtung emittiert wird, wenn sich die mobile Vorrichtung innerhalb eines festgelegten Freibereiches befindet, der um die Drohne eingerichtet ist. Das Notaussignal kann spezialisierte HF-Pakete, Impulse von Ultraschallwellen, Audiosignale, Lichtblitze und dergleichen beinhalten. Solange das Notaussignal durch die Drohne empfangen wird, kann das Verfahren einen Schritt 506 zum Abschalten eines Rotors der Drohne, während das Notaussignal empfangen wird, beinhalten.
-
Umsetzungen der in dieser Schrift offenbarten Systeme, Einrichtungen, Vorrichtungen und Verfahren können einen Spezial- oder Universalcomputer umfassen oder nutzen, der Computerhardware beinhaltet, wie etwa zum Beispiel einen oder mehrere Prozessoren und Systemspeicher, wie in dieser Schrift erörtert. Computerausführbare Anweisungen umfassen zum Beispiel Anweisungen und Daten, die bei Ausführung auf einem Prozessor einen Universalcomputer, Spezialcomputer oder eine Spezialverarbeitungsvorrichtung dazu veranlassen, eine bestimmte Funktion oder Gruppe von Funktionen durchzuführen. Eine Umsetzung der in dieser Schrift offenbarten Vorrichtungen, Systeme und Verfahren kann über ein Computernetzwerk kommunizieren. Ein „Netzwerk“ ist als eine oder mehrere Datenverbindungen definiert, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Vorrichtungen ermöglichen.
-
Obwohl der Gegenstand in einer Sprache beschrieben wurde, die für strukturelle Merkmale und/oder methodische Handlungen spezifisch ist, versteht es sich, dass der in den beigefügten Patentansprüchen definierte Gegenstand nicht notwendigerweise auf die vorstehend beschriebenen Merkmale oder Handlungen beschränkt sein muss. Die beschriebenen Merkmale und Handlungen sind vielmehr als beispielhafte Formen zum Umsetzen der Patentansprüche offenbart.
-
Wenngleich vorstehend verschiedene Ausführungsformen der vorliegenden Offenbarung beschrieben worden sind, versteht es sich, dass diese lediglich als Beispiele und nicht zur Einschränkung dargestellt worden sind. Der Fachmann auf dem einschlägigen Gebiet wird erkennen, dass verschiedene Änderungen bezüglich Form und Detail daran vorgenommen werden können, ohne von Wesen und Umfang der vorliegenden Offenbarung abzuweichen. Somit sollten Breite und Umfang der vorliegenden Offenbarung durch keine der vorstehend beschriebenen beispielhaften Ausführungsformen eingeschränkt, sondern lediglich gemäß den folgenden Patentansprüchen und deren Äquivalenten definiert werden.Die vorangehende Beschreibung ist zum Zwecke der Veranschaulichung und Beschreibung dargestellt worden. Sie erhebt keinerlei Anspruch auf Vollständigkeit und soll die vorliegende Offenbarung nicht auf die exakte offenbarte Form beschränken. Viele Modifikationen und Variationen sind in Anbetracht der vorstehenden Lehren möglich.Ferner ist anzumerken, dass eine beliebige oder alle der vorangehend genannten alternativen Umsetzungen in einer beliebigen gewünschten Kombination verwendet werden können, um zusätzliche Hybridumsetzungen der vorliegenden Offenbarung zu bilden. Zum Beispiel können beliebige der unter Bezugnahme auf eine konkrete Vorrichtung oder Komponente beschriebenen Funktionen durch eine andere Vorrichtung oder eine andere Komponente durchgeführt werden. Mit Formulierungen, die konditionale Zusammenhänge ausdrücken, wie unter anderem „kann“, „könnte“, „können“ oder „könnten“, soll im Allgemeinen vermittelt werden, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte beinhalten könnten, wohingegen andere Ausführungsformen diese nicht beinhalten können, es sei denn, es ist konkret etwas anderes angegeben oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit sollen derartige Formulierungen, die konditionale Zusammenhänge ausdrücken, nicht implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.
-
Gemäß einer Ausführungsform ist der Prozessor dazu konfiguriert, die Anweisungen auszuführen, um basierend auf einer Ausgabe eines beliebigen oder mehrerer beliebiger von einem Sicherheitsgurtsensor, einem Körpergewichtssensor, einem kapazitiven Sensor oder Kombinationen daraus zu bestimmen, wann sich der Benutzer der mobilen Vorrichtung innerhalb eines vernetzten Fahrzeugs befindet.
-
Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Folgendes: Bestimmen, dass sich eine Drohne in einer gelandeten Konfiguration befindet; Detektieren eines Notaussignals, das durch eine mobile Vorrichtung emittiert wird, wenn sich die mobile Vorrichtung innerhalb eines festgelegten Freibereiches befindet, der um die Drohne eingerichtet ist; und Abschalten eines Rotors der Drohne, während das Notaussignal empfangen wird.
-
In einem Aspekt der Erfindung beinhaltet das Verfahren Bestimmen einer Änderung des Drohnenflugstatus, die einschließt, dass der Rotor der Drohne aktiv ist; Bestimmen der Anwesenheit einer Person innerhalb des festgelegten Freibereiches, der um die Drohne eingerichtet ist; Verhindern, dass der Rotor angeschaltet wird; Bestimmen, dass die Person nicht mehr innerhalb des festgelegten Freibereiches erfasst wird; und Zulassen der Änderung des Drohnenflugstatus, die einschließt, dass der Rotor der Drohne aktiv ist.
-
In einem Aspekt der Erfindung beinhaltet das Verfahren Bestimmen, dass sich ein Benutzer der mobilen Vorrichtung mit der mobilen Vorrichtung zusammen an einem Ort befindet, indem eine physische Interaktion zwischen dem Benutzer und der mobilen Vorrichtung detektiert wird.
-
In einem Aspekt der Erfindung beinhaltet das Verfahren Erlangen von Lokalisierungsinformationen von der mobilen Vorrichtung oder einem vernetzten Fahrzeug, um einen Standort der mobilen Vorrichtung oder des vernetzten Fahrzeugs zu verfeinern.