-
ALLGEMEINER STAND DER TECHNIK
-
Polizeifahrzeuge oder dergleichen können mit elektronischen Vorrichtungen, wie etwa Sensoren und Computern, ausgestattet sein, die Unterstützung bei der Verfolgung eines verdächtigen Fahrzeugs bereitstellen. Zum Beispiel kann ein erstes Fahrzeug Kamerasensoren beinhalten, die ein verdächtiges zweites Fahrzeug detektieren können und Informationen in Bezug auf die Bewegungsrichtung, Geschwindigkeit usw. des zweiten Fahrzeugs bereitstellen können. Jedoch kann eine Person und/oder ein Objekt das zweite Fahrzeug verlassen und sich zu einem Bereich außerhalb eines Detektionsbereichs der Sensoren bewegen, die in dem ersten Fahrzeug beinhaltet sind.
-
Figurenliste
-
Die 1A ist ein Blockdiagramm eines beispielhaften Nachverfolgungssystems und eines beispielhaften Fahrzeugs mit einer Kofferraumtür in einer offenen Position.
- 1B zeigt das Fahrzeug aus 1A mit der Kofferraumtür in einer geschlossenen Position und der in einem Fahrzeugkofferraum platzierten Drohne.
- 2 ist ein Diagramm, das Fahrzeuge und eine Person zeigt, die eines der Fahrzeuge verlässt.
- 3 ist ein Diagramm, das Fahrzeuge, Drohnen und eine Person zeigt, die sich innerhalb einer Struktur bewegt.
-
Die 4A-4C ist ein Ablaufdiagramm eines beispielhaften Prozesses für ein Host-Fahrzeug, das eine Drohne steuert, die ein Zielobjekt nachverfolgt.
-
5 ist ein Ablaufdiagramm eines beispielhaften Prozesses für ein Client-Fahrzeug, das Steuerbefehle von einem Host-Fahrzeug empfängt.
-
DETAILLIERTE BESCHREIBUNG
-
EINFÜHRUNG
-
Hierin ist in einem Verfahren offenbart, das ein Bestimmen einer Bewegungsbahn eines beweglichen Zielobj ekts auf Grundlage von Daten von einem oder mehreren Fahrzeugsensoren und Entsenden einer Flugdrohne von dem Fahrzeug, um das bewegliche Zielobjekt auf Grundlage der bestimmten Bewegungsbahn nachzuverfolgen, umfasst.
-
Das Verfahren kann ferner ein Bestimmen eines gegenwärtigen Standorts des Zielobjekts auf Grundlage der Daten von dem einen oder den mehreren Fahrzeugsensoren und Senden einer Anweisung an die Flugdrohne, zu einem Zielort zu fliegen, auf Grundlage des bestimmten gegenwärtigen Standorts beinhalten.
-
Das Verfahren kann ferner ein Bestimmen eines Standorts auf Grundlage der bestimmten Bewegungsbahn und Betätigen der Drohne dazu, zu dem bestimmten Standort zu fliegen, beinhalten.
-
Das Verfahren kann ferner ein Nachverfolgen des Zielobjekts durch Bestimmen eines gegenwärtigen Standorts des Zielobjekts auf Grundlage von Sensordaten der Flugdrohne und Betätigen der Drohne dazu, innerhalb einer bestimmten Entfernung von dem Zielobjekt zu fliegen, während sich das Zielobjekt bewegt, beinhalten.
-
Das Verfahren kann ferner ein Nachverfolgen des Zielobjekts auf Grundlage einer gegenwärtigen Bewegungsbahn des Zielobjekts beinhalten, die auf Grundlage der Sensordaten der Flugdrohne bestimmt sind.
-
Das Verfahren kann ferner ein Bestimmen, dass das Zielobjekt in einen Bereich eingetreten ist, der für die Drohne unzugänglich ist, und das Übermitteln eines letzten bestimmten Standorts und einer letzten bestimmten Bewegungsbahn des beweglichen Zielobjekts an einen entfernten Computer beinhalten.
-
Das Verfahren kann ferner ein Detektieren eines zweiten Fahrzeugs auf Grundlage der Daten von dem einen oder den mehreren Fahrzeugsensoren und ein Detektieren des beweglichen Zielobjekts, wenn das bewegliche Zielobjekt das zweite Fahrzeug verlässt, beinhalten. Das Detektieren des beweglichen Zielobjekts könnte nur nach Bestimmen, dass eine Tür des zweiten Fahrzeugs offen ist, durchgeführt werden.
-
Das Verfahren kann ferner ein Betätigen eines Drohnenbetätigungselements dazu, Tinte auf das bewegliche Zielobjekt zu sprühen, beinhalten.
-
Das Verfahren kann ferner das Nachverfolgen des beweglichen Zielobjekts beinhalten, das ferner ein Detektieren einer bestimmten Tinte auf dem beweglichen Zielobjekt beinhaltet.
-
Ferner ist eine Rechenvorrichtung offenbart, die dazu programmiert ist, beliebige der vorstehenden Verfahrensschritte auszuführen. Noch ferner ist eine Flugdrohne offenbart, die die Rechenvorrichtung umfasst. Noch ferner ist ein Fahrzeug offenbart, das die Rechenvorrichtung umfasst.
-
Darüber hinaus ist ein Computerprogrammprodukt offenbart, das ein computerlesbares Medium umfasst, welches Anweisungen speichert, die durch einen Computerprozessor ausführbar sind, um beliebige der vorstehenden Verfahrensschritte auszuführen.
-
BEISPIELHAFTE SYSTEMELEMENTE
-
Die 1A-1B veranschaulichen ein Fahrzeug 100. Das Fahrzeug 100, das gelegentlich der Einfachheit halber als ein erstes oder Host-Fahrzeug 100 bezeichnet ist, kann auf eine Vielzahl von bekannten Weisen mit Leistung versorgt werden, z. B. mithilfe eines Elektromotors und/oder einer Brennkraftmaschine. Das Fahrzeug 100 kann ein beliebiges Kraftfahrzeug beinhalten, wie etwa ein Auto, einen Truck, einen Geländewagen, einen Van, einen Minivan usw. Das Fahrzeug 100 kann einen Computer 110, (ein) Betätigungselement(e) 115, (einen) Sensor(en) 120 und eine Mensch-Maschine-Schnittstelle (human machine interface - HMI 125) beinhalten. In einigen möglichen Ansätzen, wie nachstehend erörtert, ist das Fahrzeug 100 ein autonomes Fahrzeug 100, das dazu konfiguriert ist, in einem autonomen (z. B. fahrerlosen) Modus, einem teilweise autonomen Modus und/oder einem nichtautonomen Modus betrieben zu werden.
-
Der Computer 110 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Der Speicher beinhaltet eine oder mehrere Formen computerlesbarer Medien und speichert Anweisungen, die durch den Computer 110 ausgeführt werden können, um verschiedene Vorgänge durchzuführen, einschließlich der hierin offenbarten.
-
Der Computer 110 kann das Fahrzeug 100 in einem autonomen Modus, einem halbautonomen Modus oder einem nicht autonomen Modus betreiben. Zum Zwecke dieser Offenbarung ist ein autonomer Modus als einer definiert, in dem jedes von Antrieb, Bremsen und Lenken des Fahrzeugs 100 durch den Computer 110 gesteuert wird; in einem halbautonomen Modus steuert der Computer eines oder zwei von Antrieb, Bremsen und Lenken des Fahrzeugs 100; in einem nicht autonomen Modus steuert ein Bediener des Fahrzeugs 100 Antrieb, Bremsen und Lenken des Fahrzeugs.
-
Der Computer 110 kann eine Programmierung zum Betreiben eines oder mehrerer von Bremsen, Antrieb (z. B. Steuern der Beschleunigung in dem Fahrzeug 100 durch Steuern von einem oder mehreren von einer Brennkraftmaschine, einem Elektromotor, Hybridmotor usw.), Lenken, Klimatisierung, Innen- und/oder Außenbeleuchtung usw. des Landfahrzeugs 100 sowie zum Bestimmen, ob und wann der Computer 110 im Gegensatz zu einem menschlichen Bediener derartige Vorgänge steuern soll, beinhalten. Zusätzlich kann der Computer 110 dazu programmiert sein, zu bestimmen, ob und wann ein menschlicher Fahrzeugführer derartige Vorgänge steuern soll.
-
Der Computer 110 kann mehr als einen Prozessor, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug 100 zum Überwachen und/oder Steuern verschiedener Fahrzeugsteuerungen, z. B. einer Antriebsstrangsteuerung, einer Bremssteuerung, einer Lenkungssteuerung usw., beinhaltet sind, beinhalten oder kommunikativ daran gekoppelt sein, z. B. über ein Netzwerk des Fahrzeugs 100, z. B. einschließlich einen Kommunikationsbus, wie er nachstehend ausführlicher beschrieben wird. Der Computer 110 ist im Allgemeinen zur Kommunikation in einem Kommunikationsnetzwerk des Fahrzeugs 100 angeordnet, das einen Bus in dem Fahrzeug 100 beinhalten kann, wie etwa ein Controller Area Network (CAN) oder dergleichen, und/oder andere drahtgebundene und/oder drahtlose Mechanismen.
-
Über das Kommunikationsnetzwerk des Fahrzeugs 100 kann der Computer 110 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug 100 übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen, z. B. einem Betätigungselement 115, einer HMI 125 usw., empfangen. Alternativ oder zusätzlich kann in den Fällen, in denen der Computer 110 tatsächlich mehrere Vorrichtungen umfasst, das Kommunikationsnetzwerk des Fahrzeugs für Kommunikationen zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 110 dargestellt sind.
-
Die Betätigungselement 115 des Fahrzeugs 100 sind über Schaltungen, Chips oder andere elektronische und/oder mechanische Komponenten umgesetzt, die verschiedene Teilsysteme des Fahrzeugs 100 gemäß geeigneten Steuersignalen, wie bekannt, betätigen können. Die Betätigungselemente 115 können verwendet werden, um Systeme des Fahrzeugs zu steuern, wie etwa Bremsung, Beschleunigung und/oder Lenkung der Fahrzeuge 100.
-
Die Sensoren 120 des Fahrzeugs 100 können eine Vielzahl von Vorrichtungen beinhalten, die dafür bekannt sind, Daten über den Fahrzeugkommunikationsbus bereitzustellen. Zum Beispiel können die Sensoren 120 einen oder mehrere Kamera-, Radar- Infrarot- und/oder LIDAR-(Light Detection And Ranging-)Sensoren 120 beinhalten, die im Fahrzeug 100 und/oder an dem Fahrzeug 100 angeordnet sind und die Daten bereitstellen, die mindestens einen Teil des Außenbereichs des Fahrzeugs abdecken. Die Daten können durch den Computer 110 über eine geeignete Schnittstelle, wie sie bekannt sind, empfangen werden. Ein LIDAR-Sensor 120, der z. B. auf einer Oberseite des Fahrzeugs 100 angeordnet ist, kann Objektdaten bereitstellen, die relative Standorte, Größen und Formen von Objekten bereitstellen, wie zum Beispiel andere Fahrzeuge, die das Fahrzeug 100 umgeben. Ein Computer 110 kann die Objektdaten empfangen und das Fahrzeug 100 mindestens teilweise auf Basis der empfangenen Objektdaten in einem autonomen und/oder halbautonomen Modus betreiben.
-
Das Fahrzeug 100 kann einen Sensor 120 eines globalen Positionierungssystems (GPS) beinhalten, der dazu konfiguriert ist, Koordinaten eines gegenwärtigen Standorts des Fahrzeugs 100 zu bestimmen. Das Navigationssystem 110 kann ferner dazu konfiguriert sein, eine Route von dem gegenwärtigen Standort zu einem ausgewählten Zielort zu identifizieren sowie eine Karte und Fahranweisungen zu dem ausgewählten Zielort, z. B. über die HMI 125, anzuzeigen.
-
Zusätzlich kann der Computer 110 zum Kommunizieren durch eine Fahrzeug-zu-Infrastruktur-(V-zu-I-)Schnittstelle mit anderen Fahrzeugen 100, Drohnen 135 und/oder einem entfernten Computer 155 über ein Netzwerk 160 konfiguriert sein. Das Netzwerk 160 stellt einen oder mehrere Mechanismen dar, durch die der Computer 110 und der entfernte Computer 155 miteinander kommunizieren können, und kann eines oder mehrere von verschiedenen verdrahteten oder drahtlosen Kommunikationsmechanismen sein, einschließlich einer beliebigen gewünschten Kombination von verdrahteten (z. B. Kabel oder Glasfaser) und/oder drahtlosen (z. B. Mobilfunk-, drahtlos, Satelliten-, Mikrowellen- und Funkfrequenz) Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder Topologien, wenn mehrere Kommunikationsmechanismen verwendet werden). Beispielhafte Kommunikationsnetzwerke 160 beinhalten drahtlose Kommunikationsnetzwerke (z. B. unter Verwendung von einem oder mehreren von Mobilfunk, Bluetooth, IEEE 802.11 usw.), dedizierte Nahbereichskommunikation (dedicated short range communication - DSRC), Local Area Networks (LAN) und/oder Wide Area Networks (WAN), einschließlich des Internets, die Datenkommunikationsdienste bereitstellen.
-
Die HMI 125 stellt Informationen für einen Insassen des Fahrzeugs 100 dar und empfängt Informationen von diesem. Die HMI 125 kann sich z. B. an einem Armaturenbrett in einer Fahrgastkabine des Fahrzeugs 100 oder einer oder mehreren anderen Stellen, die für den Insassen zugänglich sind, befinden. Die HMI 125 beinhaltet Wahlscheiben, Digitalanzeigen, Bildschirme, wie zum Beispiel einen berührungsempfindlichen Bildschirm, Lautsprecher und so weiter zum Bereitstellen von Informationen für den Insassen. Die HMI 125 kann Schaltflächen, Knöpfe, Tastenfelder, ein Mikrophon und so weiter zum Empfangen von Informationen von dem Insassen beinhalten. In diesem Beispiel kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, ein zweites Fahrzeug 200 (siehe 2) auf Grundlage der Angabe, die über die HMI 125 empfangen ist, zum Verfolgen auswählen. Beispielsweise kann der Computer 110 dazu programmiert, Bilddaten auf der HMI 125 anzuzeigen, einschließlich mehrerer Fahrzeuge 200. Der Computer 110 kann ferner dazu programmiert sein, ein Fahrzeug 200 zum Verfolgen auszuwählen, nachdem ein Bildschirm einer HMI 125 an einem Bereich des HMI-Bildschirms berührt wurde, wo das Fahrzeug 200 angezeigt ist. Wie nachstehend erörtert kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, Informationen auf der HMI 125 auszugeben, einschließlich eines bestimmten Standorts des ausgewählten Fahrzeugs 200 und/oder eines Standorts seiner Insassen, falls ein oder mehrere des ausgewählten Fahrzeugs 200 das ausgewählte Fahrzeug 200 verlassen.
-
Die Drohne 135 ist ein unbemanntes Luftfahrzeug (unmanned aerial vehicle - UAV) und beinhaltet eine Reihe von Schaltungen, Chips oder anderen elektronischen und/oder elektromechanischen Komponenten, die verschiedene Vorgänge der Drohne 135 steuern können. Zum Beispiel kann die Drohne 135 gemäß Steuersignalen fliegen, die an ihre Propellerbetätigungselemente 140 ausgegeben werden. Die Drohne 135 kann mit einem Navigationssystem ausgestattet werden, sodass sie zu einem bestimmten Ort fliegen und an diesem schweben kann. 1A veranschaulicht die Drohne 135, wie sie sich in einem Kofferraum 165 des Fahrzeugs 100 befindet. 1B veranschaulicht die Drohne 135, wie sie über dem Host-Fahrzeug 100 schwebt.
-
Die Drohne 135 kann einen oder mehrere Kamerasensoren 145 beinhalten, die Bilder eines Bereichs in der Nähe der Drohne 135 aufnehmen können. Die Kamerasensoren 145 der Drohne 135 können an einem selben Gehäuse wie die Leuchten angebracht sein, und die Drohne 135 kann dazu programmiert sein, die Kamerasensoren 145 der Drohnen 135 einzuschalten, um Bilder eines Bereichs unter der Drohne 135 aufzunehmen. Wenn sie also über dem Fahrzeug 100 schwebt, kann der Kamerasensor 145 der Drohne 135 Bilder des Fahrzeugs 100 und möglicherweise des Bereichs um das Fahrzeug 100 aufnehmen. Zusätzlich oder alternativ kann die Drohne 135 andere Arten von Objekterkennungssensoren 145 beinhalten, wie etwa Radar, LIDAR, Kamera usw.
-
Die Drohne 135 kann einen GPS-Sensor 145 beinhalten, der GPS-Ortskoordinaten der Drohne 135, z. B. einem Computer 110 des Fahrzeugs 100, einem Computer der Drohne 135 usw. bereitstellt. Zum Beispiel kann der Computer der Drohne 135 die Drohne 135 auf Grundlage der empfangenen GPS- Ortkoordinaten, einer vorbestimmten Route usw. navigieren.
-
Die Drohne 135 kann eine oder mehrere Leuchten beinhalten. Zum Beispiel kann ein Computer 110 dazu programmiert sein, die Leuchte 150 der Drohne 135 zu aktivieren, um einen Bereich, der die Drohne 135 umgibt, zu beleuchten.
-
Der Computer der Drohne 135, der Computer 110 des Fahrzeugs 100 usw. können miteinander und mit einem entfernten Computer 155 über ein Netzwerk 160 kommunizieren, das ein oder mehrere Telekommunikationsprotokolle beinhaltet, z. B. Mobilfunktechnologien, wie 3G, 4G, Long Term Evolution (LTE) usw., Bluetooth®, Bluetooth Low Energy®, WiFi usw.
-
Wie in 2 gezeigt, kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, eine Bewegungsbahn m1 eines beweglichen Zielobjekts 210 auf Grundlage von Daten zu bestimmen, die von den Sensoren 120 des Fahrzeugs 100 empfangen sind. Der Computer 110 kann ferner dazu programmiert sein, die Drohne 135 von dem Fahrzeug 100 zu entsenden, um das bewegliche Zielobjekt 210 auf Grundlage der bestimmten Bewegungsbahn m1 nachzuverfolgen.
-
Eine Bewegungsbahn, im Sinne der vorliegenden Offenbarung, bezeichnet einen erwarteten Bewegungspfad eines Zielobjekts, der unmittelbar von einem gegenwärtigen Standort des Zielobjekts 210 startet. Die Bewegungsbahn m1 eines beweglichen menschlichen Zielobjekts 210 kann eine Krümmung oder eine gerade Linie auf einer Bodenfläche beinhalten, die einen erwarteten Weg des menschlichen Zielobjekts 210 identifiziert. Zum Beispiel kann der Computer 110 dazu programmiert sein, die Bewegungsbahn m1 durch wiederholtes (d. h. zwei oder mehr Mal) Identifizieren eines Standorts des Zielobjekts 210, z. B. auf Grundlage von Daten, die von dem LIDAR-Sensor 120 empfangen sind, und Anpassen einer Krümmung zwischen den identifizierten Standorten unter Verwendung bekannter Anpassungstechniken zu bestimmen. In einem Beispiel kann der Computer 110 dazu programmiert sein, eine vorbestimmte Bewegungsbahn m1 auf Grundlage eines neu bestimmten Standorts des Zielobjekts 210 erneut einzustellen. Zum Beispiel, bei Bestimmen, dass ein gegenwärtiger Standort des Zielobjekts 210 nicht auf der vorbestimmten Bewegungsbahn m1 des Zielobjekts 210 liegt, kann der Computer 110 dazu programmiert sein, eine neue Krümmung (d. h. eine eingestellte Bewegungsbahn) zwischen dem gegenwärtigen Standort und den zuvor bestimmten Standorten des Zielobjekts 210 anzupassen. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, die Bewegungsbahn m1 eines menschlichen Zielobjekts 210 auf Grundlage von verschiedenen Eigenschaften des menschlichen Zielobjekts 210, z.B. eine Geschwindigkeit, eine Richtung eines Gesichts eines Zielobjekts 210, eine Körperhaltung usw., zu bestimmen. Zum Beispiel kann der Computer 110 dazu programmiert sein, die Bewegungsbahn m1 auf Grundlage einer virtuellen Linie zu bestimmen, die senkrecht zu einer Brust des menschlichen Zielobjekts 210 ist und zu einer vorwärtigen Richtung des Zielobjekts 210 gerichtet ist.
-
Als ein Beispiel, kann der Computer 110 dazu programmiert sein, die Drohne 135 zu entsenden, da das Zielobjekt 210 nicht durch das Fahrzeug 100 zugänglich ist. Zum Beispiel kann ein Benutzer in dem Host-Fahrzeug 100 ein zweites Fahrzeug 200, das nachverfolgt werden soll, auswählen. Anders ausgedrückt kann der Computer 110 über die HMI 125 Bilddaten darstellen, einschließlich mehrerer Fahrzeuge 200 in einer Detektionsreichweite 250 der Sensoren 120 des Fahrzeugs 100. Der Computer 110 kann zum Beispiel dazu programmiert sein, das Fahrzeug 200 auf Basis einer Eingabe über die HMI 125, z. B. den Touchscreen, auszuwählen. Der Computer 110 kann dazu programmiert sein, Informationen auf der HMI 125 darzustellen, die einen gegenwärtigen Standort und/oder eine Bewegungsbahn des ausgewählten Fahrzeugs 200 relativ zu dem Host-Fahrzeug 100 angeben. In einem Beispiel kann das Fahrzeug 100 den Betrieb des Fahrzeugs 100 steuern, z. B. Beschleunigen, Lenken, Bremsen usw. um das ausgewählte Fahrzeug 200 nachzuverfolgen (oder zu verfolgen). Der Computer 110 kann dazu programmiert sein, das Host-Fahrzeug 100 in einem autonomen oder halbautonomen Modus zu betreiben. Somit kann der Computer 110 dazu programmiert sein, das Fahrzeug 100 auf Grundlage des gegenwärtigen Standorts und/oder der Bewegungsbahn des ausgewählten zweiten Fahrzeugs 200 zu navigieren.
-
Das ausgewählte Fahrzeug 200 kann anhalten, z. B. aufgrund einer Straßenblockade. In einem Beispiel kann ein Zielobjekt 210, z.B. ein menschlicher Verdächtiger, das ausgewählte Fahrzeug 200 verlassen. Der Computer 110 kann dazu programmiert sein, das Zielobjekt 210 bei Bestimmen, dass eine Tür 240 des ausgewählten Fahrzeugs 200 offen ist, z. B. auf Grundlage von Daten, die von den Sensoren 120 des Fahrzeugs 100 empfangen sind, zu detektieren. Der Computer 110 kann dazu programmiert sein, die Drohne 135 zu entsenden, um das Ziel 210 nachzuverfolgen.
-
Der Computer 110 kann dazu programmiert sein, die Drohne 135 aus dem Kofferraum 165 des Fahrzeugs 100 zu entsenden, z. B. bei Bestimmen, dass das Fahrzeug 100 nicht dazu in der Lage ist, das Zielobjekt 210 zu verfolgen. Um die Drohne 135 aus dem Host-Fahrzeug 100 zu entsenden, kann der Computer 110 ein Kofferraumöffnungsbetätigungselement 115 betätigen, um eine Tür 170 des Kofferraums 165 zu öffnen, z. B. sie aus einer geschlossenen Position (siehe 1B) in eine geöffnete Position (siehe 1A) zu bewegen. Der Computer 110 kann ferner dazu programmiert sein, eine Entsendevorrichtung 175 des Fahrzeugs 100 dazu zu betätigen, die Drohne 135 aus einer beliebigen Art von fahrzeuginternen Verriegelungen zu lösen, welche die Drohne 135 anderweitig sichern, wenn sie nicht im Gebrauch ist. Sobald sie aus den Verriegelungen gelöst ist, können die Betätigungsbefehle der Drohne 135 einen Betätigungsbefehl für die Drohne 135 dazu beinhalten, aus dem Host-Fahrzeug 100 auszutreten (d. h. aus dem Kofferraum 165 heraus zu fliegen) und über dem Host-Fahrzeug 100 (siehe 1A) zu schweben.
-
Die Entsendevorrichtungen 175 sind über elektromechanische Betätigungselemente wie etwa Elektromagnete oder andere Arten von elektromechanischen Vorrichtungen umgesetzt, die elektrische Signale in Bewegung umwandeln. Ein oder mehrere Betätigungselemente 115 können verwendet werden, um die Drohne 135 in oder an dem Host-Fahrzeug 100 zu verriegeln, wenn die entsendbare Drohne 135 nicht verwendet wird. Das heißt, diese Entsendungsvorrichtungen 175 können sich in einem verriegelten Zustand befinden, während die entsendbare Drohne 135 z. B. in einem Kofferraum 165 des Host-Fahrzeugs 100 gelagert ist, und können als Reaktion auf Empfangen einer Steuersignalausgabe durch z. B. den Computer 110 in einen entriegelten Zustand übergehen. Zum Beispiel kann die Entsendevorrichtung 175 einen oder mehrere Elektromagneten beinhalten, die, wenn es betätigt, die Drohne 135 in der verriegelten Position halten, z. B. durch Sichern eines Körpers der Drohne 135. Zum Beispiel kann die Entsendevorrichtung 175 eine Klemme beinhalten, die mechanisch an einen Elektromagneten gekoppelt ist. Bei Aktivieren des Elektromagneten durch den Computer 110 kann die Klemme die Drohne 135 halten, wobei bei Deaktivieren des Elektromagneten, die Klemme die Drohne 135 freigeben kann. Bei Empfangen eines Freigabesignals von dem Computer 110 kann sich die Entsendevorrichtung 175 in die entriegelte Position bewegen und die Drohne 135 freigeben. Somit können als Reaktion auf Steuersignale, die durch den Computer 110 ausgegeben sind, die Entsendevorrichtungen 175 in den entriegelten Zustand übergehen, sodass die Drohne 135 aus z. B. dem Kofferraum 165 freigegeben werden kann. Das den Kofferraum öffnende Betätigungselement 115 kann verwendet werden, um die Tür 170 des Kofferraums 165 oder eine andere Tür, die der Drohne 135 ermöglicht, aus dem Host-Fahrzeug 100 auszutreten, zu öffnen. Das den Kofferraum öffnende Betätigungselement 115 kann einen Elektromagneten beinhalten und der Computer 110 kann dazu programmiert sein, das den Kofferraum öffnende Betätigungselement 115 zu aktivieren, um die Tür 170 des Kofferraums 165 zu öffnen.
-
Der Computer 110 kann dazu programmiert sein, einen gegenwärtigen Standort des Zielobjekts 210 auf Grundlage der Daten des Sensors 120 des Fahrzeugs 100 zu bestimmen und eine Anweisung an die Drohne 135 dazu zu senden, zu einem Zielort zu fliegen, auf Grundlage des bestimmten Standorts des Zielobjekts 210. In einem Beispiel kann der Computer 110 den gegenwärtigen Standort des Zielobjekts 210 bei Detektieren des Zielobjekts 210, das das Fahrzeug 100 verlässt, z. B. auf Grundlage von Daten, die von den Sensoren 120 des Fahrzeugs 100 empfangen sind, bestimmen. Der Computer 110 kann die Anweisungen, einschließlich eines Standorts (z. B. gemäß Breitengrad- und Längengrad-Geokoordinaten) des Zielobjekts 210 ausgeben. Zum Beispiel kann der Computer 110 dazu programmiert sein, den Standort des Zielobjekts 210 auf Grundlage des relativen Standorts des Zielobjekts 210 zu dem Fahrzeug 100, z.B. unter Verwendung von Bildverarbeitungstechniken, und den Standort des Fahrzeugs 100, z. B. von dem GPS-Sensor 120 des Fahrzeugs 100 empfangen, zu bestimmen.
-
Daher kann das Betätigen der Drohne 135 dazu, zu dem Standort des Zielobjekts 210 auf Grundlage von Daten des Sensors 120 des Fahrzeugs 100 zu fliegen, vorteilhafterweise ein Risiko, das Zielobjekt 210 zu verlieren, verhindern. Zum Beispiel, in einem Bereich mit vielen Menschen, kann sich das Zielobjekt 210 nach Verlassen des ausgewählten Fahrzeugs 200 schnell, z. B. in wenigen Sekunden, außerhalb der Detektionsreichweite 250 der Sensoren 120 des Fahrzeugs 100 bewegen. Daher kann das Betätigen der Drohne 135 dazu, zu dem Standort des Zielobjekts 210 auf Grundlage von Daten des Sensors 120 des Fahrzeugs 100 zu fliegen, eine ununterbrochene Nachverfolgung des Zielobjekts 210 bereitstellen. Ununterbrochene Nachverfolgung in dem vorliegenden Sinne bezieht sich auf einen Übergang von Nachverfolgen des Zielobjekts 210 auf Grundlage von Daten von den Sensoren 120 des Fahrzeugs 100 zu Nachverfolgen des Zielobj ekts 210 auf Grundlage von den Sensoren 145 der Drohne 135.
-
Bei Entsenden der Drohne 135 von dem Fahrzeug 100 kann der Computer 110 in einem Beispiel dazu programmiert sein, einen Standort 220 auf Grundlage der bestimmten Bewegungsbahn m1 zu bestimmen und die Drohne 135 dazu zu betätigen, zu dem bestimmten Standort 220 zu fliegen, z. B. statt des gegenwärtigen Standorts des Zielobjekts 210, wie in 2 gezeigt. Zum Beispiel kann der Computer 110 dazu programmiert sein, einen Standort 220 zu bestimmen, wo ein Hinzufügen einer Entfernung d1 von dem gegenwärtigen Standort des Zielobjekts 210 und einer zurückgelegten Entfernung d2 des Zielobjekts 210 länger ist als eine Flugentfernung d3 von dem Fahrzeug 100 zu dem Standort 220. Der Computer 110 kann dazu programmiert sein, einen Bereich 230 um den Standort 220 zu bestimmen und die Drohne 135 dazu zu betätigen, zu dem Bereich 230 zu fliegen. In einem Beispiel kann der Bereich 230 ein Kreis sein, der an dem Standort 220 zentriert ist, mit einem Durchmesser von 10 Metern.
-
Der Computer 110 kann dazu programmiert sein, das Zielobjekt 210 z. B. nach Detektieren des Zielobjekts 210 innerhalb des Bereichs 230 durch Bestimmen eines gegenwärtigen Standorts des Zielobjekts 210 auf Grundlage von Daten des Sensors 120 der Drohne 135 nachzuverfolgen. Der Computer 110 und/oder der Computer der Drohne 135 können dazu programmiert sein, z. B. periodisch alle 50 ms, eine aktualisierte Bewegungsbahn m2 des Zielobjekts 210 zu bestimmen und die Drohne 135 innerhalb einer bestimmten Entfernung, z. B. 5 Meter, von dem Zielobjekt 210 zu fliegen, während sich das Zielobjekt 210 bewegt. Der Computer 110 kann dazu programmiert sein, das Zielobjekt 210 auf Grundlage einer gegenwärtigen Bewegungsbahn m2 des Zielobjekts 210 nachzuverfolgen, die auf Grundlage der Daten des Sensors 145 der Drohne 135 bestimmt ist.
-
Der Computer 110 kann dazu programmiert sein, Daten, einschließlich des Standorts und/oder der Bewegungsbahn der Drohne 135 und/oder des Zielobjekts 210 zu empfangen und ein Bild und/oder Textdaten an die HMI 125 de Fahrzeugs 100 auf Grundlage der empfangenen Daten auszugeben. Zum Beispiel kann der Computer 110 über die HMI 125 ein schematisches Bild des Zielobj ekts 210 auf einer Karte anzeigen. Der Computer 110 kann dazu programmiert sein, Daten, z. B. Bild-, Text- und/oder Audiodaten, an eine mobile Vorrichtung eines Benutzers auszugeben.
-
Der Computer 110 kann dazu programmiert sein, ein Sprühbetätigungselement 140 der Drohne 135 dazu zu betätigen, Tinte auf das Zielobjekt 210 zu sprühen. Zum Beispiel kann der Computer 110 dazu programmiert sein, die Drohne 135 dazu zu betätigen, sich dem Zielobjekt 210 zu nähern, z. B. innerhalb von 3 Metern, und Tinte zu sprühen, z. B. eine auf Photolumineszens basierende Tinte, die Licht unter schlechten Lichtbedingungen ausgibt. Somit kann die Drohne 135 vorteilhafterweise eine verbesserte Detektion des Zielobjekts 210, z. B. unter schlechten Lichtbedingungen, aufweisen. Zum Beispiel kann der Computer 110 dazu programmiert sein, das Zielobjekt 210 zu detektieren (oder das Zielobjekt 210 von nicht besprühten Objekten zu unterschieden), auf Grundlage einer erwarteten Wellenlänge von Licht, das von der gesprühten Tinte ausgegeben wird. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, Tinte auf eine Fläche, z. B. einen Orientierungspunkt, eine Kante eines Gebäudes 310 usw. innerhalb einer vorbestimmten Entfernung, wie etwa 5 Meter von dem Zielobjekt 210 zu sprühen. Daher kann eine andere Person und/oder Drohne 135, die das Zielobjekt 210 verfolgt, vorteilhafterweise auf Grundlage der erwarteten Wellenlänge von Licht, das durch die besprühte Oberfläche emittiert wird, bestimmen, dass sich das Ziel 210 innerhalb der vorbestimmten Entfernung der besprühten Oberfläche befand.
-
In einem Beispiel, veranschaulicht in 3, entsendet der Computer 110 des Host-Fahrzeugs 100 eine Drohne 135 dazu, das Zielobjekt 210 nachzuverfolgen. Das Zielobjekt 210 kann in einen Bereich eintreten, der für die Drohne 135 nicht zugänglich ist, z. B. einen Flur 320 eines Gebäudes 310, einen Tunnel, eine Menschenmenge usw. Der Computer 110 des Fahrzeugs 100 kann dazu programmiert sein, zu bestimmen, dass das Zielobjekt 210 in das Gebäude 310 eingetreten ist und kann einen letzten bestimmten Standort, z. B. Eingangsort 330 des Gebäudes 310 und/oder eine letzte bestimmte Bewegungsbahn m1 des Zielobjekts 210 zu einem entfernten Computer 155 übermitteln.
-
In einem Beispiel können der entfernte Computer 155 und/oder der Computer 110 des Fahrzeugs 100 dazu programmiert sein, einen Ausgangsort 340 des Gebäudes 310 auf Grundlage des Eingangsorts 330, der letzten Bewegungsbahn m1 und eines inneren Grundrisses des Gebäudes 310 schätzen. Zum Beispiel kann der entfernte Computer 155 dazu programmiert sein, den Ausgangsstandort 340 auf Grundlage eines Grundrisses, der den Flur 320 beinhaltet, zu schätzen. Der entfernte Computer 155 kann ferner dazu programmiert sein, ein drittes Fahrzeug 101 (hierin der Einfachheit halber und zum Unterscheiden von den Fahrzeugen 100, 200 als ein drittes Fahrzeug 101 bezeichnet) auf Grundlage des geschätzten Ausgangsstandorts 340 und der Standortkoordinaten des dritten Fahrzeugs 101 zu identifizieren. Der Computer 110 des dritten Fahrzeugs 101 kann, bei Empfangen einer Anweisung von dem entfernten Computer 155, eine zweite Drohne 136 von dem dritten Fahrzeug 101 betätigen, um zu dem erwarteten Ausgangsstandort 340 zu fliegen. Zusätzlich oder alternativ kann der entfernte Computer 155 dazu programmiert sein, mehrere mögliche Ausgangsstandorte zu identifizieren und mehrere Drohnen 135 dazu zu betätigen (z. B. aus mehreren Fahrzeugen 100), zu den identifizierten Ausgangsstandorten zu fliegen. Das Host- und das zweite Fahrzeug 100, 101 können gemeinsame Elemente aufweisen, einschließlich eines Computers 110, Betätigungselementen 115, Sensoren 120, einem Kofferraum 165 und/oder einer HMI 130, wie vorstehend erörtert. Die Drohne 135, die mit dem Host-Fahrzeug 100 zusammenhängt, und die zweite Drohne 136, die mit dem dritten Fahrzeug 101 zusammenhängt, können gemeinsame Elemente aufweisen, einschließlich Propellerbetätigungselemente 140, Sensoren 145 usw., ein vorstehend erörtert.
-
VERARBEITUNG
-
Die 4A-4C zeigen einen beispielhaften Prozess 400 zum Verfolgen eines Zielobjekts 210. Zum Beispiel kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, die Blöcke des Prozesses 400 auszuführen. Zusätzlich oder alternativ können der Computer 110 des Fahrzeugs 100, der Computer der Drohne 135, der entfernte Computer 155 und/oder eine Kombination davon dazu programmiert sein, Blöcke des Prozesses 400 auszuführen.
-
Der Prozess 400 beginnt in einem Block 405, in welchem der Computer 110 Bilddaten, die einen umgebenden Bereich beinhalten, z. B. den Detektionsbereich 250, des Host-Fahrzeugs 100 ausgibt. In einem Beispiel kann der Computer 110 dazu programmiert sein, Daten von verschiedenen Sensoren 120 des Fahrzeugs 100, z. B. LIDAR, Radar, Kamerasensoren 120, zu empfangen und Bilder auf Grundlage von den empfangenen Sensordaten an eine Anzeige der HMI 125 des Host-Fahrzeugs 100 auszugeben.
-
Als Nächstes bestimmt der Computer 110 in einem Entscheidungsblock 410, ob ein zweites Fahrzeug 200 ausgewählt ist. Des Weiteren kann der Computer 110 dazu programmiert sein, einen Betrieb des Fahrzeugs 200 oder eines beliebigen anderen Objekts auf Grundlage einer Eingabe über die HMI 125 auszuwählen. Zum Beispiel kann ein Benutzer in dem Host-Fahrzeug 100 einen Bildschirm der HMI 125 berühren, um ein Fahrzeug 200 auszuwählen, das auf dem Bildschirm der HMI 125 gezeigt ist. Wenn der Computer 110 bestimmt, dass ein Fahrzeug 200 ausgewählt ist, geht der Prozess 400 zu einem Block 415 über; andernfalls kehrt der Prozess 400 zu dem Entscheidungsblock 405 zurück.
-
In Block 415 navigiert der Computer 110 das Fahrzeug 100 dazu, das ausgewählte Fahrzeug 200 zu verfolgen. Zum Beispiel kann der Computer 110 dazu programmiert sein, das ausgewählte Fahrzeug 200 durch Betreiben des Fahrzeugs 100 in einem autonomen Modus derart zu verfolgen, dass eine vorbestimmte Entfernung, z. B. 20 Meter, zwischen dem Host-Fahrzeug 100 und dem ausgewählten Fahrzeug 200 beibehalten wird. Als weiteres Beispiel kann der Computer 110 dazu programmiert sein, Navigationsanweisungen an die HMI 125 des Fahrzeugs 100 auszugeben, und ein Benutzer des Fahrzeugs 100 kann das Fahrzeug 100 auf Grundlage der ausgegebenen Navigationsanweisungen in einem nicht autonomen Modus steuern.
-
Als Nächstes bestimmt der Computer 110 in einem Entscheidungsblock 420, ob eine Tür 240 des ausgewählten Fahrzeugs 200 offen ist. Zum Beispiel kann der Computer 110 dazu programmiert sein, zu bestimmen, ob eine Tür 240 des Fahrzeugs 200 offen ist, auf Grundlage von Daten, die z. B. von den LIDAR-, Radar-, Kamerasensoren 120 des Fahrzeugs 100 empfangen sind. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, zu bestimmen, ob das ausgewählte Fahrzeug 200 ein offenes Dach aufweist, z. B. ein Cabriolet. In einem anderen Beispiel kann der Computer 110 dazu programmiert sein, zu bestimmen, ob eine Tür eines Anhängers, der an dem ausgewählten Fahrzeug 200 befestigt ist, offen ist. Wenn der Computer 110 bestimmt, dass eine Tür 240 des ausgewählten Fahrzeugs 200 offen ist, geht der Prozess 400 zu einem Entscheidungsblock 425 über; andernfalls kehrt der Prozess 400 zu Block 415 zurück.
-
Bei Entscheidungsblock 425 bestimmt der Computer 110, ob das Zielobjekt 210 das ausgewählte Fahrzeug 200 verlassen hat, z. B. unter Verwendung bekannter Bildverarbeitungstechniken. Falls der Computer 110 bestimmt, dass das/die Zielobjekt(e) 210 das ausgewählte Fahrzeug 200 verlassen hat/haben, geht der Prozess 400 zu einem Block 430 über; andernfalls kehrt der Prozess 400 zu dem Entscheidungsblock 425 zurück.
-
In dem Block 430 bestimmt der Computer 110 eine Bewegungsbahn und/oder einen Standort des Zielobjekts 210. Zum Beispiel, wie in 2 gezeigt, kann der Computer 110 dazu programmiert sein, einen Standort und/oder eine Bewegungsbahn m1 des Zielobjekts 210 zu bestimmen. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, Standorte und/oder Bewegungsbahnen von mehreren Zielobjekten, die das ausgewählte Fahrzeug 200 verlassen, zu bestimmen. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, das Zielobjekt 210 aus mehreren detektierten Personen auszuwählen, die das ausgewählte Fahrzeug 200 verlassen, z. B. auf Grundlage von Gesichtserkennung.
-
Nun unter Bezugnahme auf 4B entsendet der Computer 110 in einem Block 435 die Drohne 135 z. B. durch Betätigen der Drohne 135 in dem Kofferraum 165 des Host-Fahrzeugs 100 dazu, aus dem Fahrzeug 100 zu fliegen. Der Computer 110 kann dazu programmiert sein, die Drohne 135 durch Betätigen eines Betätigungselements 115 des Fahrzeugs 100 dazu, die Drohne 135 zu entriegeln, Betätigen eines Betätigungselements 115 des Fahrzeugs 100 dazu, die Tür 170 des Kofferraums 165 zu öffnen und Betätigen der Drohne 135 dazu, zu fliegen, zu entsenden. Der Computer 110 kann dazu programmiert sein, Daten zu der Drohne 135 zu übertragen, die den bestimmten Standort und/oder die Bewegungsbahn des Zielobjekts 210 beinhalten.
-
Als Nächstes navigiert der Computer 110 in einem Block 440 die Drohne 135 auf Grundlage des bestimmten Standorts und/oder der bestimmten Bewegungsbahn. Zum Beispiel, wie in 2 gezeigt, kann der Computer 110 dazu programmiert sein, die Drohne 135 auf Grundlage der Bewegungsbahn m1 des Zielobjekts 210, des Standorts des Zielobjekts 210, des Standorts des Host-Fahrzeugs 100 usw. zu navigieren.
-
Als nächstes betätigt der Computer 110 in einem Block 445 die Drohne 135 dazu, das Zielobjekt 210 zu verfolgen. Der Computer 110 kann dazu programmiert sein, das Zielobjekt 210 auf Grundlage des Standorts und/oder der Bewegungsbahn des Zielobjekts 210 zu verfolgen. Zum Beispiel kann der Computer 110 dazu programmiert sein, einen gegenwärtigen Standort des Zielobjekts 210 auf Grundlage der Daten des Sensors 145 der Drohne 135 zu bestimmen und die Drohne 135 dazu zu betätigen, innerhalb einer bestimmten Entfernung, z. B. innerhalb eines Bereichs 230 von dem Zielobjekt 210 zu fliegen, während sich das Zielobjekt 210 bewegt. In einem Beispiel kann der Computer 110 dazu programmiert sein, die Bewegungsbahn m1 des Zielobjekts 210 durch wiederholtes Identifizieren eines Standorts des Zielobjekts 210, z. B. auf Grundlage von Daten, die von den Sensoren 145 der Drohne 135 empfangen sind, und Anpassen einer Krümmung zwischen den identifizierten Standorten unter Verwendung bekannter Anpassungstechniken, zu bestimmen. Zusätzlich kann der Computer 110 ferner dazu programmiert sein, ein Betätigungselement 140 der Drohne 135 dazu zu betätigen, Tinte auf ein Zielobjekt 210 und/oder eine Oberfläche innerhalb einer vorbestimmten Entfernung von dem Zielobjekt 210 zu sprühen, während die Drohne 135 das Zielobjekt 210 nachverfolgt.
-
Als Nächstes bestimmt der Computer 110 in einem Entscheidungsblock 450, ob eine Nachverfolgungssitzung des Zielobjekts 210 abgeschlossen ist, z.B. auf Grundlage von Empfangen einer Eingabe über die HMI 125 des Fahrzeugs 100. Falls der Computer 110 bestimmt, dass die Nachverfolgungssitzung abgeschlossen ist, geht der Prozess 400 zu einem Block 452 über; andernfalls geht der Prozess 400 zu einem Entscheidungsblock 455 über.
-
In dem Block 452 betätigt der Computer 110 die Drohne 135 dazu, zu einem gegenwärtigen Standort des Host-Fahrzeugs 100 zu navigieren, z. B. auf Grundlage von Ortskoordinaten, die von dem GPS-Sensor 120 des Fahrzeugs 100 empfangen sind. Der Computer 110 kann ferner dazu programmiert sein, die Drohne 135 dazu zu betätigen, in einem vorgesehenen Bereich, z. B. dem Kofferraum 165 des Host-Fahrzeugs 100 zu landen. Der Computer 110 kann zum Beispiel dazu programmiert sein, die Tür 170 des Kofferraums 165 zu öffnen, um die Drohne 135 dazu zu betätigen, in dem Kofferraum 165 zu landen. Der Computer 110 kann ein Betätigungselement des Fahrzeugs 100 dazu betätigen, die Drohne 135 an der Stelle zu verriegeln, und kann dann die Tür 170 des Kofferraums 165 dazu betätigen, sich zu schließen. Im Anschluss an Block 452 endet der Prozess 400 oder kehrt alternativ zu Block 405 zurück, wenngleich dies in den 4A-4B nicht gezeigt ist.
-
In dem Entscheidungsblock 455 bestimmt der Computer 110, ob das Zielobjekt 210 in einen nicht zugänglichen Bereich eingetreten ist, z. B. ein Gebäude 310, einen Tunnel usw. falls der Computer 110 bestimmt, dass das Zielobjekt 210 in einen nicht zugänglichen Bereich eingetreten ist, geht der Prozess 400 zu einem Block 460 (siehe 4C) über; andernfalls kehrt der Prozess 400 zu Block 445 zurück.
-
Unter Bezugnahme auf 4C schätzt der Computer 110 in Block 460 einen Ausgangsort des Zielobjekts 210 aus dem unzugänglichen Bereich. In einem Beispiel kann der Computer 110 dazu programmiert sein, einen Ausgangsort 340 des Gebäudes 310 auf Grundlage des Eingangsorts 330, der letzten Bewegungsbahn m1 und eines inneren Grundrisses des Gebäudes 310 (siehe 3) schätzen. Der Computer 110 kann dazu programmiert sein, Ortskoordinaten des/der geschätzten Ausgangsort(e) zu bestimmen.
-
Als nächstes, entsendet der Computer 110 in einem Block 465 eine Drohne 136 eines dritten Fahrzeugs 101 zu dem geschätzten Ausgangsort, z. B. durch Übermitteln der Ortskoordinaten des geschätzten Ausgangsorts 340 an den entfernten Computer 155.
-
Zum Beispiel können der Computer 110 und/oder der entfernte Computer 155 dazu programmiert sein, das dritte Fahrzeug 101 auf Grundlage der identifizierten Ortskoordinaten des Ausgangsorts 340 und der Ortskoordinaten des dritten Fahrzeugs 101 zu identifizieren. In einem Beispiel kann der Computer 110 dazu programmiert sein, mehrere Drohnen 135 aus einem oder mehreren zweiten Fahrzeugen 101 zu entsenden, z. B. wenn mehrere Ausgangsorte für das Ziel 210 in dem zugänglichen Bereich geschätzt sind.
-
Als Nächstes bestimmt der Computer 110 in einem Entscheidungsblock 470, ob der Computer 110 Ortskoordinaten des Zielobjekts 210 von dem entsendeten dritten Fahrzeug 101 empfangen hat. Wie nachstehend in Bezug auf 5 beschrieben, kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, zu dem Ausgangsort 340 zu navigieren, das Zielobjekt 210 zu detektieren, Ortskoordinaten und/oder die Bewegungsbahn des Zielobjekts 210 zu identifizieren. Falls der Computer 110 bestimmt, dass die Ortskoordinaten und/oder die Bewegungsbahn des Zielobjekts 210 von dem dritten Fahrzeug 101 empfangen ist, geht der Prozess 400 zu einem Block 475 über; andernfalls geht der Prozess 400 zu einem Block 480 über.
-
In Block 475 navigiert der Computer 110 die Drohne 135 auf Grundlage der empfangenen Ortskoordinaten des Zielobjekts 210. Zum Beispiel kann der Computer 110 die Drohne 135 dazu betätigen, zu einem gegenwärtigen Standort des Zielobjekts 210 zu fliegen, auf Grundlage der Ortskoordinaten und/oder Bewegungsbahn des Zielobjekts 210, die z. B. von der Drohne 136 des dritten Fahrzeugs 101, dem entfernten Computer 155 usw. empfangen sind. Unter Bezugnahme auf 3, kann der Computer 110 dazu programmiert sein, eine Route um das Gebäude 310 zu planen, um die Drohne 135 zu dem Standort des Zielobjekts 210 zu navigieren.
-
In dem Block 480 betätigt der Computer 110 die Drohne 135 dazu, über dem Eingangsort 330 des unzugänglichen Bereichs zu schweben. Alternativ kann der Computer 110 die Drohne 135 dazu betätigen, zu dem Host-Fahrzeug 100 zurückzukehren. Im Anschluss an Block 480 geht der Prozess 400 zum Block 440 über (siehe 4B).
-
5 zeigt einen beispielhaften Prozess 500 für ein drittes Fahrzeug 101, das Befehle von dem Host- (oder ersten) Fahrzeug 100 empfängt. Zum Beispiel kann ein Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, Blöcke des Prozesses 500 auszuführen.
-
Der Prozess 500 beginnt in einem Entscheidungsblock 505, in welchem der Computer 110 des Fahrzeugs 101 bestimmt, ob z. B. Koordinaten eines geschätzten Ausgangsorts 340 eines Zielobjekts 210 empfangen sind, z. B. von einem Computer 110 des Host-Fahrzeugs 100, dem entfernten Computer 155 usw. Falls der Computer 110 des dritten Fahrzeugs 101 bestimmt, dass die Koordinaten des geschätzten Ausgangsorts empfangen sind, geht der Prozess 500 zu einem Block 510 über; andernfalls kehrt der Prozess 500 zu Entscheidungsblock 505 zurück.
-
In dem Block 510 entsendet der Computer 110 des dritten Fahrzeugs 101 eine zweite Drohne 136, z. B. aus dem Kofferraum 165 des dritten Fahrzeugs 101.
-
Als nächstes navigiert der Computer 110 des dritten Fahrzeugs 101 in einem Block 515 die zweite Drohne 136 zu dem bestehenden Standort 340. Der Computer 110 des dritten Fahrzeugs 101 kann dazu programmiert sein, die zweite Drohne 136 auf Grundlage der empfangenen Ortskoordinaten des geschätzten Ausgangsorts 340 zu navigieren.
-
Als Nächstes bestimmt der Computer 110 des dritten Fahrzeugs 101 in einem Entscheidungsblock 520, ob das Zielobjekt 210 detektiert ist, z.B. innerhalb einer vorbestimmten Entfernung des Ausgangsorts 340. Zum Beispiel kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, das Zielobjekt 210 unter Verwendung bekannter Bildverarbeitungstechniken, z. B. auf Grundlage von empfangenen Informationen von dem Host-Fahrzeug 100 zu detektieren. Der Computer 110 des dritten Fahrzeugs 101 kann dazu programmiert sein, das Zielobjekt 210 auf Grundlage von empfangenen Informationen zu detektieren, einschließlich eines Bilds des Zielobjekts 210, einer Wellenlänge von emittiertem Licht von einer Tinte, die auf das Ziel 210 durch die Drohne 135 des Host-Fahrzeugs 100 gesprüht ist, usw. Falls der Computer 110 des dritten Fahrzeugs 101 bestimmt, dass das Ziel 210 detektiert wurde, geht der Prozess 500 zu einem Block 525 über; andernfalls kehrt der Prozess 500 zu Entscheidungsblock 520 zurück.
-
In dem Block 525 übermittelt der Computer 110 des dritten Fahrzeugs 101 Ortskoordinaten und/oder die Bewegungsbahn des detektierten Zielobjekts 210, z.B. an das Host-Fahrzeug 100, den entfernten Computer 155 usw. Der Computer 110 kann dazu programmiert sein, das detektierte Zielobjekt 210 nachzuverfolgen, z.B. innerhalb einer vorbestimmten Entfernung des Zielobjekts 210 zu fliegen. Zusätzlich oder alternativ kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, periodisch, z. B. jede Sekunde, die gegenwärtige(n) Ortskoordinaten und/oder Bewegungsbahn des Zielobjekts 210 zu übermitteln, während sie innerhalb einer vorbestimmten Entfernung des Zielobjekts 210 fliegt.
-
Als nächstes bestimmt der Computer 110 des dritten Fahrzeugs 101 in einem Entscheidungsblock 530, ob eine Nachverfolgungssitzung des Zielobjekts 210 abgeschlossen ist, z. B. bei Bestimmen, dass die Drohne 135 des Host-Fahrzeugs 100 innerhalb einer vorbestimmten Entfernung, wie etwa 10 Meter des Zielobjekts 210 angekommen ist. Zusätzlich oder alternativ kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, zu bestimmen, dass eine Nachverfolgungssitzung abgeschlossen ist, bei Empfangen eines Steuerbefehls von der Drohne 135 des ersten Fahrzeugs 100 einschließlich einer Anforderung, das Nachverfolgen des Zielobjekts 210 zu beenden. Falls der Computer 110 des dritten Fahrzeugs 101 bestimmt, dass die Nachverfolgungssitzung abgeschlossen ist, geht der Prozess 500 zu einem Block 535 über; andernfalls geht der Prozess 500 zu dem Block 525 über.
-
In dem Block 535 betätigt der Computer 110 des dritten Fahrzeugs 101 die zweite Drohne 136 dazu, zu dem dritten Fahrzeug 101 zurückzukehren. Zum Beispiel betätigt der Computer 110 die zweite Drohne 136 dazu, in dem Kofferraum 165 des dritten Fahrzeugs 101 zu landen. Zusätzlich kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, die Tür 170 des Kofferraums 165 vor dem Landen der zweiten Drohne 136 zu öffnen und betätigt die Tür 170 des Kofferraums 165 dazu, sich nach dem Landen der zweiten Drohne 136 zu schließen.
-
Im Anschluss an Block 535 endet der Prozess 500.
-
Der ein Substantiv modifizierende Artikel „ein/e“ sollte dahingehend verstanden werden, dass er einen oder mehrere bezeichnet, es sei denn, es ist etwas anderes angegeben oder der Kontext erfordert etwas anderes. Der Ausdruck „auf Grundlage von/beruhen auf“ beinhaltet teilweise oder vollständig auf Grundlage von/beruhen auf.
-
Rechenvorrichtungen, wie sie in dieser Schrift erörtert sind, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend identifizierten, und zum Ausführen von Blöcken oder Schritten vorstehend beschriebener Prozesse ausführbar sind. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung einer Vielzahl von Programmiersprachen und/oder -technologien erstellt werden, einschließlich unter anderem, entweder allein oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er ein oder mehrere Prozesse durchführt, einschließlich eines oder mehrerer der in dieser Schrift beschriebenen Prozesse. Derartige Anweisungen und andere Daten können unter Verwendung vielfältiger computerlesbarer Medien gespeichert und übertragen werden. Eine Datei in der Rechenvorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert sind.
-
Ein computerlesbares Medium beinhaltet ein beliebiges Medium, das am Bereitstellen von Daten (z. B. Anweisungen), die durch einen Computer gelesen werden können, beteiligt ist. Ein derartiges Medium kann viele Formen annehmen, einschließlich, unter anderem, nichtflüchtiger Medien, flüchtiger Medien usw. Nichtflüchtige Medien beinhalten beispielsweise optische oder magnetische Platten und andere Dauerspeicher. Flüchtige Medien beinhalten dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der üblicherweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten beispielsweise eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH, einen EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das ein Computer auslesen kann.
-
Hinsichtlich der hier beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass die Schritte derartiger Prozesse usw. zwar als gemäß einer bestimmten Abfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch so umgesetzt werden könnten, dass die beschriebenen Schritte in einer anderen Reihenfolge als der hier beschriebenen Reihenfolge durchgeführt werden. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte hierin beschriebene Schritte weggelassen werden könnten. Anders ausgedrückt sind die Beschreibungen von Systemen und/oder Prozessen hierin zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keinesfalls dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränken.
-
Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorstehenden Beschreibung und der beigefügten Figuren und nachfolgenden Patentansprüche, veranschaulichend und nicht einschränkend sein soll. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann beim Lesen der vorstehenden Beschreibung ersichtlich. Der Umfang der Erfindung sollte nicht unter Bezugnahme auf die vorstehende Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf Patentansprüche, die hier beigefügt sind und/oder in einer hierauf beruhenden, nichtvorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu denen derartige Patentansprüche berechtigt sind. Es wird erwartet und ist beabsichtigt, dass es hinsichtlich der hier erörterten Fachgebiete künftige Entwicklungen geben wird und dass die offenbarten Systeme und Verfahren in derartige künftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.