DE112017006933T5 - Drohnenbasierte nachverfolgung - Google Patents

Drohnenbasierte nachverfolgung Download PDF

Info

Publication number
DE112017006933T5
DE112017006933T5 DE112017006933.5T DE112017006933T DE112017006933T5 DE 112017006933 T5 DE112017006933 T5 DE 112017006933T5 DE 112017006933 T DE112017006933 T DE 112017006933T DE 112017006933 T5 DE112017006933 T5 DE 112017006933T5
Authority
DE
Germany
Prior art keywords
vehicle
computer
drone
target object
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017006933.5T
Other languages
English (en)
Inventor
Brian Bennie
Cynthia M. Neubecker
Brad Alan Ignaczak
Somak Datta Gupta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE112017006933T5 publication Critical patent/DE112017006933T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B13/00Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00
    • B05B13/005Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00 mounted on vehicles or designed to apply a liquid on a very large surface, e.g. on the road, on the surface of large containers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/16Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting
    • B64D1/18Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting by spraying, e.g. insecticides
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U80/00Transport or storage specially adapted for UAVs
    • B64U80/80Transport or storage specially adapted for UAVs by vehicles
    • B64U80/86Land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking

Abstract

Ein Computer ist dazu programmiert, eine Bewegungsbahn eines beweglichen Zielobjekts auf Grundlage von Daten von einem oder mehreren Fahrzeugsensoren zu bestimmen. Der Computer ist dazu programmiert, eine Flugdrohne von dem Fahrzeug zu entsenden, um das bewegliche Zielobjekt auf Grundlage der bestimmten Bewegungsbahn nachzuverfolgen.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Polizeifahrzeuge oder dergleichen können mit elektronischen Vorrichtungen, wie etwa Sensoren und Computern, ausgestattet sein, die Unterstützung bei der Verfolgung eines verdächtigen Fahrzeugs bereitstellen. Zum Beispiel kann ein erstes Fahrzeug Kamerasensoren beinhalten, die ein verdächtiges zweites Fahrzeug detektieren können und Informationen in Bezug auf die Bewegungsrichtung, Geschwindigkeit usw. des zweiten Fahrzeugs bereitstellen können. Jedoch kann eine Person und/oder ein Objekt das zweite Fahrzeug verlassen und sich zu einem Bereich außerhalb eines Detektionsbereichs der Sensoren bewegen, die in dem ersten Fahrzeug beinhaltet sind.
  • Figurenliste
  • Die 1A ist ein Blockdiagramm eines beispielhaften Nachverfolgungssystems und eines beispielhaften Fahrzeugs mit einer Kofferraumtür in einer offenen Position.
    • 1B zeigt das Fahrzeug aus 1A mit der Kofferraumtür in einer geschlossenen Position und der in einem Fahrzeugkofferraum platzierten Drohne.
    • 2 ist ein Diagramm, das Fahrzeuge und eine Person zeigt, die eines der Fahrzeuge verlässt.
    • 3 ist ein Diagramm, das Fahrzeuge, Drohnen und eine Person zeigt, die sich innerhalb einer Struktur bewegt.
  • Die 4A-4C ist ein Ablaufdiagramm eines beispielhaften Prozesses für ein Host-Fahrzeug, das eine Drohne steuert, die ein Zielobjekt nachverfolgt.
  • 5 ist ein Ablaufdiagramm eines beispielhaften Prozesses für ein Client-Fahrzeug, das Steuerbefehle von einem Host-Fahrzeug empfängt.
  • DETAILLIERTE BESCHREIBUNG
  • EINFÜHRUNG
  • Hierin ist in einem Verfahren offenbart, das ein Bestimmen einer Bewegungsbahn eines beweglichen Zielobj ekts auf Grundlage von Daten von einem oder mehreren Fahrzeugsensoren und Entsenden einer Flugdrohne von dem Fahrzeug, um das bewegliche Zielobjekt auf Grundlage der bestimmten Bewegungsbahn nachzuverfolgen, umfasst.
  • Das Verfahren kann ferner ein Bestimmen eines gegenwärtigen Standorts des Zielobjekts auf Grundlage der Daten von dem einen oder den mehreren Fahrzeugsensoren und Senden einer Anweisung an die Flugdrohne, zu einem Zielort zu fliegen, auf Grundlage des bestimmten gegenwärtigen Standorts beinhalten.
  • Das Verfahren kann ferner ein Bestimmen eines Standorts auf Grundlage der bestimmten Bewegungsbahn und Betätigen der Drohne dazu, zu dem bestimmten Standort zu fliegen, beinhalten.
  • Das Verfahren kann ferner ein Nachverfolgen des Zielobjekts durch Bestimmen eines gegenwärtigen Standorts des Zielobjekts auf Grundlage von Sensordaten der Flugdrohne und Betätigen der Drohne dazu, innerhalb einer bestimmten Entfernung von dem Zielobjekt zu fliegen, während sich das Zielobjekt bewegt, beinhalten.
  • Das Verfahren kann ferner ein Nachverfolgen des Zielobjekts auf Grundlage einer gegenwärtigen Bewegungsbahn des Zielobjekts beinhalten, die auf Grundlage der Sensordaten der Flugdrohne bestimmt sind.
  • Das Verfahren kann ferner ein Bestimmen, dass das Zielobjekt in einen Bereich eingetreten ist, der für die Drohne unzugänglich ist, und das Übermitteln eines letzten bestimmten Standorts und einer letzten bestimmten Bewegungsbahn des beweglichen Zielobjekts an einen entfernten Computer beinhalten.
  • Das Verfahren kann ferner ein Detektieren eines zweiten Fahrzeugs auf Grundlage der Daten von dem einen oder den mehreren Fahrzeugsensoren und ein Detektieren des beweglichen Zielobjekts, wenn das bewegliche Zielobjekt das zweite Fahrzeug verlässt, beinhalten. Das Detektieren des beweglichen Zielobjekts könnte nur nach Bestimmen, dass eine Tür des zweiten Fahrzeugs offen ist, durchgeführt werden.
  • Das Verfahren kann ferner ein Betätigen eines Drohnenbetätigungselements dazu, Tinte auf das bewegliche Zielobjekt zu sprühen, beinhalten.
  • Das Verfahren kann ferner das Nachverfolgen des beweglichen Zielobjekts beinhalten, das ferner ein Detektieren einer bestimmten Tinte auf dem beweglichen Zielobjekt beinhaltet.
  • Ferner ist eine Rechenvorrichtung offenbart, die dazu programmiert ist, beliebige der vorstehenden Verfahrensschritte auszuführen. Noch ferner ist eine Flugdrohne offenbart, die die Rechenvorrichtung umfasst. Noch ferner ist ein Fahrzeug offenbart, das die Rechenvorrichtung umfasst.
  • Darüber hinaus ist ein Computerprogrammprodukt offenbart, das ein computerlesbares Medium umfasst, welches Anweisungen speichert, die durch einen Computerprozessor ausführbar sind, um beliebige der vorstehenden Verfahrensschritte auszuführen.
  • BEISPIELHAFTE SYSTEMELEMENTE
  • Die 1A-1B veranschaulichen ein Fahrzeug 100. Das Fahrzeug 100, das gelegentlich der Einfachheit halber als ein erstes oder Host-Fahrzeug 100 bezeichnet ist, kann auf eine Vielzahl von bekannten Weisen mit Leistung versorgt werden, z. B. mithilfe eines Elektromotors und/oder einer Brennkraftmaschine. Das Fahrzeug 100 kann ein beliebiges Kraftfahrzeug beinhalten, wie etwa ein Auto, einen Truck, einen Geländewagen, einen Van, einen Minivan usw. Das Fahrzeug 100 kann einen Computer 110, (ein) Betätigungselement(e) 115, (einen) Sensor(en) 120 und eine Mensch-Maschine-Schnittstelle (human machine interface - HMI 125) beinhalten. In einigen möglichen Ansätzen, wie nachstehend erörtert, ist das Fahrzeug 100 ein autonomes Fahrzeug 100, das dazu konfiguriert ist, in einem autonomen (z. B. fahrerlosen) Modus, einem teilweise autonomen Modus und/oder einem nichtautonomen Modus betrieben zu werden.
  • Der Computer 110 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Der Speicher beinhaltet eine oder mehrere Formen computerlesbarer Medien und speichert Anweisungen, die durch den Computer 110 ausgeführt werden können, um verschiedene Vorgänge durchzuführen, einschließlich der hierin offenbarten.
  • Der Computer 110 kann das Fahrzeug 100 in einem autonomen Modus, einem halbautonomen Modus oder einem nicht autonomen Modus betreiben. Zum Zwecke dieser Offenbarung ist ein autonomer Modus als einer definiert, in dem jedes von Antrieb, Bremsen und Lenken des Fahrzeugs 100 durch den Computer 110 gesteuert wird; in einem halbautonomen Modus steuert der Computer eines oder zwei von Antrieb, Bremsen und Lenken des Fahrzeugs 100; in einem nicht autonomen Modus steuert ein Bediener des Fahrzeugs 100 Antrieb, Bremsen und Lenken des Fahrzeugs.
  • Der Computer 110 kann eine Programmierung zum Betreiben eines oder mehrerer von Bremsen, Antrieb (z. B. Steuern der Beschleunigung in dem Fahrzeug 100 durch Steuern von einem oder mehreren von einer Brennkraftmaschine, einem Elektromotor, Hybridmotor usw.), Lenken, Klimatisierung, Innen- und/oder Außenbeleuchtung usw. des Landfahrzeugs 100 sowie zum Bestimmen, ob und wann der Computer 110 im Gegensatz zu einem menschlichen Bediener derartige Vorgänge steuern soll, beinhalten. Zusätzlich kann der Computer 110 dazu programmiert sein, zu bestimmen, ob und wann ein menschlicher Fahrzeugführer derartige Vorgänge steuern soll.
  • Der Computer 110 kann mehr als einen Prozessor, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug 100 zum Überwachen und/oder Steuern verschiedener Fahrzeugsteuerungen, z. B. einer Antriebsstrangsteuerung, einer Bremssteuerung, einer Lenkungssteuerung usw., beinhaltet sind, beinhalten oder kommunikativ daran gekoppelt sein, z. B. über ein Netzwerk des Fahrzeugs 100, z. B. einschließlich einen Kommunikationsbus, wie er nachstehend ausführlicher beschrieben wird. Der Computer 110 ist im Allgemeinen zur Kommunikation in einem Kommunikationsnetzwerk des Fahrzeugs 100 angeordnet, das einen Bus in dem Fahrzeug 100 beinhalten kann, wie etwa ein Controller Area Network (CAN) oder dergleichen, und/oder andere drahtgebundene und/oder drahtlose Mechanismen.
  • Über das Kommunikationsnetzwerk des Fahrzeugs 100 kann der Computer 110 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug 100 übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen, z. B. einem Betätigungselement 115, einer HMI 125 usw., empfangen. Alternativ oder zusätzlich kann in den Fällen, in denen der Computer 110 tatsächlich mehrere Vorrichtungen umfasst, das Kommunikationsnetzwerk des Fahrzeugs für Kommunikationen zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 110 dargestellt sind.
  • Die Betätigungselement 115 des Fahrzeugs 100 sind über Schaltungen, Chips oder andere elektronische und/oder mechanische Komponenten umgesetzt, die verschiedene Teilsysteme des Fahrzeugs 100 gemäß geeigneten Steuersignalen, wie bekannt, betätigen können. Die Betätigungselemente 115 können verwendet werden, um Systeme des Fahrzeugs zu steuern, wie etwa Bremsung, Beschleunigung und/oder Lenkung der Fahrzeuge 100.
  • Die Sensoren 120 des Fahrzeugs 100 können eine Vielzahl von Vorrichtungen beinhalten, die dafür bekannt sind, Daten über den Fahrzeugkommunikationsbus bereitzustellen. Zum Beispiel können die Sensoren 120 einen oder mehrere Kamera-, Radar- Infrarot- und/oder LIDAR-(Light Detection And Ranging-)Sensoren 120 beinhalten, die im Fahrzeug 100 und/oder an dem Fahrzeug 100 angeordnet sind und die Daten bereitstellen, die mindestens einen Teil des Außenbereichs des Fahrzeugs abdecken. Die Daten können durch den Computer 110 über eine geeignete Schnittstelle, wie sie bekannt sind, empfangen werden. Ein LIDAR-Sensor 120, der z. B. auf einer Oberseite des Fahrzeugs 100 angeordnet ist, kann Objektdaten bereitstellen, die relative Standorte, Größen und Formen von Objekten bereitstellen, wie zum Beispiel andere Fahrzeuge, die das Fahrzeug 100 umgeben. Ein Computer 110 kann die Objektdaten empfangen und das Fahrzeug 100 mindestens teilweise auf Basis der empfangenen Objektdaten in einem autonomen und/oder halbautonomen Modus betreiben.
  • Das Fahrzeug 100 kann einen Sensor 120 eines globalen Positionierungssystems (GPS) beinhalten, der dazu konfiguriert ist, Koordinaten eines gegenwärtigen Standorts des Fahrzeugs 100 zu bestimmen. Das Navigationssystem 110 kann ferner dazu konfiguriert sein, eine Route von dem gegenwärtigen Standort zu einem ausgewählten Zielort zu identifizieren sowie eine Karte und Fahranweisungen zu dem ausgewählten Zielort, z. B. über die HMI 125, anzuzeigen.
  • Zusätzlich kann der Computer 110 zum Kommunizieren durch eine Fahrzeug-zu-Infrastruktur-(V-zu-I-)Schnittstelle mit anderen Fahrzeugen 100, Drohnen 135 und/oder einem entfernten Computer 155 über ein Netzwerk 160 konfiguriert sein. Das Netzwerk 160 stellt einen oder mehrere Mechanismen dar, durch die der Computer 110 und der entfernte Computer 155 miteinander kommunizieren können, und kann eines oder mehrere von verschiedenen verdrahteten oder drahtlosen Kommunikationsmechanismen sein, einschließlich einer beliebigen gewünschten Kombination von verdrahteten (z. B. Kabel oder Glasfaser) und/oder drahtlosen (z. B. Mobilfunk-, drahtlos, Satelliten-, Mikrowellen- und Funkfrequenz) Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder Topologien, wenn mehrere Kommunikationsmechanismen verwendet werden). Beispielhafte Kommunikationsnetzwerke 160 beinhalten drahtlose Kommunikationsnetzwerke (z. B. unter Verwendung von einem oder mehreren von Mobilfunk, Bluetooth, IEEE 802.11 usw.), dedizierte Nahbereichskommunikation (dedicated short range communication - DSRC), Local Area Networks (LAN) und/oder Wide Area Networks (WAN), einschließlich des Internets, die Datenkommunikationsdienste bereitstellen.
  • Die HMI 125 stellt Informationen für einen Insassen des Fahrzeugs 100 dar und empfängt Informationen von diesem. Die HMI 125 kann sich z. B. an einem Armaturenbrett in einer Fahrgastkabine des Fahrzeugs 100 oder einer oder mehreren anderen Stellen, die für den Insassen zugänglich sind, befinden. Die HMI 125 beinhaltet Wahlscheiben, Digitalanzeigen, Bildschirme, wie zum Beispiel einen berührungsempfindlichen Bildschirm, Lautsprecher und so weiter zum Bereitstellen von Informationen für den Insassen. Die HMI 125 kann Schaltflächen, Knöpfe, Tastenfelder, ein Mikrophon und so weiter zum Empfangen von Informationen von dem Insassen beinhalten. In diesem Beispiel kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, ein zweites Fahrzeug 200 (siehe 2) auf Grundlage der Angabe, die über die HMI 125 empfangen ist, zum Verfolgen auswählen. Beispielsweise kann der Computer 110 dazu programmiert, Bilddaten auf der HMI 125 anzuzeigen, einschließlich mehrerer Fahrzeuge 200. Der Computer 110 kann ferner dazu programmiert sein, ein Fahrzeug 200 zum Verfolgen auszuwählen, nachdem ein Bildschirm einer HMI 125 an einem Bereich des HMI-Bildschirms berührt wurde, wo das Fahrzeug 200 angezeigt ist. Wie nachstehend erörtert kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, Informationen auf der HMI 125 auszugeben, einschließlich eines bestimmten Standorts des ausgewählten Fahrzeugs 200 und/oder eines Standorts seiner Insassen, falls ein oder mehrere des ausgewählten Fahrzeugs 200 das ausgewählte Fahrzeug 200 verlassen.
  • Die Drohne 135 ist ein unbemanntes Luftfahrzeug (unmanned aerial vehicle - UAV) und beinhaltet eine Reihe von Schaltungen, Chips oder anderen elektronischen und/oder elektromechanischen Komponenten, die verschiedene Vorgänge der Drohne 135 steuern können. Zum Beispiel kann die Drohne 135 gemäß Steuersignalen fliegen, die an ihre Propellerbetätigungselemente 140 ausgegeben werden. Die Drohne 135 kann mit einem Navigationssystem ausgestattet werden, sodass sie zu einem bestimmten Ort fliegen und an diesem schweben kann. 1A veranschaulicht die Drohne 135, wie sie sich in einem Kofferraum 165 des Fahrzeugs 100 befindet. 1B veranschaulicht die Drohne 135, wie sie über dem Host-Fahrzeug 100 schwebt.
  • Die Drohne 135 kann einen oder mehrere Kamerasensoren 145 beinhalten, die Bilder eines Bereichs in der Nähe der Drohne 135 aufnehmen können. Die Kamerasensoren 145 der Drohne 135 können an einem selben Gehäuse wie die Leuchten angebracht sein, und die Drohne 135 kann dazu programmiert sein, die Kamerasensoren 145 der Drohnen 135 einzuschalten, um Bilder eines Bereichs unter der Drohne 135 aufzunehmen. Wenn sie also über dem Fahrzeug 100 schwebt, kann der Kamerasensor 145 der Drohne 135 Bilder des Fahrzeugs 100 und möglicherweise des Bereichs um das Fahrzeug 100 aufnehmen. Zusätzlich oder alternativ kann die Drohne 135 andere Arten von Objekterkennungssensoren 145 beinhalten, wie etwa Radar, LIDAR, Kamera usw.
  • Die Drohne 135 kann einen GPS-Sensor 145 beinhalten, der GPS-Ortskoordinaten der Drohne 135, z. B. einem Computer 110 des Fahrzeugs 100, einem Computer der Drohne 135 usw. bereitstellt. Zum Beispiel kann der Computer der Drohne 135 die Drohne 135 auf Grundlage der empfangenen GPS- Ortkoordinaten, einer vorbestimmten Route usw. navigieren.
  • Die Drohne 135 kann eine oder mehrere Leuchten beinhalten. Zum Beispiel kann ein Computer 110 dazu programmiert sein, die Leuchte 150 der Drohne 135 zu aktivieren, um einen Bereich, der die Drohne 135 umgibt, zu beleuchten.
  • Der Computer der Drohne 135, der Computer 110 des Fahrzeugs 100 usw. können miteinander und mit einem entfernten Computer 155 über ein Netzwerk 160 kommunizieren, das ein oder mehrere Telekommunikationsprotokolle beinhaltet, z. B. Mobilfunktechnologien, wie 3G, 4G, Long Term Evolution (LTE) usw., Bluetooth®, Bluetooth Low Energy®, WiFi usw.
  • Wie in 2 gezeigt, kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, eine Bewegungsbahn m1 eines beweglichen Zielobjekts 210 auf Grundlage von Daten zu bestimmen, die von den Sensoren 120 des Fahrzeugs 100 empfangen sind. Der Computer 110 kann ferner dazu programmiert sein, die Drohne 135 von dem Fahrzeug 100 zu entsenden, um das bewegliche Zielobjekt 210 auf Grundlage der bestimmten Bewegungsbahn m1 nachzuverfolgen.
  • Eine Bewegungsbahn, im Sinne der vorliegenden Offenbarung, bezeichnet einen erwarteten Bewegungspfad eines Zielobjekts, der unmittelbar von einem gegenwärtigen Standort des Zielobjekts 210 startet. Die Bewegungsbahn m1 eines beweglichen menschlichen Zielobjekts 210 kann eine Krümmung oder eine gerade Linie auf einer Bodenfläche beinhalten, die einen erwarteten Weg des menschlichen Zielobjekts 210 identifiziert. Zum Beispiel kann der Computer 110 dazu programmiert sein, die Bewegungsbahn m1 durch wiederholtes (d. h. zwei oder mehr Mal) Identifizieren eines Standorts des Zielobjekts 210, z. B. auf Grundlage von Daten, die von dem LIDAR-Sensor 120 empfangen sind, und Anpassen einer Krümmung zwischen den identifizierten Standorten unter Verwendung bekannter Anpassungstechniken zu bestimmen. In einem Beispiel kann der Computer 110 dazu programmiert sein, eine vorbestimmte Bewegungsbahn m1 auf Grundlage eines neu bestimmten Standorts des Zielobjekts 210 erneut einzustellen. Zum Beispiel, bei Bestimmen, dass ein gegenwärtiger Standort des Zielobjekts 210 nicht auf der vorbestimmten Bewegungsbahn m1 des Zielobjekts 210 liegt, kann der Computer 110 dazu programmiert sein, eine neue Krümmung (d. h. eine eingestellte Bewegungsbahn) zwischen dem gegenwärtigen Standort und den zuvor bestimmten Standorten des Zielobjekts 210 anzupassen. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, die Bewegungsbahn m1 eines menschlichen Zielobjekts 210 auf Grundlage von verschiedenen Eigenschaften des menschlichen Zielobjekts 210, z.B. eine Geschwindigkeit, eine Richtung eines Gesichts eines Zielobjekts 210, eine Körperhaltung usw., zu bestimmen. Zum Beispiel kann der Computer 110 dazu programmiert sein, die Bewegungsbahn m1 auf Grundlage einer virtuellen Linie zu bestimmen, die senkrecht zu einer Brust des menschlichen Zielobjekts 210 ist und zu einer vorwärtigen Richtung des Zielobjekts 210 gerichtet ist.
  • Als ein Beispiel, kann der Computer 110 dazu programmiert sein, die Drohne 135 zu entsenden, da das Zielobjekt 210 nicht durch das Fahrzeug 100 zugänglich ist. Zum Beispiel kann ein Benutzer in dem Host-Fahrzeug 100 ein zweites Fahrzeug 200, das nachverfolgt werden soll, auswählen. Anders ausgedrückt kann der Computer 110 über die HMI 125 Bilddaten darstellen, einschließlich mehrerer Fahrzeuge 200 in einer Detektionsreichweite 250 der Sensoren 120 des Fahrzeugs 100. Der Computer 110 kann zum Beispiel dazu programmiert sein, das Fahrzeug 200 auf Basis einer Eingabe über die HMI 125, z. B. den Touchscreen, auszuwählen. Der Computer 110 kann dazu programmiert sein, Informationen auf der HMI 125 darzustellen, die einen gegenwärtigen Standort und/oder eine Bewegungsbahn des ausgewählten Fahrzeugs 200 relativ zu dem Host-Fahrzeug 100 angeben. In einem Beispiel kann das Fahrzeug 100 den Betrieb des Fahrzeugs 100 steuern, z. B. Beschleunigen, Lenken, Bremsen usw. um das ausgewählte Fahrzeug 200 nachzuverfolgen (oder zu verfolgen). Der Computer 110 kann dazu programmiert sein, das Host-Fahrzeug 100 in einem autonomen oder halbautonomen Modus zu betreiben. Somit kann der Computer 110 dazu programmiert sein, das Fahrzeug 100 auf Grundlage des gegenwärtigen Standorts und/oder der Bewegungsbahn des ausgewählten zweiten Fahrzeugs 200 zu navigieren.
  • Das ausgewählte Fahrzeug 200 kann anhalten, z. B. aufgrund einer Straßenblockade. In einem Beispiel kann ein Zielobjekt 210, z.B. ein menschlicher Verdächtiger, das ausgewählte Fahrzeug 200 verlassen. Der Computer 110 kann dazu programmiert sein, das Zielobjekt 210 bei Bestimmen, dass eine Tür 240 des ausgewählten Fahrzeugs 200 offen ist, z. B. auf Grundlage von Daten, die von den Sensoren 120 des Fahrzeugs 100 empfangen sind, zu detektieren. Der Computer 110 kann dazu programmiert sein, die Drohne 135 zu entsenden, um das Ziel 210 nachzuverfolgen.
  • Der Computer 110 kann dazu programmiert sein, die Drohne 135 aus dem Kofferraum 165 des Fahrzeugs 100 zu entsenden, z. B. bei Bestimmen, dass das Fahrzeug 100 nicht dazu in der Lage ist, das Zielobjekt 210 zu verfolgen. Um die Drohne 135 aus dem Host-Fahrzeug 100 zu entsenden, kann der Computer 110 ein Kofferraumöffnungsbetätigungselement 115 betätigen, um eine Tür 170 des Kofferraums 165 zu öffnen, z. B. sie aus einer geschlossenen Position (siehe 1B) in eine geöffnete Position (siehe 1A) zu bewegen. Der Computer 110 kann ferner dazu programmiert sein, eine Entsendevorrichtung 175 des Fahrzeugs 100 dazu zu betätigen, die Drohne 135 aus einer beliebigen Art von fahrzeuginternen Verriegelungen zu lösen, welche die Drohne 135 anderweitig sichern, wenn sie nicht im Gebrauch ist. Sobald sie aus den Verriegelungen gelöst ist, können die Betätigungsbefehle der Drohne 135 einen Betätigungsbefehl für die Drohne 135 dazu beinhalten, aus dem Host-Fahrzeug 100 auszutreten (d. h. aus dem Kofferraum 165 heraus zu fliegen) und über dem Host-Fahrzeug 100 (siehe 1A) zu schweben.
  • Die Entsendevorrichtungen 175 sind über elektromechanische Betätigungselemente wie etwa Elektromagnete oder andere Arten von elektromechanischen Vorrichtungen umgesetzt, die elektrische Signale in Bewegung umwandeln. Ein oder mehrere Betätigungselemente 115 können verwendet werden, um die Drohne 135 in oder an dem Host-Fahrzeug 100 zu verriegeln, wenn die entsendbare Drohne 135 nicht verwendet wird. Das heißt, diese Entsendungsvorrichtungen 175 können sich in einem verriegelten Zustand befinden, während die entsendbare Drohne 135 z. B. in einem Kofferraum 165 des Host-Fahrzeugs 100 gelagert ist, und können als Reaktion auf Empfangen einer Steuersignalausgabe durch z. B. den Computer 110 in einen entriegelten Zustand übergehen. Zum Beispiel kann die Entsendevorrichtung 175 einen oder mehrere Elektromagneten beinhalten, die, wenn es betätigt, die Drohne 135 in der verriegelten Position halten, z. B. durch Sichern eines Körpers der Drohne 135. Zum Beispiel kann die Entsendevorrichtung 175 eine Klemme beinhalten, die mechanisch an einen Elektromagneten gekoppelt ist. Bei Aktivieren des Elektromagneten durch den Computer 110 kann die Klemme die Drohne 135 halten, wobei bei Deaktivieren des Elektromagneten, die Klemme die Drohne 135 freigeben kann. Bei Empfangen eines Freigabesignals von dem Computer 110 kann sich die Entsendevorrichtung 175 in die entriegelte Position bewegen und die Drohne 135 freigeben. Somit können als Reaktion auf Steuersignale, die durch den Computer 110 ausgegeben sind, die Entsendevorrichtungen 175 in den entriegelten Zustand übergehen, sodass die Drohne 135 aus z. B. dem Kofferraum 165 freigegeben werden kann. Das den Kofferraum öffnende Betätigungselement 115 kann verwendet werden, um die Tür 170 des Kofferraums 165 oder eine andere Tür, die der Drohne 135 ermöglicht, aus dem Host-Fahrzeug 100 auszutreten, zu öffnen. Das den Kofferraum öffnende Betätigungselement 115 kann einen Elektromagneten beinhalten und der Computer 110 kann dazu programmiert sein, das den Kofferraum öffnende Betätigungselement 115 zu aktivieren, um die Tür 170 des Kofferraums 165 zu öffnen.
  • Der Computer 110 kann dazu programmiert sein, einen gegenwärtigen Standort des Zielobjekts 210 auf Grundlage der Daten des Sensors 120 des Fahrzeugs 100 zu bestimmen und eine Anweisung an die Drohne 135 dazu zu senden, zu einem Zielort zu fliegen, auf Grundlage des bestimmten Standorts des Zielobjekts 210. In einem Beispiel kann der Computer 110 den gegenwärtigen Standort des Zielobjekts 210 bei Detektieren des Zielobjekts 210, das das Fahrzeug 100 verlässt, z. B. auf Grundlage von Daten, die von den Sensoren 120 des Fahrzeugs 100 empfangen sind, bestimmen. Der Computer 110 kann die Anweisungen, einschließlich eines Standorts (z. B. gemäß Breitengrad- und Längengrad-Geokoordinaten) des Zielobjekts 210 ausgeben. Zum Beispiel kann der Computer 110 dazu programmiert sein, den Standort des Zielobjekts 210 auf Grundlage des relativen Standorts des Zielobjekts 210 zu dem Fahrzeug 100, z.B. unter Verwendung von Bildverarbeitungstechniken, und den Standort des Fahrzeugs 100, z. B. von dem GPS-Sensor 120 des Fahrzeugs 100 empfangen, zu bestimmen.
  • Daher kann das Betätigen der Drohne 135 dazu, zu dem Standort des Zielobjekts 210 auf Grundlage von Daten des Sensors 120 des Fahrzeugs 100 zu fliegen, vorteilhafterweise ein Risiko, das Zielobjekt 210 zu verlieren, verhindern. Zum Beispiel, in einem Bereich mit vielen Menschen, kann sich das Zielobjekt 210 nach Verlassen des ausgewählten Fahrzeugs 200 schnell, z. B. in wenigen Sekunden, außerhalb der Detektionsreichweite 250 der Sensoren 120 des Fahrzeugs 100 bewegen. Daher kann das Betätigen der Drohne 135 dazu, zu dem Standort des Zielobjekts 210 auf Grundlage von Daten des Sensors 120 des Fahrzeugs 100 zu fliegen, eine ununterbrochene Nachverfolgung des Zielobjekts 210 bereitstellen. Ununterbrochene Nachverfolgung in dem vorliegenden Sinne bezieht sich auf einen Übergang von Nachverfolgen des Zielobjekts 210 auf Grundlage von Daten von den Sensoren 120 des Fahrzeugs 100 zu Nachverfolgen des Zielobj ekts 210 auf Grundlage von den Sensoren 145 der Drohne 135.
  • Bei Entsenden der Drohne 135 von dem Fahrzeug 100 kann der Computer 110 in einem Beispiel dazu programmiert sein, einen Standort 220 auf Grundlage der bestimmten Bewegungsbahn m1 zu bestimmen und die Drohne 135 dazu zu betätigen, zu dem bestimmten Standort 220 zu fliegen, z. B. statt des gegenwärtigen Standorts des Zielobjekts 210, wie in 2 gezeigt. Zum Beispiel kann der Computer 110 dazu programmiert sein, einen Standort 220 zu bestimmen, wo ein Hinzufügen einer Entfernung d1 von dem gegenwärtigen Standort des Zielobjekts 210 und einer zurückgelegten Entfernung d2 des Zielobjekts 210 länger ist als eine Flugentfernung d3 von dem Fahrzeug 100 zu dem Standort 220. Der Computer 110 kann dazu programmiert sein, einen Bereich 230 um den Standort 220 zu bestimmen und die Drohne 135 dazu zu betätigen, zu dem Bereich 230 zu fliegen. In einem Beispiel kann der Bereich 230 ein Kreis sein, der an dem Standort 220 zentriert ist, mit einem Durchmesser von 10 Metern.
  • Der Computer 110 kann dazu programmiert sein, das Zielobjekt 210 z. B. nach Detektieren des Zielobjekts 210 innerhalb des Bereichs 230 durch Bestimmen eines gegenwärtigen Standorts des Zielobjekts 210 auf Grundlage von Daten des Sensors 120 der Drohne 135 nachzuverfolgen. Der Computer 110 und/oder der Computer der Drohne 135 können dazu programmiert sein, z. B. periodisch alle 50 ms, eine aktualisierte Bewegungsbahn m2 des Zielobjekts 210 zu bestimmen und die Drohne 135 innerhalb einer bestimmten Entfernung, z. B. 5 Meter, von dem Zielobjekt 210 zu fliegen, während sich das Zielobjekt 210 bewegt. Der Computer 110 kann dazu programmiert sein, das Zielobjekt 210 auf Grundlage einer gegenwärtigen Bewegungsbahn m2 des Zielobjekts 210 nachzuverfolgen, die auf Grundlage der Daten des Sensors 145 der Drohne 135 bestimmt ist.
  • Der Computer 110 kann dazu programmiert sein, Daten, einschließlich des Standorts und/oder der Bewegungsbahn der Drohne 135 und/oder des Zielobjekts 210 zu empfangen und ein Bild und/oder Textdaten an die HMI 125 de Fahrzeugs 100 auf Grundlage der empfangenen Daten auszugeben. Zum Beispiel kann der Computer 110 über die HMI 125 ein schematisches Bild des Zielobj ekts 210 auf einer Karte anzeigen. Der Computer 110 kann dazu programmiert sein, Daten, z. B. Bild-, Text- und/oder Audiodaten, an eine mobile Vorrichtung eines Benutzers auszugeben.
  • Der Computer 110 kann dazu programmiert sein, ein Sprühbetätigungselement 140 der Drohne 135 dazu zu betätigen, Tinte auf das Zielobjekt 210 zu sprühen. Zum Beispiel kann der Computer 110 dazu programmiert sein, die Drohne 135 dazu zu betätigen, sich dem Zielobjekt 210 zu nähern, z. B. innerhalb von 3 Metern, und Tinte zu sprühen, z. B. eine auf Photolumineszens basierende Tinte, die Licht unter schlechten Lichtbedingungen ausgibt. Somit kann die Drohne 135 vorteilhafterweise eine verbesserte Detektion des Zielobjekts 210, z. B. unter schlechten Lichtbedingungen, aufweisen. Zum Beispiel kann der Computer 110 dazu programmiert sein, das Zielobjekt 210 zu detektieren (oder das Zielobjekt 210 von nicht besprühten Objekten zu unterschieden), auf Grundlage einer erwarteten Wellenlänge von Licht, das von der gesprühten Tinte ausgegeben wird. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, Tinte auf eine Fläche, z. B. einen Orientierungspunkt, eine Kante eines Gebäudes 310 usw. innerhalb einer vorbestimmten Entfernung, wie etwa 5 Meter von dem Zielobjekt 210 zu sprühen. Daher kann eine andere Person und/oder Drohne 135, die das Zielobjekt 210 verfolgt, vorteilhafterweise auf Grundlage der erwarteten Wellenlänge von Licht, das durch die besprühte Oberfläche emittiert wird, bestimmen, dass sich das Ziel 210 innerhalb der vorbestimmten Entfernung der besprühten Oberfläche befand.
  • In einem Beispiel, veranschaulicht in 3, entsendet der Computer 110 des Host-Fahrzeugs 100 eine Drohne 135 dazu, das Zielobjekt 210 nachzuverfolgen. Das Zielobjekt 210 kann in einen Bereich eintreten, der für die Drohne 135 nicht zugänglich ist, z. B. einen Flur 320 eines Gebäudes 310, einen Tunnel, eine Menschenmenge usw. Der Computer 110 des Fahrzeugs 100 kann dazu programmiert sein, zu bestimmen, dass das Zielobjekt 210 in das Gebäude 310 eingetreten ist und kann einen letzten bestimmten Standort, z. B. Eingangsort 330 des Gebäudes 310 und/oder eine letzte bestimmte Bewegungsbahn m1 des Zielobjekts 210 zu einem entfernten Computer 155 übermitteln.
  • In einem Beispiel können der entfernte Computer 155 und/oder der Computer 110 des Fahrzeugs 100 dazu programmiert sein, einen Ausgangsort 340 des Gebäudes 310 auf Grundlage des Eingangsorts 330, der letzten Bewegungsbahn m1 und eines inneren Grundrisses des Gebäudes 310 schätzen. Zum Beispiel kann der entfernte Computer 155 dazu programmiert sein, den Ausgangsstandort 340 auf Grundlage eines Grundrisses, der den Flur 320 beinhaltet, zu schätzen. Der entfernte Computer 155 kann ferner dazu programmiert sein, ein drittes Fahrzeug 101 (hierin der Einfachheit halber und zum Unterscheiden von den Fahrzeugen 100, 200 als ein drittes Fahrzeug 101 bezeichnet) auf Grundlage des geschätzten Ausgangsstandorts 340 und der Standortkoordinaten des dritten Fahrzeugs 101 zu identifizieren. Der Computer 110 des dritten Fahrzeugs 101 kann, bei Empfangen einer Anweisung von dem entfernten Computer 155, eine zweite Drohne 136 von dem dritten Fahrzeug 101 betätigen, um zu dem erwarteten Ausgangsstandort 340 zu fliegen. Zusätzlich oder alternativ kann der entfernte Computer 155 dazu programmiert sein, mehrere mögliche Ausgangsstandorte zu identifizieren und mehrere Drohnen 135 dazu zu betätigen (z. B. aus mehreren Fahrzeugen 100), zu den identifizierten Ausgangsstandorten zu fliegen. Das Host- und das zweite Fahrzeug 100, 101 können gemeinsame Elemente aufweisen, einschließlich eines Computers 110, Betätigungselementen 115, Sensoren 120, einem Kofferraum 165 und/oder einer HMI 130, wie vorstehend erörtert. Die Drohne 135, die mit dem Host-Fahrzeug 100 zusammenhängt, und die zweite Drohne 136, die mit dem dritten Fahrzeug 101 zusammenhängt, können gemeinsame Elemente aufweisen, einschließlich Propellerbetätigungselemente 140, Sensoren 145 usw., ein vorstehend erörtert.
  • VERARBEITUNG
  • Die 4A-4C zeigen einen beispielhaften Prozess 400 zum Verfolgen eines Zielobjekts 210. Zum Beispiel kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, die Blöcke des Prozesses 400 auszuführen. Zusätzlich oder alternativ können der Computer 110 des Fahrzeugs 100, der Computer der Drohne 135, der entfernte Computer 155 und/oder eine Kombination davon dazu programmiert sein, Blöcke des Prozesses 400 auszuführen.
  • Der Prozess 400 beginnt in einem Block 405, in welchem der Computer 110 Bilddaten, die einen umgebenden Bereich beinhalten, z. B. den Detektionsbereich 250, des Host-Fahrzeugs 100 ausgibt. In einem Beispiel kann der Computer 110 dazu programmiert sein, Daten von verschiedenen Sensoren 120 des Fahrzeugs 100, z. B. LIDAR, Radar, Kamerasensoren 120, zu empfangen und Bilder auf Grundlage von den empfangenen Sensordaten an eine Anzeige der HMI 125 des Host-Fahrzeugs 100 auszugeben.
  • Als Nächstes bestimmt der Computer 110 in einem Entscheidungsblock 410, ob ein zweites Fahrzeug 200 ausgewählt ist. Des Weiteren kann der Computer 110 dazu programmiert sein, einen Betrieb des Fahrzeugs 200 oder eines beliebigen anderen Objekts auf Grundlage einer Eingabe über die HMI 125 auszuwählen. Zum Beispiel kann ein Benutzer in dem Host-Fahrzeug 100 einen Bildschirm der HMI 125 berühren, um ein Fahrzeug 200 auszuwählen, das auf dem Bildschirm der HMI 125 gezeigt ist. Wenn der Computer 110 bestimmt, dass ein Fahrzeug 200 ausgewählt ist, geht der Prozess 400 zu einem Block 415 über; andernfalls kehrt der Prozess 400 zu dem Entscheidungsblock 405 zurück.
  • In Block 415 navigiert der Computer 110 das Fahrzeug 100 dazu, das ausgewählte Fahrzeug 200 zu verfolgen. Zum Beispiel kann der Computer 110 dazu programmiert sein, das ausgewählte Fahrzeug 200 durch Betreiben des Fahrzeugs 100 in einem autonomen Modus derart zu verfolgen, dass eine vorbestimmte Entfernung, z. B. 20 Meter, zwischen dem Host-Fahrzeug 100 und dem ausgewählten Fahrzeug 200 beibehalten wird. Als weiteres Beispiel kann der Computer 110 dazu programmiert sein, Navigationsanweisungen an die HMI 125 des Fahrzeugs 100 auszugeben, und ein Benutzer des Fahrzeugs 100 kann das Fahrzeug 100 auf Grundlage der ausgegebenen Navigationsanweisungen in einem nicht autonomen Modus steuern.
  • Als Nächstes bestimmt der Computer 110 in einem Entscheidungsblock 420, ob eine Tür 240 des ausgewählten Fahrzeugs 200 offen ist. Zum Beispiel kann der Computer 110 dazu programmiert sein, zu bestimmen, ob eine Tür 240 des Fahrzeugs 200 offen ist, auf Grundlage von Daten, die z. B. von den LIDAR-, Radar-, Kamerasensoren 120 des Fahrzeugs 100 empfangen sind. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, zu bestimmen, ob das ausgewählte Fahrzeug 200 ein offenes Dach aufweist, z. B. ein Cabriolet. In einem anderen Beispiel kann der Computer 110 dazu programmiert sein, zu bestimmen, ob eine Tür eines Anhängers, der an dem ausgewählten Fahrzeug 200 befestigt ist, offen ist. Wenn der Computer 110 bestimmt, dass eine Tür 240 des ausgewählten Fahrzeugs 200 offen ist, geht der Prozess 400 zu einem Entscheidungsblock 425 über; andernfalls kehrt der Prozess 400 zu Block 415 zurück.
  • Bei Entscheidungsblock 425 bestimmt der Computer 110, ob das Zielobjekt 210 das ausgewählte Fahrzeug 200 verlassen hat, z. B. unter Verwendung bekannter Bildverarbeitungstechniken. Falls der Computer 110 bestimmt, dass das/die Zielobjekt(e) 210 das ausgewählte Fahrzeug 200 verlassen hat/haben, geht der Prozess 400 zu einem Block 430 über; andernfalls kehrt der Prozess 400 zu dem Entscheidungsblock 425 zurück.
  • In dem Block 430 bestimmt der Computer 110 eine Bewegungsbahn und/oder einen Standort des Zielobjekts 210. Zum Beispiel, wie in 2 gezeigt, kann der Computer 110 dazu programmiert sein, einen Standort und/oder eine Bewegungsbahn m1 des Zielobjekts 210 zu bestimmen. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, Standorte und/oder Bewegungsbahnen von mehreren Zielobjekten, die das ausgewählte Fahrzeug 200 verlassen, zu bestimmen. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, das Zielobjekt 210 aus mehreren detektierten Personen auszuwählen, die das ausgewählte Fahrzeug 200 verlassen, z. B. auf Grundlage von Gesichtserkennung.
  • Nun unter Bezugnahme auf 4B entsendet der Computer 110 in einem Block 435 die Drohne 135 z. B. durch Betätigen der Drohne 135 in dem Kofferraum 165 des Host-Fahrzeugs 100 dazu, aus dem Fahrzeug 100 zu fliegen. Der Computer 110 kann dazu programmiert sein, die Drohne 135 durch Betätigen eines Betätigungselements 115 des Fahrzeugs 100 dazu, die Drohne 135 zu entriegeln, Betätigen eines Betätigungselements 115 des Fahrzeugs 100 dazu, die Tür 170 des Kofferraums 165 zu öffnen und Betätigen der Drohne 135 dazu, zu fliegen, zu entsenden. Der Computer 110 kann dazu programmiert sein, Daten zu der Drohne 135 zu übertragen, die den bestimmten Standort und/oder die Bewegungsbahn des Zielobjekts 210 beinhalten.
  • Als Nächstes navigiert der Computer 110 in einem Block 440 die Drohne 135 auf Grundlage des bestimmten Standorts und/oder der bestimmten Bewegungsbahn. Zum Beispiel, wie in 2 gezeigt, kann der Computer 110 dazu programmiert sein, die Drohne 135 auf Grundlage der Bewegungsbahn m1 des Zielobjekts 210, des Standorts des Zielobjekts 210, des Standorts des Host-Fahrzeugs 100 usw. zu navigieren.
  • Als nächstes betätigt der Computer 110 in einem Block 445 die Drohne 135 dazu, das Zielobjekt 210 zu verfolgen. Der Computer 110 kann dazu programmiert sein, das Zielobjekt 210 auf Grundlage des Standorts und/oder der Bewegungsbahn des Zielobjekts 210 zu verfolgen. Zum Beispiel kann der Computer 110 dazu programmiert sein, einen gegenwärtigen Standort des Zielobjekts 210 auf Grundlage der Daten des Sensors 145 der Drohne 135 zu bestimmen und die Drohne 135 dazu zu betätigen, innerhalb einer bestimmten Entfernung, z. B. innerhalb eines Bereichs 230 von dem Zielobjekt 210 zu fliegen, während sich das Zielobjekt 210 bewegt. In einem Beispiel kann der Computer 110 dazu programmiert sein, die Bewegungsbahn m1 des Zielobjekts 210 durch wiederholtes Identifizieren eines Standorts des Zielobjekts 210, z. B. auf Grundlage von Daten, die von den Sensoren 145 der Drohne 135 empfangen sind, und Anpassen einer Krümmung zwischen den identifizierten Standorten unter Verwendung bekannter Anpassungstechniken, zu bestimmen. Zusätzlich kann der Computer 110 ferner dazu programmiert sein, ein Betätigungselement 140 der Drohne 135 dazu zu betätigen, Tinte auf ein Zielobjekt 210 und/oder eine Oberfläche innerhalb einer vorbestimmten Entfernung von dem Zielobjekt 210 zu sprühen, während die Drohne 135 das Zielobjekt 210 nachverfolgt.
  • Als Nächstes bestimmt der Computer 110 in einem Entscheidungsblock 450, ob eine Nachverfolgungssitzung des Zielobjekts 210 abgeschlossen ist, z.B. auf Grundlage von Empfangen einer Eingabe über die HMI 125 des Fahrzeugs 100. Falls der Computer 110 bestimmt, dass die Nachverfolgungssitzung abgeschlossen ist, geht der Prozess 400 zu einem Block 452 über; andernfalls geht der Prozess 400 zu einem Entscheidungsblock 455 über.
  • In dem Block 452 betätigt der Computer 110 die Drohne 135 dazu, zu einem gegenwärtigen Standort des Host-Fahrzeugs 100 zu navigieren, z. B. auf Grundlage von Ortskoordinaten, die von dem GPS-Sensor 120 des Fahrzeugs 100 empfangen sind. Der Computer 110 kann ferner dazu programmiert sein, die Drohne 135 dazu zu betätigen, in einem vorgesehenen Bereich, z. B. dem Kofferraum 165 des Host-Fahrzeugs 100 zu landen. Der Computer 110 kann zum Beispiel dazu programmiert sein, die Tür 170 des Kofferraums 165 zu öffnen, um die Drohne 135 dazu zu betätigen, in dem Kofferraum 165 zu landen. Der Computer 110 kann ein Betätigungselement des Fahrzeugs 100 dazu betätigen, die Drohne 135 an der Stelle zu verriegeln, und kann dann die Tür 170 des Kofferraums 165 dazu betätigen, sich zu schließen. Im Anschluss an Block 452 endet der Prozess 400 oder kehrt alternativ zu Block 405 zurück, wenngleich dies in den 4A-4B nicht gezeigt ist.
  • In dem Entscheidungsblock 455 bestimmt der Computer 110, ob das Zielobjekt 210 in einen nicht zugänglichen Bereich eingetreten ist, z. B. ein Gebäude 310, einen Tunnel usw. falls der Computer 110 bestimmt, dass das Zielobjekt 210 in einen nicht zugänglichen Bereich eingetreten ist, geht der Prozess 400 zu einem Block 460 (siehe 4C) über; andernfalls kehrt der Prozess 400 zu Block 445 zurück.
  • Unter Bezugnahme auf 4C schätzt der Computer 110 in Block 460 einen Ausgangsort des Zielobjekts 210 aus dem unzugänglichen Bereich. In einem Beispiel kann der Computer 110 dazu programmiert sein, einen Ausgangsort 340 des Gebäudes 310 auf Grundlage des Eingangsorts 330, der letzten Bewegungsbahn m1 und eines inneren Grundrisses des Gebäudes 310 (siehe 3) schätzen. Der Computer 110 kann dazu programmiert sein, Ortskoordinaten des/der geschätzten Ausgangsort(e) zu bestimmen.
  • Als nächstes, entsendet der Computer 110 in einem Block 465 eine Drohne 136 eines dritten Fahrzeugs 101 zu dem geschätzten Ausgangsort, z. B. durch Übermitteln der Ortskoordinaten des geschätzten Ausgangsorts 340 an den entfernten Computer 155.
  • Zum Beispiel können der Computer 110 und/oder der entfernte Computer 155 dazu programmiert sein, das dritte Fahrzeug 101 auf Grundlage der identifizierten Ortskoordinaten des Ausgangsorts 340 und der Ortskoordinaten des dritten Fahrzeugs 101 zu identifizieren. In einem Beispiel kann der Computer 110 dazu programmiert sein, mehrere Drohnen 135 aus einem oder mehreren zweiten Fahrzeugen 101 zu entsenden, z. B. wenn mehrere Ausgangsorte für das Ziel 210 in dem zugänglichen Bereich geschätzt sind.
  • Als Nächstes bestimmt der Computer 110 in einem Entscheidungsblock 470, ob der Computer 110 Ortskoordinaten des Zielobjekts 210 von dem entsendeten dritten Fahrzeug 101 empfangen hat. Wie nachstehend in Bezug auf 5 beschrieben, kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, zu dem Ausgangsort 340 zu navigieren, das Zielobjekt 210 zu detektieren, Ortskoordinaten und/oder die Bewegungsbahn des Zielobjekts 210 zu identifizieren. Falls der Computer 110 bestimmt, dass die Ortskoordinaten und/oder die Bewegungsbahn des Zielobjekts 210 von dem dritten Fahrzeug 101 empfangen ist, geht der Prozess 400 zu einem Block 475 über; andernfalls geht der Prozess 400 zu einem Block 480 über.
  • In Block 475 navigiert der Computer 110 die Drohne 135 auf Grundlage der empfangenen Ortskoordinaten des Zielobjekts 210. Zum Beispiel kann der Computer 110 die Drohne 135 dazu betätigen, zu einem gegenwärtigen Standort des Zielobjekts 210 zu fliegen, auf Grundlage der Ortskoordinaten und/oder Bewegungsbahn des Zielobjekts 210, die z. B. von der Drohne 136 des dritten Fahrzeugs 101, dem entfernten Computer 155 usw. empfangen sind. Unter Bezugnahme auf 3, kann der Computer 110 dazu programmiert sein, eine Route um das Gebäude 310 zu planen, um die Drohne 135 zu dem Standort des Zielobjekts 210 zu navigieren.
  • In dem Block 480 betätigt der Computer 110 die Drohne 135 dazu, über dem Eingangsort 330 des unzugänglichen Bereichs zu schweben. Alternativ kann der Computer 110 die Drohne 135 dazu betätigen, zu dem Host-Fahrzeug 100 zurückzukehren. Im Anschluss an Block 480 geht der Prozess 400 zum Block 440 über (siehe 4B).
  • 5 zeigt einen beispielhaften Prozess 500 für ein drittes Fahrzeug 101, das Befehle von dem Host- (oder ersten) Fahrzeug 100 empfängt. Zum Beispiel kann ein Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, Blöcke des Prozesses 500 auszuführen.
  • Der Prozess 500 beginnt in einem Entscheidungsblock 505, in welchem der Computer 110 des Fahrzeugs 101 bestimmt, ob z. B. Koordinaten eines geschätzten Ausgangsorts 340 eines Zielobjekts 210 empfangen sind, z. B. von einem Computer 110 des Host-Fahrzeugs 100, dem entfernten Computer 155 usw. Falls der Computer 110 des dritten Fahrzeugs 101 bestimmt, dass die Koordinaten des geschätzten Ausgangsorts empfangen sind, geht der Prozess 500 zu einem Block 510 über; andernfalls kehrt der Prozess 500 zu Entscheidungsblock 505 zurück.
  • In dem Block 510 entsendet der Computer 110 des dritten Fahrzeugs 101 eine zweite Drohne 136, z. B. aus dem Kofferraum 165 des dritten Fahrzeugs 101.
  • Als nächstes navigiert der Computer 110 des dritten Fahrzeugs 101 in einem Block 515 die zweite Drohne 136 zu dem bestehenden Standort 340. Der Computer 110 des dritten Fahrzeugs 101 kann dazu programmiert sein, die zweite Drohne 136 auf Grundlage der empfangenen Ortskoordinaten des geschätzten Ausgangsorts 340 zu navigieren.
  • Als Nächstes bestimmt der Computer 110 des dritten Fahrzeugs 101 in einem Entscheidungsblock 520, ob das Zielobjekt 210 detektiert ist, z.B. innerhalb einer vorbestimmten Entfernung des Ausgangsorts 340. Zum Beispiel kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, das Zielobjekt 210 unter Verwendung bekannter Bildverarbeitungstechniken, z. B. auf Grundlage von empfangenen Informationen von dem Host-Fahrzeug 100 zu detektieren. Der Computer 110 des dritten Fahrzeugs 101 kann dazu programmiert sein, das Zielobjekt 210 auf Grundlage von empfangenen Informationen zu detektieren, einschließlich eines Bilds des Zielobjekts 210, einer Wellenlänge von emittiertem Licht von einer Tinte, die auf das Ziel 210 durch die Drohne 135 des Host-Fahrzeugs 100 gesprüht ist, usw. Falls der Computer 110 des dritten Fahrzeugs 101 bestimmt, dass das Ziel 210 detektiert wurde, geht der Prozess 500 zu einem Block 525 über; andernfalls kehrt der Prozess 500 zu Entscheidungsblock 520 zurück.
  • In dem Block 525 übermittelt der Computer 110 des dritten Fahrzeugs 101 Ortskoordinaten und/oder die Bewegungsbahn des detektierten Zielobjekts 210, z.B. an das Host-Fahrzeug 100, den entfernten Computer 155 usw. Der Computer 110 kann dazu programmiert sein, das detektierte Zielobjekt 210 nachzuverfolgen, z.B. innerhalb einer vorbestimmten Entfernung des Zielobjekts 210 zu fliegen. Zusätzlich oder alternativ kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, periodisch, z. B. jede Sekunde, die gegenwärtige(n) Ortskoordinaten und/oder Bewegungsbahn des Zielobjekts 210 zu übermitteln, während sie innerhalb einer vorbestimmten Entfernung des Zielobjekts 210 fliegt.
  • Als nächstes bestimmt der Computer 110 des dritten Fahrzeugs 101 in einem Entscheidungsblock 530, ob eine Nachverfolgungssitzung des Zielobjekts 210 abgeschlossen ist, z. B. bei Bestimmen, dass die Drohne 135 des Host-Fahrzeugs 100 innerhalb einer vorbestimmten Entfernung, wie etwa 10 Meter des Zielobjekts 210 angekommen ist. Zusätzlich oder alternativ kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, zu bestimmen, dass eine Nachverfolgungssitzung abgeschlossen ist, bei Empfangen eines Steuerbefehls von der Drohne 135 des ersten Fahrzeugs 100 einschließlich einer Anforderung, das Nachverfolgen des Zielobjekts 210 zu beenden. Falls der Computer 110 des dritten Fahrzeugs 101 bestimmt, dass die Nachverfolgungssitzung abgeschlossen ist, geht der Prozess 500 zu einem Block 535 über; andernfalls geht der Prozess 500 zu dem Block 525 über.
  • In dem Block 535 betätigt der Computer 110 des dritten Fahrzeugs 101 die zweite Drohne 136 dazu, zu dem dritten Fahrzeug 101 zurückzukehren. Zum Beispiel betätigt der Computer 110 die zweite Drohne 136 dazu, in dem Kofferraum 165 des dritten Fahrzeugs 101 zu landen. Zusätzlich kann der Computer 110 des dritten Fahrzeugs 101 dazu programmiert sein, die Tür 170 des Kofferraums 165 vor dem Landen der zweiten Drohne 136 zu öffnen und betätigt die Tür 170 des Kofferraums 165 dazu, sich nach dem Landen der zweiten Drohne 136 zu schließen.
  • Im Anschluss an Block 535 endet der Prozess 500.
  • Der ein Substantiv modifizierende Artikel „ein/e“ sollte dahingehend verstanden werden, dass er einen oder mehrere bezeichnet, es sei denn, es ist etwas anderes angegeben oder der Kontext erfordert etwas anderes. Der Ausdruck „auf Grundlage von/beruhen auf“ beinhaltet teilweise oder vollständig auf Grundlage von/beruhen auf.
  • Rechenvorrichtungen, wie sie in dieser Schrift erörtert sind, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend identifizierten, und zum Ausführen von Blöcken oder Schritten vorstehend beschriebener Prozesse ausführbar sind. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung einer Vielzahl von Programmiersprachen und/oder -technologien erstellt werden, einschließlich unter anderem, entweder allein oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er ein oder mehrere Prozesse durchführt, einschließlich eines oder mehrerer der in dieser Schrift beschriebenen Prozesse. Derartige Anweisungen und andere Daten können unter Verwendung vielfältiger computerlesbarer Medien gespeichert und übertragen werden. Eine Datei in der Rechenvorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert sind.
  • Ein computerlesbares Medium beinhaltet ein beliebiges Medium, das am Bereitstellen von Daten (z. B. Anweisungen), die durch einen Computer gelesen werden können, beteiligt ist. Ein derartiges Medium kann viele Formen annehmen, einschließlich, unter anderem, nichtflüchtiger Medien, flüchtiger Medien usw. Nichtflüchtige Medien beinhalten beispielsweise optische oder magnetische Platten und andere Dauerspeicher. Flüchtige Medien beinhalten dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der üblicherweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten beispielsweise eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH, einen EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das ein Computer auslesen kann.
  • Hinsichtlich der hier beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass die Schritte derartiger Prozesse usw. zwar als gemäß einer bestimmten Abfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch so umgesetzt werden könnten, dass die beschriebenen Schritte in einer anderen Reihenfolge als der hier beschriebenen Reihenfolge durchgeführt werden. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte hierin beschriebene Schritte weggelassen werden könnten. Anders ausgedrückt sind die Beschreibungen von Systemen und/oder Prozessen hierin zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keinesfalls dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränken.
  • Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorstehenden Beschreibung und der beigefügten Figuren und nachfolgenden Patentansprüche, veranschaulichend und nicht einschränkend sein soll. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann beim Lesen der vorstehenden Beschreibung ersichtlich. Der Umfang der Erfindung sollte nicht unter Bezugnahme auf die vorstehende Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf Patentansprüche, die hier beigefügt sind und/oder in einer hierauf beruhenden, nichtvorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu denen derartige Patentansprüche berechtigt sind. Es wird erwartet und ist beabsichtigt, dass es hinsichtlich der hier erörterten Fachgebiete künftige Entwicklungen geben wird und dass die offenbarten Systeme und Verfahren in derartige künftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.

Claims (20)

  1. Computer, der zu Folgendem programmiert ist: Bestimmen einer Bewegungsbahn eines beweglichen Zielobjekts auf Grundlage von Daten von einem oder mehreren Fahrzeugsensoren; und Entsenden einer Flugdrohne von dem Fahrzeug, um das bewegliche Zielobjekt auf Grundlage der bestimmten Bewegungsbahn nachzuverfolgen.
  2. Computer nach Anspruch 1, der ferner zu Folgendem programmiert ist Bestimmen eines gegenwärtigen Standorts des Zielobjekts auf Grundlage der Daten von dem einen oder den mehreren Fahrzeugsensoren; und Senden einer Anweisung an die Flugdrohne, zu einem Zielort zu fliegen, auf Grundlage des bestimmten gegenwärtigen Standorts.
  3. Computer nach Anspruch 1, der ferner zu Folgendem programmiert ist: Bestimmen eines Standorts auf Grundlage der bestimmten Bewegungsbahn; und Betätigen der Drohne dazu, zu dem bestimmten Standort zu fliegen.
  4. Computer nach Anspruch 1, der ferner dazu programmiert ist, das Zielobjekt durch Folgendes nachzuverfolgen: Bestimmen eines gegenwärtigen Standorts des Zielobjekts auf Grundlage von Sensordaten der Flugdrohne; und Betätigen der Drohne dazu, innerhalb einer bestimmten Entfernung von dem Zielobjekt zu fliegen, während sich das Zielobjekt bewegt.
  5. Computer nach Anspruch 4, der ferner dazu programmiert ist, das Zielobjekt auf Grundlage einer gegenwärtigen Bewegungsbahn des Zielobjekts nachzuverfolgen, die auf Grundlage der Sensordaten der Flugdrohne bestimmt sind.
  6. Computer nach Anspruch 1, der ferner zu Folgendem programmiert ist: Bestimmen, dass das Zielobjekt in einen Bereich eingetreten ist, der für die Drohne unzugänglich ist; und Übermitteln eines letzten bestimmten Standorts und einer letzten bestimmten Bewegungsbahn des beweglichen Zielobjekts an einen entfernten Computer.
  7. Computer nach Anspruch 1, der ferner zu Folgendem programmiert ist: Detektieren eines zweiten Fahrzeugs auf Grundlage der Daten von dem einen oder den mehreren Fahrzeugsensoren; und Detektieren des beweglichen Zielobjekts, wenn das bewegliche Zielobjekt das zweite Fahrzeug verlässt.
  8. Computer nach Anspruch 7, der ferner dazu programmiert ist, das bewegliche Zielobjekt zu detektieren, nach Bestimmen, dass eine Tür des zweiten Fahrzeugs offen ist.
  9. Computer nach Anspruch 1, der ferner dazu programmiert ist, ein Drohnenbetätigungselement dazu zu betätigen, Tinte auf das bewegliche Zielobjekt zu sprühen.
  10. Computer nach Anspruch 1, der ferner dazu programmiert ist, das bewegliche Zielobjekt durch Detektieren einer bestimmten Tinte auf dem beweglichen Zielobjekt nachzuverfolgen.
  11. Verfahren, das Folgendes umfasst: Bestimmen einer Bewegungsbahn eines beweglichen Zielobjekts auf Grundlage von Daten von einem oder mehreren Fahrzeugsensoren; und Entsenden einer Flugdrohne von dem Fahrzeug, um das bewegliche Zielobjekt auf Grundlage der bestimmten Bewegungsbahn nachzuverfolgen.
  12. Verfahren nach Anspruch 11, das ferner Folgendes umfasst: Bestimmen eines gegenwärtigen Standorts des Zielobjekts auf Grundlage der Daten von dem einen oder den mehreren Fahrzeugsensoren; und Senden einer Anweisung an die Flugdrohne, zu einem Zielort zu fliegen, auf Grundlage des bestimmten gegenwärtigen Standorts.
  13. Verfahren nach Anspruch 11, das ferner Folgendes umfasst: Bestimmen eines Standorts auf Grundlage der bestimmten Bewegungsbahn; und Betätigen der Drohne dazu, zu dem bestimmten Standort zu fliegen.
  14. Verfahren nach Anspruch 11, das ferner ein Nachverfolgen des Zielobjekts durch Folgendes umfasst: Bestimmen eines gegenwärtigen Standorts des Zielobjekts auf Grundlage von Sensordaten der Flugdrohne; und Betätigen der Drohne dazu, innerhalb einer bestimmten Entfernung von dem Zielobjekt zu fliegen, während sich das Zielobjekt bewegt.
  15. Verfahren nach Anspruch 11, das Nachverfolgen des Zielobjekts auf Grundlage einer gegenwärtigen Bewegungsbahn des Zielobjekts umfasst, die auf Grundlage der Sensordaten der Flugdrohne bestimmt sind.
  16. Verfahren nach Anspruch 11, das ferner Folgendes umfasst: Bestimmen, dass das Zielobjekt in einen Bereich eingetreten ist, der für die Drohne unzugänglich ist; und Übermitteln eines letzten bestimmten Standorts und einer letzten bestimmten Bewegungsbahn des beweglichen Zielobjekts an einen entfernten Computer.
  17. Verfahren nach Anspruch 11, das ferner Folgendes umfasst: Detektieren eines zweiten Fahrzeugs auf Grundlage der Daten von dem einen oder den mehreren Fahrzeugsensoren; und Detektieren des beweglichen Zielobjekts, wenn das bewegliche Zielobjekt das zweite Fahrzeug verlässt.
  18. Verfahren nach Anspruch 17, wobei das Detektieren des beweglichen Zielobjekts nur nach Bestimmen, dass eine Tür des zweiten Fahrzeugs offen ist, durchgeführt wird.
  19. Verfahren nach Anspruch 11, das ferner ein Betätigen eines Drohnenbetätigungselements dazu, Tinte auf das bewegliche Zielobjekt zu sprühen, umfasst.
  20. Verfahren nach Anspruch 11, wobei das Nachverfolgen des beweglichen Zielobjekts ferner ein Detektieren einer bestimmten Tinte auf dem beweglichen Zielobjekt beinhaltet.
DE112017006933.5T 2017-02-24 2017-02-24 Drohnenbasierte nachverfolgung Pending DE112017006933T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2017/019236 WO2018156139A1 (en) 2017-02-24 2017-02-24 Drone-based tracking

Publications (1)

Publication Number Publication Date
DE112017006933T5 true DE112017006933T5 (de) 2019-10-24

Family

ID=63252933

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017006933.5T Pending DE112017006933T5 (de) 2017-02-24 2017-02-24 Drohnenbasierte nachverfolgung

Country Status (4)

Country Link
US (1) US11415989B2 (de)
CN (1) CN110431506A (de)
DE (1) DE112017006933T5 (de)
WO (1) WO2018156139A1 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9994313B2 (en) 2014-11-26 2018-06-12 XCraft Enterprises, LLC High speed multi-rotor vertical takeoff and landing aircraft
JP6805996B2 (ja) * 2017-07-28 2020-12-23 トヨタ自動車株式会社 情報処理装置、情報処理方法及び情報処理システム
GB2580908A (en) * 2019-01-28 2020-08-05 Kompetenzzentrum Das Virtuelle Fahrzeung Forschungsgesellschaft Mbh Method and device for selective active and passive sensing in automated driving applications
DE102019206587A1 (de) * 2019-05-08 2020-11-12 Audi Ag Verfahren zur Einstellung einer Position und/oder einer Orientierung eines Spiegels oder einer Kamera in einem Kraftfahrzeug
JP7409226B2 (ja) 2020-05-19 2024-01-09 マツダ株式会社 車載用飛行体の発着台装置
CN111857014B (zh) * 2020-08-06 2022-07-12 天津优控智行科技有限公司 矿用无人自卸车远程控制方法
CN114162029A (zh) * 2021-10-27 2022-03-11 江苏日盈电子股份有限公司 应用有多旋翼无人机的车辆
CN114898236B (zh) * 2022-07-14 2022-10-14 深圳联和智慧科技有限公司 一种基于无人机的渣土车监测方法、系统及云平台

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5745030A (en) * 1996-05-14 1998-04-28 Aaron; Albert Automatic occupant sensing anti-carjacking system
US6952646B2 (en) 2003-05-14 2005-10-04 Chang Industry, Inc. Tracking device and associated system and method
US7765062B2 (en) 2006-04-25 2010-07-27 Honeywell International Inc. Method and system for autonomous tracking of a mobile target by an unmanned aerial vehicle
US9026272B2 (en) 2007-12-14 2015-05-05 The Boeing Company Methods for autonomous tracking and surveillance
US8639396B1 (en) 2008-10-08 2014-01-28 Raytheon Company Cooperative control of unmanned aerial vehicles for tracking targets
CN105783594A (zh) * 2009-02-02 2016-07-20 威罗门飞行公司 多模式无人驾驶航空飞行器
IL201681A (en) 2009-10-22 2014-06-30 Abraham Abershitz System and method for UAV
DE102011119480B4 (de) * 2011-11-28 2013-11-14 Eads Deutschland Gmbh Verfahren und Vorrichtung zur Verfolgung eines bewegten Zielobjekts
US20150350614A1 (en) * 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
US20150321758A1 (en) 2013-08-31 2015-11-12 II Peter Christopher Sarna UAV deployment and control system
EP3246776B1 (de) 2014-05-30 2020-11-18 SZ DJI Technology Co., Ltd. Systeme und verfahren zur uav-andockung
US9409644B2 (en) 2014-07-16 2016-08-09 Ford Global Technologies, Llc Automotive drone deployment system
US9454889B2 (en) 2014-07-28 2016-09-27 Dan Kerning Security and public safety application for a mobile device
CN108137153B (zh) 2015-01-18 2022-07-15 基础制造有限公司 用于无人机的装置、系统和方法
US10633091B2 (en) 2015-01-29 2020-04-28 Scope Technologies Holdings Limited Accident monitoring using remotely operated or autonomous aerial vehicles
US9471059B1 (en) 2015-02-17 2016-10-18 Amazon Technologies, Inc. Unmanned aerial vehicle assistant
CN104881650A (zh) * 2015-05-29 2015-09-02 成都通甲优博科技有限责任公司 一种基于无人机动平台的车辆跟踪方法
US10046732B2 (en) * 2016-01-31 2018-08-14 Robert Louis Piccioni Public safety smart belt

Also Published As

Publication number Publication date
WO2018156139A1 (en) 2018-08-30
US20200057445A1 (en) 2020-02-20
CN110431506A (zh) 2019-11-08
US11415989B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
DE112017006933T5 (de) Drohnenbasierte nachverfolgung
DE102019100559A1 (de) Verfahren und systeme zur unterstützung des betriebs eines strassenfahrzeugs mit einer flugdrohne
DE102019128799A1 (de) Systeme und verfahren zum bestimmen eines fahrzeugstandorts in parkstrukturen
US9865166B2 (en) System and method for detecting a particular occupancy status of multiple parking positions of a parking facility
DE102018129295A1 (de) Systeme und Verfahren zum Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen
EP2915152B1 (de) Verfahren zum identifizieren eines von einer sensoreinrichtung erfassten fahrzeugs
DE102018118220B4 (de) Verfahren zur Schätzung der Lokalisierungsgüte bei der Eigenlokalisierung eines Fahrzeuges, Vorrichtung für die Durchführung von Verfahrensschritten des Verfahrens, Fahrzeug sowie Computerprogramm
DE102019102195A1 (de) Systeme und verfahren zur kollisionserkennung in autonomen fahrzeugen
DE112014001058T5 (de) Verfahren und System zur Steuerung autonomer Fahrzeuge
DE112017006295T5 (de) Abholen und absetzen von fluggästen an einem flughafen unter verwendung eines autonomen fahrzeugs
DE112016007456T5 (de) Drohnenbasierte fahrzeugbeleuchtung
DE102019117616A1 (de) Handhabung von mitfahrdiensten bei autonomen fahrzeugen
DE112018003827T5 (de) Parkunterstützungssystem und Parkunterstützungsverfahren
DE112017007735T5 (de) System und -verfahren zur fahrzeugüberprüfung
DE102020130674A1 (de) Fahrzeugposenerfassung mit bezugsmarker
DE112018005907T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper
DE102016122990A1 (de) Verfahren zum autonomen Manövrieren eines Kraftfahrzeugs auf einer Parkfläche mit Bestimmung einer Positionsabweichung, Infrastrukturvorrichtung, Fahrerassistenzsystemen, Kraftfahrzeugs sowie Kommunikationssystem
DE102017201663A1 (de) Verfahren zur Lokalisierung eines höher automatisierten, z.B. hochautomatisierten Fahrzeugs (HAF) in einer digitalen Lokalisierungskarte
DE112019001659T5 (de) Steuervorrichtung, steuerverfahren und programm
DE102019216534A1 (de) Unbemanntes autonomes fahrzeug und verfahren zum steuern desselben
DE102015202482A1 (de) Verfahren zum Betreiben eines Fahrzeugs
DE102018213562A1 (de) Verfahren zum Betreiben einer Ausgabeeinrichtung eines Kraftfahrzeugs, Steuereinrichtung, Kraftfahrzeug
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE102016008553A1 (de) System umfassend ein Kraftfahrzeug und ein unbemanntes Luftfahrzeug und Verfahren zum Erfassen von Gegebenheiten in einer Umgebung eines Kraftfahrzeugs
DE102021104184A1 (de) Fahrzeugsteuersystem

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE

R084 Declaration of willingness to licence
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001120000

Ipc: G05D0001683000