DE102017103373A1 - Autonome fahrzeugpassagierlokalisierung - Google Patents

Autonome fahrzeugpassagierlokalisierung Download PDF

Info

Publication number
DE102017103373A1
DE102017103373A1 DE102017103373.4A DE102017103373A DE102017103373A1 DE 102017103373 A1 DE102017103373 A1 DE 102017103373A1 DE 102017103373 A DE102017103373 A DE 102017103373A DE 102017103373 A1 DE102017103373 A1 DE 102017103373A1
Authority
DE
Germany
Prior art keywords
drone
passenger
communication
computer
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017103373.4A
Other languages
English (en)
Inventor
Brad Ignaczak
Cynthia M. Neubecker
Adil Nizam SIDDIQUI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102017103373A1 publication Critical patent/DE102017103373A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U80/00Transport or storage specially adapted for UAVs
    • B64U80/80Transport or storage specially adapted for UAVs by vehicles
    • B64U80/86Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/205Indicating the location of the monitored vehicles as destination, e.g. accidents, stolen, rental
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Abstract

Ein System aus einem oder mehreren Computern, das dazu ausgelegt ist, bestimmte Operationen oder Handlungen aufgrund dessen durchzuführen, dass es auf dem System installierte Software, Firmware, Hardware oder eine Kombination von diesen aufweist, die im Betrieb bewirken, dass das System die Handlungen durchführt. Ein allgemeiner Aspekt beinhaltet einen ersten Computer mit einem Prozessor und einem Speicher, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, so dass der erste Computer programmiert ist, Parameter, die einen Zielpassagier beschreiben, zu einer mobilen Drohne zu senden. Das System weist die Drohne an, einen Bereich zu umrunden, während sie den Bereich mit einer Bildaufnahmeeinrichtung nach dem Zielpassagier durchsucht. Das System empfängt Kommunikationen von der Drohne und bestätigt eine Übereinstimmung mit dem Zielpassagier und weist die Drohne an, den Zielpassagier zu einem Ziel zu leiten.

Description

  • HINTERGRUND
  • Wie sich Fahrzeuge dazu verlagern, autonome Fahrfähigkeiten aufzuweisen, können Situationen entstehen, bei denen ein Fahrzeug losgeschickt wird, um einen Passagier abzuholen. Derartige Situationen könnten das Lokalisieren des Zielpassagiers erfordern. Schwierigkeiten bei der Passagierlokalisierung können es schwierig und zeitaufwendig gestalten, dass sich das autonome Fahrzeug und der Zielpassagier treffen. Systeme wie etwa ein am Fahrzeug befestigtes Videosystem mit Gesichtserkennung weisen Schwachstellen auf, z.B. können sie nicht zum Identifizieren des Passagiers aufgrund einer blockierten Sichtlinie einsetzbar sein.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm eines beispielhaften Einsatzes einer Drohne, die von einem Fahrzeug losgeschickt wird, um einen Passagier in einer Menschenmenge zu lokalisieren.
  • 2 ist ein Blockdiagramm einer beispielhaften Kopplung der Drohne am Fahrzeug vor oder nach dem Einsatz.
  • 3 ist ein Flussdiagramm eines ersten beispielhaften Prozesses, der durch den Computer des Fahrzeugs zum Lokalisieren eines Passagiers implementiert werden kann.
  • 4 ist ein Flussdiagramm eines zweiten beispielhaften Prozesses, der durch den Computer des Fahrzeugs zum Lokalisieren eines Passagiers implementiert werden kann.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Wie vorliegend offenbart, kann sich eine fliegende Drohne wenige Meter vom Fahrzeug positionieren und eine Menschenmenge im Treffpunktbereich durchsuchen. Die Drohne kann auch Bilder des Passagiers und der Umgebung zum Fahrzeug senden, wo die Bilder gespeichert und/oder zu einer Drittpartei für eine visuelle Verifizierung gesendet werden könnten, zum Beispiel Eltern, die das Fahrzeug losschickten.
  • Die Drohneneinrichtung kann auch eine Hochfrequenzverbindung, zum Beispiel eine Bluetooth- oder WiFi-Verbindung, mit dem Mobiltelefon oder einer tragbaren Einrichtung des Passagiers aufbauen, um Informationen zwischen dem Fahrzeug, der Drohne und dem Passagier weiterzuleiten.
  • Jetzt mit Bezug auf die Figuren, wobei durch die verschiedenen Ansichten hinweg gleiche Ziffern gleiche Teile angeben, ist 1 ein Blockdiagramm eines beispielhaften Passagierlokalisierungssystems 5, das einen beispielhaften Einsatz einer Passagierlokalisierungsdrohne 14 beinhaltet, die von einem Fahrzeug 10 losgeschickt werden kann, um einen Zielpassagier 18 in einer Menschenmenge 19 zu lokalisieren. Das Fahrzeug 10 ist mit einer Kommunikationsantenne 11 ausgestattet, um Kommunikationen mit der Drohne 14 zu unterstützen. Die Kommunikationsantenne 11 kann eine oder mehrere bekannte Antennen beinhalten und kann auch das Antennenarray für das GNSS (Global Navigation Satellite System) oder GPS (Global Positioning System) des Fahrzeugs 10 und die Antenne für eine Zellularnetzkommunikation, zum Beispiel Sprache und Daten für das Fahrzeug 10, beinhalten. Zusätzlich dazu kann die Kommunikationsantenne 11 beliebige andere Hochfrequenz(HF)-Kommunikationseinrichtungen, zum Beispiel eine Fahrzeug-zu-Fahrzeug(V2V)-Kommunikationseinrichtung oder eine Fahrzeug-zu-Infrastruktur(V2I)-Kommunikationseinrichtung, bereitstellen.
  • Das Fahrzeug 10 kann auch eine am Fahrzeug befestigte Kamera 12 aufweisen, zum Beispiel eine Spiegelkamera für die rechte Spur, die auch zum Lokalisieren eines Passagiers 18 genutzt werden kann. Das Sichtfeld 13 der Kamera 12 ist jedoch auf den unmittelbaren Umgebungsbereich des Fahrzeugs 10 eingeschränkt.
  • Das Fahrzeug 10 beinhaltet eine Suchcomputereinheit (SCU) 8, die mindestens einen Prozessor und einen Speicher zum Speichern von Computeranweisungen, die auf dem mindestens einen Prozessor ausführbar sind, aufweist, so dass der Computer programmiert ist, verschiedene Operationen auszuführen, einschließlich der vorliegend offenbarten. Der Speicher kann bekanntermaßen auch Daten, Registerwerte und temporäre und permanente Variablen usw. speichern. Die ausführbaren Anweisungen beinhalten ein oder mehrere vorbestimmte Kriterien zum Befehlen und Steuern der Drohne zusammen mit Gesichts- und Körperidentifikationsalgorithmen. Die SCU 8 kann auch einen zusätzlichen Spezialprozessor enthalten oder aufweisen, wie etwa einen Bildgebungsprozessor oder einen Digitalsignalprozessor (DSP), um den Prozessor bei der Signalinterpretation zu unterstützen. Die SCU 8 ist kommunikativ z.B. über einen Fahrzeugkommunikationsbus oder ein anderes bekanntes Fahrzeugnetz mit einer Telematiksteuereinheit 9 und der Kamera 12 gekoppelt.
  • Die Telematiksteuereinheit 9 kann mit dem GNSS und der GPS-Einheit verbunden sein und stellt eine Schnittstelle für eine externe Kommunikation, zum Beispiel mit einem GSM-Netz, einem GPRS-Netz, einem LTE-Netz, einem WiFi-Netz oder einem Bluetooth-Netz, bereit. Die Telematiksteuereinheit 9 kann einen Prozessor, zum Beispiel eine Mikrosteuerung, und einen Speicher zum Speichern von Computeranweisungen, Registerwerten und temporären und permanenten Variablen beinhalten.
  • Die Drohne 14 kann entweder eine Bodendrohne oder ein unbemanntes Luftfahrzeug sein, zum Beispiel ein Quadrocopter, ein Hexacopter, ein Helicopter, ein Starrflügelflugzeug oder ein beliebiges Flugzeug, das zum autonomen oder semi-autonomen Flug in der Lage ist. Eine Bodendrohne ist ein unbemanntes Bodenfahrzeug, das die Erdoberfläche nicht verlässt. Die Drohne 14 weist eine Bildaufnahmeeinrichtung auf, zum Beispiel eine Drohnenkamera 15, die die Drohne 14 zum Aufnehmen von Bildern des Passagiers 18 und der anderen Menschen 19 verwendet.
  • Die Drohne 14 weist eine Verbindung über HF-Kommunikation 16 mit dem Fahrzeug 16 zum Befehlen und Steuern der Drohne 14 mittels einer Drohnenantenne 20 auf. Die Drohnenantenne kann auch Kommunikation mit dem Passagier 18 ermöglichen, zum Beispiel kann die Drohne 14 eine Drohnen-Passagier-Kommunikationsverbindung zu einer tragbaren Einrichtung, zum Beispiel einer Mobiltelefoneinrichtung am Passagier 18, über ein WiFi-Protokoll, Bluetooth-Protokoll, Nahfeldkommunikations(NFC)-Protokoll oder ein beliebiges Zweiwege-HF-Kommunikationsprotokoll aufbauen.
  • Die Drohne 14 kann zusätzlich ein (nicht dargestelltes) Lichtsignal, um die Aufmerksamkeit des Passagiers 18 zu erregen, einen (nicht dargestellten) Signaltongenerator, zum Beispiel eine Klingel, ein (nicht dargestelltes) Mikrofon, ein GNSS (Global Navigation Satellite System) und einen Hochfrequenzsendeempfänger für die oben genannte Kommunikationsverbindung aufweisen.
  • Die Drohne 14 kann programmiert sein, einen Drohnensuchbereich 21 auf eine systematische Art und Weise unter Verwendung der Drohnenkamera 15 zu durchsuchen. Das Sichtfeld 17 der Drohnenkamera kann nur einen Teil des Drohnensuchbereichs 21 visualisieren und muss möglicherweise mehrere Überflüge über den Drohnensuchbereich 21 unternehmen, bis der Passagier 18 gefunden ist.
  • 2 stellt die Drohne 14 dar, die am Heck des Fahrzeugs 10 entweder vor oder nach einer Suchmission zum Lokalisieren des Passagiers 18 angekoppelt ist. Die Drohne 14 kann alternativ dazu im Kofferraum oder der Ladeluke des Fahrzeugs 10 verstaut werden oder kann sogar eine On-Demand-Drohne sein, die sich schon am Abholort befindet. Das Fahrzeug 10 kann die Suche nach dem Passagier initiieren, während es unterwegs ist, indem es den Abholort kontaktiert und den Gebrauch der Drohne 14 anfordert.
  • Sobald sich das Fahrzeug entweder in einem designierten Abholbereich oder nahe des Abholbereichs befindet, kann das Fahrzeug der Drohne ein Abbild des Passagiers 18 bereitstellen und die Drohne starten. Die Drohne kann sich unter die Menschen 19 mischen, falls die Drohne 14 eine Bodendrohne ist, oder, falls sie sich in der Luft befindet, kann die Drohne 14 über den Menschen 19 fliegen oder schweben und nach dem Passagier 18 suchen.
  • Die Drohne 14 kann lediglich Bilder der Menschen 19 zurück zum Fahrzeug 10 senden und die Fahrzeug-SCU 8 kann die Bilder verarbeiten und den Passagier 18 detektieren, oder alternativ oder zusätzlich dazu kann die Drohne 14 die Bilder in einem Drohnenprozessor verarbeiten, der Programmierung für eine Bilderkennung zum Detektieren des Passagiers 18 beinhalten kann. Sobald der Passagier 18 detektiert worden ist, kann die SCU 8 zuerst die Drohne 14 anweisen, dem Passagier 18 eine Nachricht zu senden, dass der Passagier 18 detektiert worden ist. Die Nachricht kann auditiv, ein Punktlicht, ein Flutlicht oder ein (nicht dargestelltes) Stroboskoplicht, das auf den Passagier 18 leuchtet, eine Textnachricht zu einer tragbaren Einrichtung, zum Beispiel einer Mobiltelefoneinrichtung des Passagiers 18, oder eine andere Art von Nachricht sein. Die Drohne 14 kann programmiert sein, entweder über dem Passagier 18 zu schweben oder zu zirkeln und den Passagier 18 zu einem Ziel, zum Beispiel dem Fahrzeug 10, zu leiten, oder alternativ dazu, falls die Drohne 14 eine Bodendrohne ist, kann die Drohne den Passagier einfach zum Fahrzeug 10 führen.
  • Um die Identität des Passagiers 18 zu verifizieren, kann die SCU 8 ein Bild des Passagiers 18 zu einer Person für eine positive visuelle Identifikation senden. Beispielsweise können Eltern das Fahrzeug gesandt haben, um ihr Kind am Flughafen abzuholen. Das Bild des Passagiers 18, das die Drohne 14 mit ihrer Kamera 15 aufnahm, kann über die Telematiksteuereinheit 9 zu den losschickenden Eltern für die positive visuelle Identifikation gesendet werden. Sobald dies bestätigt ist, kann die SCU 8 die Türen des Fahrzeugs 10 entriegeln und den Passagier 18 in das Fahrzeug 10 hineinlassen.
  • Prozessabläufe
  • 3 ist ein Flussdiagramm, das einen beispielhaften Prozess 100 der SCU 8 zum Befehlen und Steuern einer bildgebenden Drohneneinrichtung zum Suchen und Identifizieren, die einen Zielpassagier identifizieren und den Passagier zurück zu einem autonomen Fahrzeug leiten kann, veranschaulicht.
  • Der Prozess 100 beginnt in einem Block 110, bei dem ein Suchprofil, d.h. Parameter, die einen zu lokalisierenden Zielpassagier beschreiben, zur Drohne 14 hochgeladen wird. Falls die Drohne 14 einen Teil oder die gesamte Bildverarbeitung in der Drohne durchführt, wird dem Computer der Drohne 14 ein Satz von Gesichtserkennungsparametern oder ein Satz physischer Charakteristiken des Passagiers 18, d.h. die gemäß bekannter Bilderkennungstechniken verwendet werden können, zusammen mit einem Satz von Koordinaten eines Suchbereichs bereitgestellt. Die Gesichtscharakteristiken können die relative Position, Größe und/oder Form der Augen, Nase, Wangenknochen und des Kiefers beinhalten, um nur einige zu nennen. Die Drohne 14 wird die Gesichtscharakteristiken der Menschenmenge 19 abgleichen, bis die Drohne den Passagier 18 findet.
  • Als nächstes, in einem Block 120, wird die Drohne 14 eingesetzt, falls die Drohne 14 zum Beispiel im oder am Fahrzeug 10 gelagert ist, wird das Fahrzeug 10 die Drohne 14 starten, z.B. gemäß den Anweisungen von der SCU 8. Falls die Drohne zum Beispiel an einem Flughafenterminal vorgeparkt ist, wird die SCU 8 alternativ dazu einen Startbefehl zur vorgeparkten Drohne am Flughafenterminal zusammen mit den Gesichtscharakteristiken und dem Suchbereich senden.
  • Als nächstes, in einem Block 130, empfängt die SCU 18 des Fahrzeugs 10 eine „Übereinstimmung-gefunden“-Kommunikation von der Drohne 14, die angibt, dass die Drohne 14 bestimmt hat, dass sie großes Vertrauen hat, dass die Drohne 14 den Passagier 18 lokalisiert hat, zum Beispiel durch Abgleichen der hochgeladenen Gesichtscharakteristiken mit einer Person im Suchbereich.
  • Als nächstes, in einem Block 140, kann das Übereinstimmungsprofil bestätigt werden, zum Beispiel kann die SCU 8 einen Telefonanruf tätigen oder eine SMS an den Passagier 18 senden und anfordern, dass der Passagier der Drohne 14 signalisiert, zum Beispiel durch Winken, Antworten auf eine SMS oder Anzeigen eines QR-Bestätigungscodes, den die SCU 8 an die Mobileinrichtung des Passagiers 18 gesendet hat. Ein QR-Code, abgekürzt von Quick Response Code (Schnellantwortcode), ist eine Art eines Matrix-Strichcodes. Er ist ein maschinenlesbares optisches Zeichen, das Informationen über den Gegenstand, an dem es angezeigt wird, enthält. Ein QR-Code verwendet vier standardisierte Codierungsmodi, einschließlich numerisch, alphanumerisch, Byte/binär und Kanji, um Daten effizient zu speichern und zu repräsentieren.
  • Als nächstes, in einem Block 150, weist die SCU 8 die Drohne 14 an, sich nahe des Passagiers 18 zu positionieren; falls die Drohne 14 zum Beispiel ein Hovercraft ist, wie etwa ein Quadro- oder Multicopter, kann die Drohne 14 angewiesen werden, über oder gerade vor dem Passagier 14 zu schweben, oder, falls die Drohne 14 ein Starrflügelflugzeug ist, kann die Drohne 14 über dem Passagier 18 zirkeln. Falls die Drohne 14 eine Bodendrohne ist, kann die Drohne 14 alternativ dazu angewiesen werden, sich neben dem Passagier 18 zu positionieren.
  • Als nächstes, in einem Block 160, weist die SCU 8 die Drohne 14 an, den Passagier zum Fahrzeug 10 zu leiten, und der Prozess 100 endet.
  • Jetzt mit Bezug auf 4 beginnt der Prozess 200 in einem Block 210, in dem ein Suchprofil zum Speicher der Drohne 14 hochgeladen und in den Speicher der SCU 8 geladen wird. Das Drohnensuchprofil beinhaltet einen Satz von Koordinaten des Suchbereichs. Wenn die Drohne 14 im Prozess 200 eingesetzt wird, wird sie Bilder, wie etwa eine Videozuspielung oder unbewegte Bilder, der Menschenmenge 19 und des Passagiers 18 senden, aber keine Bilderkennung durchführen. Die SCU 18 wird die Bildverarbeitung am Fahrzeug 10 durchführen.
  • Als nächstes, in einem Block 220, wird die Drohne 14 eingesetzt; falls die Drohne 14 zum Beispiel im Fahrzeug 10 verstaut wird, wird das Fahrzeug 10 die Drohne 14 starten. Falls die Drohne zum Beispiel an einem Flughafenterminal vorgeparkt ist, wird das Fahrzeug 10 alternativ dazu einen Startbefehl zur vorgeparkten Drohne am Flughafenterminal zusammen mit dem abzudeckenden Suchbereich senden.
  • Als nächstes, in einem Block 230, der dem Block 220 oder einem Block 240 folgen kann, empfängt und verarbeitet die SCU 18 des Fahrzeugs 10 die Bilder von der Drohne 14.
  • Als nächstes, im Block 240, bestimmt die SCU 8, ob eine Bildübereinstimmung des Suchprofils bestimmt worden ist. Falls es eine Übereinstimmung gibt, geht der Prozess zu einem Block 250 über, andernfalls kehrt der Prozess zum Block 230 zurück.
  • Als nächstes, im Block 250, weist die SCU 8 die Drohne 14 an, sich nahe des Passagiers 18 zu positionieren, wie im Block 150 von 3; falls die Drohne 14 ein Hovercraft ist, wie etwa ein Quadro- oder Multicopter, kann die Drohne 14 angewiesen werden, über oder gerade vor dem Passagier 14 zu schweben, oder, falls die Drohne 14 ein Starrflügelflugzeug ist, kann die Drohne 14 über dem Passagier 18 zirkeln. Falls die Drohne 14 eine Bodendrohne ist, kann die Drohne 14 alternativ dazu angewiesen werden, sich neben dem Passagier 18 zu positionieren.
  • Als nächstes, in einem Block 260, weist die SCU 8 die Drohne 14 an, den Passagier zum Fahrzeug 10 zu leiten.
  • Als nächstes, im Block 270, weist die SCU 8 die Drohne 14 an, zu ihrer gelagerten und gekoppelten Position zurückzukehren, und der Prozess 200 endet.
  • Die Offenbarung ist auf veranschaulichende Weise beschrieben worden, und es versteht sich, dass die verwendete Terminologie beschreibend anstatt einschränkend aufzufassen ist. Es sind angesichts der obigen Lehren viele Modifikationen und Variationen der vorliegenden Offenbarung möglich und die Offenbarung kann auf andere Weise als speziell beschrieben umgesetzt werden.

Claims (20)

  1. System, das einen ersten Computer mit einem Prozessor und einem Speicher umfasst, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, so dass der erste Computer zu Folgendem programmiert ist: Senden von Parametern, die einen Zielpassagier beschreiben, zu einer mobilen Drohne; Anweisen der Drohne, einen Bereich zu umrunden, während sie den Bereich mit einer Bildaufnahmeeinrichtung nach dem Zielpassagier durchsucht; Empfangen einer Kommunikation von der Drohne; Bestätigen, dass die Kommunikation eine Übereinstimmung mit den Zielpassagierparametern beinhaltet; und Anweisen der Drohne, den Zielpassagier zu einem Ziel zu leiten.
  2. System nach Anspruch 1, wobei der erste Computer ferner programmiert ist, die Drohne von einem Fahrzeug zu starten.
  3. System nach Anspruch 1, wobei die Zielpassagierparameter Gesichtserkennungsparameter beinhalten.
  4. System nach Anspruch 1, wobei die Drohne programmiert ist, den Bereich zu durchqueren und über dem Bereich zu schweben.
  5. System nach Anspruch 1, wobei der erste Computer in der Kommunikation ferner eine Videozuspielung von der Drohne empfängt.
  6. System nach Anspruch 1, wobei die Drohne einen zweiten Computer beinhaltet, der zu Folgendem programmiert ist: Bestimmen einer Übereinstimmung eines Bildes, das durch die Bildaufnahmeeinrichtung empfangen wird, mit den Zielpassagierparametern; und Senden einer Übereinstimmung-gefunden-Kommunikation zum ersten Computer.
  7. System nach Anspruch 1, wobei die Drohne einen zweiten Computer beinhaltet, der programmiert ist, zu bewirken, dass die Drohne ein Lichtsignal und/oder einen Signalton und/oder ein Mikrofon und/oder ein GNSS (Global Navigation Satellite System) und/oder einen Hochfrequenzsendeempfänger bereitstellt.
  8. System nach Anspruch 7, wobei das Lichtsignal zumindest ein Stroboskoplicht, ein Punktlicht und ein Flutlicht ist.
  9. System nach Anspruch 7, wobei der Hochfrequenzsendeempfänger zumindest zu einer Bluetooth-, WiFi-, Nahfeldkommunikation (NFC) und einer Zellularnetzkommunikation in der Lage ist.
  10. System nach Anspruch 7, wobei die erste Person eine tragbare Einrichtung besitzt, die zumindest zu einer Bluetooth-, WiFi-Kommunikation, NFC und einer Zellularnetzkommunikation in der Lage ist.
  11. Verfahren, das Folgendes umfasst: Senden von Parametern, die einen Zielpassagier beschreiben, zu einer mobilen Drohne; Anweisen der Drohne, einen Bereich zu umrunden, während sie den Bereich mit einer Bildaufnahmeeinrichtung nach dem Zielpassagier durchsucht; Empfangen einer Kommunikation von der Drohne; Bestätigen, dass die Kommunikation eine Übereinstimmung mit den Zielpassagierparametern beinhaltet; Anweisen der Drohne, sich in der Nähe der ersten Person zu positionieren; und Anweisen der Drohne, den Zielpassagier zu einem Ziel zu leiten.
  12. Verfahren nach Anspruch 11, das weiterhin Starten der Drohne von einem Fahrzeug umfasst.
  13. Verfahren nach Anspruch 11, wobei die Zielpassagierparameter Gesichtserkennungsparameter beinhalten.
  14. Verfahren nach Anspruch 11, wobei die Drohne programmiert ist, mindestens den Bereich zu durchqueren und über dem Bereich zu schweben.
  15. Verfahren nach Anspruch 11, das ferner Empfangen einer Videozuspielung von der Drohne umfasst.
  16. Verfahren nach Anspruch 11, das ferner Folgendes umfasst: Bestimmen einer Übereinstimmung eines Bildes, das durch die Bildaufnahmeeinrichtung empfangen wird, mit den Zielpassagierparametern; und Senden einer Übereinstimmung-gefunden-Kommunikation zu einem ersten Computer.
  17. Verfahren nach Anspruch 11, wobei die Drohne einen zweiten Computer beinhaltet, der programmiert ist, zu bewirken, dass die Drohne ein Lichtsignal und/oder einen Signalton und/oder ein Mikrofon und/oder ein GNSS (Global Navigation Satellite System) und/oder einen Hochfrequenzsendeempfänger bereitstellt.
  18. Verfahren nach Anspruch 17, wobei das Lichtsignal zumindest ein Stroboskoplicht, ein Punktlicht und ein Flutlicht ist.
  19. Verfahren nach Anspruch 17, wobei der Hochfrequenzsendeempfänger zumindest zu einer Bluetooth-, WiFi-, Nahfeldkommunikation (NFC) und einer Zellularnetzkommunikation in der Lage ist.
  20. Verfahren nach Anspruch 17, wobei die erste Person eine tragbare Einrichtung besitzt, die zumindest zu einer Bluetooth-, WiFi-Kommunikation, NFC und einer Zellularnetzkommunikation in der Lage ist.
DE102017103373.4A 2016-02-26 2017-02-20 Autonome fahrzeugpassagierlokalisierung Pending DE102017103373A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/054,707 2016-02-26
US15/054,707 US9858821B2 (en) 2016-02-26 2016-02-26 Autonomous vehicle passenger locator

Publications (1)

Publication Number Publication Date
DE102017103373A1 true DE102017103373A1 (de) 2017-08-31

Family

ID=58544169

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017103373.4A Pending DE102017103373A1 (de) 2016-02-26 2017-02-20 Autonome fahrzeugpassagierlokalisierung

Country Status (6)

Country Link
US (1) US9858821B2 (de)
CN (1) CN107134129B (de)
DE (1) DE102017103373A1 (de)
GB (1) GB2548709A (de)
MX (1) MX2017002558A (de)
RU (1) RU2017105456A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017201289A1 (de) 2017-01-26 2018-07-26 Bayerische Motoren Werke Aktiengesellschaft Darstellen eines Soll-Fahrzeugöffnungsvorfelds eines automatisierten Fahrzeugs
DE102018221996A1 (de) * 2018-12-18 2020-06-18 Audi Ag Verfahren zum Betreiben eines unbemannten Luftfahrzeugs für ein Kraftfahrzeug sowie unbemanntes Luftfahrzeug für ein Kraftfahrzeug

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9897457B2 (en) 2016-02-10 2018-02-20 International Business Machines Corporation Method and system for controlling vehicles and drones
US10088846B2 (en) * 2016-03-03 2018-10-02 GM Global Technology Operations LLC System and method for intended passenger detection
US10605613B2 (en) * 2016-08-31 2020-03-31 Scott Houston System and method for facilitating location of driver-participants of car transportation systems
US20180164809A1 (en) * 2016-12-09 2018-06-14 Ford Global Technologies, Llc Autonomous School Bus
US10496107B2 (en) * 2017-01-17 2019-12-03 Valeo North America, Inc. Autonomous security drone system and method
DE102017204169A1 (de) * 2017-03-14 2018-09-20 Bayerische Motoren Werke Aktiengesellschaft Authentifizierungssystem für ein zumindest teilweise autonomes Fahrzeug
JP6870584B2 (ja) 2017-11-13 2021-05-12 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
JP7052305B2 (ja) * 2017-11-13 2022-04-12 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
JP6977492B2 (ja) 2017-11-13 2021-12-08 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
CN107967941A (zh) * 2017-11-24 2018-04-27 中南大学 一种基于智能视觉重构的无人机人体健康监控方法与系统
CN107967944A (zh) * 2017-11-24 2018-04-27 中南大学 一种基于Hadoop的户外环境大数据人体健康监测方法与平台
CN107967455A (zh) * 2017-11-24 2018-04-27 中南大学 一种智能人体多维自然特征大数据透明学习方法与系统
CN107863153A (zh) * 2017-11-24 2018-03-30 中南大学 一种基于智能大数据的人体健康特征建模测量方法与平台
CN107844780A (zh) * 2017-11-24 2018-03-27 中南大学 一种融合zed视觉的人体健康特征大数据智慧计算方法与装置
JP6881344B2 (ja) * 2018-02-09 2021-06-02 株式会社デンソー 出迎えシステム
US10837788B1 (en) * 2018-05-03 2020-11-17 Zoox, Inc. Techniques for identifying vehicles and persons
US10809081B1 (en) 2018-05-03 2020-10-20 Zoox, Inc. User interface and augmented reality for identifying vehicles and persons
US11846514B1 (en) 2018-05-03 2023-12-19 Zoox, Inc. User interface and augmented reality for representing vehicles and persons
KR102619558B1 (ko) 2018-11-16 2024-01-02 현대모비스 주식회사 자율주행차의 제어시스템 및 그 제어방법
JP2020095354A (ja) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 運行支援装置、運行支援システム、及び運行支援プログラム
US11059582B2 (en) 2019-02-11 2021-07-13 Cnh Industrial Canada, Ltd. Systems for acquiring field condition data
US11001380B2 (en) 2019-02-11 2021-05-11 Cnh Industrial Canada, Ltd. Methods for acquiring field condition data
US11269353B2 (en) * 2019-03-28 2022-03-08 Gm Cruise Holdings Llc Autonomous vehicle hailing and pickup location refinement through use of an identifier
CN111829504A (zh) * 2019-04-16 2020-10-27 深圳富泰宏精密工业有限公司 飞行器及侦测方法
KR102254491B1 (ko) * 2019-11-22 2021-05-21 (주)가시 지능형 영상 분석 모듈을 탑재한 자율비행 드론
KR102245448B1 (ko) * 2019-11-27 2021-04-28 한국해양대학교 산학협력단 선박도장용 드론장치
US11320281B2 (en) * 2020-03-04 2022-05-03 Ford Global Technologies, Llc On-demand vehicle imaging systems and methods
KR102436839B1 (ko) * 2020-06-02 2022-08-29 한국철도기술연구원 무인 비행장치 및 제어방법
US11685401B2 (en) * 2020-09-29 2023-06-27 Waymo Llc Semantic identification of pickup locations
KR102496072B1 (ko) * 2020-12-08 2023-02-07 주식회사 라텔 유선 드론
KR102478413B1 (ko) * 2021-03-26 2022-12-20 주식회사 아이팝 재난 지휘 차량용 유선 드론 시스템
KR102300348B1 (ko) * 2021-04-13 2021-09-09 주식회사 프로펠 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법
KR102300349B1 (ko) * 2021-04-13 2021-09-09 주식회사 프로펠 탐지 상황에 따라 자동으로 이동 경로를 설정하는 무인 항공기, 및 운용 방법

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4416507C5 (de) * 1994-05-10 2006-10-19 Volkswagen Ag Verfahren zur Erkennung einer Benutzungsberechtigung für ein Fahrzeug
US20070126561A1 (en) 2000-09-08 2007-06-07 Automotive Technologies International, Inc. Integrated Keyless Entry System and Vehicle Component Monitoring
JP2004302785A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置
US7908040B2 (en) * 2004-07-15 2011-03-15 Raytheon Company System and method for automated search by distributed elements
US20160345260A1 (en) * 2005-05-30 2016-11-24 Invent.ly LLC Self Powered Device and Methods Conserving Energy in Communication
JP2007160440A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボットの制御装置
JP4528295B2 (ja) * 2006-12-18 2010-08-18 株式会社日立製作所 案内ロボット装置及び案内システム
WO2008147681A2 (en) * 2007-05-10 2008-12-04 Arlton Paul E Uav launch and recovery system
DE102007046270A1 (de) 2007-09-20 2009-04-02 Sitech Sitztechnik Gmbh Verfahren und Vorrichtung zur automatischen Ausrichtung von Fahrzeugteilen und/oder fahrzeuginternen Funktionen bei einem Kraftfahrzeug
US8788119B2 (en) * 2010-12-09 2014-07-22 The Boeing Company Unmanned vehicle and system
US10363453B2 (en) * 2011-02-07 2019-07-30 New Balance Athletics, Inc. Systems and methods for monitoring athletic and physiological performance
CA2872698C (en) * 2012-05-04 2018-07-24 Aeryon Labs Inc. System and method for controlling unmanned aerial vehicles
DE102012013239A1 (de) 2012-06-21 2013-03-21 Daimler Ag Freischalten eines vorübergehend nutzbaren Kraftfahrzeugs
US20140022051A1 (en) * 2012-07-17 2014-01-23 Elwha LLC, a limited liability company of the State of Delaware Unmanned device interaction methods and systems
US20140316614A1 (en) * 2012-12-17 2014-10-23 David L. Newman Drone for collecting images and system for categorizing image data
CN103383260A (zh) * 2013-07-12 2013-11-06 美新半导体(无锡)有限公司 一种无人机导航系统及其合作导航系统
US9760698B2 (en) 2013-09-17 2017-09-12 Toyota Motor Sales, U.S.A., Inc. Integrated wearable article for interactive vehicle control system
US10839336B2 (en) * 2013-12-26 2020-11-17 Flir Detection, Inc. Unmanned delivery
US9329597B2 (en) * 2014-01-17 2016-05-03 Knightscope, Inc. Autonomous data machines and systems
US9783293B2 (en) * 2014-05-20 2017-10-10 Verizon Patent And Licensing Inc. Unmanned aerial vehicle platform
JP6062079B2 (ja) * 2014-05-30 2017-01-18 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人型航空輸送機(uav)の動作を制御するための制御器および方法ならびに乗り物
US9494937B2 (en) * 2014-06-20 2016-11-15 Verizon Telematics Inc. Method and system for drone deliveries to vehicles in route
US9845165B2 (en) * 2014-07-16 2017-12-19 Airogistic, L.L.C. Methods and apparatus for unmanned aerial vehicle landing and launch
US9409644B2 (en) * 2014-07-16 2016-08-09 Ford Global Technologies, Llc Automotive drone deployment system
CN104183153A (zh) * 2014-07-23 2014-12-03 陈嘉延 基于四旋翼无人机做引导的智能停车引导系统
US9454889B2 (en) * 2014-07-28 2016-09-27 Dan Kerning Security and public safety application for a mobile device
CN107291104A (zh) * 2014-07-30 2017-10-24 深圳市大疆创新科技有限公司 目标追踪系统及方法
US9170117B1 (en) * 2014-08-21 2015-10-27 International Business Machines Corporation Unmanned aerial vehicle navigation assistance
US20160072771A1 (en) * 2014-09-08 2016-03-10 Mark Krietzman Health and other use of collection of archival digital data
FR3028186A1 (fr) * 2014-11-12 2016-05-13 Parrot Equipement de telecommande de drone a longue portee
US20160214713A1 (en) * 2014-12-19 2016-07-28 Brandon Cragg Unmanned aerial vehicle with lights, audio and video
US9989965B2 (en) * 2015-08-20 2018-06-05 Motionloft, Inc. Object detection and analysis via unmanned aerial vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017201289A1 (de) 2017-01-26 2018-07-26 Bayerische Motoren Werke Aktiengesellschaft Darstellen eines Soll-Fahrzeugöffnungsvorfelds eines automatisierten Fahrzeugs
US11541803B2 (en) 2017-01-26 2023-01-03 Bayerische Motoren Werke Aktiengesellschaft Showing a target vehicle opening fore zone of an automated vehicle
DE102018221996A1 (de) * 2018-12-18 2020-06-18 Audi Ag Verfahren zum Betreiben eines unbemannten Luftfahrzeugs für ein Kraftfahrzeug sowie unbemanntes Luftfahrzeug für ein Kraftfahrzeug

Also Published As

Publication number Publication date
GB2548709A (en) 2017-09-27
CN107134129B (zh) 2021-11-02
RU2017105456A (ru) 2018-08-22
US20170249846A1 (en) 2017-08-31
GB201703024D0 (en) 2017-04-12
CN107134129A (zh) 2017-09-05
MX2017002558A (es) 2018-08-15
US9858821B2 (en) 2018-01-02

Similar Documents

Publication Publication Date Title
DE102017103373A1 (de) Autonome fahrzeugpassagierlokalisierung
US11080381B2 (en) Component and user management for UAV systems
US11794895B2 (en) Unmanned aerial vehicle with biometric verification
US9973737B1 (en) Unmanned aerial vehicle assistant for monitoring of user activity
US10650684B2 (en) Guidance system and automatic control for vehicles
US20170372617A1 (en) Process and System to Register and Regulate Unmanned Aerial Vehicle Operations
DE102020103455A1 (de) Verfahren und system zur ausführung einer zusammengesetzten verhaltensrichtlinie für ein autonomes fahrzeug
US9481459B2 (en) Apparatus and method employing autonomous vehicles to reduce risk
BE1023995B1 (nl) Platform voor Coördinatie van Operaties op Zeer Laag Niveau
CN111656424A (zh) 基于大数据的自动飞行无人机系统及其自动飞行方法
DE102019100559A1 (de) Verfahren und systeme zur unterstützung des betriebs eines strassenfahrzeugs mit einer flugdrohne
US20180251219A1 (en) Apparatuses and methods for gesture-controlled unmanned aerial vehicles
DE102013019488A1 (de) Bilderfassung mit schutz der privatsphäre
KR101863101B1 (ko) 무인항공기의 항로와 비행 스케쥴을 운항 지상국 소프트웨어를 통해 공유하여 무인항공기간 충돌을 방지하기 위한 방법
DE102020100185A1 (de) Kraftfahrzeugsysteme mit mehreren drohnen und verwendungsverfahren
WO2016201359A1 (en) A low altitude aircraft identification system
KR101701397B1 (ko) 무인 비행체를 이용한 차량 단속방법 및 시스템
KR20170059893A (ko) 셀프 카메라를 구비한 드론
DE102020100261A1 (de) Systeme, verfahren und vorrichtungen zur fahrzeugintegration von unbemannten luftfahrzeugsystemen
CN109074089B (zh) 无人机的控制方法、飞行控制器及无人机
CN112448999A (zh) Uav与汽车之间的协作关系
DE102015101239A1 (de) Verfahren und Systeme zum Verarbeiten von Aufmerksamkeitsdaten von einem Fahrzeug
CN111627256A (zh) 无人机控制方法、车载终端及计算机可读存储介质
DE102018213562A1 (de) Verfahren zum Betreiben einer Ausgabeeinrichtung eines Kraftfahrzeugs, Steuereinrichtung, Kraftfahrzeug
EP4116790A1 (de) Steuer- und navigationsvorrichtung für ein autonom bewegtes system und autonom bewegtes system

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001120000

Ipc: G05D0001683000

R012 Request for examination validly filed