DE102017103373A1 - Autonome fahrzeugpassagierlokalisierung - Google Patents
Autonome fahrzeugpassagierlokalisierung Download PDFInfo
- Publication number
- DE102017103373A1 DE102017103373A1 DE102017103373.4A DE102017103373A DE102017103373A1 DE 102017103373 A1 DE102017103373 A1 DE 102017103373A1 DE 102017103373 A DE102017103373 A DE 102017103373A DE 102017103373 A1 DE102017103373 A1 DE 102017103373A1
- Authority
- DE
- Germany
- Prior art keywords
- drone
- passenger
- communication
- computer
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004807 localization Effects 0.000 title description 2
- 238000004891 communication Methods 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims description 24
- 230000001815 facial effect Effects 0.000 claims description 6
- 230000001413 cellular effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 210000000216 zygoma Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U80/00—Transport or storage specially adapted for UAVs
- B64U80/80—Transport or storage specially adapted for UAVs by vehicles
- B64U80/86—Land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/102—Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/20—Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
- G08G1/205—Indicating the location of the monitored vehicles as destination, e.g. accidents, stolen, rental
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U70/00—Launching, take-off or landing arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
Abstract
Ein System aus einem oder mehreren Computern, das dazu ausgelegt ist, bestimmte Operationen oder Handlungen aufgrund dessen durchzuführen, dass es auf dem System installierte Software, Firmware, Hardware oder eine Kombination von diesen aufweist, die im Betrieb bewirken, dass das System die Handlungen durchführt. Ein allgemeiner Aspekt beinhaltet einen ersten Computer mit einem Prozessor und einem Speicher, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, so dass der erste Computer programmiert ist, Parameter, die einen Zielpassagier beschreiben, zu einer mobilen Drohne zu senden. Das System weist die Drohne an, einen Bereich zu umrunden, während sie den Bereich mit einer Bildaufnahmeeinrichtung nach dem Zielpassagier durchsucht. Das System empfängt Kommunikationen von der Drohne und bestätigt eine Übereinstimmung mit dem Zielpassagier und weist die Drohne an, den Zielpassagier zu einem Ziel zu leiten.
Description
- HINTERGRUND
- Wie sich Fahrzeuge dazu verlagern, autonome Fahrfähigkeiten aufzuweisen, können Situationen entstehen, bei denen ein Fahrzeug losgeschickt wird, um einen Passagier abzuholen. Derartige Situationen könnten das Lokalisieren des Zielpassagiers erfordern. Schwierigkeiten bei der Passagierlokalisierung können es schwierig und zeitaufwendig gestalten, dass sich das autonome Fahrzeug und der Zielpassagier treffen. Systeme wie etwa ein am Fahrzeug befestigtes Videosystem mit Gesichtserkennung weisen Schwachstellen auf, z.B. können sie nicht zum Identifizieren des Passagiers aufgrund einer blockierten Sichtlinie einsetzbar sein.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 ist ein Blockdiagramm eines beispielhaften Einsatzes einer Drohne, die von einem Fahrzeug losgeschickt wird, um einen Passagier in einer Menschenmenge zu lokalisieren. -
2 ist ein Blockdiagramm einer beispielhaften Kopplung der Drohne am Fahrzeug vor oder nach dem Einsatz. -
3 ist ein Flussdiagramm eines ersten beispielhaften Prozesses, der durch den Computer des Fahrzeugs zum Lokalisieren eines Passagiers implementiert werden kann. -
4 ist ein Flussdiagramm eines zweiten beispielhaften Prozesses, der durch den Computer des Fahrzeugs zum Lokalisieren eines Passagiers implementiert werden kann. - AUSFÜHRLICHE BESCHREIBUNG
- Wie vorliegend offenbart, kann sich eine fliegende Drohne wenige Meter vom Fahrzeug positionieren und eine Menschenmenge im Treffpunktbereich durchsuchen. Die Drohne kann auch Bilder des Passagiers und der Umgebung zum Fahrzeug senden, wo die Bilder gespeichert und/oder zu einer Drittpartei für eine visuelle Verifizierung gesendet werden könnten, zum Beispiel Eltern, die das Fahrzeug losschickten.
- Die Drohneneinrichtung kann auch eine Hochfrequenzverbindung, zum Beispiel eine Bluetooth- oder WiFi-Verbindung, mit dem Mobiltelefon oder einer tragbaren Einrichtung des Passagiers aufbauen, um Informationen zwischen dem Fahrzeug, der Drohne und dem Passagier weiterzuleiten.
- Jetzt mit Bezug auf die Figuren, wobei durch die verschiedenen Ansichten hinweg gleiche Ziffern gleiche Teile angeben, ist
1 ein Blockdiagramm eines beispielhaften Passagierlokalisierungssystems5 , das einen beispielhaften Einsatz einer Passagierlokalisierungsdrohne14 beinhaltet, die von einem Fahrzeug10 losgeschickt werden kann, um einen Zielpassagier18 in einer Menschenmenge19 zu lokalisieren. Das Fahrzeug10 ist mit einer Kommunikationsantenne11 ausgestattet, um Kommunikationen mit der Drohne14 zu unterstützen. Die Kommunikationsantenne11 kann eine oder mehrere bekannte Antennen beinhalten und kann auch das Antennenarray für das GNSS (Global Navigation Satellite System) oder GPS (Global Positioning System) des Fahrzeugs10 und die Antenne für eine Zellularnetzkommunikation, zum Beispiel Sprache und Daten für das Fahrzeug10 , beinhalten. Zusätzlich dazu kann die Kommunikationsantenne11 beliebige andere Hochfrequenz(HF)-Kommunikationseinrichtungen, zum Beispiel eine Fahrzeug-zu-Fahrzeug(V2V)-Kommunikationseinrichtung oder eine Fahrzeug-zu-Infrastruktur(V2I)-Kommunikationseinrichtung, bereitstellen. - Das Fahrzeug
10 kann auch eine am Fahrzeug befestigte Kamera12 aufweisen, zum Beispiel eine Spiegelkamera für die rechte Spur, die auch zum Lokalisieren eines Passagiers18 genutzt werden kann. Das Sichtfeld13 der Kamera12 ist jedoch auf den unmittelbaren Umgebungsbereich des Fahrzeugs10 eingeschränkt. - Das Fahrzeug
10 beinhaltet eine Suchcomputereinheit (SCU)8 , die mindestens einen Prozessor und einen Speicher zum Speichern von Computeranweisungen, die auf dem mindestens einen Prozessor ausführbar sind, aufweist, so dass der Computer programmiert ist, verschiedene Operationen auszuführen, einschließlich der vorliegend offenbarten. Der Speicher kann bekanntermaßen auch Daten, Registerwerte und temporäre und permanente Variablen usw. speichern. Die ausführbaren Anweisungen beinhalten ein oder mehrere vorbestimmte Kriterien zum Befehlen und Steuern der Drohne zusammen mit Gesichts- und Körperidentifikationsalgorithmen. Die SCU8 kann auch einen zusätzlichen Spezialprozessor enthalten oder aufweisen, wie etwa einen Bildgebungsprozessor oder einen Digitalsignalprozessor (DSP), um den Prozessor bei der Signalinterpretation zu unterstützen. Die SCU8 ist kommunikativ z.B. über einen Fahrzeugkommunikationsbus oder ein anderes bekanntes Fahrzeugnetz mit einer Telematiksteuereinheit9 und der Kamera12 gekoppelt. - Die Telematiksteuereinheit
9 kann mit dem GNSS und der GPS-Einheit verbunden sein und stellt eine Schnittstelle für eine externe Kommunikation, zum Beispiel mit einem GSM-Netz, einem GPRS-Netz, einem LTE-Netz, einem WiFi-Netz oder einem Bluetooth-Netz, bereit. Die Telematiksteuereinheit9 kann einen Prozessor, zum Beispiel eine Mikrosteuerung, und einen Speicher zum Speichern von Computeranweisungen, Registerwerten und temporären und permanenten Variablen beinhalten. - Die Drohne
14 kann entweder eine Bodendrohne oder ein unbemanntes Luftfahrzeug sein, zum Beispiel ein Quadrocopter, ein Hexacopter, ein Helicopter, ein Starrflügelflugzeug oder ein beliebiges Flugzeug, das zum autonomen oder semi-autonomen Flug in der Lage ist. Eine Bodendrohne ist ein unbemanntes Bodenfahrzeug, das die Erdoberfläche nicht verlässt. Die Drohne14 weist eine Bildaufnahmeeinrichtung auf, zum Beispiel eine Drohnenkamera15 , die die Drohne14 zum Aufnehmen von Bildern des Passagiers18 und der anderen Menschen19 verwendet. - Die Drohne
14 weist eine Verbindung über HF-Kommunikation16 mit dem Fahrzeug16 zum Befehlen und Steuern der Drohne14 mittels einer Drohnenantenne20 auf. Die Drohnenantenne kann auch Kommunikation mit dem Passagier18 ermöglichen, zum Beispiel kann die Drohne14 eine Drohnen-Passagier-Kommunikationsverbindung zu einer tragbaren Einrichtung, zum Beispiel einer Mobiltelefoneinrichtung am Passagier18 , über ein WiFi-Protokoll, Bluetooth-Protokoll, Nahfeldkommunikations(NFC)-Protokoll oder ein beliebiges Zweiwege-HF-Kommunikationsprotokoll aufbauen. - Die Drohne
14 kann zusätzlich ein (nicht dargestelltes) Lichtsignal, um die Aufmerksamkeit des Passagiers18 zu erregen, einen (nicht dargestellten) Signaltongenerator, zum Beispiel eine Klingel, ein (nicht dargestelltes) Mikrofon, ein GNSS (Global Navigation Satellite System) und einen Hochfrequenzsendeempfänger für die oben genannte Kommunikationsverbindung aufweisen. - Die Drohne
14 kann programmiert sein, einen Drohnensuchbereich21 auf eine systematische Art und Weise unter Verwendung der Drohnenkamera15 zu durchsuchen. Das Sichtfeld17 der Drohnenkamera kann nur einen Teil des Drohnensuchbereichs21 visualisieren und muss möglicherweise mehrere Überflüge über den Drohnensuchbereich21 unternehmen, bis der Passagier18 gefunden ist. -
2 stellt die Drohne14 dar, die am Heck des Fahrzeugs10 entweder vor oder nach einer Suchmission zum Lokalisieren des Passagiers18 angekoppelt ist. Die Drohne14 kann alternativ dazu im Kofferraum oder der Ladeluke des Fahrzeugs10 verstaut werden oder kann sogar eine On-Demand-Drohne sein, die sich schon am Abholort befindet. Das Fahrzeug10 kann die Suche nach dem Passagier initiieren, während es unterwegs ist, indem es den Abholort kontaktiert und den Gebrauch der Drohne14 anfordert. - Sobald sich das Fahrzeug entweder in einem designierten Abholbereich oder nahe des Abholbereichs befindet, kann das Fahrzeug der Drohne ein Abbild des Passagiers
18 bereitstellen und die Drohne starten. Die Drohne kann sich unter die Menschen19 mischen, falls die Drohne14 eine Bodendrohne ist, oder, falls sie sich in der Luft befindet, kann die Drohne14 über den Menschen19 fliegen oder schweben und nach dem Passagier18 suchen. - Die Drohne
14 kann lediglich Bilder der Menschen19 zurück zum Fahrzeug10 senden und die Fahrzeug-SCU8 kann die Bilder verarbeiten und den Passagier18 detektieren, oder alternativ oder zusätzlich dazu kann die Drohne14 die Bilder in einem Drohnenprozessor verarbeiten, der Programmierung für eine Bilderkennung zum Detektieren des Passagiers18 beinhalten kann. Sobald der Passagier18 detektiert worden ist, kann die SCU8 zuerst die Drohne14 anweisen, dem Passagier18 eine Nachricht zu senden, dass der Passagier18 detektiert worden ist. Die Nachricht kann auditiv, ein Punktlicht, ein Flutlicht oder ein (nicht dargestelltes) Stroboskoplicht, das auf den Passagier18 leuchtet, eine Textnachricht zu einer tragbaren Einrichtung, zum Beispiel einer Mobiltelefoneinrichtung des Passagiers18 , oder eine andere Art von Nachricht sein. Die Drohne14 kann programmiert sein, entweder über dem Passagier18 zu schweben oder zu zirkeln und den Passagier18 zu einem Ziel, zum Beispiel dem Fahrzeug10 , zu leiten, oder alternativ dazu, falls die Drohne14 eine Bodendrohne ist, kann die Drohne den Passagier einfach zum Fahrzeug10 führen. - Um die Identität des Passagiers
18 zu verifizieren, kann die SCU8 ein Bild des Passagiers18 zu einer Person für eine positive visuelle Identifikation senden. Beispielsweise können Eltern das Fahrzeug gesandt haben, um ihr Kind am Flughafen abzuholen. Das Bild des Passagiers18 , das die Drohne14 mit ihrer Kamera15 aufnahm, kann über die Telematiksteuereinheit9 zu den losschickenden Eltern für die positive visuelle Identifikation gesendet werden. Sobald dies bestätigt ist, kann die SCU8 die Türen des Fahrzeugs10 entriegeln und den Passagier18 in das Fahrzeug10 hineinlassen. - Prozessabläufe
-
3 ist ein Flussdiagramm, das einen beispielhaften Prozess100 der SCU8 zum Befehlen und Steuern einer bildgebenden Drohneneinrichtung zum Suchen und Identifizieren, die einen Zielpassagier identifizieren und den Passagier zurück zu einem autonomen Fahrzeug leiten kann, veranschaulicht. - Der Prozess
100 beginnt in einem Block110 , bei dem ein Suchprofil, d.h. Parameter, die einen zu lokalisierenden Zielpassagier beschreiben, zur Drohne14 hochgeladen wird. Falls die Drohne14 einen Teil oder die gesamte Bildverarbeitung in der Drohne durchführt, wird dem Computer der Drohne14 ein Satz von Gesichtserkennungsparametern oder ein Satz physischer Charakteristiken des Passagiers18 , d.h. die gemäß bekannter Bilderkennungstechniken verwendet werden können, zusammen mit einem Satz von Koordinaten eines Suchbereichs bereitgestellt. Die Gesichtscharakteristiken können die relative Position, Größe und/oder Form der Augen, Nase, Wangenknochen und des Kiefers beinhalten, um nur einige zu nennen. Die Drohne14 wird die Gesichtscharakteristiken der Menschenmenge19 abgleichen, bis die Drohne den Passagier18 findet. - Als nächstes, in einem Block
120 , wird die Drohne14 eingesetzt, falls die Drohne14 zum Beispiel im oder am Fahrzeug10 gelagert ist, wird das Fahrzeug10 die Drohne14 starten, z.B. gemäß den Anweisungen von der SCU8 . Falls die Drohne zum Beispiel an einem Flughafenterminal vorgeparkt ist, wird die SCU8 alternativ dazu einen Startbefehl zur vorgeparkten Drohne am Flughafenterminal zusammen mit den Gesichtscharakteristiken und dem Suchbereich senden. - Als nächstes, in einem Block
130 , empfängt die SCU18 des Fahrzeugs10 eine „Übereinstimmung-gefunden“-Kommunikation von der Drohne14 , die angibt, dass die Drohne14 bestimmt hat, dass sie großes Vertrauen hat, dass die Drohne14 den Passagier18 lokalisiert hat, zum Beispiel durch Abgleichen der hochgeladenen Gesichtscharakteristiken mit einer Person im Suchbereich. - Als nächstes, in einem Block
140 , kann das Übereinstimmungsprofil bestätigt werden, zum Beispiel kann die SCU8 einen Telefonanruf tätigen oder eine SMS an den Passagier18 senden und anfordern, dass der Passagier der Drohne14 signalisiert, zum Beispiel durch Winken, Antworten auf eine SMS oder Anzeigen eines QR-Bestätigungscodes, den die SCU8 an die Mobileinrichtung des Passagiers18 gesendet hat. Ein QR-Code, abgekürzt von Quick Response Code (Schnellantwortcode), ist eine Art eines Matrix-Strichcodes. Er ist ein maschinenlesbares optisches Zeichen, das Informationen über den Gegenstand, an dem es angezeigt wird, enthält. Ein QR-Code verwendet vier standardisierte Codierungsmodi, einschließlich numerisch, alphanumerisch, Byte/binär und Kanji, um Daten effizient zu speichern und zu repräsentieren. - Als nächstes, in einem Block
150 , weist die SCU8 die Drohne14 an, sich nahe des Passagiers18 zu positionieren; falls die Drohne14 zum Beispiel ein Hovercraft ist, wie etwa ein Quadro- oder Multicopter, kann die Drohne14 angewiesen werden, über oder gerade vor dem Passagier14 zu schweben, oder, falls die Drohne14 ein Starrflügelflugzeug ist, kann die Drohne14 über dem Passagier18 zirkeln. Falls die Drohne14 eine Bodendrohne ist, kann die Drohne14 alternativ dazu angewiesen werden, sich neben dem Passagier18 zu positionieren. - Als nächstes, in einem Block
160 , weist die SCU8 die Drohne14 an, den Passagier zum Fahrzeug10 zu leiten, und der Prozess100 endet. - Jetzt mit Bezug auf
4 beginnt der Prozess200 in einem Block210 , in dem ein Suchprofil zum Speicher der Drohne14 hochgeladen und in den Speicher der SCU8 geladen wird. Das Drohnensuchprofil beinhaltet einen Satz von Koordinaten des Suchbereichs. Wenn die Drohne14 im Prozess200 eingesetzt wird, wird sie Bilder, wie etwa eine Videozuspielung oder unbewegte Bilder, der Menschenmenge19 und des Passagiers18 senden, aber keine Bilderkennung durchführen. Die SCU18 wird die Bildverarbeitung am Fahrzeug10 durchführen. - Als nächstes, in einem Block
220 , wird die Drohne14 eingesetzt; falls die Drohne14 zum Beispiel im Fahrzeug10 verstaut wird, wird das Fahrzeug10 die Drohne14 starten. Falls die Drohne zum Beispiel an einem Flughafenterminal vorgeparkt ist, wird das Fahrzeug10 alternativ dazu einen Startbefehl zur vorgeparkten Drohne am Flughafenterminal zusammen mit dem abzudeckenden Suchbereich senden. - Als nächstes, in einem Block
230 , der dem Block220 oder einem Block240 folgen kann, empfängt und verarbeitet die SCU18 des Fahrzeugs10 die Bilder von der Drohne14 . - Als nächstes, im Block
240 , bestimmt die SCU8 , ob eine Bildübereinstimmung des Suchprofils bestimmt worden ist. Falls es eine Übereinstimmung gibt, geht der Prozess zu einem Block250 über, andernfalls kehrt der Prozess zum Block230 zurück. - Als nächstes, im Block
250 , weist die SCU8 die Drohne14 an, sich nahe des Passagiers18 zu positionieren, wie im Block150 von3 ; falls die Drohne14 ein Hovercraft ist, wie etwa ein Quadro- oder Multicopter, kann die Drohne14 angewiesen werden, über oder gerade vor dem Passagier14 zu schweben, oder, falls die Drohne14 ein Starrflügelflugzeug ist, kann die Drohne14 über dem Passagier18 zirkeln. Falls die Drohne14 eine Bodendrohne ist, kann die Drohne14 alternativ dazu angewiesen werden, sich neben dem Passagier18 zu positionieren. - Als nächstes, in einem Block
260 , weist die SCU8 die Drohne14 an, den Passagier zum Fahrzeug10 zu leiten. - Als nächstes, im Block
270 , weist die SCU8 die Drohne14 an, zu ihrer gelagerten und gekoppelten Position zurückzukehren, und der Prozess200 endet. - Die Offenbarung ist auf veranschaulichende Weise beschrieben worden, und es versteht sich, dass die verwendete Terminologie beschreibend anstatt einschränkend aufzufassen ist. Es sind angesichts der obigen Lehren viele Modifikationen und Variationen der vorliegenden Offenbarung möglich und die Offenbarung kann auf andere Weise als speziell beschrieben umgesetzt werden.
Claims (20)
- System, das einen ersten Computer mit einem Prozessor und einem Speicher umfasst, wobei der Speicher durch den Prozessor ausführbare Anweisungen speichert, so dass der erste Computer zu Folgendem programmiert ist: Senden von Parametern, die einen Zielpassagier beschreiben, zu einer mobilen Drohne; Anweisen der Drohne, einen Bereich zu umrunden, während sie den Bereich mit einer Bildaufnahmeeinrichtung nach dem Zielpassagier durchsucht; Empfangen einer Kommunikation von der Drohne; Bestätigen, dass die Kommunikation eine Übereinstimmung mit den Zielpassagierparametern beinhaltet; und Anweisen der Drohne, den Zielpassagier zu einem Ziel zu leiten.
- System nach Anspruch 1, wobei der erste Computer ferner programmiert ist, die Drohne von einem Fahrzeug zu starten.
- System nach Anspruch 1, wobei die Zielpassagierparameter Gesichtserkennungsparameter beinhalten.
- System nach Anspruch 1, wobei die Drohne programmiert ist, den Bereich zu durchqueren und über dem Bereich zu schweben.
- System nach Anspruch 1, wobei der erste Computer in der Kommunikation ferner eine Videozuspielung von der Drohne empfängt.
- System nach Anspruch 1, wobei die Drohne einen zweiten Computer beinhaltet, der zu Folgendem programmiert ist: Bestimmen einer Übereinstimmung eines Bildes, das durch die Bildaufnahmeeinrichtung empfangen wird, mit den Zielpassagierparametern; und Senden einer Übereinstimmung-gefunden-Kommunikation zum ersten Computer.
- System nach Anspruch 1, wobei die Drohne einen zweiten Computer beinhaltet, der programmiert ist, zu bewirken, dass die Drohne ein Lichtsignal und/oder einen Signalton und/oder ein Mikrofon und/oder ein GNSS (Global Navigation Satellite System) und/oder einen Hochfrequenzsendeempfänger bereitstellt.
- System nach Anspruch 7, wobei das Lichtsignal zumindest ein Stroboskoplicht, ein Punktlicht und ein Flutlicht ist.
- System nach Anspruch 7, wobei der Hochfrequenzsendeempfänger zumindest zu einer Bluetooth-, WiFi-, Nahfeldkommunikation (NFC) und einer Zellularnetzkommunikation in der Lage ist.
- System nach Anspruch 7, wobei die erste Person eine tragbare Einrichtung besitzt, die zumindest zu einer Bluetooth-, WiFi-Kommunikation, NFC und einer Zellularnetzkommunikation in der Lage ist.
- Verfahren, das Folgendes umfasst: Senden von Parametern, die einen Zielpassagier beschreiben, zu einer mobilen Drohne; Anweisen der Drohne, einen Bereich zu umrunden, während sie den Bereich mit einer Bildaufnahmeeinrichtung nach dem Zielpassagier durchsucht; Empfangen einer Kommunikation von der Drohne; Bestätigen, dass die Kommunikation eine Übereinstimmung mit den Zielpassagierparametern beinhaltet; Anweisen der Drohne, sich in der Nähe der ersten Person zu positionieren; und Anweisen der Drohne, den Zielpassagier zu einem Ziel zu leiten.
- Verfahren nach Anspruch 11, das weiterhin Starten der Drohne von einem Fahrzeug umfasst.
- Verfahren nach Anspruch 11, wobei die Zielpassagierparameter Gesichtserkennungsparameter beinhalten.
- Verfahren nach Anspruch 11, wobei die Drohne programmiert ist, mindestens den Bereich zu durchqueren und über dem Bereich zu schweben.
- Verfahren nach Anspruch 11, das ferner Empfangen einer Videozuspielung von der Drohne umfasst.
- Verfahren nach Anspruch 11, das ferner Folgendes umfasst: Bestimmen einer Übereinstimmung eines Bildes, das durch die Bildaufnahmeeinrichtung empfangen wird, mit den Zielpassagierparametern; und Senden einer Übereinstimmung-gefunden-Kommunikation zu einem ersten Computer.
- Verfahren nach Anspruch 11, wobei die Drohne einen zweiten Computer beinhaltet, der programmiert ist, zu bewirken, dass die Drohne ein Lichtsignal und/oder einen Signalton und/oder ein Mikrofon und/oder ein GNSS (Global Navigation Satellite System) und/oder einen Hochfrequenzsendeempfänger bereitstellt.
- Verfahren nach Anspruch 17, wobei das Lichtsignal zumindest ein Stroboskoplicht, ein Punktlicht und ein Flutlicht ist.
- Verfahren nach Anspruch 17, wobei der Hochfrequenzsendeempfänger zumindest zu einer Bluetooth-, WiFi-, Nahfeldkommunikation (NFC) und einer Zellularnetzkommunikation in der Lage ist.
- Verfahren nach Anspruch 17, wobei die erste Person eine tragbare Einrichtung besitzt, die zumindest zu einer Bluetooth-, WiFi-Kommunikation, NFC und einer Zellularnetzkommunikation in der Lage ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/054,707 | 2016-02-26 | ||
US15/054,707 US9858821B2 (en) | 2016-02-26 | 2016-02-26 | Autonomous vehicle passenger locator |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017103373A1 true DE102017103373A1 (de) | 2017-08-31 |
Family
ID=58544169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017103373.4A Pending DE102017103373A1 (de) | 2016-02-26 | 2017-02-20 | Autonome fahrzeugpassagierlokalisierung |
Country Status (6)
Country | Link |
---|---|
US (1) | US9858821B2 (de) |
CN (1) | CN107134129B (de) |
DE (1) | DE102017103373A1 (de) |
GB (1) | GB2548709A (de) |
MX (1) | MX2017002558A (de) |
RU (1) | RU2017105456A (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017201289A1 (de) | 2017-01-26 | 2018-07-26 | Bayerische Motoren Werke Aktiengesellschaft | Darstellen eines Soll-Fahrzeugöffnungsvorfelds eines automatisierten Fahrzeugs |
DE102018221996A1 (de) * | 2018-12-18 | 2020-06-18 | Audi Ag | Verfahren zum Betreiben eines unbemannten Luftfahrzeugs für ein Kraftfahrzeug sowie unbemanntes Luftfahrzeug für ein Kraftfahrzeug |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9897457B2 (en) | 2016-02-10 | 2018-02-20 | International Business Machines Corporation | Method and system for controlling vehicles and drones |
US10088846B2 (en) * | 2016-03-03 | 2018-10-02 | GM Global Technology Operations LLC | System and method for intended passenger detection |
US10605613B2 (en) * | 2016-08-31 | 2020-03-31 | Scott Houston | System and method for facilitating location of driver-participants of car transportation systems |
US20180164809A1 (en) * | 2016-12-09 | 2018-06-14 | Ford Global Technologies, Llc | Autonomous School Bus |
US10496107B2 (en) * | 2017-01-17 | 2019-12-03 | Valeo North America, Inc. | Autonomous security drone system and method |
DE102017204169A1 (de) * | 2017-03-14 | 2018-09-20 | Bayerische Motoren Werke Aktiengesellschaft | Authentifizierungssystem für ein zumindest teilweise autonomes Fahrzeug |
JP6870584B2 (ja) | 2017-11-13 | 2021-05-12 | トヨタ自動車株式会社 | 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム |
JP7052305B2 (ja) * | 2017-11-13 | 2022-04-12 | トヨタ自動車株式会社 | 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム |
JP6977492B2 (ja) | 2017-11-13 | 2021-12-08 | トヨタ自動車株式会社 | 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム |
CN107967941A (zh) * | 2017-11-24 | 2018-04-27 | 中南大学 | 一种基于智能视觉重构的无人机人体健康监控方法与系统 |
CN107967944A (zh) * | 2017-11-24 | 2018-04-27 | 中南大学 | 一种基于Hadoop的户外环境大数据人体健康监测方法与平台 |
CN107967455A (zh) * | 2017-11-24 | 2018-04-27 | 中南大学 | 一种智能人体多维自然特征大数据透明学习方法与系统 |
CN107863153A (zh) * | 2017-11-24 | 2018-03-30 | 中南大学 | 一种基于智能大数据的人体健康特征建模测量方法与平台 |
CN107844780A (zh) * | 2017-11-24 | 2018-03-27 | 中南大学 | 一种融合zed视觉的人体健康特征大数据智慧计算方法与装置 |
JP6881344B2 (ja) * | 2018-02-09 | 2021-06-02 | 株式会社デンソー | 出迎えシステム |
US10837788B1 (en) * | 2018-05-03 | 2020-11-17 | Zoox, Inc. | Techniques for identifying vehicles and persons |
US10809081B1 (en) | 2018-05-03 | 2020-10-20 | Zoox, Inc. | User interface and augmented reality for identifying vehicles and persons |
US11846514B1 (en) | 2018-05-03 | 2023-12-19 | Zoox, Inc. | User interface and augmented reality for representing vehicles and persons |
KR102619558B1 (ko) | 2018-11-16 | 2024-01-02 | 현대모비스 주식회사 | 자율주행차의 제어시스템 및 그 제어방법 |
JP2020095354A (ja) * | 2018-12-10 | 2020-06-18 | トヨタ自動車株式会社 | 運行支援装置、運行支援システム、及び運行支援プログラム |
US11059582B2 (en) | 2019-02-11 | 2021-07-13 | Cnh Industrial Canada, Ltd. | Systems for acquiring field condition data |
US11001380B2 (en) | 2019-02-11 | 2021-05-11 | Cnh Industrial Canada, Ltd. | Methods for acquiring field condition data |
US11269353B2 (en) * | 2019-03-28 | 2022-03-08 | Gm Cruise Holdings Llc | Autonomous vehicle hailing and pickup location refinement through use of an identifier |
CN111829504A (zh) * | 2019-04-16 | 2020-10-27 | 深圳富泰宏精密工业有限公司 | 飞行器及侦测方法 |
KR102254491B1 (ko) * | 2019-11-22 | 2021-05-21 | (주)가시 | 지능형 영상 분석 모듈을 탑재한 자율비행 드론 |
KR102245448B1 (ko) * | 2019-11-27 | 2021-04-28 | 한국해양대학교 산학협력단 | 선박도장용 드론장치 |
US11320281B2 (en) * | 2020-03-04 | 2022-05-03 | Ford Global Technologies, Llc | On-demand vehicle imaging systems and methods |
KR102436839B1 (ko) * | 2020-06-02 | 2022-08-29 | 한국철도기술연구원 | 무인 비행장치 및 제어방법 |
US11685401B2 (en) * | 2020-09-29 | 2023-06-27 | Waymo Llc | Semantic identification of pickup locations |
KR102496072B1 (ko) * | 2020-12-08 | 2023-02-07 | 주식회사 라텔 | 유선 드론 |
KR102478413B1 (ko) * | 2021-03-26 | 2022-12-20 | 주식회사 아이팝 | 재난 지휘 차량용 유선 드론 시스템 |
KR102300348B1 (ko) * | 2021-04-13 | 2021-09-09 | 주식회사 프로펠 | 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법 |
KR102300349B1 (ko) * | 2021-04-13 | 2021-09-09 | 주식회사 프로펠 | 탐지 상황에 따라 자동으로 이동 경로를 설정하는 무인 항공기, 및 운용 방법 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4416507C5 (de) * | 1994-05-10 | 2006-10-19 | Volkswagen Ag | Verfahren zur Erkennung einer Benutzungsberechtigung für ein Fahrzeug |
US20070126561A1 (en) | 2000-09-08 | 2007-06-07 | Automotive Technologies International, Inc. | Integrated Keyless Entry System and Vehicle Component Monitoring |
JP2004302785A (ja) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | 移動ロボットの画像送信装置 |
US7908040B2 (en) * | 2004-07-15 | 2011-03-15 | Raytheon Company | System and method for automated search by distributed elements |
US20160345260A1 (en) * | 2005-05-30 | 2016-11-24 | Invent.ly LLC | Self Powered Device and Methods Conserving Energy in Communication |
JP2007160440A (ja) * | 2005-12-12 | 2007-06-28 | Honda Motor Co Ltd | 脚式移動ロボットの制御装置 |
JP4528295B2 (ja) * | 2006-12-18 | 2010-08-18 | 株式会社日立製作所 | 案内ロボット装置及び案内システム |
WO2008147681A2 (en) * | 2007-05-10 | 2008-12-04 | Arlton Paul E | Uav launch and recovery system |
DE102007046270A1 (de) | 2007-09-20 | 2009-04-02 | Sitech Sitztechnik Gmbh | Verfahren und Vorrichtung zur automatischen Ausrichtung von Fahrzeugteilen und/oder fahrzeuginternen Funktionen bei einem Kraftfahrzeug |
US8788119B2 (en) * | 2010-12-09 | 2014-07-22 | The Boeing Company | Unmanned vehicle and system |
US10363453B2 (en) * | 2011-02-07 | 2019-07-30 | New Balance Athletics, Inc. | Systems and methods for monitoring athletic and physiological performance |
CA2872698C (en) * | 2012-05-04 | 2018-07-24 | Aeryon Labs Inc. | System and method for controlling unmanned aerial vehicles |
DE102012013239A1 (de) | 2012-06-21 | 2013-03-21 | Daimler Ag | Freischalten eines vorübergehend nutzbaren Kraftfahrzeugs |
US20140022051A1 (en) * | 2012-07-17 | 2014-01-23 | Elwha LLC, a limited liability company of the State of Delaware | Unmanned device interaction methods and systems |
US20140316614A1 (en) * | 2012-12-17 | 2014-10-23 | David L. Newman | Drone for collecting images and system for categorizing image data |
CN103383260A (zh) * | 2013-07-12 | 2013-11-06 | 美新半导体(无锡)有限公司 | 一种无人机导航系统及其合作导航系统 |
US9760698B2 (en) | 2013-09-17 | 2017-09-12 | Toyota Motor Sales, U.S.A., Inc. | Integrated wearable article for interactive vehicle control system |
US10839336B2 (en) * | 2013-12-26 | 2020-11-17 | Flir Detection, Inc. | Unmanned delivery |
US9329597B2 (en) * | 2014-01-17 | 2016-05-03 | Knightscope, Inc. | Autonomous data machines and systems |
US9783293B2 (en) * | 2014-05-20 | 2017-10-10 | Verizon Patent And Licensing Inc. | Unmanned aerial vehicle platform |
JP6062079B2 (ja) * | 2014-05-30 | 2017-01-18 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人型航空輸送機(uav)の動作を制御するための制御器および方法ならびに乗り物 |
US9494937B2 (en) * | 2014-06-20 | 2016-11-15 | Verizon Telematics Inc. | Method and system for drone deliveries to vehicles in route |
US9845165B2 (en) * | 2014-07-16 | 2017-12-19 | Airogistic, L.L.C. | Methods and apparatus for unmanned aerial vehicle landing and launch |
US9409644B2 (en) * | 2014-07-16 | 2016-08-09 | Ford Global Technologies, Llc | Automotive drone deployment system |
CN104183153A (zh) * | 2014-07-23 | 2014-12-03 | 陈嘉延 | 基于四旋翼无人机做引导的智能停车引导系统 |
US9454889B2 (en) * | 2014-07-28 | 2016-09-27 | Dan Kerning | Security and public safety application for a mobile device |
CN107291104A (zh) * | 2014-07-30 | 2017-10-24 | 深圳市大疆创新科技有限公司 | 目标追踪系统及方法 |
US9170117B1 (en) * | 2014-08-21 | 2015-10-27 | International Business Machines Corporation | Unmanned aerial vehicle navigation assistance |
US20160072771A1 (en) * | 2014-09-08 | 2016-03-10 | Mark Krietzman | Health and other use of collection of archival digital data |
FR3028186A1 (fr) * | 2014-11-12 | 2016-05-13 | Parrot | Equipement de telecommande de drone a longue portee |
US20160214713A1 (en) * | 2014-12-19 | 2016-07-28 | Brandon Cragg | Unmanned aerial vehicle with lights, audio and video |
US9989965B2 (en) * | 2015-08-20 | 2018-06-05 | Motionloft, Inc. | Object detection and analysis via unmanned aerial vehicle |
-
2016
- 2016-02-26 US US15/054,707 patent/US9858821B2/en active Active
-
2017
- 2017-02-20 DE DE102017103373.4A patent/DE102017103373A1/de active Pending
- 2017-02-21 CN CN201710091856.8A patent/CN107134129B/zh active Active
- 2017-02-21 RU RU2017105456A patent/RU2017105456A/ru not_active Application Discontinuation
- 2017-02-24 GB GB1703024.8A patent/GB2548709A/en not_active Withdrawn
- 2017-02-27 MX MX2017002558A patent/MX2017002558A/es unknown
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017201289A1 (de) | 2017-01-26 | 2018-07-26 | Bayerische Motoren Werke Aktiengesellschaft | Darstellen eines Soll-Fahrzeugöffnungsvorfelds eines automatisierten Fahrzeugs |
US11541803B2 (en) | 2017-01-26 | 2023-01-03 | Bayerische Motoren Werke Aktiengesellschaft | Showing a target vehicle opening fore zone of an automated vehicle |
DE102018221996A1 (de) * | 2018-12-18 | 2020-06-18 | Audi Ag | Verfahren zum Betreiben eines unbemannten Luftfahrzeugs für ein Kraftfahrzeug sowie unbemanntes Luftfahrzeug für ein Kraftfahrzeug |
Also Published As
Publication number | Publication date |
---|---|
GB2548709A (en) | 2017-09-27 |
CN107134129B (zh) | 2021-11-02 |
RU2017105456A (ru) | 2018-08-22 |
US20170249846A1 (en) | 2017-08-31 |
GB201703024D0 (en) | 2017-04-12 |
CN107134129A (zh) | 2017-09-05 |
MX2017002558A (es) | 2018-08-15 |
US9858821B2 (en) | 2018-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017103373A1 (de) | Autonome fahrzeugpassagierlokalisierung | |
US11080381B2 (en) | Component and user management for UAV systems | |
US11794895B2 (en) | Unmanned aerial vehicle with biometric verification | |
US9973737B1 (en) | Unmanned aerial vehicle assistant for monitoring of user activity | |
US10650684B2 (en) | Guidance system and automatic control for vehicles | |
US20170372617A1 (en) | Process and System to Register and Regulate Unmanned Aerial Vehicle Operations | |
DE102020103455A1 (de) | Verfahren und system zur ausführung einer zusammengesetzten verhaltensrichtlinie für ein autonomes fahrzeug | |
US9481459B2 (en) | Apparatus and method employing autonomous vehicles to reduce risk | |
BE1023995B1 (nl) | Platform voor Coördinatie van Operaties op Zeer Laag Niveau | |
CN111656424A (zh) | 基于大数据的自动飞行无人机系统及其自动飞行方法 | |
DE102019100559A1 (de) | Verfahren und systeme zur unterstützung des betriebs eines strassenfahrzeugs mit einer flugdrohne | |
US20180251219A1 (en) | Apparatuses and methods for gesture-controlled unmanned aerial vehicles | |
DE102013019488A1 (de) | Bilderfassung mit schutz der privatsphäre | |
KR101863101B1 (ko) | 무인항공기의 항로와 비행 스케쥴을 운항 지상국 소프트웨어를 통해 공유하여 무인항공기간 충돌을 방지하기 위한 방법 | |
DE102020100185A1 (de) | Kraftfahrzeugsysteme mit mehreren drohnen und verwendungsverfahren | |
WO2016201359A1 (en) | A low altitude aircraft identification system | |
KR101701397B1 (ko) | 무인 비행체를 이용한 차량 단속방법 및 시스템 | |
KR20170059893A (ko) | 셀프 카메라를 구비한 드론 | |
DE102020100261A1 (de) | Systeme, verfahren und vorrichtungen zur fahrzeugintegration von unbemannten luftfahrzeugsystemen | |
CN109074089B (zh) | 无人机的控制方法、飞行控制器及无人机 | |
CN112448999A (zh) | Uav与汽车之间的协作关系 | |
DE102015101239A1 (de) | Verfahren und Systeme zum Verarbeiten von Aufmerksamkeitsdaten von einem Fahrzeug | |
CN111627256A (zh) | 无人机控制方法、车载终端及计算机可读存储介质 | |
DE102018213562A1 (de) | Verfahren zum Betreiben einer Ausgabeeinrichtung eines Kraftfahrzeugs, Steuereinrichtung, Kraftfahrzeug | |
EP4116790A1 (de) | Steuer- und navigationsvorrichtung für ein autonom bewegtes system und autonom bewegtes system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001120000 Ipc: G05D0001683000 |
|
R012 | Request for examination validly filed |