DE102015122183B4 - Vorrichtung und Verfahren für ein unbemanntes Flugobjekt - Google Patents
Vorrichtung und Verfahren für ein unbemanntes Flugobjekt Download PDFInfo
- Publication number
- DE102015122183B4 DE102015122183B4 DE102015122183.7A DE102015122183A DE102015122183B4 DE 102015122183 B4 DE102015122183 B4 DE 102015122183B4 DE 102015122183 A DE102015122183 A DE 102015122183A DE 102015122183 B4 DE102015122183 B4 DE 102015122183B4
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- objects
- predefined
- reference data
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 13
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 26
- IWEDIXLBFLAXBO-UHFFFAOYSA-N dicamba Chemical compound COC1=C(Cl)C=CC(Cl)=C1C(O)=O IWEDIXLBFLAXBO-UHFFFAOYSA-N 0.000 claims abstract 2
- 238000001514 detection method Methods 0.000 claims description 4
- 239000007787 solid Substances 0.000 claims 1
- 230000001133 acceleration Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
- B64U2101/31—UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Astronomy & Astrophysics (AREA)
- Human Computer Interaction (AREA)
- Radar Systems Or Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Vorrichtung für ein unbemanntes Flugobjekt (10), insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter, sowie einen Flächenflieger, umfassend:
-eine Sensorschnittstelle (18) zum Empfangen von Sensordaten (21) mindestens eines bildgebenden Sensors (16A - 16D) sowie mindestens eines abstandsgebenden Sensors (12A - 12D),
- eine Signalverarbeitungseinheit (20), die eingerichtet ist, um durch Vergleich von Referenzdaten (25) mit den empfangenen Sensordaten (21) mindestens ein durch die Referenzdaten (25) vordefiniertes Objekt zu erkennen und/oder ein vordefiniertes Objekt von anderen Objekten zu unterscheiden sowie Parameter, wie die Position, Distanz und/oder Bewegung, des erkannten oder von anderen Objekten unterschiedenen, vordefinierten Objekts, insbesondere relativ zum Flugobjekt (10), zu bestimmen und
- eine Ausgabeschnittstelle (29) zum Ausgeben der Parameter des vordefinierten Objekts,
wobei die Signalverarbeitungseinheit (20) eingerichtet ist, Bewegungsmuster des erkannten oder des von anderen Objekten unterschiedenen Objekts zu ermitteln und über die Ausgabeschnittstelle (29) auszugeben.
-eine Sensorschnittstelle (18) zum Empfangen von Sensordaten (21) mindestens eines bildgebenden Sensors (16A - 16D) sowie mindestens eines abstandsgebenden Sensors (12A - 12D),
- eine Signalverarbeitungseinheit (20), die eingerichtet ist, um durch Vergleich von Referenzdaten (25) mit den empfangenen Sensordaten (21) mindestens ein durch die Referenzdaten (25) vordefiniertes Objekt zu erkennen und/oder ein vordefiniertes Objekt von anderen Objekten zu unterscheiden sowie Parameter, wie die Position, Distanz und/oder Bewegung, des erkannten oder von anderen Objekten unterschiedenen, vordefinierten Objekts, insbesondere relativ zum Flugobjekt (10), zu bestimmen und
- eine Ausgabeschnittstelle (29) zum Ausgeben der Parameter des vordefinierten Objekts,
wobei die Signalverarbeitungseinheit (20) eingerichtet ist, Bewegungsmuster des erkannten oder des von anderen Objekten unterschiedenen Objekts zu ermitteln und über die Ausgabeschnittstelle (29) auszugeben.
Description
- Die Erfindung betrifft den Bereich unbemannter Flugobjekte, insbesondere Drohnen, wie Copter oder Multicopter. Es sind derartige Flugobjekte bekannt, die eine Kamera aufweisen und damit Aufnahmen von Gegenständen oder Personen aus der Luft erlauben, die parallel an einen Bediener übertragen werden, sodass der Bediener die Umgebung inspizieren kann. Hierzu steuert der Bediener das Flugobjekt an Positionen, aus denen geeignete Aufnahmen aufgenommen werden können.
- Ferner sind auch Flugobjekte bekannt, die automatisch Objekten, wie Personen oder Fahrzeugen, folgen und diese z. B. beim Ausführen einer Sportart filmen, um das Filmmaterial beispielsweise später auswerten zu können. Sportler können durch die Auswertung ihre Bewegungsabläufe optimieren. Hierzu verfolgt das Flugobjekt den Sportler selbsttägig, indem das Flugobjekt einem Funksender folgt, den der Sportler am Körper trägt.
- Es sind jedoch weitere Anwendungen denkbar, bei denen ein Flugobjekt automatisch einem Objekt, wie z. B. einer Person oder einem Fahrzeug folgen soll, um z. B. die polizeiliche Aufklärung einer Straftat zu unterstützen. Im Gegensatz zum Sportler hat dieses Objekt, das zu verfolgen ist, jedoch keinen Funksender an seinem Körper, sodass die bekannte automatische Verfolgung nicht möglich ist.
- Aus Dokument
US 2009 / 0 157 233 A1 US 2014 / 0 316 614 A1 US 2014 / 0 222 246 A1 - Aufgrund von Reichweitenbeschränkungen üblicher Fernsteuerungen ist es außerdem nicht uneingeschränkt möglich, ein zu verfolgendes Objekt durch manuelle Steuerung zu verfolgen.
- Insbesondere wird auch die Handlungsfreiheit der das Flugobjekt steuernden Person stark durch die Steuerung eingeschränkt, sodass eine parallele aktive Verfolgung von Personen durch den Bediener nicht möglich ist, während er das Flugobjekt steuert.
- Es ist somit Aufgabe der vorliegenden Erfindung, eines der vorgenannten Probleme des Standes der Technik zu lösen. Insbesondere soll eine Vorrichtung und ein Verfahren gefunden werden, um die Verfolgung eines Objekts, wie einem Fahrzeug oder einer Person durch ein unbemanntes Flugobjekt zu ermöglichen, ohne dass eine Funkverbindung zu einem Sender am Objekt besteht. Zumindest soll eine alternative Lösung zum Stand der Technik vorgeschlagen werden.
- Erfindungsgemäß wird eine Vorrichtung für ein unbemanntes Flugobjekt, insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter sowie einen Flächenflieger, nach Anspruch 1 vorgeschlagen.
- Die Vorrichtung umfasst eine Sensorschnittstelle zum Empfangen von Sensordaten mindestens eines bildgebenden Sensors sowie mindestens eines abstandsgebenden Sensors. Ferner umfasst die Vorrichtung eine Signalverarbeitungseinheit, die eingerichtet ist, um durch Vergleich von Referenzdaten mit den empfangenen Sensordaten mindestens ein vordefiniertes Objekt zu erkennen und/oder ein vordefiniertes Objekt von anderen Objekten zu unterscheiden. Außerdem ist die Signalverarbeitungseinheit eingerichtet, Parameter, wie die Position, Distanz und/oder Bewegung, des vordefinierten Objekts zu bestimmen. Insbesondere ist eine Bestimmung der Parameter relativ zum Flugobjekt möglich.
- Zudem umfasst die Vorrichtung eine Ausgabeschnittstelle zum Ausgeben der Position, Distanz und/oder Bewegung des vordefinierten Objekts.
- Referenzdaten entsprechen z. B. vorgegebenen Abmessungen, wie z. B. vorgegebenen Größen, Breiten und/oder Tiefen sowie vorgegebenen Werten von Temperaturen und/oder Geschwindigkeiten und/oder Beschleunigungen. Referenzdaten können auch Bereichen vorgegebener Abmessungen, wie z. B. vorgegebener Größen, Breiten und/oder Tiefen sowie aber auch Bereichen vorgegebener Werte von Temperaturen, Geschwindigkeiten und/oder Beschleunigungen, entsprechen. Die Referenzdaten dienen damit zum Vordefinieren des zu erkennenden und/oder zu unterscheidenden Objekts.
- Es wird in vorteilhafter Weise erkannt, dass eine Objekterkennung anhand der Sensordaten eines bildgebenden Sensors und der Sensordaten eines abstandsgebenden Sensors gemeinsam betrachtet werden, um ein vordefiniertes Objekt zu detektieren.
- Zwar ist eine Objekterkennung mit nur einem bildgebenden Sensor möglich, wobei jedoch nur zweidimensionale Aufnahmen einer Umgebung zur Verfügung gestellt werden können. Daher können einige Parameter eines Objekts, wie z. B. seine Größe, nicht mit bildgebenden Sensoren detektiert werden.
- Mit einem abstandsgebenden Sensor, wie z. B. einem Radarsensor, sind demgegenüber Parameter eines Objekts, wie die Größe, die Position und die Distanz, detektierbar, wobei zum Erkennen und Unterscheiden verschiedener Objekte eine sehr rechenintensive und aufwendige Auswertung nötig ist.
- Mit der Erfindung wird es nun in vorteilhafter Weise ermöglicht ein Objekt mit dem bildgebenden Sensor, z. B. aufgrund seiner Konturen, von anderen Objekten zu unterschieden. Durch Abstandsmessung des betrachteten Objektes durch gezieltes Lenken des abstandsgebenden Sensors in den Bereich, in dem sich das Objekt befindet, ist auf einfache Weise die Distanz zu dem zurzeit betrachteten Objekt und daraus dann auch die Größe des Objekts ableitbar.
- Im Falle, dass die Parameter des Objekts, wie z. B. die Größe, mit hinterlegten Referenzdaten übereinstimmt, kann nun dieses Objekt von anderen Objekten unterschieden werden, bzw. ein den Referenzdaten entsprechendes Objekt erkannt werden.
- Durch die Referenzdaten vordefinierte Objekte sind somit auf besonders einfache Art und Weise erkennbar. Ferner wird an der Ausgabeschnittstelle die Position, Distanz und/oder eine Bewegung des vordefinierten Objekts ausgegeben werden, die dann beispielsweise für eine Steuerung des unbemannten Flugobjekts verwendet werden kann, um das vordefinierte Objekt beispielsweise mit einem für die Steuerung vorgegebenen Abstand und/oder Höhe zu verfolgen.
- Demnach ist es auch möglich mehrere Objekte durch mehrere Kategorien in den Referenzdaten, wobei jede Kategorie für ein bestimmtes Objekt steht, zu beschreiben und daher mehrere verschiedene vordefinierte Objekte zu erkennen oder von anderen Objekten zu unterscheiden. Es kann auch eine Kategorisierung der vordefinierten Objekte vorgenommen werden, die von der Signalverarbeitungseinheit erkannt wurden.
- Erfindungsgemäß ist die Signalverarbeitungseinheit weiter eingerichtet, Bewegungsmuster des zu erkennenden oder des zu unterscheidenden Objekts zu ermitteln. Wird die Vorrichtung also zur Verfolgung des Bedieners selbst eingesetzt, sodass dieser sich beispielsweise beim Ausführen einer Sportart filmen lässt, so kann der Bediener das Flugobjekt durch Ausführen eines Bewegungsmusters, das dann von der Signalverarbeitungseinheit erkannt wird, beispielsweise steuern.
- Es ist z. B. vorstellbar, dass ein Winken einer Person auf einfache Art und Weise durch eine Bildverarbeitung der mit den Sensordaten des bildgebenden Sensors aufgenommenen Daten erkennbar ist. Dieses Winken entspricht beispielsweise einem vorab hinterlegten Bewegungsmuster, das das Flugobjekt veranlasst, die Verfolgung abzubrechen und zu einem Ausgangsplatz, beispielsweise einer Parkfläche, zurückzufliegen.
- Außerdem können z. B. unterschiedliche Abstände zwischen dem Flugobjekt und dem vordefinierten Objekt, das hier beispielsweise der soeben genannte Sportler ist, durch verschiedene Gesten, die als Bewegungsmuster erkannt werden, eingestellt werden.
- Eine Steuerung eines Flugobjektes ohne Fernsteuerung ist somit möglich.
- Gemäß einer Ausführungsform umfasst die Vorrichtung eine Konfigurationsschnittstelle, die zum Empfangen von Referenzdaten ausgebildet ist, sodass anhand dieser Referenzdaten ein zu erkennendes oder zu unterscheidendes Objekt vordefinierbar ist. Alternativ oder zusätzlich ist ein Speicher zum Hinterlegen der Referenzdaten als Bestandteil der Vorrichtung vorhanden.
- Demnach sind also Referenzdaten, z. B. mittels einer Programmierung über die Konfigurationsschnittstelle, von einem Benutzer des Flugobjekts vorgebbar. Die Vorrichtung und damit das Flugobjekt ist somit zur Erkennung oder Unterscheidung verschiedener Objekte, die beispielsweise verfolgt werden sollen, anpassbar. Soll das Flugobjekt also in einem ersten Anwendungsfall eine Person, wie einen Sportler auf einem Surfbrett beim Surfen, verfolgen, so sind andere Referenzdaten für die Erkennung der Person als vordefiniertes Objekt nötig, als bei der Verfolgung eines Fahrzeugs, wie z. B. eines PKWs.
- Gemäß einer weiteren Ausführungsform dient die Sensorschnittstelle zum Empfangen von Sensordaten mindestens eines bildgebenden Sensors, der ein Infrarotsensor zum Aufnehmen von Bildern im Infrarotbereich ist. Alternativ oder zusätzlich dient die Sensorschnittstelle zum Empfangen von Sensordaten mindestens eines bildgebenden Sensors, der eine Foto- und/oder Videokamera zum Aufnehmen von Bildern im sichtbaren Lichtbereich ist.
- Mittels Sensordaten eines Infrarotsensors ist somit auch eine Objekterkennung bei nächtlicher Dunkelheit oder widrigen Wettereinflüssen möglich. Mit den Sensordaten der Foto- und/oder Videokamera ist das Erkennen von Objekten bei hohen Umgebungstemperaturen, bei denen z. B. eine Umgebungstemperatur herrscht, die der Körpertemperatur einer zu verfolgenden Person ähnelt und daher ein Infrarotsensor nicht einsetzbar ist, weiterhin sicher möglich.
- Gemäß einer weiteren Ausführungsform umfasst die Vorrichtung mindestens einen bildgebenden Sensor, der ein Infrarotsensor zum Aufnehmen von Bildern im Infrarotbereich ist. Insbesondere ist der Infrarotsensor eine Infrarotkamera und/oder ein Mikrobolometer. Zusätzlich oder alternativ umfasst die Vorrichtung mindestens einen bildgebenden Sensor, der eine Foto- und/oder Videokamera zum Aufnehmen von Bildern im sichtbaren Lichtbereich ist. Die Vorrichtung ist somit als Komplettbauteil mit Sensoren in einfacher Art und Weise in ein unbemanntes Flugobjekt integrierbar.
- Der Infrarotsensor als bildgebender Sensor ermöglicht ein Aufnehmen von Temperaturen und/oder Wärmesignaturen, also einer flächenhaften Verteilung von Temperaturen, die für ein Objekt charakteristisch sind. Daher sind auch Referenzdaten von Temperaturen oder Wärmesignaturen zum vordefinieren von Objekten im Speicher der Vorrichtung hinterlegbar, um Objekte, die durch die hinterlegten Temperaturen und/oder Wärmesignaturen vordefiniert sind, zu erkennen und/oder von anderen Objekten mit anderen Temperaturen und/oder Wärmesignaturen zu unterscheiden.
- Gemäß einer weiteren Ausführungsform ist die Sensorschnittstelle eingerichtet, Sensordaten mindestens eines abstandsgebenden Sensors zu empfangen, der eine nach dem Laufzeitprinzip, insbesondere mittels elektromagnetischer Wellen, arbeitende TOF-Kamera, arbeitender Lidar- oder Radarsensor oder eine stereoskopische Kamera ist. Diese Sensoren sind in kleiner Baugröße bekannt und können daher mit der Schnittstelle auf geeignete Art und Weise - zumindest im Falle einer TOF-Kamera, eines Lidar- oder Radarsensors - bei nächtlicher Dunkelheit und/oder schlechter Sicht zuverlässig einen Abstand zum Objekt bestimmen.
- Mit einem Radarsensor kann gleichzeitig zwischen organischen und nicht-organischen Objekten unterschieden werden. Wird beispielsweise die Amplitude der reflektierten elektromagnetischen Radarwellen betrachtet, so reflektieren z. B. nicht-organische Objekte, die z. B. eine Metalloberfläche aufweisen, die Radarwellen in höherem Maße als eine Person. Durch Vorgabe von Amplituden der Radarwellen als Referenzdaten kann also zusätzlich ein organisches Objekt von nicht-organischen Objekten oder umgekehrt unterschieden werden.
- Die Objekte werden gemäß einer bevorzugten Ausführungsform daher zunächst anhand der Daten des bildgebenden Sensors bestimmt oder identifiziert und dann mit dem Sensor gleichzeitig oder nacheinander der Abstand jedes der bestimmten oder identifizierten Objekte ermittelt.
- Gemäß einer weiteren Ausführungsform umfasst die Vorrichtung mindestens einen abstandsgebenden Sensor, der ein Radarsensor, eine TOF-Kamera, ein Lidarsensor und/oder eine stereoskopische Kamera, z. B. eine stereoskopische Infrarotkamera, ist. Demnach ist die Vorrichtung als integrales Bauteil in einfacher Art und Weise in ein unbemanntes Flugobjekt integrierbar.
- Gemäß einer weiteren Ausführungsform ist die Signalverarbeitungseinheit eingerichtet, für das mindestens eine zu erkennende und/oder zu unterscheidende Objekt mindestens einen Wahrscheinlichkeitswert zu ermitteln und auszugeben, der die Zuverlässigkeit der Erkennung und/oder der Unterscheidung und/oder der Parameter, wie die Position und/oder die Distanz angibt.
- Es wird also von der Signalverarbeitungseinrichtung ein Wahrscheinlichkeitswert, also z. B. ein Wert zwischen 0 und 1, ausgegeben, der angibt, mit welcher Wahrscheinlichkeit die über die Ausgabeschnittstelle ausgegebenen Daten zutreffend sind.
- Ein Flugobjekt kann demnach beim Unterschreiten eines vordefinierten Schwellenwertes, der z. B. durch Versuche ermittelt wird, durch den Wahrscheinlichkeitswert davon ausgehen, dass das vordefinierte Objekt nicht mehr sicher erkannt werden kann und daher eine Verfolgung abgebrochen werden muss.
- Ferner betrifft die Erfindung ein Verfahren für ein unbemanntes Flugobjekt, insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter, sowie einen Flächenflieger, mit einer Vorrichtung, insbesondere nach einer der vorhergenannten Ausführungsformen.
- Das Verfahren umfasst das Empfangen von Sensordaten mit mindestens einem bildgebenden Sensor sowie mindestens einen abstandsgebenden Sensor mit einer Sensorschnittstelle. Ferner umfasst das Verfahren das Erkennen mindestens eines vordefinierten Objekts und/oder das Unterscheiden eines vordefinierten Objekts von anderen Objekten durch Vergleich von Referenzdaten mit den empfangenen Sensordaten. Ein vordefinieren der Objekte erfolgt also insbesondere durch die Referenzdaten selbst.
- Außerdem werden Parameter, wie die Position, Distanz und/oder Bewegung, des vordefinierten Objekts bestimmt, wobei diese insbesondere relativ zum Flugobjekt bestimmt werden. Die Bestimmung erfolgt mittels einer Signalverarbeitungseinheit. Außerdem umfasst das Verfahren das Ausgeben der Parameter mit einer Ausgabeschnittstelle.
- Zudem werden Bewegungsmuster des zu erkennenden oder zu unterscheidenden Objekts mit der Signalverarbeitungseinheit ermittelt und ausgegeben.
- Gemäß einer Ausführungsform des Verfahrens werden Referenzdaten, insbesondere Parameter, zum Vordefinieren des mindestens einen zu erkennenden oder zu unterscheidenden Objekts mit einer Konfigurationsschnittstelle empfangen und/oder in einem Speicher hinterlegt.
- Gemäß einer weiteren Ausführungsform wird mindestens ein Wahrscheinlichkeitswert ausgegeben, wobei dieser mit der Signalverarbeitungseinheit für das mindestens eine zu erkennende oder zu unterscheidende Objekt ermittelt und ausgegeben wird, um die Zuverlässigkeit der Erkennung und/oder der Unterscheidung und/oder der Parameter, wie Position und/oder der Distanz, des vordefinierten Objekts anzugeben.
- Gemäß einer weiteren Ausführungsform werden mit der Signalverarbeitungseinheit aus den Sensordaten des bildgebenden Sensors Konturen verschiedener aufgenommener Objekte in den zurzeit erfassten Sensordaten bestimmt und mit den Sensordaten des abstandsgebenden Sensors die Abstände aller Objekte erfasst. Ferner werden anhand der Sensordaten des bildgebenden Sensors und des Abstands die Parametern, wie etwa die Abmessungen, der Objekte bestimmt und mit den Referenzdaten verglichen. Im Falle, dass ein oder mehrere Objekte, deren Parameter, wie z. B. Abmessungen, mit den Referenzdaten übereinstimmen, werden diese als vordefinierte Objekte erkannt bzw. von den übrigen Objekten unterschieden.
- Gemäß einer weiteren Ausführungsform werden anstatt oder zusätzlich zu den Abmessungen der Objekte auch die Temperaturen und/oder Wärmesignaturen der Objekte mit dem Infrarotsensor bestimmt und die Abmessungen sowie die Temperaturen mit den Referenzdaten verglichen. Ein oder mehrere Objekte werden in dem Falle als Objekt erkannt bzw. von den übrigen Objekten unterschieden, in dem die Abmessungen und Temperaturen mit den als Referenzdaten hinterlegten Abmessungen oder Temperaturdaten im Wesentlichen übereinstimmen.
- Zuletzt betrifft die Erfindung ein unbemanntes Flugobjekt mit einer Vorrichtung nach einer der zuvor genannten Ausführungsformen, das insbesondere zum Ausführen des Verfahrens nach einer der zuvor genannten Ausführungsformen eingerichtet ist.
- Weitere Ausführungsformen ergeben sich anhand der in den Zeichnungen näher erläuterten Ausführungsbeispiele. In der Zeichnung zeigt die
-
1 ein unbemanntes Flugobjekt, -
2 eine vergrößerte Darstellung der Sensoren einer Vorrichtung gemäß einem Ausführungsbeispiel und -
3 ein Ausführungsbeispiel der Erfindung. -
1 zeigt ein unbemanntes Flugobjekt10 , das hier eine Drohne, die auch Copter genannt wird, ist. Das unbemannte Flugobjekt10 weist mehrere abstandsgebende Sensoren12A bis12D auf, die hier Radarsensoren entsprechen. Außerdem ist eine schwenkbare Kamera14 mit dem Flugobjekt verbunden. - Die abstandsgebenden Sensoren
12A bis12C sind unbeweglich, während der Sensor12D verbunden mit der gegenüber dem Flugobjekt10 schwenkbaren Kamera14 fest verbunden ist. Die Kamera14 ist hierzu über einen Gimbal15 mit dem Flugobjekt10 verbunden. - Außerdem sind bildgebenden Sensoren
16A bis16D dargestellt, wobei auch hier die Sensoren16A bis16C unbeweglich mit dem Flugobjekt10 verbunden sind, während der bildgebende Sensor16D dreh- und schwenkbar mit der Kamera14 verbunden ist. Die bildgebenden Sensoren16A bis16D entsprechen gemäß diesem Ausführungsbeispiel Infrarotkameras. Die bildgebenden Sensoren16A bis16C sowie die abstandsgebenden Sensoren12A bis12C sind auch auf der durch die Darstellung nicht sichtbaren Seite des Flugobjekts10 angeordnet, sodass ein Rundumblick mit den Sensoren12A bis12C und16A bis16C zu jeder Zeit gegeben ist. Die Sensoren12D und16D sind zusätzlich schwenkbar, um insbesondere einen Totwinkel genau unterhalb des Flugobjekts abtasten zu können und eine Objektverfolgung zu vereinfachen. -
2 zeigt eine alternative Ausgestaltung der Anordnung der abstandsgebenden Sensoren12 sowie der bildgebenden Sensoren16 , wobei hier keine beweglichen Teile benötigt sind, da hier benachbarte Sensorenpaare, die aus jeweils einem abstandsgebenden Sensor12 und einem bildgebende Sensor16 bestehen, jeweils in einem Winkel von 60° zueinander angeordnet sind. -
3 zeigt nun ein Ausführungsbeispiel der Vorrichtung18 , die hier einen abstandsgebenden Sensor12 sowie einen bildgebenden Sensor16 umfasst. Diese Sensoren sind mittels einer Sensorschnittstelle18 mit einer Signalverarbeitungseinheit20 verbunden, um der Signalverarbeitungseinheit20 Sensordaten21 zuzuführen. Die Signalverarbeitungseinheit20 umfasst einen Speicher22 in dem Referenzdaten hinterlegt sind. Diese Referenzdaten können über eine Konfigurationsschnittstelle24 programmiert und/oder umprogrammiert werden. Ferner umfasst die Signalverarbeitungseinheit einen Prozessor26 , dem die Sensordaten21 der Sensoren12 ,16 sowie die Referenzdaten25 zugeführt werden. Gemäß anderen, hier nicht dargestellten Ausführungsbeispielen, wird anstatt oder zusätzlich zu dem Prozessor26 ein DSP (Digitaler Signal-Prozessor) oder FPGA (Field Programmable Gate Array) verwendet. - Der Prozessor
26 erkennt dann anhand der Sensordaten21 Abmessungen sowie Temperaturen der Objekte, die sich im Sensorbereich der Sensoren12 ,16 befinden. In einem Vergleichsmittel28 werden die Abmessungen und Temperaturen der Objekte mit den im Speicher22 hinterlegten Referenzdaten25 verglichen und im Falle eine Übereinstimmung Parameter des Objekts, für das die Übereinstimmung vorliegt, wie dessen Abmessungen sowie dessen Position und dessen Abstand, über eine Ausgabeschnittstelle29 an eine Steuerung30 des Flugobjekts10 übertragen. - Mittels der Steuerung
30 wird das Flugobjekt10 nun beispielsweise in einem festen Abstand zum erkannten und/oder unterschiedenen vordefinierten Objekt gehalten. Demnach ist eine Bewegung des Objekts nachverfolgbar. Somit sind Personen automatisch mit einem Flugobjekt10 mit der Vorrichtung18 ohne Steuerung der Flugbahn durch einen Benutzer verfolgbar.
Claims (13)
- Vorrichtung für ein unbemanntes Flugobjekt (10), insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter, sowie einen Flächenflieger, umfassend: -eine Sensorschnittstelle (18) zum Empfangen von Sensordaten (21) mindestens eines bildgebenden Sensors (16A - 16D) sowie mindestens eines abstandsgebenden Sensors (12A - 12D), - eine Signalverarbeitungseinheit (20), die eingerichtet ist, um durch Vergleich von Referenzdaten (25) mit den empfangenen Sensordaten (21) mindestens ein durch die Referenzdaten (25) vordefiniertes Objekt zu erkennen und/oder ein vordefiniertes Objekt von anderen Objekten zu unterscheiden sowie Parameter, wie die Position, Distanz und/oder Bewegung, des erkannten oder von anderen Objekten unterschiedenen, vordefinierten Objekts, insbesondere relativ zum Flugobjekt (10), zu bestimmen und - eine Ausgabeschnittstelle (29) zum Ausgeben der Parameter des vordefinierten Objekts, wobei die Signalverarbeitungseinheit (20) eingerichtet ist, Bewegungsmuster des erkannten oder des von anderen Objekten unterschiedenen Objekts zu ermitteln und über die Ausgabeschnittstelle (29) auszugeben.
- Vorrichtung nach
Anspruch 1 , wobei die Vorrichtung (10) eine Konfigurationsschnittstelle (24) zum Empfangen von Referenzdaten (25) und/oder einen Speicher (22) zum Hinterlegen der Referenzdaten (25) aufweist. - Vorrichtung nach
Anspruch 1 oder2 , wobei die Sensorschnittstelle (18) zum Empfangen von Sensordaten (21) mindestens eines bildgebenden Sensors (16A - 16D) eingerichtet ist, der ein Infrarotsensor zum Aufnehmen von Bildern im Infrarotbereich ist und/oder der eine Foto- und/oder Videokamera zum Aufnehmen von Bildern im sichtbaren Lichtbereich ist. - Vorrichtung nach
Anspruch 3 , wobei die Vorrichtung (10) mindestens einen bildgebenden Sensor (16A - 16D) umfasst, der ein Infrarotsensor zum Aufnehmen von Bildern im Infrarotbereich ist, und/oder einen bildgebenden Sensor (16A - 16D) umfasst, der eine Foto- und/oder Videokamera zum Aufnehmen von Bildern im sichtbaren Lichtbereich ist. - Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Sensorschnittstelle (18) zum Empfangen von Sensordaten (21) mindestens eines abstandsgebenden Sensors (12A - 12D) eingerichtet ist, der eine nach dem Laufzeitprinzip, insbesondere mittels elektromagnetischer Wellen, arbeitende TOF-Kamera, arbeitender Lidar- oder Radarsensor oder eine stereoskopische Kamera, z. B. eine stereoskopische Infrarotkamera, ist.
- Vorrichtung nach
Anspruch 5 , wobei die Vorrichtung (10) mindestens einen abstandsgebenden Sensor (12A - 12D) umfasst, der eine TOF-Kamera, ein Lidarsensor, ein Radarsensor und/oder eine stereoskopische Kamera ist. - Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung (10) mindestens einen abstandsgebenden Sensor (12A - 12D) umfasst, der ein Radarsensor mit einem elektronisch steuer- und/oder lenkbaren Radarstrahl und/oder ein Solid-State-Lidar ist.
- Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die Signalverarbeitungseinrichtung (20) eingerichtet ist, für das mindestens eine erkannte oder zu unterscheidende vordefinierte Objekt mindestens einen Wahrscheinlichkeitswert, der die Zuverlässigkeit der Erkennung und/oder der Unterscheidung und/oder der Parameter des Objekts angibt, zu ermitteln und über die Ausgabeschnittstelle (29) auszugeben.
- Verfahren für ein unbemanntes Flugobjekt, insbesondere für eine Drohne oder einen Copter, wie einen Multicopter oder einen Quadrocopter sowie einen Flächenflieger, mit einer Vorrichtung, insbesondere nach einem der
Ansprüche 1 bis8 , umfassend die Schritte: - Empfangen von Sensordaten (21) mindestens eines bildgebenden Sensors (16A - 16D) sowie mindestens eines abstandsgebenden Sensors (12A - 12D) mit einer Sensorschnittstelle (18), - Erkennen mindestens eines durch Referenzdaten (25) vordefinierten Objekts und/oder Unterscheiden eines vordefinierten Objekts von anderen Objekten durch Vergleiche der Referenzdaten (25) mit den empfangenen Sensordaten (21) mit einer Signalverarbeitungseinheit (20), - Bestimmen der Parameter, wie der Position, der Distanz und/oder der Bewegungen des erkannten und/oder von anderen Objekten unterschiedenen vordefinierten Objekts, insbesondere relativ zum Flugobjekt (10), mit der Signalverarbeitungseinheit (20) und - Ausgeben der Parameter des vordefinierten Objekts mit einer Ausgabeschnittstelle (29), wobei Bewegungsmuster des erkannten und/oder von anderen Objekten unterschiedenen Objekts mit der Signalverarbeitungseinheit (20) ermittelt und über die Ausgabeschnittstelle (29) ausgegeben werden. - Verfahren nach
Anspruch 9 , wobei Referenzdaten (25) mit einer Konfigurationsschnittstelle (24) empfangen und in einem Speicher (22) hinterlegt werden. - Verfahren nach
Anspruch 9 oder10 , wobei für das erkannte und/oder zu unterscheidende Objekt mindestens ein Wahrscheinlichkeitswert mit der Signalverarbeitungseinheit (20) ermittelt wird, der die Zuverlässigkeit der Erkennung und/oder der Unterscheidung und/oder der Parameter angibt und der über die Ausgabeschnittstelle (29) ausgegeben wird. - Verfahren nach einem der
Ansprüche 9 bis11 , wobei mit der Signalverarbeitungseinheit (20) aus den Sensordaten (21) des bildgebenden Sensors (16A - 16D) mittels Objekterkennung ein, mehrere oder alle Objekte in den zurzeit erfasstem Sensordaten (21) des bildgebenden Sensors bestimmt und deren Konturen ermittelt werden und mit den Sensordaten (21) des abstandsgebenden Sensors (12A - 12D) die Abstände der bestimmten Objekte erfasst werden und anhand der Konturen und des Abstands Abmessungen der Objekte bestimmt und die Abmessungen mit Referenzdaten (25) verglichen werden, wobei ein oder mehrere Objekte, deren Abmessungen mit den Referenzdaten (25) im Wesentlichen übereinstimmen, als vordefiniertes oder vordefinierte Objekte erkannt werden. - Unbemanntes Flugobjekt mit einer Vorrichtung nach einem der
Ansprüche 1 bis8 , insbesondere zum Ausführen des Verfahrens nach einem derAnsprüche 9 bis12 .
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015122183.7A DE102015122183B4 (de) | 2015-12-18 | 2015-12-18 | Vorrichtung und Verfahren für ein unbemanntes Flugobjekt |
EP16828716.7A EP3391163A1 (de) | 2015-12-18 | 2016-12-19 | Vorrichtung und verfahren für ein unbemanntes flugobjekt |
PCT/EP2016/081700 WO2017103255A1 (de) | 2015-12-18 | 2016-12-19 | Vorrichtung und verfahren für ein unbemanntes flugobjekt |
US16/004,064 US10351241B2 (en) | 2015-12-18 | 2018-06-08 | Device and method for an unmanned flying object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015122183.7A DE102015122183B4 (de) | 2015-12-18 | 2015-12-18 | Vorrichtung und Verfahren für ein unbemanntes Flugobjekt |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102015122183A1 DE102015122183A1 (de) | 2017-06-22 |
DE102015122183B4 true DE102015122183B4 (de) | 2018-12-06 |
Family
ID=57838314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015122183.7A Expired - Fee Related DE102015122183B4 (de) | 2015-12-18 | 2015-12-18 | Vorrichtung und Verfahren für ein unbemanntes Flugobjekt |
Country Status (4)
Country | Link |
---|---|
US (1) | US10351241B2 (de) |
EP (1) | EP3391163A1 (de) |
DE (1) | DE102015122183B4 (de) |
WO (1) | WO2017103255A1 (de) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239728B (zh) * | 2017-01-04 | 2021-02-02 | 赛灵思电子科技(北京)有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
US10496107B2 (en) * | 2017-01-17 | 2019-12-03 | Valeo North America, Inc. | Autonomous security drone system and method |
USD928072S1 (en) * | 2018-12-03 | 2021-08-17 | SZ DJI Technology Co., Ltd. | Aerial vehicle |
CN110132049A (zh) * | 2019-06-11 | 2019-08-16 | 南京森林警察学院 | 一种基于无人机平台的自动瞄准式狙击步枪 |
DE102020112362A1 (de) | 2020-05-07 | 2021-11-11 | Spleenlab GmbH | Zur räumlichen Distanzierung ("Social Distancing") geeignete Personenerfassung und Distanzmessung |
US11817000B2 (en) * | 2020-12-10 | 2023-11-14 | Rockwell Collins, Inc. | System and method to reduce runway occupancy time using pseudo threshold |
US11656723B2 (en) * | 2021-02-12 | 2023-05-23 | Vizio, Inc. | Systems and methods for providing on-screen virtual keyboards |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090157233A1 (en) | 2007-12-14 | 2009-06-18 | Kokkeby Kristen L | System and methods for autonomous tracking and surveillance |
US20140222246A1 (en) | 2011-11-18 | 2014-08-07 | Farrokh Mohamadi | Software-defined multi-mode ultra-wideband radar for autonomous vertical take-off and landing of small unmanned aerial systems |
US20140316614A1 (en) | 2012-12-17 | 2014-10-23 | David L. Newman | Drone for collecting images and system for categorizing image data |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9965850B2 (en) * | 2012-07-05 | 2018-05-08 | Bernard Fryshman | Object image recognition and instant active response with enhanced application and utility |
US20130289858A1 (en) * | 2012-04-25 | 2013-10-31 | Alain Anthony Mangiat | Method for controlling and communicating with a swarm of autonomous vehicles using one-touch or one-click gestures from a mobile platform |
US20140008496A1 (en) * | 2012-07-05 | 2014-01-09 | Zhou Ye | Using handheld device to control flying object |
WO2014115139A1 (en) * | 2013-01-23 | 2014-07-31 | Iatas (Automatic Air Traffic Control) Ltd | System and methods for automated airport air traffic control services |
US9367067B2 (en) * | 2013-03-15 | 2016-06-14 | Ashley A Gilmore | Digital tethering for tracking with autonomous aerial robot |
WO2015085483A1 (en) * | 2013-12-10 | 2015-06-18 | SZ DJI Technology Co., Ltd. | Sensor fusion |
EP3081902B1 (de) * | 2014-03-24 | 2019-04-17 | SZ DJI Technology Co., Ltd. | Verfahren und vorrichtung zur korrektur des flugzeugstatus in echtzeit |
US9599992B2 (en) * | 2014-06-23 | 2017-03-21 | Nixie Labs, Inc. | Launch-controlled unmanned aerial vehicles, and associated systems and methods |
CN107168352B (zh) * | 2014-07-30 | 2020-07-14 | 深圳市大疆创新科技有限公司 | 目标追踪系统及方法 |
CN112097789B (zh) * | 2014-10-27 | 2023-02-28 | 深圳市大疆创新科技有限公司 | 无人飞行器飞行显示 |
US9927809B1 (en) * | 2014-10-31 | 2018-03-27 | State Farm Mutual Automobile Insurance Company | User interface to facilitate control of unmanned aerial vehicles (UAVs) |
CN112859899A (zh) * | 2014-10-31 | 2021-05-28 | 深圳市大疆创新科技有限公司 | 用于利用视觉标记进行监视的系统和方法 |
US20170102699A1 (en) * | 2014-12-22 | 2017-04-13 | Intel Corporation | Drone control through imagery |
CN111762136A (zh) * | 2015-05-12 | 2020-10-13 | 深圳市大疆创新科技有限公司 | 识别或检测障碍物的设备和方法 |
KR20160138806A (ko) * | 2015-05-26 | 2016-12-06 | 엘지전자 주식회사 | 글래스타입 단말기 및 그 제어방법 |
US10310617B2 (en) * | 2015-06-11 | 2019-06-04 | Intel Corporation | Drone controlling device and method |
EP3225026A4 (de) * | 2015-07-31 | 2017-12-13 | SZ DJI Technology Co., Ltd. | Verfahren zur sensorunterstützten ratensteuerung |
US9663227B1 (en) * | 2015-12-22 | 2017-05-30 | Gopro, Inc. | Systems and methods for controlling an unmanned aerial vehicle |
US20170371410A1 (en) * | 2016-06-28 | 2017-12-28 | International Business Machines Corporation | Dynamic virtual object interactions by variable strength ties |
-
2015
- 2015-12-18 DE DE102015122183.7A patent/DE102015122183B4/de not_active Expired - Fee Related
-
2016
- 2016-12-19 EP EP16828716.7A patent/EP3391163A1/de not_active Withdrawn
- 2016-12-19 WO PCT/EP2016/081700 patent/WO2017103255A1/de active Application Filing
-
2018
- 2018-06-08 US US16/004,064 patent/US10351241B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090157233A1 (en) | 2007-12-14 | 2009-06-18 | Kokkeby Kristen L | System and methods for autonomous tracking and surveillance |
US20140222246A1 (en) | 2011-11-18 | 2014-08-07 | Farrokh Mohamadi | Software-defined multi-mode ultra-wideband radar for autonomous vertical take-off and landing of small unmanned aerial systems |
US20140316614A1 (en) | 2012-12-17 | 2014-10-23 | David L. Newman | Drone for collecting images and system for categorizing image data |
Also Published As
Publication number | Publication date |
---|---|
US10351241B2 (en) | 2019-07-16 |
WO2017103255A1 (de) | 2017-06-22 |
US20180290750A1 (en) | 2018-10-11 |
EP3391163A1 (de) | 2018-10-24 |
DE102015122183A1 (de) | 2017-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015122183B4 (de) | Vorrichtung und Verfahren für ein unbemanntes Flugobjekt | |
DE60209760T2 (de) | Gesichtsbilderzeugungssystem zur bildaufnahme und automatisierte bestätigung der identität | |
DE102016114535B4 (de) | Wegbestimmung für automatisierte Fahrzeuge | |
EP2981786B1 (de) | Steuerung einer bildauslösung zur luftbilderfassung in nadir-ausrichtung für ein unbemanntes fluggerät | |
DE102008039130A1 (de) | Durch ein neurales Netzwerk gesteuertes automatisches Verfolgungs- und Erkennungssystem und Verfahren | |
DE102014005688A1 (de) | Spurenschätzvorrichtung und verfahren | |
CN106503622A (zh) | 一种车辆反跟踪方法及装置 | |
EP2060873B1 (de) | Verfahren zur Stützung der Trägheitsnavigation eines Flugkörpers | |
EP3671546A1 (de) | Verfahren und system zum bestimmen von landmarken in einer umgebung eines fahrzeugs | |
DE102018121008A1 (de) | Kreuzverkehrserfassung unter verwendung von kameras | |
EP3921819B1 (de) | Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts | |
DE102005055347A1 (de) | Fahrerassistenzsystem | |
DE102008046362A1 (de) | Gegenstandserfassungssystem mit einem Bilderfassungssystem | |
EP3811286A1 (de) | Verfahren und anordnung zum erkennen von objekten an anlagen | |
DE102018008282A1 (de) | Vorrichtung und Verfahren zum Erfassen von Flugobjekten | |
EP3726425B1 (de) | Verfahren zum physikalischen, insbesondere zum optischen, erfassen zumindest eines nutzungsobjektes | |
WO2023186350A1 (de) | Unbemanntes fluggerät zur optischen gebietserfassung | |
DE102011100269A1 (de) | Elektrooptische Feuerleiteinheit für ein Geschütz | |
CN108573498B (zh) | 基于无人机的行驶车辆即时跟踪系统 | |
DE2939656A1 (de) | Verfahren zur verfolgung eines zieles | |
AT526146B1 (de) | Elektrooptisches Beobachtungssystem für Jagdzwecke | |
DE102020202284A1 (de) | Verfahren zum Trainieren und/oder Optimieren eines Insassenüberwachungssystems | |
KR20210034861A (ko) | 초경량 비행 장치의 조종자 평가 방법 및 장치 | |
DE102013011927B4 (de) | Verfahren zum Steuern einer Überwachungseinrichtung | |
EP3540507A1 (de) | Bildaufnahmevorrichtung und verfahren zum aufnehmen einer bildaufnahme eines dokuments und verwendung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |