DE102015226015A1 - Verfahren und Vorrichtung zum Detektieren eines Fluggeräts - Google Patents

Verfahren und Vorrichtung zum Detektieren eines Fluggeräts Download PDF

Info

Publication number
DE102015226015A1
DE102015226015A1 DE102015226015.1A DE102015226015A DE102015226015A1 DE 102015226015 A1 DE102015226015 A1 DE 102015226015A1 DE 102015226015 A DE102015226015 A DE 102015226015A DE 102015226015 A1 DE102015226015 A1 DE 102015226015A1
Authority
DE
Germany
Prior art keywords
aircraft
data stream
dynamic vision
procedure
signature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015226015.1A
Other languages
English (en)
Inventor
Thilo Grundmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102015226015.1A priority Critical patent/DE102015226015A1/de
Publication of DE102015226015A1 publication Critical patent/DE102015226015A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (200) zum Detektieren eines Fluggeräts (106), wobei das Verfahren (200) einen Schritt (202) des Einlesens eines einen Erfassungsbereich (108) eines Dynamic Vision Sensors (102) abbildenden Datenstroms (110) des Dynamic Vision Sensors (102) und einen Schritt (204) des Auswertens des Datenstroms (110) auf das Vorhandensein zumindest einer charakteristischen Signatur (116) eines Fluggeräts (106) aufweist, um das Fluggerät (106) zu detektieren.

Description

  • Stand der Technik
  • Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
  • Drohnen können durch aktive und passive Überwachungssysteme erkannt werden. Bei einer kamerabasierten Detektion ist ein hoher Rechenaufwand erforderlich, um ein Videosignal auf charakteristische Merkmale einer Drohne auszuwerten.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Detektieren eines Fluggeräts, weiterhin eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
  • Bei einem Dynamic Vision Sensor werden Kontraständerungen in einem Erfassungsbereich des Sensors in einem Datenstrom abgebildet. Bereiche ohne Kontraständerung werden in dem Datenstrom als Hintergrund mit einem Neutralwert abgebildet. Die Kontraständerungen werden durch Bewegungen hervorgerufen. Bewegte Objekte heben sich deutlich von dem unbewegten Hintergrund ab.
  • Eine Drohne bewegt sich. Drehflügler, wie beispielsweise Multikopter weisen auch im Stillstand schnell bewegte Teile auf, die durch den Dynamic Vision Sensor eindeutig erkennbar abgebildet werden.
  • Es wird das Verwenden eines Dynamic Vision Sensors zum Detektieren eines Fluggeräts vorgestellt.
  • Weiterhin wird ein Verfahren zum Detektieren eines Fluggeräts vorgestellt, wobei das Verfahren die folgenden Schritte aufweist:
    Einlesen eines einen Erfassungsbereich eines Dynamic Vision Sensors abbildenden Datenstroms des Dynamic Vision Sensors;
    Auswerten des Datenstroms auf das Vorhandensein zumindest einer charakteristischen Signatur eines Fluggeräts in dem Datenstrom, um das Fluggerät zu detektieren.
  • Unter einem Dynamic Vision Sensor kann ein Bildsensor verstanden werden, der eine matrixförmige Anordnung lichtempfindlicher Sensoren oder Pixel aufweist. Ein solcher Sensor bildet dabei (beispielsweise je Pixel) eine Helligkeitsänderung in einem elektrischen Signal ab. Je stärker die Helligkeitsänderung ist, umso stärker ist das Signal. Der Dynamic Vision Sensor kann hierbei beispielsweise als Differenzbildsensor oder Vektorbildsensor verstanden werden, der von dem Bildsensor zeitlich nacheinander erfasste Bilder vergleicht und ein entsprechendes Ausgangssignal bzw. einen Datenstrom als Bildsignal ausgibt, das einer Stärke der Änderung der Helligkeiten an den jeweils betreffenden Sensoren oder Pixeln angibt. Die Signale der Sensoren des Bildsensors bilden einen Datenstrom. Ein Fluggerät kann vorliegend ein Flugzeug, ein Helikopter, ein Quadrocopter, ein Multicoptor oder eine Drohne sein. Das Fluggerät kann ferngesteuert werden. Ebenso kann das Fluggerät einen vordefinierten Flugplan oder eine vordefinierte Flugtrajektorie abfliegen. Ein Erfassungsbereich kann ein zu überwachender Bereich sein. Eine Signatur kann eine Kombination von Merkmalen umfassen. Unter einer charakteristischen Signatur kann vorliegend eine räumliche Anordnung oder ein räumliches Auftreten von Merkmalen oder Merkmalsausprägungen oder Merkmalswerten verstanden werden, die einem Fluggerät zugeordnet ist. Unter einer Merkmalsausprägung oder einem Merkmalswert kann hierbei ein Wert verstanden werden, den eine einem Pixel des Sensors zugeordnete Information in dem Datenstrom aufweist. Die charakteristische Signatur kann beispielsweise vorab erfasst und in einem Speicher abgelegt werden, wobei dann im Schritt des Auswertens der Datenstrom oder die in dem Datenstrom enthaltenen Informationen oder Merkmalsausprägungen bzw. Merkmalswerte auf Übereinstimmung mit der charakteristischen Signatur hin überprüft werden. Bei einer Übereinstimmung von Informationen oder Merkmalsausprägungen bzw. Merkmalswerten kann dann das Fluggerät als solches erkannt werden.
  • Die Signatur kann unter Verwendung eines Mustererkennungsalgorithmus erkannt werden. Bei einer Mustererkennung mithilfe eines solchen Mustererkennungsalgorithmus können hinterlegte Muster von Signaturen mit in dem Datenstrom abgebildeten Merkmalen verglichen werden, wobei ab einem vorbestimmten Anteil an Übereinstimmung bzw. übereinstimmenden Werten der Merkmale mit Werten der Signatur die Signatur und somit das Fluggerät erkannt wird. Eine solche Mustererkennung kann sehr robust arbeiten.
  • Eine Signatur eines rotierenden Propellers kann als Signatur für ein Fluggerät erkannt werden. Unter einem Propeller kann eine Luftschraube beziehungsweise ein Rotor verstanden werden. Der Propeller weist zumindest zwei Propellerblätter auf, die um eine Propellernabe rotieren. Damit weist der Datenstrom für einen Propeller Merkmale auf, die im Datenstrom sicher erkannt werden können.
  • Gemäß einer Ausführungsform kann ferner eine Raumrichtung bestimmt werden, in die der Erfassungsbereich ausgerichtet ist. Die Raumrichtung kann hierbei beispielsweise in Bezug zu einer angenommenen Flugrichtung bzw. einer Ausrichtung zur Erdoberfläche bestimmt werden. Eine solche Ausführungsform des hier vorgestellten Ansatzes biete den Vorteil, dass das Fluggerät sehr einfach von anderen Objekten im Datenstrom unterschieden werden kann.
  • Das Verfahren kann einen Schritt des Klassierens aufweisen, in dem das Fluggerät unter Verwendung der Signatur einem Fluggerätetyp zugeordnet wird. Beispielsweise kann eine Anzahl beziehungsweise Anordnung von Rotoren verwendet werden, um das Fluggerät zu klassieren. Ebenso kann eine Drehrichtung der Rotoren zum Klassieren verwendet werden.
  • Es kann zumindest ein, den Erfassungsbereich zumindest teilweise abbildender weiterer Datenstrom von einem weiteren Dynamic Vision Sensor eingelesen werden. Der weitere Datenstrom kann auf das Vorhandensein der charakteristischen Signatur ausgewertet werden, um das Fluggerät zu detektieren. Durch eine Detektion auf mehreren Sensoren kann eine Sicherheit der Detektion des Fluggerätes erhöht werden.
  • Das Verfahren kann einen Schritt des Lokalisierens aufweisen. Dabei wird eine Position des in dem Datenstrom und dem weiteren Datenstrom detektierten Fluggeräts mittels Triangulation ermittelt, um das Fluggerät zu lokalisieren. Unter einem Triangulieren kann ein Ermitteln einer räumlichen Position des Fluggeräts verstanden werden. Dabei kann die Position unter Verwendung einer ersten Raumrichtung von einem ersten Dynamic Vision Sensor zu dem Fluggerät und einer zweiten Raumrichtung von einem zweiten Dynamic Vision Sensor zu dem Fluggerät trianguliert werden. Triangulation ist einfach und schnell durchführbar.
  • Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Ferner wird ein Detektionssystem zum Detektieren von Fluggeräten vorgestellt, wobei das Detektionssystem die folgenden Merkmale aufweist:
    zumindest einen Dynamic Vision Sensor, der einen, einen Erfassungsbereich abbildenden Datenstrom bereitstellt; und
    eine Vorrichtung gemäß dem hier vorgestellten Ansatz.
  • In einer vorteilhaften Ausgestaltung erfolgt durch das Detektionssystem eine Steuerung einer Blendeinrichtung. Hierzu kann das Detektionssystem beispielsweise auf die Raumrichtung oder räumliche Position des Fluggeräts zugreifen. Die Ansteuerung erfolgt über einen mehrachsigen Antrieb. Durch ein Blenden kann das Fluggerät am Aufnehmen von Bildern und Videoaufnahmen gehindert werden.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
  • 1 eine Darstellung eines Detektionssystems gemäß einem Ausführungsbeispiel;
  • 2 ein Ablaufdiagramm eines Verfahrens zum Detektieren eines Fluggeräts gemäß einem Ausführungsbeispiel;
  • 3 eine Darstellung eines Dynamic Vision Sensors gemäß einem Ausführungsbeispiel; und
  • 4 eine Darstellung eines Detektionssystems mit zwei Dynamic Vision Sensoren gemäß einem Ausführungsbeispiel.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine Darstellung eines Detektionssystems 100 gemäß einem Ausführungsbeispiel. Das Detektionssystem 100 umfasst zumindest einen Dynamic Vision Sensor 102 und eine mit dem Dynamic Vision Sensor 102 verbundene Vorrichtung 104 zum Detektieren. Die Vorrichtung 104 ist dazu ausgebildet, unter Verwendung des Dynamic Vision Sensors 102 Fluggeräte 106 in einem Erfassungsbereich 108 des Dynamic Vision Sensors 102 zu detektieren.
  • Der Dynamic Vision Sensor 102 weist einen Bildsensor mit einer davor angeordneten Optik auf. Ein Abbild des Erfassungsbereichs 108 wird durch die Optik auf den Bildsensor projiziert. Bildpunkte des Bildsensors bilden eine auf sie projizierte Kontraständerung in einem elektrischen Signal ab. Eine Gesamtheit der elektrischen Signale bildet einen Datenstrom 110 des Dynamic Vision Sensors 102. Dadurch enthält der Datenstrom 110 Informationen über Veränderungen in dem Erfassungsbereich 108. Insbesondere enthält der Datenstrom 110 Informationen über Bewegungen innerhalb des Erfassungsbereichs 108.
  • Die Vorrichtung 104 weist eine Schnittstelle 112 zum Einlesen und eine Einrichtung 114 zum Auswerten auf. Die Schnittstelle 110 zum Einlesen ist dazu ausgebildet, den Datenstrom 110 einzulesen. Die Einrichtung 114 zum Auswerten ist dazu ausgebildet, den Datenstrom 110 auf das Vorhandensein zumindest einer charakteristischen Signatur 116 des Fluggeräts 106 auszuwerten, um das Fluggerät 106 zu detektieren.
  • In einem Ausführungsbeispiel weist die Vorrichtung eine Einrichtung 118 zum Lokalisieren auf. Die Einrichtung 118 zum Lokalisieren ist dazu ausgebildet, eine Raumrichtung 120 von dem Dynamic Vision Sensor 102 zu dem Fluggerät 106 unter Verwendung der Signatur 116 zu bestimmen.
  • In einem Ausführungsbeispiel wird die Signatur 116 von der Einrichtung zum Auswerten durch eine Mustererkennung erkannt. Dabei werden hinterlegte Muster 122 mit den Bildinformationen des Datenstroms 110 verglichen. Ab einem vorbestimmten Übereinstimmungsgrad wird die Signatur 116 erkannt.
  • Da eine kreisförmige Bewegung von Propellern 124, Rotoren 124 und/oder Luftschrauben 124 von dem Dynamic Vision Sensor 102 besonders charakteristisch in dem Datenstrom 110 abgebildet wird, können beispielsweise die Propeller 124 eines Multikopters 106 besonders deutlich in dem Datenstrom 110 als Signatur 116 erkannt werden.
  • Da bei vielen Fluggeräten 106 eine räumliche Anordnung der Propeller 124 individuell verschieden ist, können die Fluggeräte 106 durch die in den Signaturen 116 der Propeller 124 repräsentierte Anordnung klassifiziert werden.
  • Mit anderen Worten wird ein Drohnen-Detektionssystem 100 basierend auf einer Dynamic Vision Sensor (DVS) Kamera 102 vorgestellt.
  • Drohnen 106 gibt es in vielfältigsten Varianten für den privaten und professionellen Gebrauch. Simple Modelle mit Kameras sind schon für wenig Geld, als beispielsweise weniger als 200 € erhältlich. Mit Drohnen 106 können Bilder und/oder Messungen aus Blickrichtungen oder von Orten aus angefertigt werden, die einem bodengestützten Aufnahmesystem, wie beispielsweise einem Menschen mit einer Kamera verwehrt sind.
  • Sowohl im privaten als auch im geschäftlichen Kontext gibt es Bereiche, in den das Anfertigen von Aufnahmen unerwünscht ist. Vor der Verbreitung von Drohnen 106 war es oftmals ausreichend, einen solchen Bereich mit einem mannhohen Sichtschutz, wie einer Hecke oder einem Zaun und einer Zugangskontrolle, wie einer Haustür oder einem Werkstor zu versehen. Heute bietet diese Methode nur noch begrenzten Schutz gegen unerlaubtes Anfertigen von Aufnahmen.
  • Zusätzlich wurden Drohnen 106 schon zum Transport illegaler Substanzen, wie Rauschmittel eingesetzt. Beispielsweise wurde eine Drohne 106 zum Transport in ein Gefängnis verwendet.
  • Der hier vorgestellte Ansatz beschreibt eine technische Lösung zum Erfassen und/oder Verhindern solcher Transporte.
  • Das hier vorgestellte Detektionssystem 100 mit einem Sensor 102, der es erlaubt, innerhalb eines begrenzten Raumes Drohnen 106 zu detektieren und je nach Ausformung auch zu klassifizieren und zu lokalisieren kann helfen diese neue Art der Bedrohung der Privatsphäre zu mindern, Industriespionage zu erschweren sowie Drogentransporte zu unterbinden.
  • Dynamic Vision Sensor Kameras 102 (DVS) können als Event Based Cameras bezeichnet werden und stellen eine andersartige Form der Kamera dar. Dynamic Vision Sensor Kameras 102 haben einige interessante Eigenschaften, welche herkömmliche Kameras nicht haben.
  • Eine Drohne 106 kann auch durch eine Erkennung von Steuersignalen detektiert und gegebenenfalls lokalisiert werden. Dabei werden die Funkfernsteuersignale herkömmlicher Drohnen 106 detektiert. Dadurch kann eine aktiv gesteuerte Drohne 106 erkannt werden. Es wird in passiver Weise ein aktives Signal der Drohne 106 detektiert. Dabei werden Drohnen 106 indirekt detektiert, da WIFI Quellen oder Ähnliches detektiert werden, die durchaus auch anderen Ursprungs sein können, wie beispielsweise ein Smartphone.
  • Ebenso kann eine Drohne 106 durch eine Nutzung von Standard Kameras in Kombination mit Mustererkennungsalgorithmen detektiert und gegebenenfalls lokalisiert werden. Weiterhin kann eine Drohne 106 durch eine Nutzung von 3-D-Sensoren (RGBD, 3D TOF, LASER) in Kombination mit Mustererkennungsalgorithmen detektiert und gegebenenfalls lokalisiert werden. Auch durch Radar oder Ultraschall kann eine Drohne 106 detektiert und gegebenenfalls lokalisiert werden. Ferner kann eine Drohne 106 durch eine Nutzung von Geräuschortung detektiert und gegebenenfalls lokalisiert werden.
  • Bei dem hier vorgestellten Ansatz wird ein Sensor 102 verwendet, der sowohl aktiv gesteuerte als auch passive, also autonome beziehungsweise teilautonome Drohnen 106 erkennen und je nach Sensoranordnung auch lokalisieren, klassifizieren und verfolgen kann. Hierauf kann ein Alarm gegeben werden.
  • Mittels der Sensordaten 110 lässt sich eine Dokumentation des Eindringens erstellen, aus dem wiederum auf die vom Eindringling aufgenommenen Daten rückgeschlossen werden kann.
  • In einem Ausführungsbeispiel wird nach der Lokalisierung versucht, das Flugobjekt 106 beziehungsweise seine Sensoren, wie Kameras aktiv zu blenden, um hierdurch seine Aufnahmefähigkeit entweder kurzfristig oder dauerhaft zu behindern. Dabei wird für ein kurzfristiges Blenden eine geringe Blendenergie verwendet. Für ein dauerhaftes Blenden wird eine hohe Blendenergie verwendet.
  • Das Detektionssystem 100 ist in der Lage, eine einfliegende Drohne 106 zu detektieren und, je nach Ausbaustufe im Raum zu lokalisieren. Zusätzlich kann auch eine Klassifikation des Drohnentyps durchgeführt werden. Beispielsweise über eine Anzahl Rotoren 124 oder eine Drehgeschwindigkeit. Für diesen Ansatz ist es notwendig, dass die Drohne 106 über rotierende Propeller 124 verfügt. Ein Segelflugzeug oder Ballon kann nicht detektiert werden.
  • Im Datenstrom 110 einer DVS-Kamera 102 erzeugen rotierende Teile wie Propeller 124 oder Rotoren 124 eine charakteristische Signatur 116, welche mittels Methoden der Mustererkennung detektiert werden kann und deren Raumrichtung anhand der Pixelposition auf dem Sensor bestimmt werden kann. Durch Kombination mehrerer räumlich verteilter Sensoren 102 lässt sich durch Triangulation unter Einhalten bestimmter Relationen auf die räumliche Position schließen.
  • Der Sichtbereich der DVS-Kamera 102 kann analog zur herkömmlichen Kamera durch Wahl der Optik an die Erfordernisse angepasst werden.
  • Da das Signal einer DVS-Kamera 102 keiner Bewegungsunschärfe unterliegt, ist es einerseits möglich schnell fliegende Objekte 106 zu erkennen, die in einer herkömmlichen Kamera unscharf abgebildet würden, was eine klassische Mustererkennung schwierig macht. Des Weiteren ist es möglich die Drehung der Rotoren 124 direkt zu messen, was dazu führt, dass als Merkmal beziehungsweise das Feature "rotierende Propeller" und nicht das Aussehen erkannt wird. Dieses variiert von Drohne zu Drohne.
  • Die Auswertung des DVS Signals 110 ist mit geringer Rechenleistung zu bewerkstelligen, was dazu führt, dass das System 100 sowohl eine geringe Leistungsaufnahme als auch einen geringen Preis hat.
  • Das System 100 kann sowohl passiv, also ohne "Beleuchtung'', als auch aktiv eingesetzt werden, also mit Infrarotbeleuchtung bei Nacht. In der passiven Ausführung ergeben sich im Vergleich zu aktiven oder Radar basierten Ansätzen alle Vorteile passiver Detektionssysteme.
  • Nachdem die DVS-Kamera 102 einen im Vergleich mit normalen Kameras extrem großen Dynamikumfang hat, ist es nicht einfach möglich, das System 100 vollständig aus nur aus einer Richtung zu blenden. Eine Blendung wäre nur erfolgreich, wenn sie aus Richtung des Objekts 106 kommt, und ist damit selbst eine gleichwertige Messung des Objekts 106.
  • Hier detektiert eine DVS-Kamera 102 in ihrem Sichtbereich 108 bis zu einer Höchstentfernung rotorgestützte Drohnen 106. Die Höchstentfernung ist abhängig von der Optik und Objektgröße. Die Richtung 120, in der sich die Drohne 106 befindet, ist nach der Detektion bestimmt. Das Ergebnis des Systems 100 ist ein Strom von Detektionen jeweils bestehend aus Zeit, Richtung und einer Beschreibung der Detektion, wie Frequenz, Stärke und/oder Konfidenz.
  • 2 zeigt ein Ablaufdiagramm eines Verfahrens 200 zum Detektieren eines Fluggeräts gemäß einem Ausführungsbeispiel. Das Verfahren 200 kann beispielsweise auf einer Vorrichtung, wie sie in 1 dargestellt ist, ausgeführt werden. Das Verfahren 200 weist einen Schritt 202 des Einlesens und einen Schritt 204 des Auswertens auf. Im Schritt 202 des Einlesens wird ein einen zu überwachenden Bereich abbildender Datenstrom eines Dynamic Vision Sensors eingelesen. Im Schritt 204 des Auswertens wird der Datenstrom auf zumindest eine charakteristische Signatur eines Fluggeräts ausgewertet, um das Fluggerät zu detektieren.
  • 3 zeigt eine Darstellung eines Dynamic Vision Sensors 102 gemäß einem Ausführungsbeispiel. Die Darstellung entspricht im Wesentlichen der Darstellung in 1. Im Gegensatz dazu weist der Dynamic Vision Sensor 102 einen Hybridbildgeber auf. Der Hybridbildgeber stellt zusätzlich zu dem Datenstrom 110 ein konventionelles Videosignal 300 bereit, das den Erfassungsbereich 108 abbildet.
  • Hier wird eine Hybrid Kamera 102 genutzt, also eine Kamera 102, welche sowohl ein herkömmliches Kamerabild 300 liefert, als auch ein DVS-Signal 110.
  • Bei dieser Ausformung handelt es sich um eine herkömmliche Überwachungskamera 102, deren herkömmlicher Bildsensor durch einen Hybridsensor ersetzt wurde. Jegliche herkömmliche Funktionalität ist weiterhin vorhanden, zusätzlich kann mittels des DVS Signals 110 eine Drohnen Detektion durchgeführt werden.
  • 4 zeigt eine Darstellung eines Detektionssystems 100 mit zwei Dynamic Vision Sensoren 102 gemäß einem Ausführungsbeispiel. Die Dynamic Vision Sensoren 102 sind so ausgerichtet, dass ihre Erfassungsbereiche 108 sich teilweise überlappen. Innerhalb eines Überlappungsbereichs 400 der Erfassungsbereiche 108 ist ein Fluggerät 106 angeordnet und wird von beiden Dynamic Vision Sensoren 102 erfasst. Das Detektionssystem 100 entspricht im Wesentlichen dem Detektionssystem in 1. Hier werden hier die Datenströme 110 beider Dynamic Vision Sensoren 102 von der Vorrichtung 104 eingelesen. Unter Verwendung des ersten Datenstroms 110 wird eine erste Raumrichtung 120 zwischen dem ersten Dynamic Vision Sensor 102 und dem Fluggerät 106 ermittelt. Unter Verwendung des zweiten Datenstroms 110 wird eine zweite Raumrichtung 120 zwischen dem zweiten Dynamic Vision Sensor 102 und dem Fluggerät 106 ermittelt. Unter Verwendungen der beiden Raumrichtungen 120 wird eine Position des Fluggeräts 106 trianguliert.
  • Mehrere DVS-Sensoren 102 in bekannter Anordnung überwachen den Überdeckungsbereich 400 Ihrer Sichtbereiche 108, durch Kombination der Signale 110 beider Sensoren 102 im Auswertungssystem 104 kann für eine Detektion durch Triangulation eine 3-D-Raumposition bestimmt werden.
  • Die Auswertungslogik 104 kann aus den Einzeldetektionen Ziele 106 verfolgen und somit Trajektorien erzeugen. Dabei können die Einzeldetektionen von einen oder mehreren Sensoren 102 kommen.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims (12)

  1. Verfahren (200) zum Detektieren eines Fluggeräts (106), wobei das Verfahren (200) die folgenden Schritte aufweist: Einlesen (202) eines einen Erfassungsbereich (108) eines Dynamic Vision Sensors (102) abbildenden Datenstroms (110) des Dynamic Vision Sensors (102); Auswerten (204) des Datenstroms (110) auf das Vorhandensein zumindest einer charakteristischen Signatur (116) eines Fluggeräts (106) in dem Datenstrom (110), um das Fluggerät (106) zu detektieren.
  2. Verfahren (200) gemäß Anspruch 1, bei dem im Schritt (204) des Auswertens die Signatur (116) unter Verwendung eines Mustererkennungsalgorithmus erkannt wird.
  3. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (204) des Auswertens eine Signatur (116) eines rotierenden Propellers (124) als Signatur (116) für ein Fluggerät (106) erkannt wird.
  4. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (204) des Auswertens ferner eine Raumrichtung (120) bestimmt wird, in die der Erfassungsbereich (108) ausgerichtet ist.
  5. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Klassierens, in dem das Fluggerät (106) unter Verwendung der Signatur (116) einem Fluggerätetyp zugeordnet wird.
  6. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (202) des Einlesens zumindest ein, den Erfassungsbereich (108) zumindest teilweise abbildender weiterer Datenstrom (110) von einem weiteren Dynamic Vision Sensor (102) eingelesen wird, wobei im Schritt (204) des Auswertens der weitere Datenstrom (110) auf das Vorhandensein der charakteristischen Signatur (116) ausgewertet wird, um das Fluggerät (106) zu detektieren.
  7. Verfahren (200) gemäß Anspruch 6, mit einem Schritt des Lokalisierens, wobei eine Position des in dem Datenstrom (110) und dem weiteren Datenstrom (110) detektierten Fluggeräts (106) mittels Triangulation ermittelt wird, um das Fluggerät (106) zu lokalisieren.
  8. Vorrichtung (104), die eingerichtet ist, um Schritte des Verfahrens gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten auszuführen.
  9. Detektionssystem (100) zum Detektieren von Fluggeräten (106), wobei das Detektionssystem (100) die folgenden Merkmale aufweist: zumindest einen Dynamic Vision Sensor (102), der einen, einen Erfassungsbereich (108) abbildenden Datenstrom (110) bereitstellt; und eine Vorrichtung (104) gemäß Anspruch 8.
  10. Verwenden eines Dynamic Vision Sensors (102) zum Detektieren eines Fluggeräts (106).
  11. Computerprogramm, das dazu eingerichtet ist, das Verfahren (200) gemäß einem der vorangegangenen Ansprüche auszuführen.
  12. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 11 gespeichert ist.
DE102015226015.1A 2015-12-18 2015-12-18 Verfahren und Vorrichtung zum Detektieren eines Fluggeräts Withdrawn DE102015226015A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015226015.1A DE102015226015A1 (de) 2015-12-18 2015-12-18 Verfahren und Vorrichtung zum Detektieren eines Fluggeräts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015226015.1A DE102015226015A1 (de) 2015-12-18 2015-12-18 Verfahren und Vorrichtung zum Detektieren eines Fluggeräts

Publications (1)

Publication Number Publication Date
DE102015226015A1 true DE102015226015A1 (de) 2017-06-22

Family

ID=58994312

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015226015.1A Withdrawn DE102015226015A1 (de) 2015-12-18 2015-12-18 Verfahren und Vorrichtung zum Detektieren eines Fluggeräts

Country Status (1)

Country Link
DE (1) DE102015226015A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10436910B2 (en) 2016-09-20 2019-10-08 Apple Inc. Line scan depth sensor comparing a time dependent waveform of the signals to an expected waveform
US10742881B1 (en) 2017-09-27 2020-08-11 Apple Inc. Combined temporal contrast sensing and line scanning
GB2605675A (en) * 2020-11-25 2022-10-12 Kenig Noam Event-based aerial detection vision system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10436910B2 (en) 2016-09-20 2019-10-08 Apple Inc. Line scan depth sensor comparing a time dependent waveform of the signals to an expected waveform
US10742881B1 (en) 2017-09-27 2020-08-11 Apple Inc. Combined temporal contrast sensing and line scanning
GB2605675A (en) * 2020-11-25 2022-10-12 Kenig Noam Event-based aerial detection vision system

Similar Documents

Publication Publication Date Title
DE102010038341B4 (de) Videoüberwachungssystem sowie Verfahren zur Konfiguration eines Videoüberwachungssystems
DE102014105351B4 (de) Detektion von menschen aus mehreren ansichten unter verwendung einer teilumfassenden suche
EP2464098B1 (de) Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
DE102018121019A1 (de) Erweitern von realen sensoraufzeichnungen mit simulierten sensordaten
DE102020103512A1 (de) Kollaborative 3-d-umgebungskarte für computergestützte oder autonom fahrende fahrzeuge
CN105526916B (zh) 动态图像遮蔽系统和方法
DE112019004488B4 (de) Doppelmodus-Datenerfassungssystem zur Kollisionserfassung und Objektdimensionierung und Verfahren zur Doppelmodus-Datenerfassung
DE102015226015A1 (de) Verfahren und Vorrichtung zum Detektieren eines Fluggeräts
EP3347878A2 (de) Verfahren und vorrichtung zum überlagern eines abbilds einer realen szenerie mit einem virtuellen bild und mobiles gerät
DE102012215465A1 (de) Verfahren und Informationssystem zum Filtern von Objektinformationen
DE102013217223A1 (de) Überwachungsanlage sowie Verfahren zur Darstellung eines Überwachungsbereichs
DE102018101162A1 (de) Messsystem und Verfahren zur extrinsischen Kalibrierung
WO2020038944A1 (de) Verfahren und anordnung zum erkennen von objekten an anlagen
WO2020053215A1 (de) System und verfahren zur funkwellenbasierten ortung und koordinatentransformation
DE102018008282A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugobjekten
DE102018005969A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen
EP3921819B1 (de) Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts
DE102019123220A1 (de) Zusammenfassen von Videos von mehreren sich bewegenden Videokameras
WO2023083620A1 (de) Prüfung der umfeldsensorik und/oder umfeldperzeption eines fahrzeugs
EP3021256A1 (de) Verfahren zur bildverarbeitung, präsenzdetektor und beleuchtungssystem
DE112017001044T5 (de) Präsenzmelder
DE102017223264A1 (de) Verfahren und Vorrichtung zum Ansteuern eines Aktors
DE102017117212A1 (de) System und Verfahren zur Stereotriangulation
EP3596428B1 (de) Verfahren und vorrichtung zum aktualisieren einer digitalen karte zur fahrzeugnavigation
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee