DE102015006233B4 - Verfahren zur Bestimmung der Flugbahn einer Fremddrohne - Google Patents

Verfahren zur Bestimmung der Flugbahn einer Fremddrohne Download PDF

Info

Publication number
DE102015006233B4
DE102015006233B4 DE102015006233.6A DE102015006233A DE102015006233B4 DE 102015006233 B4 DE102015006233 B4 DE 102015006233B4 DE 102015006233 A DE102015006233 A DE 102015006233A DE 102015006233 B4 DE102015006233 B4 DE 102015006233B4
Authority
DE
Germany
Prior art keywords
drone
external
sensor
determined
party
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015006233.6A
Other languages
English (en)
Other versions
DE102015006233A1 (de
Inventor
Markus Oberholzer
Michael Tüchler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rheinmetall Air Defence AG
Original Assignee
Rheinmetall Air Defence AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rheinmetall Air Defence AG filed Critical Rheinmetall Air Defence AG
Priority to DE102015006233.6A priority Critical patent/DE102015006233B4/de
Priority to PCT/EP2016/000808 priority patent/WO2016184563A1/de
Publication of DE102015006233A1 publication Critical patent/DE102015006233A1/de
Application granted granted Critical
Publication of DE102015006233B4 publication Critical patent/DE102015006233B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Abstract

Verfahren zur Bestimmung der Flugbahn (5) einer Fremddrohne (6), wobei mittels mindestens einer Sensoranordnung die Fremddrohne (6) erfasst wird, wobei eine Eigendrohne (8) zur Positionsbestimmung der Fremddrohne (6) verwendet wird, wobei die Eigendrohne (8) mit der Sensoranordnung und mit einem Positionsgeber ausgestattet ist, wobei die Position der Eigendrohne (8) mit dem Positionsgeber ermittelt wird, wobei die Fremddrohne (6) von der Sensoranordnung erfasst wird, wobei aufgrund der ermittelten Position der Eigendrohne (8) und/oder aufgrund der Sensordaten der Sensoranordnung die Position der Fremddrohne (6) bestimmt wird, wobei die Fremddrohne (6) von der Eigendrohne (8) verfolgt wird, wobei ein Umgebungsmodell gespeichert ist, dadurch gekennzeichnet, dass das Umgebungsmodell geeignete Landeorte (9, 10, 11, 12) aufweist, wobei mittels einer Bilderkennung den Sensordaten Objekte im Umgebungsmodell zugeordnet werden, wobei anhand der erkannten Objekte die Position der Eigendrohne (8) und/oder die Position der Fremddrohne (6) bestimmt werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Bestimmung der Flugbahn einer fremdgesteuerten Drohne, einer sogenannten Fremddrohne, mit den Merkmalen des Patentanspruches 1.
  • Fremddrohnen oder fremdgesteuerte Drohnen sind unbemannte Luftfahrzeuge. Drohnen sind mit geringen Kosten leicht beschaffbar und international auch im zivilen Sektor weit verbreitet. Die vorliegende Erfindung dient der Positionsbestimmung von unbemannten, langsam und tief fliegenden Flugobjekten. Solche Flugobjekte werden auch als LSS-Flugobjekte (Low, Slow, Small, d. h. tieffliegend, langsam fliegend und klein) bezeichnet. Solche LSS-Flugobjekte können ferngesteuerte Schwebeplattformen, sogenannte Multikopter mit mehreren Propellern oder Rotoren sein. Es existieren Schwebeplattformen mit bspw. vier, sechs, acht oder zwölf Propellern. Ferner können LSS-Flugobjekte als ferngesteuerte Helikopter ausgebildet sein. LSS-Flugobjekte lassen sich mit geringer Geschwindigkeit bodennah und entlang von Fassaden oder in der Nähe von Bäumen bewegen und sind daher schwierig zu detektieren.
  • Es besteht die Gefahr, dass Fremddrohnen in sensitive Bereiche eindringen und dort zu Störungen führen. Beispielsweise könnten mit Fremddrohnen Flüge über Regierungsgebäude, Kraftwerkseinrichtungen, Infrastruktureinrichtungen oder militärischen Einrichtungen erfolgen. Fremddrohnen oder Drohnen allgemein können im Rahmen ihrer Nutzlast Datenaufnahmegeräte, wie z. B. optische Sensoren, z. B. Kameras tragen, so dass bei einem unautorisierten Überflug über sensitive Bereiche die Fremddrohnen eine Aufklärung leisten können. Ferner besteht die Möglichkeit, dass Fremddrohnen auch Schaden anrichten, sei es durch gefährliche Nutzlasten oder durch eine Kollision innerhalb des sensitiven Bereichs. Es ist daher von Interesse, das unautorisierte Eindringen von Fremddrohnen in sensitive Bereiche zu verhindern oder zumindest festzustellen, um eventuell Gegenmaßnahmen einleiten zu können.
  • Aus der DE 10 2007 062 603 A1 ist ein Verfahren zur Detektion von Fremddrohnen bekannt. Das Verfahren dient zur Sicherung von Gebäuden, um Drohnen mittels unterschiedlicher Typen von Sensoreinrichtungen zu erfassen. Hierdurch sollen Fehlalarme reduziert werden. Ein zu überwachender Raum wird mittels wenigstens einer omnidirektionalen Sensoreinrichtung erster Art überwacht, wobei die omnidirektionale Sensoreinrichtung im optischen Frequenzbereich empfindlich ist. Die Sensoreinrichtung erster Art weist einen Panoramasensor mit einer gekrümmten Spiegelfläche und einem CCD-Sensor auf. Der Raum wird ferner mittels wenigstens einer omnidirektionalen Sensoreinrichtung zweiter Art überwacht. Die omnidirektionale Sensoreinrichtung zweiter Art ist im Radiowellen- und/oder Mikrowellenbereich empfindlich. Als Sensoreinrichtung zweiter Art ist ein Funkpeilsensor vorgesehen, welcher im Radiowellenfrequenzbereich empfindlich ist. Dies sind Frequenzbereiche, in welchen eine Fremddrohne in den meisten Fällen Daten zu einer Empfangsstation senden wird. Die optischen Sensoreinrichtungen dienen der Raumortung. Der Raum wird mit jeweils zwei Sensoreinrichtungen erster und zweiter Art überwacht, wobei aus den empfangenen Signalen für jede Art der Sensoreinrichtung der Ort des Signalursprungs in einer Messebene oder im dreidimensionalen Raum bestimmt wird. Hierdurch wird die Position der Drohne bestimmt. Die Sensoreinrichtungen zweiter Art ermitteln Funksteuerdaten der Drohne. Es wird geprüft, ob es sich bei den empfangenen Signalen wenigstens teilweise um für Drohnen typische Signale oder Signalabfolgen handelt. Anhand einer zeitlichen Abfolge der empfangenen Signale eines Objektes wird ein Bewegungsmuster des Objekts erstellt und geprüft, ob es sich um ein für eine Drohne typisches Bewegungsmuster handelt. Es wird geprüft, ob die von den Sensoreinrichtungen erster und zweiter Art empfangenen Signale hinsichtlich des Ursprungsorts korrelieren. Wenn die Signale korrelieren, wird ein Alarm ausgelöst. Die Sensoreinrichtungen sind stationär angeordnet und beispielsweise an einem Mast montiert oder an bereits vorhandener Infrastruktur eines Gebäudes angeordnet.
  • Dieses Verfahren ist noch nicht optimal ausgebildet. Nachteilig ist, dass nur dann eine Fremddrohne detektiert wird, wenn die Fremddrohne in einem festgelegten zu überwachenden Raum eingedrungen ist. Wenn die Drohne den zu überwachenden Raum oder Bereich wieder verlässt, können die Sensoreinrichtungen keine Daten mehr bezüglich der Flugbahn der Fremddrohne liefern. Sobald die Fremddrohne nach einer Aufklärungsmission den sensitiven Bereich, d. h. den zu überwachenden Bereich wieder verlassen hat, ist sie aufgrund der begrenzten Sensorreichweite nicht mehr erfassbar. Es ist damit nicht mehr möglich, einen Landeort der Fremddrohne zu erfassen, der außerhalb des Überwachungsbereiches liegt. Vielfach ist es jedoch wünschenswert, am Landeort entweder die Fremddrohne einzufangen oder sogar das Bedienpersonal adressieren zu können, welches die unautorisierte Fremddrohne gesteuert hat, wenn das Bedienpersonal die Fremddrohne wieder aufnehmen will. Die Fremddrohnen werden aufgenommen, weil sie einerseits selbst einen gewissen Wert darstellen und zum anderen auf einem Speichermedium der Fremddrohne häufig wichtige Aufklärungsdaten gespeichert sind. Eine Funkübertragung von der Fremddrohne findet häufig nicht statt, damit die Fremddrohne bei ihrer Aufklärungsmission nicht durch die zweiten Sensoreinrichtungen enttarnt wird.
  • Aus der nachveröffentlichten US 9 164 506 B1 ist eine Zielverfolgung mittels einer Drohne bekannt, wobei die Drohne eine bildgebende Vorrichtung aufweist, die zur Verfolgung notwendige Informationen liefert. Die Drohne bewegt sich dabei in einer Flugroute, die mittels Navigationsbefehlen von einem Nutzer gesteuert wird.
  • Aus der gattungsbildenden US 2009/0157233 A1 ist eine Drohne (UAV) bekannt, mittels der ein Ziel im Luftraum am Boden oder zu Wasser überwacht und verfolgt werden kann. Das System ermittelt die beste Flugroute, um möglichst gute Kameraaufnahmen zu ermöglichen und gleichzeitig die Gefahr des Entdecktwerdens zu minimieren. Die Drohne kann in einem Stalker-Modus betrieben werden. Mittels eines Stalker-Systems wird der Abstand zu dem Ziel zwischen einem minimalen Abstand und einem maximalen Abstand gehalten. Die Drohne weist eine Videokamera und weitere Sensoren auf. Das Videosignal der Drohne wird mit vorherigen Aufzeichnungen verglichen, um mögliche Ziele ausfindig zu machen. Zu diesen Sensoren gehören u.a. ein Positionssensor, ein Geschwindigkeitssensor, ein Beschleunigungssensor und andere kinematische Sensoren. Es ist ein Zielerkennungsmodul (ATR) vorhanden. Dieses ATR-Modul wertet das Videosignal aus. Ferner ist ein Kommandomodul vorhanden, das ein Umgebungsmodell mit Daten bezüglich der Missionsumgebung enthält, wie beispielsweise topografische Umgebungskarten, Landesverläufe und dergleichen.
  • Der Erfindung liegt daher die Aufgabe zugrunde, das eingangs genannte Verfahren derart auszugestalten und weiterzubilden, so dass die Bestimmung der Flugbahn und/oder die Bestimmung des Landeortes der Fremddrohne verbessert ist.
  • Diese der Erfindung zugrunde liegende Aufgabe wird nun durch ein Verfahren mit den Merkmalen des Patentanspruches 1 gelöst.
  • Es wird eine Eigendrohne zur Positionsbestimmung der Fremddrohne verwendet. Die Eigendrohne ist mit einem Positionsgeber und mit einer Sensoranordnung ausgestattet. Die Position der Eigendrohne wird mittels des Positionsgebers ermittelt. Die Fremddrohne wird von der Sensoranordnung erfasst. Dies kann insbesondere dadurch geschehen, dass die Flugbahn der Eigendrohne und insbesondere auch die Ausrichtung des Sensors an die Position der Fremddrohne angepasst wird.
  • Aufgrund der ermittelten Position der Eigendrohne und/oder aufgrund der Sensordaten des mindestens einen optischen Sensors, wird die aktuelle Position der Fremddrohne bestimmt. Die Fremddrohne wird dabei mit der Eigendrohne verfolgt. Dadurch, dass die Fremddrohne mit der Eigendrohne verfolgt wird, kann der zu überwachende Bereich deutlich ausgeweitet werden. Es ist die Gefahr verringert, dass die Fremddrohne den zu überwachenden Bereich verlässt, da der zu überwachte Bereich durch die Verfolgung ausgeweitet wird. Die Bestimmung der Flugbahn und insbesondere die Bestimmung des Landeortes der Fremddrohne ist verbessert. Es ist denkbar, dass die Eigendrohne dauerhaft einen sensitiven Bereich aus der Luft überwacht oder aber nur im Bedarfsfall oder nach einer Vorwarnung aufsteigt, um den sensitiven Bereich abzusichern. Es ist denkbar, dass zusätzlich zu der Drohne weitere, insbesondere stationäre Sensoren vorgesehen sind, die einen ersten oder primären Bereich überwachen. Sobald eine Fremddrohne in diesen primären Bereich eindringt oder ermittelt worden ist, dass mit einer gewissen Wahrscheinlichkeit eine Fremddrohne in den primären Bereich eingedrungen ist, kann die Eigendrohne starten. Sobald mit zunächst den stationären Sensoren und/oder der Sensoranordnung, insbesondere mindestens einem optischen Sensor der Eigendrohne die Fremddrohne erfasst worden ist, kann nun die Eigendrohne der Fremddrohne folgen und einen erweiterten sekundären Bereich bei der Verfolgung überwachen.
  • Die Eigendrohne weist ferner vorzugsweise ein Kommunikationsmodul auf, wobei mittels des Kommunikationsmoduls zumindest die Position der Eigendrohne an eine Bodenstation übermittelt wird.
  • Mittels des Positionsgebers wird insbesondere die Position der Eigendrohne ermittelt und über das Kommunikationsmodul an eine Bodenstation gesendet. Die Bodenstation kann die Positionsänderungen der Eigendrohne und somit der Fremddrohne erfassen, um den Landeort feststellen zu können. Die Position der Eigendrohne wird hierbei näherungsweise zur Bestimmung der ungefähren Position der Fremddrohne verwendet. Beispielsweise kann die Eigendrohne der Fremddrohne in einem festen Sicherheitsabstand folgen. Bei der Verfolgung wird ein bestimmter Sicherheitsabstand eingehalten. Die Position der Fremddrohne kann daher durch einen Kreis mit dem Radius des Sicherheitsabstandes um die Position der Eigendrohne genähert werden. Je kleiner der Sicherheitsabstand, desto präziser kann die Position der Fremddrohne eingegrenzt werden. Insbesondere kann vorzugsweise die Fremddrohne solange verfolgt werden, bis der Landeort festgestellt wird.
  • Der Landeort ist häufig auch mit dem Startort der Fremddrohne identisch. Daher besteht die Möglichkeit, gegebenenfalls auch das Bedienpersonal der Fremddrohne adressieren zu können oder weitere Informationen über das Bedienpersonal zu gewinnen, wenn der Landeort und Startort festgestellt worden ist.
  • Alternativ kann mittels des Kommunikationsmoduls eine von der Position der Eigendrohne verschiedene Position der Fremddrohne übermittelt werden. Diese genauere Positionsangabe der Fremddrohne wird aufgrund der Sensordaten bestimmt. Es ist ferner insbesondere möglich, dass mittels der Sensoranordnung aufgenommene Sensordaten an die Bodenstation übermittelt werden.
  • Es gibt verschiedene Möglichkeiten, die Positionen der Eigendrohne mittels eines Positionsgebers zu bestimmen. Der Positionsgeber kann bspw. als Sensor für ein globales Navigationssatellitensystem wie bspw. GPS oder Galileo ausgebildet sein. In alternativer Ausgestaltung kann der Positionsgeber als Mobilfunkmittel ausgebildet sein und eine Funkmastpeilung verwenden.
  • Die Sensoranordnung weist vorzugsweise mehrere Sensoren auf, die jeweils ein unterschiedliches Sichtfeld in unterschiedlicher räumlicher Ausrichtung haben. Vorzugsweise weist die Sensoranordnung mindestens einen optischen Sensor auf. Dieser optische Sensor kann als Kamera, insbesondere als Videokamera oder TV-Kamera ausgebildet sein. Die entsprechende Kamera kann einen CCD-Sensor oder dergleichen aufweisen. Die Sensoranordnung kann insbesondere ein Kamerasystem mit mindestens einer Kamera, vorzugsweise mit mehreren Kameras aufweisen. Die Sensoranordnung kann derart ausgestaltet sein, dass mindestens einer der Sensoren, vorzugsweise mehrere Sensoren, um mindestens eine räumliche Achse bewegt werden kann/können, um das Sichtfeld zu vergrößern. Die Bewegung kann durch eine Nickbewegung, ein Rotieren, eine Schwenkbewegung oder ein Scan oder dergleichen erfolgen.
  • Es wird eine Bilderkennung genutzt, wobei die Sensordaten des optischen Sensors mittels der Bilderkennung mit einem hinterlegten, gespeicherten Umgebungsmodell verglichen werden. Wenn nun mittels der Bilderkennung ein bestimmtes Objekt erkannt worden ist, d. h. die Sensordaten dem entsprechenden Objekt in dem Umgebungsmodell zugeordnet werden konnten, so kann die Position der Eigendrohne und/oder die Position der Fremddrohne bestimmt werden. Durch einen Vergleich der Größe des Abbildes in den Sensordaten mit hinterlegten Daten zu der angenommen Größe im Umgebungsmodell der Objekte kann der Abstand der Objekte zur Eigendrohne abgeschätzt werden. Insbesondere kann eine Bestimmung der Position der Eigendrohne erfolgen, wenn mehrere unterschiedliche Objekte mittels der Bilderkennung bzw. Bildverarbeitung erkannt worden sind. Wenn die Bilderkennung erkennt, dass die Fremddrohne ein bestimmtes Objekt zumindest teilweise verdeckt, so wird erkannt, dass die Fremddrohne sich zwischen dem Objekt und der Position der Eigendrohne befindet. Die Position der Eigendrohne kann hierdurch abgeschätzt werden. Durch einen Vergleich der Größe des Abbildes mit hinterlegten Daten zu der angenommen Größe der Fremddrohne kann der Abstand der Fremddrohne zur Eigendrohne abgeschätzt werden.
  • In bevorzugter Ausgestaltung umfasst die Sensoranordnung der jeweiligen Eigendrohne ferner einen Radarsender und einen Radarempfänger. Mittels dieser Radarsensorik ist es möglich, zusätzlich genauere Abstandsinformationen zu gewinnen. Damit lassen sich über die Kopplung an Zeitdaten auch Geschwindigkeiten der Fremddrohne errechnen. Somit können erfasste Fremddrohnen bspw. auch in Bezug auf ihre Flughöhe über Grund und ihre Geschwindigkeit kategorisiert und bewertet werden.
  • In einer Ausgestaltung des Verfahrens ist das Umgebungsmodell des zu überwachenden Bereiches in einer Datenverarbeitungsanlage der Drohne gespeichert. In alternativer Ausgestaltung ist das Umgebungsmodell am Ort der Bodenstation gespeichert.
  • Mittels der Bilderkennung wird vorzugsweise der Typ und/oder die Bauart der Fremddrohne ermittelt. Hierzu sind vorzugsweise in einem Speicher der Eigendrohne und/oder in einem geeigneten Speicher an der Bodenstation Informationen bzgl. mehrerer Drohnenarten abgespeichert. Diese Informationen können insbesondere Informationen bzgl. der Reichweite und/oder der maximalen Flugdauer der Fremddrohnen umfassen. Hierdurch ist es möglich, einen maximalen Flugbereich der Fremddrohne zu ermitteln. Dieser maximale Flugbereich kann als Wirkungszone bezeichnet werden und wird durch die maximal von der Fremddrohne erreichbare Zone gebildet. Der Landeort kann sich nur innerhalb der Wirkungszone bzw. am Rand der Wirkungszone befinden.
  • In bevorzugter Ausgestaltung werden bei der Berechnung der Wirkungszone der Fremddrohne Wetterdaten berücksichtigt. Diese Wetterdaten können durch Wettersensoren ermittelt werden. In einer Ausgestaltung des Verfahrens sind diese Wettersensoren der Eigendrohne zugeordnet. Alternativ oder zusätzlich können diese Wettersensoren stationär angeordnet sein, wobei die Wetterdaten entweder von der Bodenstation verarbeitet werden oder in bevorzugter Ausgestaltung an die Drohne übermittelt werden. Vorzugsweise wird die aktuelle und/oder prognostizierte Windrichtung und/oder Windgeschwindigkeit bei der Bestimmung des maximalen Flugbereiches berücksichtigt. Fremddrohnen, insbesondere in vertikal startender Bauart sind stark durch den Wind beeinflussbar. Es ist wahrscheinlicher, dass der Landepunkt sich leeseitig, d. h. in Windrichtung als gegen die Windrichtung, d. h. luvseitig befindet. Die Wirkungszone ist leeseitig größer als luvseitig.
  • Es sind nun besonders prädestinierte Landeplätze im Umgebungsmodell vorab bereits hinterlegt. Beispielsweise können geschützte Landeplätze bspw. unterhalb von Brücken im Umgebungsmodell hinterlegt sein. Diese Auszeichnung von den besonders geeigneten Landeplätzen kann bereits vorab gespeichert sein und muss nicht erst dann erfolgen, wenn die Fremddrohne eingedrungen ist. Ferner werden die besonders prädestinierten Landeorte mittels der Bilderkennung der Eigendrohne ermittelt. Die prädestinierten Landeorte können während der Verfolgung oder bei einem vorherigen Erkundungsflug ermittelt werden.
  • Es wird nun vorzugsweise verglichen, welche der besonders geeigneten bzw. prädestinierten Landeorte innerhalb der Wirkungszone, d. h. innerhalb des maximalen Flugbereiches, liegen. Die Berechnung der Wirkungszone und/oder der Vergleich, welche der geeigneten Landeplätze innerhalb der Wirkungszone liegen, wird fortlaufend, insbesondere periodisch aktualisiert.
  • An der Bodenstation der Eigendrohne kann auch an einem üblichen Anzeigegerät - wie bspw. einem Bildschirm - die jeweils aktuellen Positionen der Eigendrohne und der Fremddrohne angezeigt werden, um verbundene Einsatzkräfte steuern zu können. Ferner werden insbesondere die vorgesehenen, geeigneten Landeorte angezeigt. Es ist denkbar, dass ebenfalls die Wirkungszone angezeigt wird. Es ist nun möglich, mit der Eigendrohne oder mit weiteren Eigendrohnen diese prädestinierten Landeorte anzufliegen und diese Landeorte besonders zu überwachen.
  • Die Eigendrohne erfasst mit ihren Sensoren vollständig oder abschnittsweise den zu überwachenden Bereich, d. h. den entsprechenden sensitiven Bereich sowie Randbereiche und ermittelt laufend die eigene Position. Eine in den sensitiven Bereich eindringende Fremddrohne wird von den Sensoren der Eigendrohne erfasst. Die Eigendrohne ermittelt die aktuelle Position der Fremddrohne. Die Eigendrohne nähert sich insbesondere bis auf einen Sicherheitsabstand der Fremddrohne.
  • Vorzugsweise erfolgt die Steuerung der Eigendrohne insbesondere bei der Verfolgung autonom. Die Eigendrohne ist mit einer Datenverarbeitungsanlage ausgestattet. Die Drohne wird mittels der Datenverarbeitungsanlage gesteuert. Die Steuerung der Eigendrohne erfolgt durch ein Steuerprogramm, das von einer Datenverarbeitungseinheit in der Eigendrohne ausgeführt wird. Dieses Steuerungsprogramm enthält die Anweisung, der Fremddrohne bis auf den Sicherheitsabstand zu folgen. Der Sicherheitsabstand kann bspw. 20 Meter betragen. Die Eigendrohne übermittelt währenddessen die Position der Fremddrohne an die Bodenstation. Diese Übermittlung an die Bodenstation erfolgt so lange, bis die Fremddrohne den Landeort erreicht hat. In alternativer Ausgestaltung kann die Datenverarbeitungsanlage zur Steuerung der Drohne als Teil einer Bodenstation ausgebildet sein, wobei Steuerbefehle von der Bodenstation an die Eigendrohne übermittelt werden.
  • Es gibt nun eine Vielzahl von Möglichkeiten, das erfindungsgemäße Verfahren auszugestalten und weiterzubilden. Hierfür darf zunächst auf die dem Patentanspruch 1 nachgeordneten Patentansprüche verwiesen werden. Im Folgenden wird eine bevorzugte Ausgestaltung der Erfindung anhand der Zeichnung und der dazugehörigen Beschreibung näher erläutert.
  • In der Zeichnung zeigt:
    • 1 in einer schematischen Darstellung eine zu überwachende Umgebung mit einer Fremddrohne und mit einer Eigendrohne.
  • In 1 ist eine Umgebung mit mehreren Gebäuden 1, 2, 3 und Bäumen 4 gut zu erkennen. Die Erfindung betrifft nun ein Verfahren zur Bestimmung der Flugbahn 5 einer Fremddrohne 6. Mittels einer Sensoranordnung, insbesondere mittels mindestens eines optischen Sensors wird die Fremddrohne 6 erfasst. Der optische Sensor bzw. die Sensoranordnung ist hier durch einen Erfassungsbereich 7 schematisch angedeutet.
  • Die eingangs genannten Nachteile sind nun dadurch vermieden, dass eine Eigendrohne 8 zur Positionsbestimmung der Fremddrohne 6 verwendet wird, wobei die Eigendrohne 8 mit einer Sensoranordnung, insbesondere mit mindestens einem optischen Sensor und mit einem Positionsgeber ausgestattet ist, wobei die Position der Eigendrohne 8 mit dem Positionsgeber ermittelt wird, wobei die Fremddrohne 6 von der Sensoranordnung erfasst wird, wobei aufgrund der ermittelten Position der Eigendrohne 8 und/oder aufgrund der Sensordaten der Sensoranordnung die aktuelle Position der Fremddrohne 6 bestimmt wird, wobei die Fremddrohne 6 von der Eigendrohne 8 verfolgt wird. Dies hat den Vorteil, dass die Flugbahn 5 besser bestimmt werden kann. Insbesondere kann ein Landeort 9 besser bestimmt werden.
  • Die Eigendrohne 8 ist vorzugsweise als LSS-Flugobjekt ausgebildet. Die Fremddrohne 6 kann insbesondere ebenfalls als LSS-Flugobjekt ausgebildet sein. Solche LSS-Flugobjekte können ferngesteuerte Schwebeplattformen, sogenannte Multikopter mit mehreren Propellern oder Rotoren sein. Ferner ist es denkbar, als LSS-Flugobjekt einen Helikopter einzusetzen.
  • In der Eigendrohne 8 ist ein Umgebungsmodell vorab gespeichert. Das Umgebungsmodell enthält insbesondere Informationen zu vorhandenen Gebäuden 1, 2, 3, den Bäumen 4 und dergleichen. Es sind in dem Umgebungsmodell mögliche bzw. geeignete Landeorte 9, 10, 11, 12 gespeichert. Mittels der Sensoren erfasst die Eigendrohne 8 die Fremddrohne 6 und folgt ihr. Die Steuerung der Eigendrohne 8 erfolgt vorzugsweise autonom. Die Eigendrohne 8 weist vorzugsweise eine Datenverarbeitungsanlage auf.
  • In bevorzugter Ausgestaltung wird die Flugroute der Eigendrohne 8 mittels der Datenverarbeitungsanlage bestimmt. Die Eigendrohne 8 fliegt autonom. Die Flugroute der Eigendrohne 8 wird dabei in Abhängigkeit von der Flugbahn 5 der Fremddrohne 6 bestimmt. Vorzugsweise wird die Flugroute der Eigendrohne 8 derart bestimmt, dass der Abstand zwischen der Eigendrohne 8 und der Fremddrohne 6 einen Maximalabstand nicht überschreitet. Vorzugsweise wird die Flugroute der Eigendrohne 8 derart bestimmt, dass der Minimalabstand, d. h. ein entsprechender Sicherheitsabstand nicht unterschritten wird. Der Sicherheitsabstand kann bspw. 20 Meter betragen. Der Maximalabstand kann bspw. mehr als 20 Meter, insbesondere 50, 70, 80 oder 100 Meter betragen. Die Geschwindigkeit der Eigendrohne 8 wird vorzugsweise an die Geschwindigkeit der Fremddrohne 6 angepasst. Die Flugrichtung der Eigendrohne 8 wird vorzugsweise an die Flugrichtung der Fremddrohne 6 angepasst.
  • Die Sensoranordnung der Eigendrohne 8 weist vorzugsweise mindestens einen optischen Sensor auf. Insbesondere sind mehrere Sensoren vorgesehen. Die Sensoren können unterschiedliche Erfassungsbereiche 7 aufweisen. Der mindestens eine optische Sensor kann als Kamera, insbesondere als Videokamera oder TV-Kamera ausgebildet sein. Der optische Sensor kann ein CCD-Sensor oder dergleichen aufweisen bzw. als CCD-Sensor ausgebildet sein. Die Sensoren können durch ein Kamerasystem mit mindestens einer Kamera, insbesondere mit mehreren Kameras ausgebildet sein. Es ist denkbar, dass die Sensoren um eine räumliche Achse bewegt werden können, um den Erfassungsbereich 7 zu verändern. Der Erfassungsbereich 7 kann durch eine Nickbewegung, ein Rotieren, eine Schwenkbewegung oder ein Scan oder dergleichen verändert werden. Hierdurch ist die Erfassung der Fremddrohne 6 verbessert.
  • Die Positionsbestimmung erfolgt mit einem Positionsgeber. Der Positionsgeber kann dabei GPS-Daten, Galileo oder eine GSM-Peilung bzw. eine Funkmastpeilung nutzen.
  • Die Gebäude 1, 2 können bspw. in einem sensitiven Bereich liegen. Die Gebäude 1, 2 können bspw. als Regierungsgebäude gebildet sein oder durch Kraftwerks- und Infrastruktureinrichtungen oder durch militärische Einrichtungen gebildet sein. Durch das erfindungsgemäße Verfahren sind die Chancen erhöht, dass Zugriff auf die Fremddrohne 6 erlangt wird.
  • In bevorzugter Ausgestaltung wird mittels der Datenverarbeitungsanlage der Eigendrohne 8 zunächst der Typ der Fremddrohne 6 bestimmt. Hierzu ist in der Datenverarbeitungsanlage eine Datenbank mit Informationen zu Drohnenarten abgespeichert. Diese Datenbank kann insbesondere Informationen zu Größe, Antrieb, Reichweite, maximaler Flughöhen, maximaler Flugdauer und dergleichen enthalten. Die mittels der Sensoranordnung ermittelten Sensordaten werden mittels einer Bilderkennung ausgewertet. Die ausgewerteten Informationen werden mit den in der Datenbank gespeicherten Informationen verglichen, so dass der Fremddrohne 6 eine Drohnenart oder zumindest eine Gruppe von Drohnenarten zugeordnet werden kann. Anhand dieser Zuordnung kann nun eine maximale Reichweite der Fremddrohne 6 bestimmt werden. Diese maximale Reichweite wird in dem Umgebungsmodell als Wirkungszone markiert. Es wird nun insbesondere verglichen, welche der geeigneten Landeorte 9, 10, 11, 12 innerhalb der Wirkungszone liegen. Beispielsweise ist denkbar, dass die Landeorte 9, 11 und 12 innerhalb der Wirkungszone liegen, aber der Landeort 10 links des Gebäudes 1 außerhalb der Wirkungszone liegt. Daher kann der prinzipielle Landeort 10 als tatsächlich möglicher Landungsort ausgeschlossen werden.
  • Es ist denkbar, dass den Landeorten 9, 10, 11 und 12 jeweils unterschiedlich hohe Wahrscheinlichkeiten zugeordnet werden. Die Wahrscheinlichkeit des Landeortes 10 wäre bspw. 0 Prozent. Die Zuordnung der Wahrscheinlichkeiten kann in Abhängigkeit von Flughöhe und dem Abstand der Fremddrohne 6 zu dem Landeort 9, 11, 12 und der Geschwindigkeit der Fremddrohne 6 erfolgen. Ein geringer Abstand der Fremdrohne 6 zum Landeort 9 und eine geringe Flughöhe können bspw. zu einer höheren Wahrscheinlichkeit des Landeortes 9 führen im Vergleich zu den Landeorten 11 und 12. Die Wahrscheinlichkeiten der Landeorte 9, 10, 11, 12 kann fortwährend aktualisiert werden. Vorzugsweise werden die Landeorte 9, 10, 11, 12 einer Bodenstation angezeigt. Es ist denkbar, die Größe der Wahrscheinlichkeiten ebenfalls anzuzeigen.
  • Es ist denkbar, dass die Positionsbestimmung der Fremddrohne 6 ebenfalls mittels des mindestens einen optischen Sensors erfolgt, in dem mittels der Bilderkennung ausgewertet wird, in welchem Bereich des Umgebungsmodells sich die Fremddrohne 6 derzeit befindet und/oder in welchem Abstand sich die Fremddrohne 6 zur Eigendrohne 8 bewegt.
  • In bevorzugter Ausgestaltung werden bei der Berechnung bzw. Bestimmung der Wirkungszone Wetterdaten berücksichtigt. Die Wetterdaten können durch Sensoren von der Eigendrohne 8 selbst ermittelt werden oder von stationären Sensoren bereitgestellt werden. Die Wetterdaten umfassen zumindest die Windgeschwindigkeit und die Windrichtung. Das Umgebungsmodell enthält insbesondere 3D-Informationen zu der zu überfliegenden Umgebung. Das 3D-Umgebungsmodell enthält Höheninformationen.
  • Die Eigendrohne 8 steht über ein Kommunikationsmodul mit einer Bodenstation in Kontakt. Das Kommunikationsmodul ermöglicht eine Funkverbindung zu der Bodenstation. An die Bodenstation wird zumindest die Position der Eigendrohne 8 und/oder die Position der Fremddrohne 6 übertragen. Insbesondere werden an die Bodenstation die Wirkungszone und/oder die Landeorte 9, 10, 11, 12 übertragen. In alternativer Ausgestaltung des Verfahrens ist es denkbar, dass die Wirkungszone und/oder die Landeorte 9, 10, 11, 12 durch die Bodenstation bestimmt werden. Die Übermittlung der Positionen der Eigendrohne 8 und/oder Fremddrohne 6 erfolgt vorzugsweise fortlaufend, insbesondere periodisch. In die Berechnung der Wirkungszone kann insbesondere die erfasste Flugdauer der Fremddrohne 6 mit einfließen. In die erfasste Wirkungszone kann insbesondere auch die aktuelle Flughöhe der Fremddrohne 6 mit einfließen.
  • Bezugszeichenliste
  • 1
    Gebäude
    2
    Gebäude
    3
    Gebäude
    4
    Bäume
    5
    Flugbahn
    6
    Fremddrohne
    7
    Erfassungsbereich
    8
    Eigendrohne
    9
    Landeort
    10
    Landeort
    11
    Landeort
    12
    Landeort

Claims (12)

  1. Verfahren zur Bestimmung der Flugbahn (5) einer Fremddrohne (6), wobei mittels mindestens einer Sensoranordnung die Fremddrohne (6) erfasst wird, wobei eine Eigendrohne (8) zur Positionsbestimmung der Fremddrohne (6) verwendet wird, wobei die Eigendrohne (8) mit der Sensoranordnung und mit einem Positionsgeber ausgestattet ist, wobei die Position der Eigendrohne (8) mit dem Positionsgeber ermittelt wird, wobei die Fremddrohne (6) von der Sensoranordnung erfasst wird, wobei aufgrund der ermittelten Position der Eigendrohne (8) und/oder aufgrund der Sensordaten der Sensoranordnung die Position der Fremddrohne (6) bestimmt wird, wobei die Fremddrohne (6) von der Eigendrohne (8) verfolgt wird, wobei ein Umgebungsmodell gespeichert ist, dadurch gekennzeichnet, dass das Umgebungsmodell geeignete Landeorte (9, 10, 11, 12) aufweist, wobei mittels einer Bilderkennung den Sensordaten Objekte im Umgebungsmodell zugeordnet werden, wobei anhand der erkannten Objekte die Position der Eigendrohne (8) und/oder die Position der Fremddrohne (6) bestimmt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Eigendrohne (8) ein Kommunikationsmodul zur Bereitstellung einer Funkverbindung zu einer Bodenstation aufweist, wobei die Position der Eigendrohne (8) und/oder der Fremddrohne (6) über die Funkverbindung an die Bodenstation übermittelt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Sensoranordnung einen optischen Sensor aufweist, wobei die Fremddrohne (6) von dem optischen Sensor erfasst wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass aufgrund der Sensordaten des optischen Sensors mittels einer Bilderkennung der Typ der Fremddrohne (6) bestimmt wird, wobei der Typ der Fremddrohne (6) bei der Ermittlung einer Wirkungszone, nämlich einer maximalen, von der Fremddrohne (6) erreichbaren Zone, berücksichtigt wird.
  5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass Wetterdaten bei der Bestimmung der Wirkungszone berücksichtigt werden, wobei eine Windrichtung und eine Windgeschwindigkeit berücksichtigt wird.
  6. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass bei der Verfolgung der Fremddrohne (6) die Eigendrohne (8) autonom von einer Datenverarbeitungsanlage gesteuert wird.
  7. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass bei der Verfolgung ein Sicherheitsabstand zwischen der Eigendrohne (8) und der Fremddrohne (6) eingehalten wird.
  8. Verfahren nach einem der vorstehenden Ansprüche 2 bis 7, dadurch gekennzeichnet, dass an der Bodenstation an einem Anzeigegerät die aktuelle Position der Eigendrohne (8) und die aktuelle Position der Fremddrohne (6) angezeigt werden.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass auf dem Anzeigegerät die Landeorte (9, 10, 11, 12) angezeigt werden.
  10. Eigendrohne (8) mit mindestens einer Datenverarbeitungsanlage, einer Sensoranordnung und einem Positionsgeber, dadurch gekennzeichnet, dass die Eigendrohne zur Ausführung des Verfahrens nach einem der vorstehenden Ansprüche ausgebildet ist.
  11. Eigendrohne (8) nach Anspruch 10, dadurch gekennzeichnet, dass die Sensoranordnung mindestens einen optischen Sensor und/oder mindestens einen Radarsender und einen Radarempfänger aufweist.
  12. Eigendrohne (8) nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die Eigendrohne (8) autonom von einer Datenverarbeitungsanlage steuerbar ist.
DE102015006233.6A 2015-05-18 2015-05-18 Verfahren zur Bestimmung der Flugbahn einer Fremddrohne Active DE102015006233B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102015006233.6A DE102015006233B4 (de) 2015-05-18 2015-05-18 Verfahren zur Bestimmung der Flugbahn einer Fremddrohne
PCT/EP2016/000808 WO2016184563A1 (de) 2015-05-18 2016-05-17 Verfahren zur bestimmung der flugbahn einer fremddrohne

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015006233.6A DE102015006233B4 (de) 2015-05-18 2015-05-18 Verfahren zur Bestimmung der Flugbahn einer Fremddrohne

Publications (2)

Publication Number Publication Date
DE102015006233A1 DE102015006233A1 (de) 2016-11-24
DE102015006233B4 true DE102015006233B4 (de) 2020-12-03

Family

ID=56008571

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015006233.6A Active DE102015006233B4 (de) 2015-05-18 2015-05-18 Verfahren zur Bestimmung der Flugbahn einer Fremddrohne

Country Status (2)

Country Link
DE (1) DE102015006233B4 (de)
WO (1) WO2016184563A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3000005C (en) 2015-09-30 2024-03-19 Alarm.Com Incorporated Drone detection systems
AU2017342017A1 (en) 2016-10-11 2019-05-02 Whitefox Defense Technologies, Inc. Systems and methods for cyber-physical vehicle management, detection and control
US11134380B2 (en) 2016-10-11 2021-09-28 Whitefox Defense Technologies, Inc. Systems and methods for cyber-physical vehicle management, detection and control
WO2020051226A1 (en) 2018-09-05 2020-03-12 Whitefox Defense Technologies, Inc. Integrated secure device manager systems and methods for cyber-physical vehicles
DE102019104866A1 (de) 2019-02-26 2020-08-27 Rheinmetall Waffe Munition Gmbh Drohne sowie Verfahren zur Zielbekämpfung
CA3076695A1 (en) * 2019-03-21 2020-09-21 Alberta Centre For Advanced Mnt Products Drone detection using multi-sensory arrays

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090157233A1 (en) * 2007-12-14 2009-06-18 Kokkeby Kristen L System and methods for autonomous tracking and surveillance
DE102007062603A1 (de) * 2007-12-22 2009-07-02 Diehl Bgt Defence Gmbh & Co. Kg Verfahren und Vorrichtung zur Detektion Daten sendender Fahrzeuge
US9164506B1 (en) * 2014-07-30 2015-10-20 SZ DJI Technology Co., Ltd Systems and methods for target tracking

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100001902A1 (en) * 2005-01-21 2010-01-07 The Boeing Company Situation awareness display
US9429945B2 (en) * 2014-10-22 2016-08-30 Honeywell International Inc. Surveying areas using a radar system and an unmanned aerial vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090157233A1 (en) * 2007-12-14 2009-06-18 Kokkeby Kristen L System and methods for autonomous tracking and surveillance
DE102007062603A1 (de) * 2007-12-22 2009-07-02 Diehl Bgt Defence Gmbh & Co. Kg Verfahren und Vorrichtung zur Detektion Daten sendender Fahrzeuge
US9164506B1 (en) * 2014-07-30 2015-10-20 SZ DJI Technology Co., Ltd Systems and methods for target tracking

Also Published As

Publication number Publication date
DE102015006233A1 (de) 2016-11-24
WO2016184563A1 (de) 2016-11-24

Similar Documents

Publication Publication Date Title
DE102015006233B4 (de) Verfahren zur Bestimmung der Flugbahn einer Fremddrohne
DE102009009896B4 (de) Verfahren und Vorrichtung zur Erfassung von Zielobjekten
EP2702382B1 (de) Verfahren und system zum prüfen einer oberfläche auf materialfehler
EP3293115B1 (de) Verfahren zur steuerung unbemannter flugobjekte
KR102399879B1 (ko) 군집비행 드론 플랫폼을 이용한 재배현황 및 식생지수 분석 시스템
EP2266314B9 (de) Überwachungsverfahren und -vorrichtung für flugkorridore oder teile von flugkorridoren von flughäfen
EP3376213A1 (de) Verfahren und anordnung für eine zustandsüberwachung einer anlage mit betriebsmitteln
EP3139125B1 (de) Drohnenabwehranlage zum abwehren von fremddrohnen
EP3493107A1 (de) Mobiles optisches weitbereichsaufklärungs- und beobachtungssystem mit automatischer objekterkennung und verfahren zur mobilen optischen weitbereichsaufklärung und beobachtung mit automatischer objekterkennung
EP3819659A1 (de) Kommunikationsmodul für komponenten taktischer luftverteidigungssysteme
DE102007062603B4 (de) Verfahren und Vorrichtung zur Detektion Daten sendender Fahrzeuge
DE102016008553B4 (de) System umfassend ein Kraftfahrzeug und ein unbemanntes Luftfahrzeug und Verfahren zum Erfassen von Gegebenheiten in einer Umgebung eines Kraftfahrzeugs
DE102019109127B4 (de) Drohnenbasiertes Luft- und Kollisionsüberwachungssystem
EP3373092B1 (de) Verfahren zum lokalisieren einer störung eines systems
DE102018008282A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugobjekten
EP3236440B1 (de) Vorrichtung, system und verfahren zur markierungsfreien hangüberwachung und/oder bauüberwachung
WO2011157723A1 (de) System und verfahren zur kollisionsvermeidung
DE102019007833A1 (de) Radarsystem
EP1732349B1 (de) Verfahren und Einrichtung zur Fernauslesung von Daten
DE102019000719A1 (de) Vorrichtung und Verfahren zum Schutz fliegender Tiere vor den drehenden Rotorblättern einer Windenergieanlage durch eine neuronale Deep Learning Technologie
DE102016110477A1 (de) Verfahren zum Positionieren eines insbesondere unbemannten Luftfahrzeuges mit Hilfe einer aktiven statischen Bodenstation sowie Luftfahrzeug und Bodenstation zur Durchführung des Verfahrens
DE102016013944B4 (de) Detektorsystem für die bedarfsgesteuerte Kennzeichnung von Luftfahrthindernissen
DE19818426C2 (de) Verfahren zur Fernaufklärung und Zielortung
DE102022200355A1 (de) Verfahren, Abwehrdrohne und Abwehrsystem zur Abwehr einer Fremddrohne
DE102022120476A1 (de) Verfahren und Aufklärungssystem zur Aufklärung eines unerlaubten Einflugs einer Fremddrohne in einen definierten Luftbereich

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HUEBSCH, KIRSCHNER & PARTNER, PATENTANWAELTE U, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final