WO2016184563A1 - Method for determining the flight path of an alien drone - Google Patents

Method for determining the flight path of an alien drone Download PDF

Info

Publication number
WO2016184563A1
WO2016184563A1 PCT/EP2016/000808 EP2016000808W WO2016184563A1 WO 2016184563 A1 WO2016184563 A1 WO 2016184563A1 EP 2016000808 W EP2016000808 W EP 2016000808W WO 2016184563 A1 WO2016184563 A1 WO 2016184563A1
Authority
WO
WIPO (PCT)
Prior art keywords
drone
self
foreign
sensor
determined
Prior art date
Application number
PCT/EP2016/000808
Other languages
German (de)
French (fr)
Inventor
Michael Tüchler
Markus Oberholzer
Original Assignee
Rheinmetall Air Defence Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rheinmetall Air Defence Ag filed Critical Rheinmetall Air Defence Ag
Publication of WO2016184563A1 publication Critical patent/WO2016184563A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Definitions

  • the invention relates to a method for determining the trajectory of an externally controlled drone, a so-called foreign drone, with the features of claim 1.
  • LSS flying objects low, slow, small, that is to say low-flying, slow-flying and small.
  • LSS flying objects can be remote-controlled floating platforms, so-called multicopters with multiple propellers or rotors. There are floating platforms with, for example, four, six, eight or twelve propellers.
  • LSS flying objects can be designed as remote-controlled helicopters. LSS flying objects can be moved at low speed near the ground and along facades or near trees, making them difficult to detect.
  • foreign drones can penetrate into sensitive areas and cause disruptions there.
  • foreign drones could provide flights over government buildings, power plants, infrastructure or military facilities.
  • Third-party drones or drones in general can within their payload data recording devices such. B. optical sensors, z. B. cameras, so that in an unauthorized overflight over sensitive areas, the foreign drones can provide an explanation.
  • foreign drones also cause damage, be it by dangerous payloads or by a collision within the sensitive area. It is therefore of interest to prevent or at least to establish the unauthorized intrusion of foreign drones in sensitive areas in order to be able to initiate countermeasures.
  • a method for the detection of foreign drones is known.
  • the method is used to secure buildings to detect drones by means of different types of sensor devices. This should reduce false alarms.
  • a space to be monitored is monitored by means of at least one omnidirectional sensor device of the first type, wherein the omnidirectional sensor device in the optical frequency range is sensitive.
  • the sensor device of the first type has a panorama sensor with a curved mirror surface and a CCD sensor.
  • the space is further monitored by means of at least one omnidirectional sensor device of the second type.
  • the omnidirectional sensor device of the second kind is sensitive in the radio-wave and / or microwave range.
  • a radio feel sensor is provided, which is sensitive in the radio frequency range.
  • the optical sensor devices are used for spatial location.
  • the space is monitored with two sensor devices of the first and second type, wherein from the received signals for each type of sensor device, the location of the signal origin in a measurement plane or in three-dimensional space is determined. This determines the position of the drone.
  • the sensor devices of the second type determine radio control data of the drone. It is checked whether the received signals are at least partially drone-typical signals or signal sequences. Based on a temporal sequence of the received signals of an object, a movement pattern of the object is created and checked whether it is a movement pattern typical for a drone. It is checked whether the signals received by the sensor devices of the first and second type correlate with respect to the place of origin. When the signals correlate, an alarm is triggered.
  • the sensor devices are arranged stationary and, for example, mounted on a mast or arranged on existing infrastructure of a building.
  • This method is not yet optimally designed.
  • the disadvantage is that only a foreign drone is detected when the foreign drone has penetrated into a specific space to be monitored.
  • the sensor devices can no longer provide data regarding the trajectory of the foreign drone.
  • the foreign drone has left the sensitive area, ie the area to be monitored, after an reconnaissance mission, it is no longer detectable due to the limited sensor range. It is therefore no longer possible to detect a landing location of the foreign drone, which is outside the surveillance area.
  • the foreign drones are recorded because on the one hand they themselves represent a certain value and on the other hand important information data is often stored on a storage medium of the foreign drone. A Radio transmission from the foreign drone often does not take place, so that the foreign drone is not unmasked in their reconnaissance mission by the second sensor devices.
  • a drone (UAV) is known, by means of which a target in the airspace on the ground or on water can be monitored and tracked.
  • the system determines the best flight path to enable the best possible camera shots while minimizing the risk of being discovered.
  • the drone can be operated in a stalker mode. Using a stalker system, the distance to the target is kept between a minimum distance and a maximum distance.
  • the drone has a video camera and other sensors.
  • the video signal of the drone is compared with previous records to locate possible targets. These sensors include i.a. a position sensor, a speed sensor, an acceleration sensor and other kinematic sensors.
  • There is also a command module containing an environment model with mission environment data, such as topographical maps of the surroundings, country histories, and the like.
  • the invention is therefore based on the object of designing and further developing the aforementioned method so that the determination of the trajectory and / or the determination of the landing location of the foreign drone is improved.
  • predestined landing sites in an environment model already deposited in advance.
  • protected landing sites for example, be deposited below bridges in the environment model.
  • This award from the most suitable landing sites can already be saved in advance and does not have to be done until the third party drone has entered.
  • the particularly predestined landing locations are determined by means of the image recognition of the self-drone.
  • the predestined landing locations can be determined during the pursuit or during a previous reconnaissance flight. This increases the chances that the actual landing location of the foreign drone and thus also the further trajectory can be determined more accurately.
  • a self-drone is used to determine the position of the foreign drone.
  • the self-drone is equipped with a position sensor and with a sensor arrangement.
  • the position of the self-drone is determined by means of the position sensor.
  • the foreign drone is detected by the sensor arrangement. This can be done, in particular, by adapting the trajectory of the self-drone and in particular also the orientation of the sensor to the position of the foreign drone.
  • the current position of the foreign drone is determined.
  • the foreign drone is tracked with the self-drone.
  • the fact that the foreign drone is tracked with the self-drone, the area to be monitored can be significantly expanded. It reduces the risk that the foreign drone leaves the area to be monitored, as the monitored area is widened by the pursuit.
  • the determination of the trajectory and in particular the determination of the landing location of the foreign drone is improved. It is conceivable that the self-drone permanently monitors a sensitive area from the air or rises only when necessary or after an advance warning in order to protect the sensitive area.
  • At least one stationary sensor is provided, wherein a primary area is monitored by means of the at least one stationary sensor, whereby, as soon as a foreign drone has been detected in this primary area of the at least one stationary sensor or has been determined that with a certain probability Third-party drone has penetrated into the primary area, the self-drone is started, now follows the drone of the foreign drone and an extended secondary area is monitored in the pursuit. It is conceivable that in addition to the drone several, in particular stationary sensors are provided which monitor this first or primary area. As soon as a foreign drone enters this primary area or it has been determined that a foreign drone has penetrated into the primary area with a certain probability, the self-drone can start.
  • the self-drone further preferably has a communication module, wherein at least the position of the self-drone is transmitted to a ground station by means of the communication module.
  • the position sensor in particular the position of the self-drone is determined and sent via the communication module to a ground station.
  • the ground station can detect the changes in position of the self-drone and thus the foreign drone in order to determine the landing site.
  • the position of the self-drone is here approximately used to determine the approximate position of the foreign drone.
  • the self-drone can follow the foreign drone at a fixed safety distance.
  • a certain safety distance is maintained.
  • the position of the foreign drone can therefore be approximated by a circle with the radius of the safety distance to the position of the self-drone.
  • the smaller the safety distance the more precisely the position of the foreign drone can be limited.
  • the foreign drone can be tracked until the landing site is detected.
  • the landing site is often identical to the starting location of the foreign drone. Therefore, it is possible, if appropriate, to be able to address the operating personnel of the third-party drone or to obtain further information about the operating personnel when the landing site and starting location have been determined.
  • a different position of the external drone from the position of the self-drone can be transmitted.
  • This more accurate position specification of the foreign drone is determined based on the sensor data. It is also possible in particular for sensor data recorded by the sensor arrangement to be transmitted to the ground station.
  • the position sensor can be designed, for example, as a sensor for a global navigation satellite system such as, for example, GPS or Galileo.
  • the position sensor can be designed as a mobile radio device and use a radio mast bearing.
  • the sensor arrangement preferably has a plurality of sensors, each having a different field of view in a different spatial orientation.
  • the sensor arrangement preferably has at least one optical sensor.
  • This optical sensor can be designed as a camera, in particular as a video camera or TV camera.
  • the corresponding camera may include a CCD sensor or the like.
  • the Sensor arrangement can in particular have a camera system with at least one camera, preferably with several cameras.
  • the sensor arrangement can be configured such that at least one of the sensors, preferably a plurality of sensors, can / can be moved about at least one spatial axis in order to increase the field of view. The movement may be by pitching, rotating, pivoting or scanning or the like.
  • an image recognition is used, the sensor data of the optical sensor being compared by means of the image recognition with a stored, stored environment model.
  • the sensor data could be assigned to the corresponding object in the environment model, the position of the intruder's drone and / or the position of the foreign drone can be determined.
  • the distance of the objects to the intrinsic drone can be estimated.
  • a determination of the position of the self-drone can take place if several different objects have been detected by means of the image recognition or image processing.
  • the image recognition recognizes that the foreign drone at least partially obscures a certain object, then it is recognized that the foreign drone is located between the object and the position of the self-drone.
  • the position of the self-drone can be estimated by this.
  • the distance between the foreign drone and the intruder's drone can be estimated.
  • the sensor arrangement of the respective self-drone further comprises a radar transmitter and a radar receiver.
  • a radar transmitter By means of this radar sensor, it is possible to gain additional accurate distance information.
  • speeds of the external drone can be calculated via the coupling to time data.
  • detected foreign drones for example, can also be categorized and evaluated with respect to their flight altitude over ground and their speed.
  • the environmental model of the area to be monitored is stored in a data processing system of the drone.
  • the environment model is stored at the location of the ground station.
  • the type and / or the design of the foreign drone is preferably determined. These are preferably in a memory of the self-drone and / or in a suitable memory at the ground station information regarding several types of drones stored. This information may in particular include information regarding the range and / or the maximum flight duration of the foreign drones. This makes it possible to determine a maximum flight range of the foreign drone. This maximum flight range can be referred to as impact zone and is formed by the maximum achievable by the foreign drone zone. The landing site can only be within the effective zone or at the edge of the zone of action.
  • weather data are taken into account in the calculation of the zone of action of the foreign drone.
  • These weather data can be determined by weather sensors.
  • these weather sensors are assigned to the self-drone.
  • these weather sensors may be arranged stationary, wherein the weather data are either processed by the ground station or transmitted in a preferred embodiment to the drone.
  • the current and / or predicted wind direction and / or wind speed is taken into account in the determination of the maximum flight range.
  • Foreign drones, especially in vertical take-off design are strongly influenced by the wind. It is more likely that the landing point is leeward, d. H. in the wind direction as against the wind direction, d. H. is located on the windward side. The zone of action is leeward greater than the windward side.
  • the respective current positions of the self-drone and the foreign drone can also be displayed on a conventional display device, such as a screen, in order to be able to control connected emergency services.
  • a conventional display device such as a screen
  • suitable landing are displayed. It is conceivable that also the effect zone is displayed. It is now possible, with the self-drone or with other own drones, to fly to these predestined landing places and to monitor these landing places in particular.
  • the self-drone With its sensors, the self-drone captures completely or in sections the area to be monitored, ie the corresponding sensitive area and edge areas, and continuously determines its own position. An intruding into the sensitive area Foreign drone is detected by the sensors of the self-drone. The self-drone determines the current position of the foreign drone. The self-drone approaches in particular to a safety distance of the foreign drone.
  • the control of the self-drone takes place autonomously, in particular during the tracking.
  • the self-drone is equipped with a data processing system.
  • the drone is controlled by the data processing system.
  • the self-drone control is performed by a control program executed by a data processing unit in the self-drone.
  • This control program contains the instruction to follow the foreign drone up to the safety distance.
  • the safety distance can be, for example, 20 meters.
  • the self-drone meanwhile transmits the position of the foreign drone to the ground station. This transmission to the ground station takes place until the foreign drone has reached the landing site.
  • the data processing system may be designed to control the drone as part of a ground station, with control commands are transmitted from the ground station to the self-drone.
  • Fig. 1 in a schematic representation of an environment to be monitored with a foreign drone and with a self-drone.
  • the invention now relates to a method for determining the trajectory 5 of a foreign drone 6.
  • a sensor arrangement in particular by means of at least one optical sensor, the foreign drone 6 is detected.
  • the optical sensor or the sensor arrangement is indicated here schematically by a detection area 7.
  • a self-drone 8 is used to determine the position of the foreign drone 6, wherein the self-drone 8 is equipped with a sensor arrangement, in particular with at least one optical sensor and with a position sensor, wherein the position of the self-drone 8 is determined with the position sensor, wherein the foreign drone 6 of of the Sensor arrangement is detected, wherein due to the determined position of the self-drone 8 and / or due to the sensor data of the sensor arrangement, the current position of the foreign drone 6 is determined, the foreign drone 6 is followed by the self-drone 8.
  • This has the advantage that the trajectory 5 can be better determined. In particular, a landing location 9 can be better determined.
  • the self-drone 8 is preferably designed as an LSS flying object.
  • the foreign drone 6 may in particular also be designed as an LSS flying object.
  • Such LSS flying objects can be remote-controlled floating platforms, so-called multicopters with multiple propellers or rotors. Furthermore, it is conceivable to use a helicopter as the LSS flying object.
  • an environment model is preferably stored in advance.
  • the environment model contains in particular information about existing buildings 1, 2, 3, the trees 4 and the like.
  • the self-drone 8 detects the foreign drone 6 and follows it.
  • the control of the self-drone 8 is preferably carried out autonomously.
  • the self-drone 8 preferably has a data processing system.
  • the flight route of the self-drone 8 is determined by means of the data processing system.
  • the self-drone 8 flies autonomously.
  • the flight path of the self-drone 8 is determined as a function of the trajectory 5 of the foreign drone 6.
  • the flight route of the self-drone 8 is determined such that the distance between the self-drone 8 and the foreign drone 6 does not exceed a maximum distance.
  • the flight route of the self-drone 8 is determined such that the minimum distance, i. H. a corresponding safety distance is not fallen below.
  • the safety distance can be, for example, 20 meters.
  • the maximum distance may be, for example, more than 20 meters, in particular 50, 70, 80 or 100 meters.
  • the speed of the self-drone 8 is preferably adapted to the speed of the foreign drone 6.
  • the direction of flight of the self-drone 8 is preferably adapted to the direction of flight of the foreign drone 6.
  • the sensor arrangement of the self-drone 8 preferably has at least one optical sensor.
  • a plurality of sensors are provided.
  • the sensors may have different detection ranges 7.
  • the at least one optical sensor can be designed as a camera, in particular as a video camera or TV camera.
  • the optical sensor may comprise a CCD sensor or the like or as a CCD sensor be educated.
  • the sensors can be formed by a camera system with at least one camera, in particular with a plurality of cameras. It is conceivable that the sensors can be moved about a spatial axis in order to change the detection area 7.
  • the detection area 7 may be changed by a pitching motion, a rotation, a pivotal movement or a scan or the like. As a result, the detection of the foreign drone 6 is improved.
  • the position is determined by a position sensor.
  • the position sensor can use GPS data, Galileo or a GSM bearing or a radio mast bearing.
  • the buildings 1, 2 may, for example, lie in a sensitive area.
  • the buildings 1, 2 may, for example, be formed as government buildings or be formed by power station and infrastructure facilities or by military facilities.
  • the inventive method increases the chances that access to the foreign drone 6 is obtained.
  • the type of foreign drone 6 is first determined by means of the data processing system of the self-drone 8.
  • a database with information about drone types is stored in the data processing system.
  • this database may contain information on size, drive, range, maximum altitudes, maximum duration of flight, and the like.
  • the sensor data determined by means of the sensor arrangement are evaluated by means of an image recognition.
  • the evaluated information is compared with the information stored in the database so that the foreign drone 6 can be assigned a drone type or at least a group of drone types. Based on this assignment, a maximum range of the foreign drone 6 can now be determined.
  • This maximum range is marked as a zone of effect in the environment model. It is now compared in particular which of the suitable landing places 9, 10, 11, 12 lie within the action zone. For example, it is conceivable that the landing places 9, 11 and 12 are within the zone of action, but the landing area 10 to the left of the building 1 is outside the zone of action. Therefore, the principal landing site 10 can be excluded as an actually possible or suitable landing place.
  • the landing locations 9, 10, 11 and 12 each have different levels of probabilities.
  • the probability of the landing place 10 would be, for example, 0 percent.
  • the assignment of the probabilities can depend on altitude and the distance of the foreign drone 6 to the landing site 9, 1 1, 12 and the Speed of the foreign drone 6 done. For example, a small distance of the foreign drone 6 to the landing site 9 and a low altitude can lead to a higher probability of the landing location 9 compared to the landing locations 11 and 12.
  • the probabilities of the landing places 9, 10, 11, 12 can be continuously updated.
  • the landing locations 9, 10, 11, 12 of a ground station are displayed. It is conceivable to also display the size of the probabilities.
  • the position determination of the foreign drone 6 is also carried out by means of the at least one optical sensor, is evaluated in the means of the image recognition, in which area of the environment model, the foreign drone 6 is currently and / or at what distance the foreign drone 6 for self-drone 8 moves.
  • weather data are taken into account in the calculation or determination of the zone of effect.
  • the weather data can be determined by sensors of the self-drone 8 itself or provided by stationary sensors.
  • the weather data include at least the wind speed and the wind direction.
  • the environment model contains in particular 3D information about the environment to be overflown.
  • the 3D environment model contains elevation information.
  • the self-drone 8 is in contact via a communication module with a ground station.
  • the communication module allows a radio connection to the ground station.
  • At least the position of the self-drone 8 and / or the position of the foreign drone 6 is transmitted to the ground station.
  • the zone of action and / or the landing location 9, 10, 11, 12 are transmitted to the ground station.
  • the zone of action and / or the landing area 9, 10, 1 1, 12 are determined by the ground station.
  • the transmission of the positions of the self-drone 8 and / or foreign drone 6 is preferably carried out continuously, in particular periodically.
  • the detected flight duration of the foreign drone 6 can be included in the calculation of the action zone.
  • the current flying altitude of the foreign drone 6 can also be included in the detected effective zone. LIST OF REFERENCE NUMBERS

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The invention relates to a method for determining the flight path (5) of an alien drone (6), wherein at least one sensor arrangement is used to detect the alien drone (6), wherein an ego drone (8) is used to determine the position of the alien drone (6), wherein the ego drone (8) is equipped with the sensor arrangement and with a position encoder, wherein the position of the ego drone (8) is ascertained using the position encoder, wherein the alien drone (6) is detected by the sensor arrangement, wherein the ascertained position of the ego drone (8) and/or the sensor data from the sensor arrangement is/are taken as a basis for determining the position of the alien drone (6), wherein the alien drone (6) is tracked by the ego drone (8), wherein an environment model is stored. Determination of the flight path and/or determination of the landing location of the alien drone (6) is/are improved by virtue of the environment model having suitable landing locations (9, 10, 11, 12).

Description

Verfahren zur Bestimmung der Flugbahn einer Fremddrohne  Method for determining the trajectory of a foreign drone
Die Erfindung betrifft ein Verfahren zur Bestimmung der Flugbahn einer fremdgesteuerten Drohne, einer sogenannten Fremddrohne, mit den Merkmalen des Patentanspruches 1. The invention relates to a method for determining the trajectory of an externally controlled drone, a so-called foreign drone, with the features of claim 1.
Fremddrohnen oder fremdgesteuerte Drohnen sind unbemannte Luftfahrzeuge. Drohnen sind mit geringen Kosten leicht beschaffbar und international auch im zivilen Sektor weit verbreitet. Die vorliegende Erfindung dient der Positionsbestimmung von unbemannten, langsam und tief fliegenden Flugobjekten. Solche Flugobjekte werden auch als LSS- Flugobjekte (Low, Slow, Small, d. h. tieffliegend, langsam fliegend und klein) bezeichnet. Solche LSS-Flugobjekte können ferngesteuerte Schwebeplattformen, sogenannte Multikopter mit mehreren Propellern oder Rotoren sein. Es existieren Schwebeplattformen mit bspw. vier, sechs, acht oder zwölf Propellern. Ferner können LSS-Flugobjekte als ferngesteuerte Helikopter ausgebildet sein. LSS-Flugobjekte lassen sich mit geringer Geschwindigkeit bodennah und entlang von Fassaden oder in der Nähe von Bäumen bewegen und sind daher schwierig zu detektieren. Foreign drones or externally controlled drones are unmanned aerial vehicles. Drones are easily procurable at low cost and widely used internationally in the civil sector. The present invention serves to determine the position of unmanned, slow and low-flying flying objects. Such flying objects are also referred to as LSS flying objects (low, slow, small, that is to say low-flying, slow-flying and small). Such LSS flying objects can be remote-controlled floating platforms, so-called multicopters with multiple propellers or rotors. There are floating platforms with, for example, four, six, eight or twelve propellers. Furthermore, LSS flying objects can be designed as remote-controlled helicopters. LSS flying objects can be moved at low speed near the ground and along facades or near trees, making them difficult to detect.
Es besteht die Gefahr, dass Fremddrohnen in sensitive Bereiche eindringen und dort zu Störungen führen. Beispielsweise könnten mit Fremddrohnen Flüge über Regierungsgebäude, Kraftwerkseinrichtungen, Infrastruktureinrichtungen oder militärischen Einrichtungen erfolgen. Fremddrohnen oder Drohnen allgemein können im Rahmen ihrer Nutzlast Datenaufnahmegeräte, wie z. B. optische Sensoren, z. B. Kameras tragen, so dass bei einem unautorisierten Überflug über sensitive Bereiche die Fremddrohnen eine Aufklärung leisten können. Ferner besteht die Möglichkeit, dass Fremddrohnen auch Schaden anrichten, sei es durch gefährliche Nutzlasten oder durch eine Kollision innerhalb des sensitiven Bereichs. Es ist daher von Interesse, das unautorisierte Eindringen von Fremddrohnen in sensitive Bereiche zu verhindern oder zumindest festzustellen, um eventuell Gegenmaßnahmen einleiten zu können. There is a risk that foreign drones can penetrate into sensitive areas and cause disruptions there. For example, foreign drones could provide flights over government buildings, power plants, infrastructure or military facilities. Third-party drones or drones in general can within their payload data recording devices such. B. optical sensors, z. B. cameras, so that in an unauthorized overflight over sensitive areas, the foreign drones can provide an explanation. There is also the possibility that foreign drones also cause damage, be it by dangerous payloads or by a collision within the sensitive area. It is therefore of interest to prevent or at least to establish the unauthorized intrusion of foreign drones in sensitive areas in order to be able to initiate countermeasures.
Aus der DE 10 2007 062 603 A1 ist ein Verfahren zur Detektion von Fremddrohnen bekannt. Das Verfahren dient zur Sicherung von Gebäuden, um Drohnen mittels unterschiedlicher Typen von Sensoreinrichtungen zu erfassen. Hierdurch sollen Fehlalarme reduziert werden. Ein zu überwachender Raum wird mittels wenigstens einer omnidirektionalen Sensoreinrichtung erster Art überwacht, wobei die omnidirektionale Sensoreinrichtung im optischen Frequenzbereich empfindlich ist. Die Sensoreinrichtung erster Art weist einen Panoramasensor mit einer gekrümmten Spiegelfläche und einem CCD-Sensor auf. Der Raum wird ferner mittels wenigstens einer omnidirektionalen Sensoreinrichtung zweiter Art überwacht. Die omnidirektionale Sensoreinrichtung zweiter Art ist im Radiowellen- und/oder Mikrowellenbereich empfindlich. Als Sensoreinrichtung zweiter Art ist ein Funkpeilsensor vorgesehen, welcher im Radiowellenfrequenzbereich empfindlich ist. Dies sind Frequenzbereiche, in welchen eine Fremddrohne in den meisten Fällen Daten zu einer Empfangsstation senden wird. Die optischen Sensoreinrichtungen dienen der Raumortung. Der Raum wird mit jeweils zwei Sensoreinrichtungen erster und zweiter Art überwacht, wobei aus den empfangenen Signalen für jede Art der Sensoreinrichtung der Ort des Signalursprungs in einer Messebene oder im dreidimensionalen Raum bestimmt wird. Hierdurch wird die Position der Drohne bestimmt. Die Sensoreinrichtungen zweiter Art ermitteln Funksteuerdaten der Drohne. Es wird geprüft, ob es sich bei den empfangenen Signalen wenigstens teilweise um für Drohnen typische Signale oder Signalabfolgen handelt. Anhand einer zeitlichen Abfolge der empfangenen Signale eines Objektes wird ein Bewegungsmuster des Objekts erstellt und geprüft, ob es sich um ein für eine Drohne typisches Bewegungsmuster handelt. Es wird geprüft, ob die von den Sensoreinrichtungen erster und zweiter Art empfangenen Signale hinsichtlich des Ursprungsorts korrelieren. Wenn die Signale korrelieren, wird ein Alarm ausgelöst. Die Sensoreinrichtungen sind stationär angeordnet und beispielsweise an einem Mast montiert oder an bereits vorhandener Infrastruktur eines Gebäudes angeordnet. From DE 10 2007 062 603 A1 a method for the detection of foreign drones is known. The method is used to secure buildings to detect drones by means of different types of sensor devices. This should reduce false alarms. A space to be monitored is monitored by means of at least one omnidirectional sensor device of the first type, wherein the omnidirectional sensor device in the optical frequency range is sensitive. The sensor device of the first type has a panorama sensor with a curved mirror surface and a CCD sensor. The space is further monitored by means of at least one omnidirectional sensor device of the second type. The omnidirectional sensor device of the second kind is sensitive in the radio-wave and / or microwave range. As the sensor device of the second kind, a radio feel sensor is provided, which is sensitive in the radio frequency range. These are frequency ranges in which a foreign drone will in most cases send data to a receiving station. The optical sensor devices are used for spatial location. The space is monitored with two sensor devices of the first and second type, wherein from the received signals for each type of sensor device, the location of the signal origin in a measurement plane or in three-dimensional space is determined. This determines the position of the drone. The sensor devices of the second type determine radio control data of the drone. It is checked whether the received signals are at least partially drone-typical signals or signal sequences. Based on a temporal sequence of the received signals of an object, a movement pattern of the object is created and checked whether it is a movement pattern typical for a drone. It is checked whether the signals received by the sensor devices of the first and second type correlate with respect to the place of origin. When the signals correlate, an alarm is triggered. The sensor devices are arranged stationary and, for example, mounted on a mast or arranged on existing infrastructure of a building.
Dieses Verfahren ist noch nicht optimal ausgebildet. Nachteilig ist, dass nur dann eine Fremddrohne detektiert wird, wenn die Fremddrohne in einem festgelegten zu überwachenden Raum eingedrungen ist. Wenn die Drohne den zu überwachenden Raum oder Bereich wieder verlässt, können die Sensoreinrichtungen keine Daten mehr bezüglich der Flugbahn der Fremddrohne liefern. Sobald die Fremddrohne nach einer Aufklärungsmission den sensitiven Bereich, d. h. den zu überwachenden Bereich wieder verlassen hat, ist sie aufgrund der begrenzten Sensorreichweite nicht mehr erfassbar. Es ist damit nicht mehr möglich, einen Landeort der Fremddrohne zu erfassen, der außerhalb des Überwachungsbereiches liegt. Vielfach ist es jedoch wünschenswert, am Landeort entweder die Fremddrohne einzufangen oder sogar das Bedienpersonal adressieren zu können, welches die unautorisierte Fremddrohne gesteuert hat, wenn das Bedienpersonal die Fremddrohne wieder aufnehmen will. Die Fremddrohnen werden aufgenommen, weil sie einerseits selbst einen gewissen Wert darstellen und zum anderen auf einem Speichermedium der Fremddrohne häufig wichtige Aufklärungsdaten gespeichert sind. Eine Funkübertragung von der Fremddrohne findet häufig nicht statt, damit die Fremddrohne bei ihrer Aufklärungsmission nicht durch die zweiten Sensoreinrichtungen enttarnt wird. This method is not yet optimally designed. The disadvantage is that only a foreign drone is detected when the foreign drone has penetrated into a specific space to be monitored. When the drone leaves the room or area to be monitored again, the sensor devices can no longer provide data regarding the trajectory of the foreign drone. As soon as the foreign drone has left the sensitive area, ie the area to be monitored, after an reconnaissance mission, it is no longer detectable due to the limited sensor range. It is therefore no longer possible to detect a landing location of the foreign drone, which is outside the surveillance area. In many cases, however, it is desirable to capture at the landing either the foreign drone or even to be able to address the operator who has controlled the unauthorized third-party drone when the operator wants to resume the third-party drone. The foreign drones are recorded because on the one hand they themselves represent a certain value and on the other hand important information data is often stored on a storage medium of the foreign drone. A Radio transmission from the foreign drone often does not take place, so that the foreign drone is not unmasked in their reconnaissance mission by the second sensor devices.
Aus der US 2009/0157233 A1 ist eine Drohne (UAV) bekannt, mittels der ein Ziel im Luftraum am Boden oder zu Wasser überwacht und verfolgt werden kann. Das System ermittelt die beste Flugroute, um möglichst gute Kameraaufnahmen zu ermöglichen und gleichzeitig die Gefahr des Entdecktwerdens zu minimieren. Die Drohne kann in einem Stalker-Modus betrieben werden. Mittels eines Stalker-Systems wird der Abstand zu dem Ziel zwischen einem minimalen Abstand und einem maximalen Abstand gehalten. Die Drohne weist eine Videokamera und weitere Sensoren auf. Das Videosignal der Drohne wird mit vorherigen Aufzeichnungen verglichen, um mögliche Ziele ausfindig zu machen. Zu diesen Sensoren gehören u.a. ein Positionssensor, ein Geschwindigkeitssensor, ein Beschleunigungssensor und andere kinematische Sensoren. Es ist ein Zielerkennungsmodul (ATR) vorhanden. Dieses ATR-Modul wertet das Videosignal aus. Ferner ist ein Kommandomodul vorhanden, das ein Umgebungsmodell mit Daten bezüglich der Missionsumgebung enthält, wie beispielsweise topografische Umgebungskarten, Landesverläufe und dergleichen. From US 2009/0157233 A1 a drone (UAV) is known, by means of which a target in the airspace on the ground or on water can be monitored and tracked. The system determines the best flight path to enable the best possible camera shots while minimizing the risk of being discovered. The drone can be operated in a stalker mode. Using a stalker system, the distance to the target is kept between a minimum distance and a maximum distance. The drone has a video camera and other sensors. The video signal of the drone is compared with previous records to locate possible targets. These sensors include i.a. a position sensor, a speed sensor, an acceleration sensor and other kinematic sensors. There is a destination recognition module (ATR). This ATR module evaluates the video signal. There is also a command module containing an environment model with mission environment data, such as topographical maps of the surroundings, country histories, and the like.
Der Erfindung liegt daher die Aufgabe zugrunde, das eingangs genannte Verfahren derart auszugestalten und weiterzubilden, so dass die Bestimmung der Flugbahn und/oder die Bestimmung des Landeortes der Fremddrohne verbessert ist. The invention is therefore based on the object of designing and further developing the aforementioned method so that the determination of the trajectory and / or the determination of the landing location of the foreign drone is improved.
Diese der Erfindung zugrunde liegende Aufgabe wird nun durch ein Verfahren mit den Merkmalen des Patentanspruches 1 gelöst. This object of the invention is now achieved by a method having the features of claim 1.
Es sind nun besonders prädestinierte, d.h. geeignete Landeplätze in einem Umgebungsmodell vorab bereits hinterlegt. Beispielsweise können geschützte Landeplätze bspw. unterhalb von Brücken im Umgebungsmodell hinterlegt sein. Diese Auszeichnung von den besonders geeigneten Landeplätzen kann bereits vorab gespeichert sein und muss nicht erst dann erfolgen, wenn die Fremddrohne eingedrungen ist. Ferner werden die besonders prädestinierten Landeorte mittels der Bilderkennung der Eigendrohne ermittelt. Die prädestinierten Landeorte können während der Verfolgung oder bei einem vorherigen Erkundungsflug ermittelt werden. Dies erhöht die die Chancen, dass der tatsächliche Landeort der Fremddrohne und somit auch die weitere Flugbahn genauer bestimmt werden kann. Es wird eine Eigendrohne zur Positionsbestimmung der Fremddrohne verwendet. Die Eigendrohne ist mit einem Positionsgeber und mit einer Sensoranordnung ausgestattet. Die Position der Eigendrohne wird mittels des Positionsgebers ermittelt. Die Fremddrohne wird von der Sensoranordnung erfasst. Dies kann insbesondere dadurch geschehen, dass die Flugbahn der Eigendrohne und insbesondere auch die Ausrichtung des Sensors an die Position der Fremddrohne angepasst wird. There are now predestined, ie suitable landing sites in an environment model already deposited in advance. For example, protected landing sites, for example, be deposited below bridges in the environment model. This award from the most suitable landing sites can already be saved in advance and does not have to be done until the third party drone has entered. Furthermore, the particularly predestined landing locations are determined by means of the image recognition of the self-drone. The predestined landing locations can be determined during the pursuit or during a previous reconnaissance flight. This increases the chances that the actual landing location of the foreign drone and thus also the further trajectory can be determined more accurately. A self-drone is used to determine the position of the foreign drone. The self-drone is equipped with a position sensor and with a sensor arrangement. The position of the self-drone is determined by means of the position sensor. The foreign drone is detected by the sensor arrangement. This can be done, in particular, by adapting the trajectory of the self-drone and in particular also the orientation of the sensor to the position of the foreign drone.
Aufgrund der ermittelten Position der Eigendrohne und/oder aufgrund der Sensordaten des mindestens einen optischen Sensors, wird die aktuelle Position der Fremddrohne bestimmt. Die Fremddrohne wird dabei mit der Eigendrohne verfolgt. Dadurch, dass die Fremddrohne mit der Eigendrohne verfolgt wird, kann der zu überwachende Bereich deutlich ausgeweitet werden. Es ist die Gefahr verringert, dass die Fremddrohne den zu überwachenden Bereich verlässt, da der zu überwachte Bereich durch die Verfolgung ausgeweitet wird. Die Bestimmung der Flugbahn und insbesondere die Bestimmung des Landeortes der Fremddrohne ist verbessert. Es ist denkbar, dass die Eigendrohne dauerhaft einen sensitiven Bereich aus der Luft überwacht oder aber nur im Bedarfsfall oder nach einer Vorwarnung aufsteigt, um den sensitiven Bereich abzusichern. On the basis of the determined position of the self-drone and / or on the basis of the sensor data of the at least one optical sensor, the current position of the foreign drone is determined. The foreign drone is tracked with the self-drone. The fact that the foreign drone is tracked with the self-drone, the area to be monitored can be significantly expanded. It reduces the risk that the foreign drone leaves the area to be monitored, as the monitored area is widened by the pursuit. The determination of the trajectory and in particular the determination of the landing location of the foreign drone is improved. It is conceivable that the self-drone permanently monitors a sensitive area from the air or rises only when necessary or after an advance warning in order to protect the sensitive area.
Vorzugsweise ist mindestens ein stationärer Sensor vorhanden, wobei ein primärer Bereich mittels des mindestens einen stationären Sensors überwacht wird, wobei, sobald eine Fremddrohne in diesen primären Bereich von dem mindestens einen stationären Sensoren erfasst worden ist oder ermittelt worden ist, dass mit einer gewissen Wahrscheinlichkeit eine Fremddrohne in den primären Bereich eingedrungen ist, die Eigendrohne gestartet wird, wobei nun die Eigendrohne der Fremddrohne folgt und ein erweiterter sekundärer Bereich bei der Verfolgung überwacht wird. Es ist denkbar, dass zusätzlich zu der Drohne mehrere, insbesondere stationäre Sensoren vorgesehen sind, die diesen ersten oder primären Bereich überwachen. Sobald eine Fremddrohne in diesen primären Bereich eindringt oder ermittelt worden ist, dass mit einer gewissen Wahrscheinlichkeit eine Fremddrohne in den primären Bereich eingedrungen ist, kann die Eigendrohne starten. Sobald mit zunächst den stationären Sensoren und/oder der Sensoranordnung, insbesondere mindestens einem optischen Sensor der Eigendrohne die Fremddrohne erfasst worden ist, kann nun die Eigendrohne der Fremddrohne folgen und einen erweiterten sekundären Bereich bei der Verfolgung überwachen. Die Eigendrohne weist ferner vorzugsweise ein Kommunikationsmodul auf, wobei mittels des Kommunikationsmoduls zumindest die Position der Eigendrohne an eine Bodenstation übermittelt wird. Preferably, at least one stationary sensor is provided, wherein a primary area is monitored by means of the at least one stationary sensor, whereby, as soon as a foreign drone has been detected in this primary area of the at least one stationary sensor or has been determined that with a certain probability Third-party drone has penetrated into the primary area, the self-drone is started, now follows the drone of the foreign drone and an extended secondary area is monitored in the pursuit. It is conceivable that in addition to the drone several, in particular stationary sensors are provided which monitor this first or primary area. As soon as a foreign drone enters this primary area or it has been determined that a foreign drone has penetrated into the primary area with a certain probability, the self-drone can start. As soon as the foreign drone has been detected first with the stationary sensors and / or the sensor arrangement, in particular at least one optical sensor of the self-drone, the intruder drone can now follow the external drone and monitor an extended secondary area during the pursuit. The self-drone further preferably has a communication module, wherein at least the position of the self-drone is transmitted to a ground station by means of the communication module.
Mittels des Positionsgebers wird insbesondere die Position der Eigendrohne ermittelt und über das Kommunikationsmodul an eine Bodenstation gesendet. Die Bodenstation kann die Positionsänderungen der Eigendrohne und somit der Fremddrohne erfassen, um den Landeort feststellen zu können. Die Position der Eigendrohne wird hierbei näherungsweise zur Bestimmung der ungefähren Position der Fremddrohne verwendet. Beispielsweise kann die Eigendrohne der Fremddrohne in einem festen Sicherheitsabstand folgen. Bei der Verfolgung wird ein bestimmter Sicherheitsabstand eingehalten. Die Position der Fremddrohne kann daher durch einen Kreis mit dem Radius des Sicherheitsabstandes um die Position der Eigendrohne genähert werden. Je kleiner der Sicherheitsabstand, desto präziser kann die Position der Fremddrohne eingegrenzt werden. Insbesondere kann vorzugsweise die Fremddrohne solange verfolgt werden, bis der Landeort festgestellt wird. Der Landeort ist häufig auch mit dem Startort der Fremddrohne identisch. Daher besteht die Möglichkeit, gegebenenfalls auch das Bedienpersonal der Fremddrohne adressieren zu können oder weitere Informationen über das Bedienpersonal zu gewinnen, wenn der Landeort und Startort festgestellt worden ist. By means of the position sensor in particular the position of the self-drone is determined and sent via the communication module to a ground station. The ground station can detect the changes in position of the self-drone and thus the foreign drone in order to determine the landing site. The position of the self-drone is here approximately used to determine the approximate position of the foreign drone. For example, the self-drone can follow the foreign drone at a fixed safety distance. During tracking, a certain safety distance is maintained. The position of the foreign drone can therefore be approximated by a circle with the radius of the safety distance to the position of the self-drone. The smaller the safety distance, the more precisely the position of the foreign drone can be limited. In particular, preferably the foreign drone can be tracked until the landing site is detected. The landing site is often identical to the starting location of the foreign drone. Therefore, it is possible, if appropriate, to be able to address the operating personnel of the third-party drone or to obtain further information about the operating personnel when the landing site and starting location have been determined.
Alternativ kann mittels des Kommunikationsmoduls eine von der Position der Eigendrohne verschiedene Position der Fremddrohne übermittelt werden. Diese genauere Positionsangabe der Fremddrohne wird aufgrund der Sensordaten bestimmt. Es ist ferner insbesondere möglich, dass mittels der Sensoranordnung aufgenommene Sensordaten an die Bodenstation übermittelt werden. Alternatively, by means of the communication module, a different position of the external drone from the position of the self-drone can be transmitted. This more accurate position specification of the foreign drone is determined based on the sensor data. It is also possible in particular for sensor data recorded by the sensor arrangement to be transmitted to the ground station.
Es gibt verschiedene Möglichkeiten, die Positionen der Eigendrohne mittels eines Positionsgebers zu bestimmen. Der Positionsgeber kann bspw. als Sensor für ein globales Navigationssatellitensystem wie bspw. GPS oder Galileo ausgebildet sein. In alternativer Ausgestaltung kann der Positionsgeber als Mobilfunkmittel ausgebildet sein und eine Funkmastpeilung verwenden. There are various ways to determine the positions of the self-drone using a position sensor. The position sensor can be designed, for example, as a sensor for a global navigation satellite system such as, for example, GPS or Galileo. In an alternative embodiment, the position sensor can be designed as a mobile radio device and use a radio mast bearing.
Die Sensoranordnung weist vorzugsweise mehrere Sensoren auf, die jeweils ein unterschiedliches Sichtfeld in unterschiedlicher räumlicher Ausrichtung haben. Vorzugsweise weist die Sensoranordnung mindestens einen optischen Sensor auf. Dieser optische Sensor kann als Kamera, insbesondere als Videokamera oder TV-Kamera ausgebildet sein. Die entsprechende Kamera kann einen CCD-Sensor oder dergleichen aufweisen. Die Sensoranordnung kann insbesondere ein Kamerasystem mit mindestens einer Kamera, vorzugsweise mit mehreren Kameras aufweisen. Die Sensoranordnung kann derart ausgestaltet sein, dass mindestens einer der Sensoren, vorzugsweise mehrere Sensoren, um mindestens eine räumliche Achse bewegt werden kann/können, um das Sichtfeld zu vergrößern. Die Bewegung kann durch eine Nickbewegung, ein Rotieren, eine Schwenkbewegung oder ein Scan oder dergleichen erfolgen. The sensor arrangement preferably has a plurality of sensors, each having a different field of view in a different spatial orientation. The sensor arrangement preferably has at least one optical sensor. This optical sensor can be designed as a camera, in particular as a video camera or TV camera. The corresponding camera may include a CCD sensor or the like. The Sensor arrangement can in particular have a camera system with at least one camera, preferably with several cameras. The sensor arrangement can be configured such that at least one of the sensors, preferably a plurality of sensors, can / can be moved about at least one spatial axis in order to increase the field of view. The movement may be by pitching, rotating, pivoting or scanning or the like.
In einer Weiterbildung des Verfahrens wird eine Bilderkennung genutzt, wobei die Sensordaten des optischen Sensors mittels der Bilderkennung mit einem hinterlegten, gespeicherten Umgebungsmodell verglichen werden. Wenn nun mittels der Bilderkennung ein bestimmtes Objekt erkannt worden ist, d. h. die Sensordaten dem entsprechenden Objekt in dem Umgebungsmodell zugeordnet werden konnten, so kann die Position der Eigendrohne und/oder die Position der Fremddrohne bestimmt werden. Durch einen Vergleich der Größe des Abbildes in den Sensordaten mit hinterlegten Daten zu der angenommen Größe im Umgebungsmodell der Objekte kann der Abstand der Objekte zur Eigendrohne abgeschätzt werden. Insbesondere kann eine Bestimmung der Position der Eigendrohne erfolgen, wenn mehrere unterschiedliche Objekte mittels der Bilderkennung bzw. Bildverarbeitung erkannt worden sind. Wenn die Bilderkennung erkennt, dass die Fremddrohne ein bestimmtes Objekt zumindest teilweise verdeckt, so wird erkannt, dass die Fremddrohne sich zwischen dem Objekt und der Position der Eigendrohne befindet. Die Position der Eigendrohne kann hierdurch abgeschätzt werden. Durch einen Vergleich der Größe des Abbildes mit hinterlegten Daten zu der angenommen Größe der Fremddrohne kann der Abstand der Fremddrohne zur Eigendrohne abgeschätzt werden. In one development of the method, an image recognition is used, the sensor data of the optical sensor being compared by means of the image recognition with a stored, stored environment model. Now, if by means of the image recognition a certain object has been recognized, d. H. the sensor data could be assigned to the corresponding object in the environment model, the position of the intruder's drone and / or the position of the foreign drone can be determined. By comparing the size of the image in the sensor data with stored data to the assumed size in the environment model of the objects, the distance of the objects to the intrinsic drone can be estimated. In particular, a determination of the position of the self-drone can take place if several different objects have been detected by means of the image recognition or image processing. If the image recognition recognizes that the foreign drone at least partially obscures a certain object, then it is recognized that the foreign drone is located between the object and the position of the self-drone. The position of the self-drone can be estimated by this. By comparing the size of the image with stored data to the assumed size of the foreign drone, the distance between the foreign drone and the intruder's drone can be estimated.
In bevorzugter Ausgestaltung umfasst die Sensoranordnung der jeweiligen Eigendrohne ferner einen Radarsender und einen Radarempfänger. Mittels dieser Radarsensorik ist es möglich, zusätzlich genauere Abstandsinformationen zu gewinnen. Damit lassen sich über die Kopplung an Zeitdaten auch Geschwindigkeiten der Fremddrohne errechnen. Somit können erfasste Fremddrohnen bspw. auch in Bezug auf ihre Flughöhe über Grund und ihre Geschwindigkeit kategorisiert und bewertet werden. In a preferred embodiment, the sensor arrangement of the respective self-drone further comprises a radar transmitter and a radar receiver. By means of this radar sensor, it is possible to gain additional accurate distance information. Thus, speeds of the external drone can be calculated via the coupling to time data. Thus, detected foreign drones, for example, can also be categorized and evaluated with respect to their flight altitude over ground and their speed.
In einer Ausgestaltung des Verfahrens ist das Umgebungsmodell des zu überwachenden Bereiches in einer Datenverarbeitungsanlage der Drohne gespeichert. In alternativer Ausgestaltung ist das Umgebungsmodell am Ort der Bodenstation gespeichert. In one embodiment of the method, the environmental model of the area to be monitored is stored in a data processing system of the drone. In an alternative embodiment, the environment model is stored at the location of the ground station.
Mittels der Bilderkennung wird vorzugsweise der Typ und/oder die Bauart der Fremddrohne ermittelt. Hierzu sind vorzugsweise in einem Speicher der Eigendrohne und/oder in einem geeigneten Speicher an der Bodenstation Informationen bzgl. mehrerer Drohnenarten abgespeichert. Diese Informationen können insbesondere Informationen bzgl. der Reichweite und/oder der maximalen Flugdauer der Fremddrohnen umfassen. Hierdurch ist es möglich, einen maximalen Flugbereich der Fremddrohne zu ermitteln. Dieser maximale Flugbereich kann als Wirkungszone bezeichnet werden und wird durch die maximal von der Fremddrohne erreichbare Zone gebildet. Der Landeort kann sich nur innerhalb der Wirküngszone bzw. am Rand der Wirkungszone befinden. By means of image recognition, the type and / or the design of the foreign drone is preferably determined. These are preferably in a memory of the self-drone and / or in a suitable memory at the ground station information regarding several types of drones stored. This information may in particular include information regarding the range and / or the maximum flight duration of the foreign drones. This makes it possible to determine a maximum flight range of the foreign drone. This maximum flight range can be referred to as impact zone and is formed by the maximum achievable by the foreign drone zone. The landing site can only be within the effective zone or at the edge of the zone of action.
In bevorzugter Ausgestaltung werden bei der Berechnung der Wirkungszone der Fremddrohne Wetterdaten berücksichtigt. Diese Wetterdaten können durch Wettersensoren ermittelt werden. In einer Ausgestaltung des Verfahrens sind diese Wettersensoren der Eigendrohne zugeordnet. Alternativ oder zusätzlich können diese Wettersensoren stationär angeordnet sein, wobei die Wetterdaten entweder von der Bodenstation verarbeitet werden oder in bevorzugter Ausgestaltung an die Drohne übermittelt werden. Vorzugsweise wird die aktuelle und/oder prognostizierte Windrichtung und/oder Windgeschwindigkeit bei der Bestimmung des maximalen Flugbereiches berücksichtigt. Fremddrohnen, insbesondere in vertikal startender Bauart sind stark durch den Wind beeinflussbar. Es ist wahrscheinlicher, dass der Landepunkt sich leeseitig, d. h. in Windrichtung als gegen die Windrichtung, d. h. luvseitig befindet. Die Wirkungszone ist leeseitig größer als luvseitig. In a preferred embodiment, weather data are taken into account in the calculation of the zone of action of the foreign drone. These weather data can be determined by weather sensors. In one embodiment of the method, these weather sensors are assigned to the self-drone. Alternatively or additionally, these weather sensors may be arranged stationary, wherein the weather data are either processed by the ground station or transmitted in a preferred embodiment to the drone. Preferably, the current and / or predicted wind direction and / or wind speed is taken into account in the determination of the maximum flight range. Foreign drones, especially in vertical take-off design are strongly influenced by the wind. It is more likely that the landing point is leeward, d. H. in the wind direction as against the wind direction, d. H. is located on the windward side. The zone of action is leeward greater than the windward side.
Es wird nun vorzugsweise verglichen, welche der besonders geeigneten bzw. prädestinierten Landeorte innerhalb der Wirkungszone, d. h. innerhalb des maximalen Flugbereiches, liegen. Die Berechnung der Wirkungszone und/oder der Vergleich, welche der geeigneten Landeplätze innerhalb der Wirkungszone liegen, wird fortlaufend, insbesondere periodisch aktualisiert. It is now preferably compared which of the particularly suitable or predestined landing place within the action zone, d. H. within the maximum flight range. The calculation of the zone of effect and / or the comparison of which of the suitable landing sites lie within the zone of effect is continuously updated, in particular periodically.
An der Bodenstation der Eigendrohne kann auch an einem üblichen Anzeigegerät - wie bspw. einem Bildschirm - die jeweils aktuellen Positionen der Eigendrohne und der Fremddrohne angezeigt werden, um verbundene Einsatzkräfte steuern zu können. Ferner werden insbesondere die vorgesehenen, geeigneten Landeorte angezeigt. Es ist denkbar, dass ebenfalls die Wirkungszone angezeigt wird. Es ist nun möglich, mit der Eigendrohne oder mit weiteren Eigendrohnen diese prädestinierten Landeorte anzufliegen und diese Landeorte besonders zu überwachen. At the ground station of the self-drone, the respective current positions of the self-drone and the foreign drone can also be displayed on a conventional display device, such as a screen, in order to be able to control connected emergency services. In addition, in particular the intended, suitable landing are displayed. It is conceivable that also the effect zone is displayed. It is now possible, with the self-drone or with other own drones, to fly to these predestined landing places and to monitor these landing places in particular.
Die Eigendrohne erfasst mit ihren Sensoren vollständig oder abschnittsweise den zu überwachenden Bereich, d. h. den entsprechenden sensitiven Bereich sowie Randbereiche und ermittelt laufend die eigene Position. Eine in den sensitiven Bereich eindringende Fremddrohne wird von den Sensoren der Eigendrohne erfasst. Die Eigendrohne ermittelt die aktuelle Position der Fremddrohne. Die Eigendrohne nähert sich insbesondere bis auf einen Sicherheitsabstand der Fremddrohne. With its sensors, the self-drone captures completely or in sections the area to be monitored, ie the corresponding sensitive area and edge areas, and continuously determines its own position. An intruding into the sensitive area Foreign drone is detected by the sensors of the self-drone. The self-drone determines the current position of the foreign drone. The self-drone approaches in particular to a safety distance of the foreign drone.
Vorzugsweise erfolgt die Steuerung der Eigendrohne insbesondere bei der Verfolgung autonom. Die Eigendrohne ist mit einer Datenverarbeitungsanlage ausgestattet. Die Drohne wird mittels der Datenverarbeitungsanlage gesteuert. Die Steuerung der Eigendrohne erfolgt durch ein Steuerprogramm, das von einer Datenverarbeitungseinheit in der Eigendrohne ausgeführt wird. Dieses Steuerungsprogramm enthält die Anweisung, der Fremddrohne bis auf den Sicherheitsabstand zu folgen. Der Sicherheitsabstand kann bspw. 20 Meter betragen. Die Eigendrohne übermittelt währenddessen die Position der Fremddrohne an die Bodenstation. Diese Übermittlung an die Bodenstation erfolgt so lange, bis die Fremddrohne den Landeort erreicht hat. In alternativer Ausgestaltung kann die Datenverarbeitungsanlage zur Steuerung der Drohne als Teil einer Bodenstation ausgebildet sein, wobei Steuerbefehle von der Bodenstation an die Eigendrohne übermittelt werden. Preferably, the control of the self-drone takes place autonomously, in particular during the tracking. The self-drone is equipped with a data processing system. The drone is controlled by the data processing system. The self-drone control is performed by a control program executed by a data processing unit in the self-drone. This control program contains the instruction to follow the foreign drone up to the safety distance. The safety distance can be, for example, 20 meters. The self-drone meanwhile transmits the position of the foreign drone to the ground station. This transmission to the ground station takes place until the foreign drone has reached the landing site. In an alternative embodiment, the data processing system may be designed to control the drone as part of a ground station, with control commands are transmitted from the ground station to the self-drone.
Es gibt nun eine Vielzahl von Möglichkeiten, das erfindungsgemäße Verfahren auszugestalten und weiterzubilden. Hierfür darf zunächst auf die dem Patentanspruch 1 nachgeordneten Patentansprüche verwiesen werden. Im Folgenden wird eine bevorzugte Ausgestaltung der Erfindung anhand der Zeichnung und der dazugehörigen Beschreibung näher erläutert. There are now a variety of ways to design and further develop the inventive method. For this purpose, reference may first be made to the claims subordinate to claim 1. In the following, a preferred embodiment of the invention will be explained in more detail with reference to the drawing and the associated description.
In der Zeichnung zeigt: In the drawing shows:
Fig. 1 in einer schematischen Darstellung eine zu überwachende Umgebung mit einer Fremddrohne und mit einer Eigendrohne. Fig. 1 in a schematic representation of an environment to be monitored with a foreign drone and with a self-drone.
In Fig. 1 ist eine Umgebung mit mehreren Gebäuden 1 , 2, 3 und Bäumen 4 gut zu erkennen. Die Erfindung betrifft nun ein Verfahren zur Bestimmung der Flugbahn 5 einer Fremddrohne 6. Mittels einer Sensoranordnung, insbesondere mittels mindestens eines optischen Sensors wird die Fremddrohne 6 erfasst. Der optische Sensor bzw. die Sensoranordnung ist hier durch einen Erfassungsbereich 7 schematisch angedeutet. In Fig. 1, an environment with several buildings 1, 2, 3 and trees 4 is clearly visible. The invention now relates to a method for determining the trajectory 5 of a foreign drone 6. By means of a sensor arrangement, in particular by means of at least one optical sensor, the foreign drone 6 is detected. The optical sensor or the sensor arrangement is indicated here schematically by a detection area 7.
Es wird eine Eigendrohne 8 zur Positionsbestimmung der Fremddrohne 6 verwendet, wobei die Eigendrohne 8 mit einer Sensoranordnung, insbesondere mit mindestens einem optischen Sensor und mit einem Positionsgeber ausgestattet ist, wobei die Position der Eigendrohne 8 mit dem Positionsgeber ermittelt wird, wobei die Fremddrohne 6 von der Sensoranordnung erfasst wird, wobei aufgrund der ermittelten Position der Eigendrohne 8 und/oder aufgrund der Sensordaten der Sensoranordnung die aktuelle Position der Fremddrohne 6 bestimmt wird, wobei die Fremddrohne 6 von der Eigendrohne 8 verfolgt wird. Dies hat den Vorteil, dass die Flugbahn 5 besser bestimmt werden kann. Insbesondere kann ein Landeort 9 besser bestimmt werden. It is a self-drone 8 is used to determine the position of the foreign drone 6, wherein the self-drone 8 is equipped with a sensor arrangement, in particular with at least one optical sensor and with a position sensor, wherein the position of the self-drone 8 is determined with the position sensor, wherein the foreign drone 6 of of the Sensor arrangement is detected, wherein due to the determined position of the self-drone 8 and / or due to the sensor data of the sensor arrangement, the current position of the foreign drone 6 is determined, the foreign drone 6 is followed by the self-drone 8. This has the advantage that the trajectory 5 can be better determined. In particular, a landing location 9 can be better determined.
Die Eigendrohne 8 ist vorzugsweise als LSS-Flugobjekt ausgebildet. Die Fremddrohne 6 kann insbesondere ebenfalls als LSS-Flugobjekt ausgebildet sein. Solche LSS-Flugobjekte können ferngesteuerte Schwebeplattformen, sogenannte Multikopter mit mehreren Propellern oder Rotoren sein. Ferner ist es denkbar, als LSS-Flugobjekt einen Helikopter einzusetzen. The self-drone 8 is preferably designed as an LSS flying object. The foreign drone 6 may in particular also be designed as an LSS flying object. Such LSS flying objects can be remote-controlled floating platforms, so-called multicopters with multiple propellers or rotors. Furthermore, it is conceivable to use a helicopter as the LSS flying object.
In der Eigendrohne 8 ist vorzugsweise ein Umgebungsmodell vorab gespeichert. Das Umgebungsmodell enthält insbesondere Informationen zu vorhandenen Gebäuden 1 , 2, 3, den Bäumen 4 und dergleichen. Es sind in dem Umgebungsmodell mögliche, nämlich geeignete Landeorte 9, 10, 1 1 , 12 gespeichert. Mittels der Sensoren erfasst die Eigendrohne 8 die Fremddrohne 6 und folgt ihr. Die Steuerung der Eigendrohne 8 erfolgt vorzugsweise autonom. Die Eigendrohne 8 weist vorzugsweise eine Datenverarbeitungsanlage auf. In the self-drone 8, an environment model is preferably stored in advance. The environment model contains in particular information about existing buildings 1, 2, 3, the trees 4 and the like. There are in the environmental model possible, namely suitable landing place 9, 10, 1 1, 12 stored. By means of the sensors, the self-drone 8 detects the foreign drone 6 and follows it. The control of the self-drone 8 is preferably carried out autonomously. The self-drone 8 preferably has a data processing system.
In bevorzugter Ausgestaltung wird die Flugroute der Eigendrohne 8 mittels der Datenverarbeitungsanlage bestimmt. Die Eigendrohne 8 fliegt autonom. Die Flugroute der Eigendrohne 8 wird dabei in Abhängigkeit von der Flugbahn 5 der Fremddrohne 6 bestimmt. Vorzugsweise wird die Flugroute der Eigendrohne 8 derart bestimmt, dass der Abstand zwischen der Eigendrohne 8 und der Fremddrohne 6 einen Maximalabstand nicht überschreitet. Vorzugsweise wird die Flugroute der Eigendrohne 8 derart bestimmt, dass der Minimalabstand, d. h. ein entsprechender Sicherheitsabstand nicht unterschritten wird. Der Sicherheitsabstand kann bspw. 20 Meter betragen. Der Maximalabstand kann bspw. mehr als 20 Meter, insbesondere 50, 70, 80 oder 100 Meter betragen. Die Geschwindigkeit der Eigendrohne 8 wird vorzugsweise an die Geschwindigkeit der Fremddrohne 6 angepasst. Die Flugrichtung der Eigendrohne 8 wird vorzugsweise an die Flugrichtung der Fremddrohne 6 angepasst. In a preferred embodiment, the flight route of the self-drone 8 is determined by means of the data processing system. The self-drone 8 flies autonomously. The flight path of the self-drone 8 is determined as a function of the trajectory 5 of the foreign drone 6. Preferably, the flight route of the self-drone 8 is determined such that the distance between the self-drone 8 and the foreign drone 6 does not exceed a maximum distance. Preferably, the flight route of the self-drone 8 is determined such that the minimum distance, i. H. a corresponding safety distance is not fallen below. The safety distance can be, for example, 20 meters. The maximum distance may be, for example, more than 20 meters, in particular 50, 70, 80 or 100 meters. The speed of the self-drone 8 is preferably adapted to the speed of the foreign drone 6. The direction of flight of the self-drone 8 is preferably adapted to the direction of flight of the foreign drone 6.
Die Sensoranordnung der Eigendrohne 8 weist vorzugsweise mindestens einen optischen Sensor auf. Insbesondere sind mehrere Sensoren vorgesehen. Die Sensoren können unterschiedliche Erfassungsbereiche 7 aufweisen. Der mindestens eine optische Sensor kann als Kamera, insbesondere als Videokamera oder TV-Kamera ausgebildet sein. Der optische Sensor kann ein CCD-Sensor oder dergleichen aufweisen bzw. als CCD-Sensor ausgebildet sein. Die Sensoren können durch ein Kamerasystem mit mindestens einer Kamera, insbesondere mit mehreren Kameras ausgebildet sein. Es ist denkbar, dass die Sensoren um eine räumliche Achse bewegt werden können, um den Erfassungsbereich 7 zu verändern. Der Erfassungsbereich 7 kann durch eine Nickbewegung, ein Rotieren, eine Schwenkbewegung oder ein Scan oder dergleichen verändert werden. Hierdurch ist die Erfassung der Fremddrohne 6 verbessert. The sensor arrangement of the self-drone 8 preferably has at least one optical sensor. In particular, a plurality of sensors are provided. The sensors may have different detection ranges 7. The at least one optical sensor can be designed as a camera, in particular as a video camera or TV camera. The optical sensor may comprise a CCD sensor or the like or as a CCD sensor be educated. The sensors can be formed by a camera system with at least one camera, in particular with a plurality of cameras. It is conceivable that the sensors can be moved about a spatial axis in order to change the detection area 7. The detection area 7 may be changed by a pitching motion, a rotation, a pivotal movement or a scan or the like. As a result, the detection of the foreign drone 6 is improved.
Die Positionsbestimmung erfolgt mit einem Positionsgeber. Der Positionsgeber kann dabei GPS-Daten, Galileo oder eine GSM-Peilung bzw. eine Funkmastpeilung nutzen. The position is determined by a position sensor. The position sensor can use GPS data, Galileo or a GSM bearing or a radio mast bearing.
Die Gebäude 1 , 2 können bspw. in einem sensitiven Bereich liegen. Die Gebäude 1 , 2 können bspw. als Regierungsgebäude gebildet sein oder durch Kraftwerks- und Infrastruktureinrichtungen oder durch militärische Einrichtungen gebildet sein. Durch das erfindungsgemäße Verfahren sind die Chancen erhöht, dass Zugriff auf die Fremddrohne 6 erlangt wird. The buildings 1, 2 may, for example, lie in a sensitive area. The buildings 1, 2 may, for example, be formed as government buildings or be formed by power station and infrastructure facilities or by military facilities. The inventive method increases the chances that access to the foreign drone 6 is obtained.
In bevorzugter Ausgestaltung wird mittels der Datenverarbeitungsanlage der Eigendrohne 8 zunächst der Typ der Fremddrohne 6 bestimmt. Hierzu ist in der Datenverarbeitungsanlage eine Datenbank mit Informationen zu Drohnenarten abgespeichert. Diese Datenbank kann insbesondere Informationen zu Größe, Antrieb, Reichweite, maximaler Flughöhen, maximaler Flugdauer und dergleichen enthalten. Die mittels der Sensoranordnung ermittelten Sensordaten werden mittels einer Bilderkennung ausgewertet. Die ausgewerteten Informationen werden mit den in der Datenbank gespeicherten Informationen verglichen, so dass der Fremddrohne 6 eine Drohnenart oder zumindest eine Gruppe von Drohnenarten zugeordnet werden kann. Anhand dieser Zuordnung kann nun eine maximale Reichweite der Fremddrohne 6 bestimmt werden. Diese maximale Reichweite wird in dem Umgebungsmodell als Wirkungszone markiert. Es wird nun insbesondere verglichen, welche der geeigneten Landeorte 9, 10, 11 , 12 innerhalb der Wirkungszone liegen. Beispielsweise ist denkbar, dass die Landeorte 9, 11 und 12 innerhalb der Wirkungszone liegen, aber der Landeort 10 links des Gebäudes 1 außerhalb der Wirkungszone liegt. Daher kann der prinzipielle Landeort 10 als tatsächlich möglicher, bzw. geeigneter Landungsort ausgeschlossen werden. In a preferred embodiment, the type of foreign drone 6 is first determined by means of the data processing system of the self-drone 8. For this purpose, a database with information about drone types is stored in the data processing system. In particular, this database may contain information on size, drive, range, maximum altitudes, maximum duration of flight, and the like. The sensor data determined by means of the sensor arrangement are evaluated by means of an image recognition. The evaluated information is compared with the information stored in the database so that the foreign drone 6 can be assigned a drone type or at least a group of drone types. Based on this assignment, a maximum range of the foreign drone 6 can now be determined. This maximum range is marked as a zone of effect in the environment model. It is now compared in particular which of the suitable landing places 9, 10, 11, 12 lie within the action zone. For example, it is conceivable that the landing places 9, 11 and 12 are within the zone of action, but the landing area 10 to the left of the building 1 is outside the zone of action. Therefore, the principal landing site 10 can be excluded as an actually possible or suitable landing place.
Es ist denkbar, dass den Landeorten 9, 10, 11 und 12 jeweils unterschiedlich hohe Wahrscheinlichkeiten zugeordnet werden. Die Wahrscheinlichkeit des Landeortes 10 wäre bspw. 0 Prozent. Die Zuordnung der Wahrscheinlichkeiten kann in Abhängigkeit von Flughöhe und dem Abstand der Fremddrohne 6 zu dem Landeort 9, 1 1 , 12 und der Geschwindigkeit der Fremddrohne 6 erfolgen. Ein geringer Abstand der Fremddrohne 6 zum Landeort 9 und eine geringe Flughöhe können bspw. zu einer höheren Wahrscheinlichkeit des Landeortes 9 führen im Vergleich zu den Landeorten 11 und 12. Die Wahrscheinlichkeiten der Landeorte 9, 10, 11 , 12 kann fortwährend aktualisiert werden. Vorzugsweise werden die Landeorte 9, 10, 1 1 , 12 einer Bodenstation angezeigt. Es ist denkbar, die Größe der Wahrscheinlichkeiten ebenfalls anzuzeigen. It is conceivable that the landing locations 9, 10, 11 and 12 each have different levels of probabilities. The probability of the landing place 10 would be, for example, 0 percent. The assignment of the probabilities can depend on altitude and the distance of the foreign drone 6 to the landing site 9, 1 1, 12 and the Speed of the foreign drone 6 done. For example, a small distance of the foreign drone 6 to the landing site 9 and a low altitude can lead to a higher probability of the landing location 9 compared to the landing locations 11 and 12. The probabilities of the landing places 9, 10, 11, 12 can be continuously updated. Preferably, the landing locations 9, 10, 11, 12 of a ground station are displayed. It is conceivable to also display the size of the probabilities.
Es ist denkbar, dass die Positionsbestimmung der Fremddrohne 6 ebenfalls mittels des mindestens einen optischen Sensors erfolgt, in dem mittels der Bilderkennung ausgewertet wird, in welchem Bereich des Umgebungsmodells sich die Fremddrohne 6 derzeit befindet und/oder in welchem Abstand sich die Fremddrohne 6 zur Eigendrohne 8 bewegt. It is conceivable that the position determination of the foreign drone 6 is also carried out by means of the at least one optical sensor, is evaluated in the means of the image recognition, in which area of the environment model, the foreign drone 6 is currently and / or at what distance the foreign drone 6 for self-drone 8 moves.
In bevorzugter Ausgestaltung werden bei der Berechnung bzw. Bestimmung der Wirkungszone Wetterdaten berücksichtigt. Die Wetterdaten können durch Sensoren von der Eigendrohne 8 selbst ermittelt werden oder von stationären Sensoren bereitgestellt werden. Die Wetterdaten umfassen zumindest die Windgeschwindigkeit und die Windrichtung. Das Umgebungsmodell enthält insbesondere 3D-lnformationen zu der zu überfliegenden Umgebung. Das 3D-Umgebungsmodell enthält Höheninformationen. In a preferred embodiment, weather data are taken into account in the calculation or determination of the zone of effect. The weather data can be determined by sensors of the self-drone 8 itself or provided by stationary sensors. The weather data include at least the wind speed and the wind direction. The environment model contains in particular 3D information about the environment to be overflown. The 3D environment model contains elevation information.
Die Eigendrohne 8 steht über ein Kommunikationsmodul mit einer Bodenstation in Kontakt. Das Kommunikationsmodul ermöglicht eine Funkverbindung zu der Bodenstation. An die Bodenstation wird zumindest die Position der Eigendrohne 8 und/oder die Position der Fremddrohne 6 übertragen. Insbesondere werden an die Bodenstation die Wirkungszone und/oder die Landeorte 9, 10, 11 , 12 übertragen. In alternativer Ausgestaltung des Verfahrens ist es denkbar, dass die Wirkungszone und/oder die Landeorte 9, 10, 1 1 , 12 durch die Bodenstation bestimmt werden. Die Übermittlung der Positionen der Eigendrohne 8 und/oder Fremddrohne 6 erfolgt vorzugsweise fortlaufend, insbesondere periodisch. In die Berechnung der Wirkungszone kann insbesondere die erfasste Flugdauer der Fremddrohne 6 mit einfließen. In die erfasste Wirkungszone kann insbesondere auch die aktuelle Flughöhe der Fremddrohne 6 mit einfließen. BEZUGSZEICHENLISTE The self-drone 8 is in contact via a communication module with a ground station. The communication module allows a radio connection to the ground station. At least the position of the self-drone 8 and / or the position of the foreign drone 6 is transmitted to the ground station. In particular, the zone of action and / or the landing location 9, 10, 11, 12 are transmitted to the ground station. In an alternative embodiment of the method, it is conceivable that the zone of action and / or the landing area 9, 10, 1 1, 12 are determined by the ground station. The transmission of the positions of the self-drone 8 and / or foreign drone 6 is preferably carried out continuously, in particular periodically. In particular, the detected flight duration of the foreign drone 6 can be included in the calculation of the action zone. In particular, the current flying altitude of the foreign drone 6 can also be included in the detected effective zone. LIST OF REFERENCE NUMBERS
Gebäude building
Gebäude  building
Gebäude  building
Bäume  trees
Flugbahn  trajectory
Fremddrohne  foreign drone
Erfassungsbereich  detection range
Eigendrohne  self drone
Landeort  landing site
Landeort  landing site
Landeort  landing site
Landeort  landing site

Claims

P AT E N TA N S P R Ü C H E P AT EN TA NSPR O CHE
1. Verfahren zur Bestimmung der Flugbahn (5) einer Fremddrohne (6), wobei mittels mindestens einer Sensoranordnung die Fremddrohne (6) erfasst wird, wobei eine Eigendrohne (8) zur Positionsbestimmung der Fremddrohne (6) verwendet wird, wobei die Eigendrohne (8) mit der Sensoranordnung und mit einem Positionsgeber ausgestattet ist, wobei die Position der Eigendrohne (8) mit dem Positionsgeber ermittelt wird, wobei die Fremddrohne (6) von der Sensoranordnung erfasst wird, wobei aufgrund der ermittelten Position der Eigendrohne (8) und/oder aufgrund der Sensordaten der Sensoranordnung die Position der Fremddrohne (6) bestimmt wird, wobei die Fremddrohne (6) von der Eigendrohne (8) verfolgt wird, wobei ein Umgebungsmodell gespeichert ist, dadurch gekennzeichnet, dass das Umgebungsmodell geeignete Landeorte (9, 10, 11 , 12) aufweist. 1. A method for determining the trajectory (5) of a foreign drone (6), wherein by means of at least one sensor arrangement, the foreign drone (6) is detected, wherein a self-drone (8) for determining the position of the foreign drone (6) is used, wherein the self-drone (8 ) is equipped with the sensor arrangement and with a position sensor, wherein the position of the self-drone (8) is determined with the position sensor, wherein the foreign drone (6) is detected by the sensor arrangement, wherein due to the determined position of the self-drone (8) and / or on the basis of the sensor data of the sensor arrangement, the position of the foreign drone (6) is determined, wherein the foreign drone (6) is tracked by the self-drone (8), wherein an environment model is stored, characterized in that the environment model suitable landing place (9, 10, 11 , 12).
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass an einer Bodenstation an einem Anzeigegerät die geeigneten Landeorte (9, 10, 11 , 12) angezeigt werden. 2. The method according to claim 1, characterized in that at a ground station on a display device, the suitable landing place (9, 10, 11, 12) are displayed.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Eigendrohne (8) ein Kommunikationsmodul zur Bereitstellung einer Funkverbindung zu der Bodenstation aufweist, wobei die Position der Eigendrohne (8) und/oder der Fremddrohne (6) über die Funkverbindung an die Bodenstation übermittelt wird. 3. The method according to claim 1 or 2, characterized in that the self-drone (8) has a communication module for providing a radio link to the ground station, wherein the position of the self-drone (8) and / or the foreign drone (6) via the radio link to the Ground station is transmitted.
4. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass an der Bodenstation an dem Anzeigegerät die aktuelle Position der Eigendrohne (8) und die aktuelle Position der Fremddrohne (6) angezeigt werden. 4. The method according to any one of the preceding claims, characterized in that at the ground station on the display device, the current position of the self-drone (8) and the current position of the foreign drone (6) are displayed.
5. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass den Landeorten (9, 10, 11 und 12) jeweils unterschiedlich hohe Wahrscheinlichkeiten zugeordnet werden. 5. The method according to any one of the preceding claims, characterized in that the landing locations (9, 10, 11 and 12) are assigned to each other different probabilities.
6. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoranordnung einen optischen Sensor aufweist, wobei die Fremddrohne (6) von dem optischen Sensor erfasst wird. 6. The method according to any one of the preceding claims, characterized in that the sensor arrangement comprises an optical sensor, wherein the foreign drone (6) is detected by the optical sensor.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass aufgrund der Sensordaten des optischen Sensors mittels einer Bilderkennung der Typ der Fremddrohne (6) bestimmt wird, wobei der Typ der Fremddrohne (6) bei der Ermittlung einer Wirkungszone, nämlich einer maximalen, von der Fremddrohne (6) erreichbaren Zone, berücksichtigt wird. 7. The method according to claim 6, characterized in that based on the sensor data of the optical sensor by means of an image recognition, the type of the foreign drone (6) is determined, the type of foreign drone (6) in the determination of a Impact zone, namely a maximum, of the foreign drone (6) achievable zone, is taken into account.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass nur geeignete Landeorte (9, 10, 11 , 12) innerhalb der Wirkungszone angezeigt werden 8. The method according to claim 7, characterized in that only suitable landing place (9, 10, 11, 12) are displayed within the action zone
9. Verfahren nach einem der vorstehenden Ansprüche 6 bis 8, dadurch gekennzeichnet, dass Wetterdaten bei der Bestimmung der Wirkungszone berücksichtigt werden, wobei eine Windrichtung und eine Windgeschwindigkeit berücksichtigt wird. 9. The method according to any one of the preceding claims 6 to 8, characterized in that weather data are taken into account in the determination of the zone of action, taking into account a wind direction and a wind speed.
10. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass mittels einer Bilderkennung den Sensordaten Objekte im Umgebungsmodell zugeordnet werden, wobei anhand der erkannten Objekte die Position der Eigendrohne (8) und/oder die Position der Fremddrohne (6) bestimmt werden. 10. The method according to any one of the preceding claims, characterized in that the sensor data objects are assigned in the environmental model by means of an image recognition, whereby the position of the self-drone (8) and / or the position of the foreign drone (6) are determined based on the detected objects.
11. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass bei der Verfolgung der Fremddrohne (6) die Eigendrohne (8) autonom von einer Datenverarbeitungsanlage gesteuert wird. 11. The method according to any one of the preceding claims, characterized in that in the pursuit of the foreign drone (6) the self-drone (8) is autonomously controlled by a data processing system.
12. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass bei der Verfolgung ein Sicherheitsabstand zwischen der Eigendrohne (8) und der Fremddrohne (6) eingehalten wird. 12. The method according to any one of the preceding claims, characterized in that in the pursuit of a safety distance between the self-drone (8) and the foreign drone (6) is maintained.
13. Verfahren nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, dass mindestens ein stationärer Sensor vorhanden ist, wobei ein primärer Bereich mittels des mindestens einen stationären Sensors überwacht wird, wobei, sobald eine Fremddrohne (6) in diesen primären Bereich von dem mindestens einen stationären Sensoren erfasst worden ist oder ermittelt worden ist, dass mit einer gewissen Wahrscheinlichkeit eine Fremddrohne (6) in den primären Bereich eingedrungen ist, die Eigendrohne (8) gestartet wird, wobei nun die Eigendrohne (8) der Fremddrohne (6) folgt und ein erweiterter sekundärer Bereich bei der Verfolgung überwacht wird. 13. The method according to any one of the preceding claims, characterized in that at least one stationary sensor is present, wherein a primary area is monitored by means of at least one stationary sensor, wherein, as soon as a foreign drone (6) in this primary area of the at least one stationary Sensors has been detected or has been determined that with a certain probability a foreign drone (6) has penetrated into the primary area, the self-drone (8) is started, now the self-drone (8) of the foreign drone (6) follows and an extended secondary area is monitored during the pursuit.
14. Eigendrohne (8) mit mindestens einer Datenverarbeitungsanlage, einer Sensoranordnung und einem Positionsgeber, dadurch gekennzeichnet, dass die Eigendrohne (8) zur Ausführung des Verfahrens nach einem der vorstehenden Ansprüche ausgebildet ist. 14. own drone (8) with at least one data processing system, a sensor arrangement and a position sensor, characterized in that the self-drone (8) is designed for carrying out the method according to one of the preceding claims.
15. Eigendrohne (8) nach Anspruch 14, dadurch gekennzeichnet, dass die Sensoranordnung mindestens einen optischen Sensor und/oder mindestens einen Radarsender und einen Radarempfänger aufweist. 15 own drone (8) according to claim 14, characterized in that the sensor arrangement comprises at least one optical sensor and / or at least one radar transmitter and a radar receiver.
16. Eigendrohne (8) nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass die Eigendrohne (8) autonom von einer Datenverarbeitungsanlage steuerbar ist. 16. self-drone (8) according to claim 14 or 15, characterized in that the self-drone (8) is autonomously controlled by a data processing system.
PCT/EP2016/000808 2015-05-18 2016-05-17 Method for determining the flight path of an alien drone WO2016184563A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015006233.6A DE102015006233B4 (en) 2015-05-18 2015-05-18 Procedure for determining the trajectory of an alien drone
DE102015006233.6 2015-05-18

Publications (1)

Publication Number Publication Date
WO2016184563A1 true WO2016184563A1 (en) 2016-11-24

Family

ID=56008571

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/000808 WO2016184563A1 (en) 2015-05-18 2016-05-17 Method for determining the flight path of an alien drone

Country Status (2)

Country Link
DE (1) DE102015006233B4 (en)
WO (1) WO2016184563A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11064363B2 (en) 2016-10-11 2021-07-13 Whitefox Defense Technologies, Inc. Systems and methods for cyber-physical vehicle management, detection and control
US11134380B2 (en) 2016-10-11 2021-09-28 Whitefox Defense Technologies, Inc. Systems and methods for cyber-physical vehicle management, detection and control
US11487017B2 (en) * 2019-03-21 2022-11-01 Alberta Centre For Advanced Mnt Products Drone detection using multi-sensory arrays
US11558743B2 (en) 2018-09-05 2023-01-17 Whitefox Defense Technologies, Inc. Integrated secure device manager systems and methods for cyber-physical vehicles

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3357040A4 (en) 2015-09-30 2019-06-26 Alarm.com Incorporated Drone detection systems
AU2018389266A1 (en) 2017-12-21 2020-07-02 Alarm.Com Incorporated Monitoring system for securing networks from hacker drones
DE102019104866A1 (en) 2019-02-26 2020-08-27 Rheinmetall Waffe Munition Gmbh Drone and anti-targeting methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007091992A2 (en) * 2005-01-21 2007-08-16 The Boeing Company Situation awareness display
US20090157233A1 (en) * 2007-12-14 2009-06-18 Kokkeby Kristen L System and methods for autonomous tracking and surveillance
DE102007062603A1 (en) * 2007-12-22 2009-07-02 Diehl Bgt Defence Gmbh & Co. Kg Intrusion vehicle e.g. drone, detecting method for e.g. military area, involves determining whether signals received from omni-directional sensor devices of two different types correlate with respect to place of origin
EP3012659A2 (en) * 2014-10-22 2016-04-27 Honeywell International Inc. Surveying areas using a radar system and an unmanned aerial vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3060966B1 (en) * 2014-07-30 2021-05-05 SZ DJI Technology Co., Ltd. Systems and methods for target tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007091992A2 (en) * 2005-01-21 2007-08-16 The Boeing Company Situation awareness display
US20090157233A1 (en) * 2007-12-14 2009-06-18 Kokkeby Kristen L System and methods for autonomous tracking and surveillance
DE102007062603A1 (en) * 2007-12-22 2009-07-02 Diehl Bgt Defence Gmbh & Co. Kg Intrusion vehicle e.g. drone, detecting method for e.g. military area, involves determining whether signals received from omni-directional sensor devices of two different types correlate with respect to place of origin
EP3012659A2 (en) * 2014-10-22 2016-04-27 Honeywell International Inc. Surveying areas using a radar system and an unmanned aerial vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11064363B2 (en) 2016-10-11 2021-07-13 Whitefox Defense Technologies, Inc. Systems and methods for cyber-physical vehicle management, detection and control
US11134380B2 (en) 2016-10-11 2021-09-28 Whitefox Defense Technologies, Inc. Systems and methods for cyber-physical vehicle management, detection and control
US11558743B2 (en) 2018-09-05 2023-01-17 Whitefox Defense Technologies, Inc. Integrated secure device manager systems and methods for cyber-physical vehicles
US12022289B2 (en) 2018-09-05 2024-06-25 Whitefox Defense Technologies, Inc. Integrated secure device manager systems and methods for cyber-physical vehicles
US11487017B2 (en) * 2019-03-21 2022-11-01 Alberta Centre For Advanced Mnt Products Drone detection using multi-sensory arrays

Also Published As

Publication number Publication date
DE102015006233B4 (en) 2020-12-03
DE102015006233A1 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
DE102015006233B4 (en) Procedure for determining the trajectory of an alien drone
DE102009009896B4 (en) Method and device for detecting target objects
EP3493107A1 (en) Mobile optical long range detection and monitoring system with automatic object recognition and method for mobile optical long range detection and monitoring with automatic object recognition
EP2702382A2 (en) Method and system for inspecting a surface area for material defects
EP3139125B1 (en) Drone defence installation for repelling unknown drones
DE102016008553B4 (en) System comprising a motor vehicle and an unmanned aircraft and method for detecting conditions in an environment of a motor vehicle
EP3819659A1 (en) Communication module for components of tactical air conditioning systems
WO2019170649A1 (en) Air position information- and traffic management system for unmanned and manned aircraft
DE102007062603B4 (en) Method and device for detecting data of transmitting vehicles
DE102020112415A1 (en) ZONE-BASED LANDING SYSTEMS AND PROCEDURES FOR UNMANNED AIRCRAFT
DE102019109127B4 (en) Drone-based aerial and collision monitoring system
DE102018008282A1 (en) Device and method for detecting flying objects
EP3373092B1 (en) Method for locating a fault of a system
WO2011157723A1 (en) System and method for collision avoidance
WO2023186350A1 (en) Unmanned aircraft for optical area detection
EP3486404A2 (en) Mobile optical long range detection and monitoring system and method for mobile optical long range detection and monitoring
DE102021110647A1 (en) Procedure, intercept drone and intercept system to defend against an unwanted foreign drone
EP1732349A2 (en) Method and device for remote reading of data
DE102016110477A1 (en) Method for positioning an in particular unmanned aircraft with the aid of an active static ground station and aircraft and ground station for carrying out the method
DE102016013944B4 (en) Detector system for the demand-controlled marking of aviation obstacles
EP3404443B1 (en) Device and method for detecting a traffic participant
DE102022120476A1 (en) Method and reconnaissance system for detecting an unauthorized entry of a third-party drone into a defined air area
DE102022200355A1 (en) Procedure, defense drone and defense system for defending against a third-party drone
DE19818426C2 (en) Remote reconnaissance and targeting procedures
DE102019108256A1 (en) Arrangement and procedure for enabling an autonomous landing

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16723019

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16723019

Country of ref document: EP

Kind code of ref document: A1