DE102015224796A1 - Method and control unit for detecting a possible collision of an unmanned aerial vehicle with an object - Google Patents

Method and control unit for detecting a possible collision of an unmanned aerial vehicle with an object Download PDF

Info

Publication number
DE102015224796A1
DE102015224796A1 DE102015224796.1A DE102015224796A DE102015224796A1 DE 102015224796 A1 DE102015224796 A1 DE 102015224796A1 DE 102015224796 A DE102015224796 A DE 102015224796A DE 102015224796 A1 DE102015224796 A1 DE 102015224796A1
Authority
DE
Germany
Prior art keywords
information
aircraft
trajectory
possible future
collision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015224796.1A
Other languages
German (de)
Inventor
Pablo Luis Guarnizo
Gabriele Michalke
Thomas MICHALKE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102015224796.1A priority Critical patent/DE102015224796A1/en
Priority to PCT/EP2016/078647 priority patent/WO2017097596A2/en
Publication of DE102015224796A1 publication Critical patent/DE102015224796A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0078Surveillance aids for monitoring traffic from the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (900) zum Erkennen einer möglichen zukünftigen Kollision (706) eines unbemannten Luftfahrzeugs (100) mit einem Objekt (118), wobei das Verfahren (900) einen Schritt (902) des Suchens, einen Schritt (904) des Zuordnens und einen Schritt (906) des Vergleichens aufweist. Im Schritt (902) des Suchens wird zumindest ein Objekt (118) in einer, von einer Kamera (112) des Luftfahrzeugs (100) eingelesenen Bildinformation (114) unter Verwendung eines optischen Merkmals (120) in einer Bildsequenz aus zumindest zwei Einzelbildern (402) der Bildinformation (114) gesucht. Im Schritt (904) des Zuordnens wird zumindest eine Objektinformation (124) zu dem zumindest einen Objekt (118) unter Verwendung des optischen Merkmals (120) zugeordnet. Im Schritt (906) des Vergleichens wird die zumindest eine Objektinformation (124) mit einer Flugbahninformation (132) des Luftfahrzeugs (100) verglichen, um einen möglichen zukünftigen Kollisionsort (140) und eine mögliche zukünftige Kollisionszeit (142) der möglichen zukünftigen Kollision (706) zu erkennen.The invention relates to a method (900) for detecting a possible future collision (706) of an unmanned aerial vehicle (100) with an object (118), the method (900) comprising a step (902) of searching, a step (904) of Mapping and a step (906) of comparing. In the step (902) of the search, at least one object (118) in an image information (114) read by a camera (112) of the aircraft (100) is made using an optical feature (120) in an image sequence of at least two individual images (402 ) of the image information (114). In step (904) of assigning, at least object information (124) is assigned to the at least one object (118) using the optical feature (120). In step (906) of the comparing, the at least one object information (124) is compared with trajectory information (132) of the aircraft (100) to determine a possible future collision location (140) and a possible future collision time (142) of the possible future collision (706 ) to recognize.

Description

Stand der TechnikState of the art

Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.The invention is based on a device or a method according to the preamble of the independent claims. The subject of the present invention is also a computer program.

Bei einem unbemannten Luftfahrzeug, das auch als Drohne bezeichnet werden kann, besteht bei einem autonomen Betrieb die Gefahr, dass das Luftfahrzeug mit einem Objekt oder Hindernis kollidiert, welches sich in einer geplanten Flugbahn des Luftfahrzeugs befindet beziehungsweise in die Flugbahn gerät. In an unmanned aerial vehicle, which may also be referred to as a drone, in autonomous operation there is a risk that the aircraft collides with an object or obstacle which is in a planned trajectory of the aircraft or enters the trajectory.

Offenbarung der ErfindungDisclosure of the invention

Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Erkennen einer möglichen zukünftigen Kollision eines unbemannten Luftfahrzeugs mit einem Objekt, weiterhin ein Steuergerät, das dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.Against this background, with the approach presented here, a method for detecting a possible future collision of an unmanned aerial vehicle with an object, furthermore a control device which uses this method, and finally a corresponding computer program according to the main claims are presented. The measures listed in the dependent claims advantageous refinements and improvements of the independent claim device are possible.

Es wird ein Verfahren zum Erkennen einer möglichen zukünftigen Kollision eines unbemannten Luftfahrzeugs mit einem Objekt vorgestellt, wobei das Verfahren die folgenden Schritte aufweist:
Suchen von zumindest einem Objekt in einer, von einer Kamera des Luftfahrzeugs eingelesenen Bildinformation unter Verwendung eines optischen Merkmals in einer Bildsequenz aus zumindest zwei Einzelbildern der Bildinformation;
Zuordnen von zumindest einer Objektinformation zu dem zumindest einen Objekt unter Verwendung des optischen Merkmals; und
Vergleichen der zumindest einen Objektinformation mit einer Flugbahninformation des Luftfahrzeugs, um einen möglichen zukünftigen Kollisionsort und eine mögliche zukünftige Kollisionszeit der möglichen zukünftigen Kollision zu erkennen.
A method is provided for detecting a possible future collision of an unmanned aerial vehicle with an object, the method comprising the following steps:
Searching for at least one object in an image information read by a camera of the aircraft using an optical feature in an image sequence of at least two frames of the image information;
Associating at least one object information with the at least one object using the optical feature; and
Comparing the at least one object information with a trajectory information of the aircraft to detect a possible future collision location and a possible future collision time of the possible future collision.

Unter einer Kollision kann ein Ereignis verstanden werden, bei dem das Luftfahrzeug und das Objekt einander so nahe kommen, dass mit einer hohen Wahrscheinlichkeit eine Berührung zwischen dem Luftfahrzeug und dem Objekt stattfindet. Insbesondere kann eine zukünftige mögliche Kollision erkannt werden, wenn ein Sicherheitsabstand zwischen dem Luftfahrzeug und dem Objekt unterschritten würde. Unter einer Bildinformation kann ein Datensatz von Bilddaten verstanden werden, die von einer Kamera des Luftfahrzeugs aufgezeichnet wurden, wobei die Bildinformation Einzelbilder zu unterschiedlichen Aufnahmezeitpunkten oder eine aus Einzelbildern bestehende Bildsequenz enthält, die eine Bewegung des Objektes im Umfeld des Luftfahrzeugs abbildet. Ein optisches Merkmal kann beispielsweise ein optischer Fluss, ein Muster oder eine Struktur sein. Der optische Fluss kann beispielsweise ein Differenzvektor oder eine Menge von Differenzvektoren sein, die eine Verschiebung von einander entsprechenden Bildpunkten in den zwei Einzelbildern repräsentieren, die je von der Kamera des Luftfahrzeugs aufgenommen wurden. Solche einander entsprechende Bildpunkte in den zwei Einzelbildern können beispielsweise Ecken oder Kanten von in den Einzelbildern abgebildeten Objekten sein, wobei die Lage der Ecken oder Kanten in dem ersten der Einzelbilder erfasst wird und mit einer Lage dieser Ecken oder Kanten in dem zweiten der Einzelbilder verglichen wird, um aus der unterschiedlichen Lage der Ecken oder Kanten in den Einzelbildern je einen Differenzvektor zu ermitteln. Eine Objektinformation kann ein Parameter sein, der eine Ausdehnung und/oder eine Bewegung des Objekts charakterisier. Beispielsweise kann ein solcher Parameter als Objektinformation eine Relativgeschwindigkeit und/oder ein Relativabstand des Objektes in Bezug zum Luftfahrzeug sein oder eine Größe oder Ausdehnung des Objektes bezeichnen. Eine Flugbahninformation kann einen geplanten zukünftigen Platzbedarf des Luftfahrzeugs repräsentieren, beispielsweise in der Form einer Flugtrajektorie, die das Luftfahrzeug bei seinem Flug höchstwahrscheinlich nehmen wird. A collision can be understood to mean an event in which the aircraft and the object come so close to each other that there is a high probability of contact between the aircraft and the object. In particular, a future potential collision can be detected if a safety distance between the aircraft and the object would fall below. Image information may be understood to be a data record of image data recorded by a camera of the aircraft, wherein the image information contains individual images at different acquisition times or an image sequence consisting of individual images, which images a movement of the object in the vicinity of the aircraft. An optical feature may be, for example, an optical flow, pattern or structure. The optical flow may be, for example, a difference vector or a set of difference vectors representing a displacement of corresponding pixels in the two frames each captured by the camera of the aircraft. Such mutually corresponding pixels in the two individual images can be, for example, corners or edges of objects imaged in the individual images, the position of the corners or edges in the first of the individual images being detected and compared with a position of these corners or edges in the second of the individual images in order to determine a difference vector from the different position of the corners or edges in the individual images. Object information may be a parameter that characterizes expansion and / or movement of the object. For example, such a parameter as object information may be a relative speed and / or a relative distance of the object with respect to the aircraft or may designate a size or extent of the object. Trajectory information may represent a planned future space requirement of the aircraft, for example in the form of an aircraft trajectory, which will most likely take the aircraft on its flight.

Ein Bildbereich der Bildinformation kann als Objekt erkannt werden, wenn Bildpunkte in dem Bildbereich ein optisches Kennzeichen aufweisen, das dem optischen Merkmal innerhalb eines Toleranzbereichs gleich ist. Unter einem optischen Kennzeichen kann beispielsweise ebenfalls ein optischer Fluss, ein Muster oder eine Struktur sein. Unter einer innerhalb eines Toleranzbereichs vorliegenden Gleichheit des optischen Kennzeichens mit dem optischen Merkmal kann beispielsweise verstanden werden, dass sich die Differenzvektoren von Bildpunkten in diesem Bereich in ihrer Richtung und ihrem Betrag um nicht mehr als beispielsweise 20 Prozent, insbesondere um nicht mehr als 10 Prozent, speziell um nicht mehr als 5 Prozent voneinander unterscheiden. Beispielsweise kann ein Objekt anhand einer im Wesentlichen übereinstimmenden Geschwindigkeit und Richtung der das Objekt repräsentierenden Bildpunkte (beispielsweise in der Bildinformation) erkannt werden.An image area of the image information may be recognized as an object if pixels in the image area have an optical mark equal to the optical feature within a tolerance range. For example, an optical tag may also be an optical flow, a pattern, or a structure. For example, an equality of the optical mark with the optical feature which is present within a tolerance range can be understood as meaning that the difference vectors of pixels in this region do not increase more than, for example, 20 percent, in particular not more than 10 percent, in their direction and their magnitude. specifically not to differ by more than 5 percent. For example, an object can be detected based on a substantially matching speed and direction of the pixels representing the object (for example in the image information).

Das Suchen des Objektes kann auch durch andere Methoden erfolgen. Der optische Fluss ist eine Variante. Ebenso kann eine Klassifizierer-Kaskade oder eine Mustererkennung, „Structure from Motion“, was insbesondere für Monokameras geeignet ist und/oder eine Erkennung von vorab bereits aufgefundenen, bekannten und/oder kartierten Objekten verwendet werden. Unter vorab bereits aufgefundenen, bekannten und/oder kartierten Objekten können gemappte Objekte verstanden werden.The search for the object can also be done by other methods. The optical flow is a variant. Likewise, a classifier cascade or a pattern recognition, "structure from motion", which is suitable in particular for monocameras and / or a recognition of previously found, known and / or mapped objects be used. Under previously known, known and / or mapped objects mapped objects can be understood.

Der optische Fluss resultiert dabei aus einer Relativbewegung zwischen einer Kamera und abgebildeten Objekten. Dabei ist es unerheblich, ob sich die Kamera aufgrund einer Eigenbewegung auf die Objekte zu bewegt, oder ob sich die Objekte auf die Kamera zu bewegen. So wie ein Bediener eines Fluggeräts ein mögliches Hindernis oder Kollisionsobjekt aufgrund des optischen Flusses zwischen zumindest zwei Bildern der Kamera erkennen kann, kann ein Kollisionsvermeidungssystem eine Flussinformation über den optischen Fluss auswerten, um das Hindernis beziehungsweise Kollisionsobjekt zu identifizieren.The optical flow results from a relative movement between a camera and imaged objects. It does not matter whether the camera moves towards the objects due to its own movement or whether the objects move towards the camera. Just as an operator of an aircraft can detect a potential obstacle or collision object due to optical flow between at least two images of the camera, a collision avoidance system may evaluate flow information about the optical flow to identify the obstacle or collision object.

Wenn eine extrapolierte momentane Flugbahn einen Sicherheitsbereich um das Hindernis oder Kollisionsobjekt verletzt, kann eine mögliche zukünftige Kollision erkannt werden. If an extrapolated instantaneous trajectory violates a safety area around the obstacle or collision object, a possible future collision can be detected.

Aus dem optischen Fluss der Bildpunkte, die das erkannte Objekt repräsentieren, können als Objektinformationen eine Geschwindigkeitsinformation, eine Positionsinformation und eine Richtungsinformation des Objekts ermittelt werden. Der optische Fluss setzt sich hierbei wie vorstehend bereits kurz umrissen beispielsweise aus Verschiebungsvektoren zusammen, die eine, eine Geschwindigkeit repräsentierende Länge, eine, eine Richtung repräsentierende Ausrichtung im Raum und einen, eine Position repräsentierenden Endpunkt aufweisen.From the optical flow of the pixels representing the recognized object, speed information, position information and direction information of the object can be determined as object information. The optical flow is in this case, as already briefly outlined above, for example composed of displacement vectors having a length representing a velocity, a direction-representing orientation in space and an end point representing a position.

Ein als Objekt erkannter Bildbereich kann mit gemappten Objekten verglichen werden, um das Objekt zu bestätigen. Dadurch kann der hier vorgestellte Ansatz robust sein.An image area recognized as an object can be compared with mapped objects to confirm the object. As a result, the approach presented here can be robust.

Die Geschwindigkeitsinformation, die Positionsinformation und die Richtungsinformation des Objekts können mit einer in der Flugbahninformation beispielsweise enthaltenen Fluggeschwindigkeit, einer in der Flugbahninformation beispielsweise enthaltenen Fahrzeugposition und/oder einer in der Flugbahninformation beispielsweise enthaltenen Flugrichtung des Luftfahrzeugs verglichen werden, um den möglichen zukünftigen Kollisionsort und die mögliche zukünftige Kollisionszeit zu erkennen. Aus der Geschwindigkeitsinformation, der Positionsinformation und/oder der Richtungsinformation des Objekts kann eine erwartete Bewegungstrajektorie des Objekts berechnet, beziehungsweise extrapoliert werden. Aus der Fluggeschwindigkeit, der Fahrzeugposition und/oder der Flugrichtung kann eine erwartete Flugtrajektorie berechnet beziehungsweise extrapoliert werden. Durch einen Vergleich der Flugtrajektorie mit der Bewegungstrajektorie kann die mögliche zukünftige Kollision erkannt werden.The speed information, the position information and the direction information of the object can be compared with an airspeed contained in the trajectory information, a vehicle position contained in the trajectory information and / or an aircraft direction included in the trajectory information, for example, to determine the possible future collision location and the possible future collision location detect future collision time. From the speed information, the position information and / or the direction information of the object, an expected movement trajectory of the object can be calculated or extrapolated. From the airspeed, the vehicle position and / or the direction of flight an expected flight trajectory can be calculated or extrapolated. By comparing the flight trajectory with the motion trajectory, the possible future collision can be detected.

Um die Kollision zu vermeiden, kann somit sehr einfach ein Bild beziehungsweise Video einer Kamera an Bord des Luftfahrzeugs zu einem Bediener oder einem Steuergerät in dem Luftfahrzeug gesendet werden, damit der Bediener oder das Steuergerät die Flugbahn des Luftfahrzeugs bei Bedarf korrigieren kann.Thus, to avoid the collision, a picture or video of a camera aboard the aircraft can thus be very simply sent to an operator or a control device in the aircraft, so that the operator or the control unit can correct the trajectory of the aircraft if necessary.

Das Verfahren kann einen Schritt des Empfangens zumindest einer weiteren Flugbahninformation eines weiteren Luftfahrzeugs aufweisen. Die weitere Flugbahninformation kann dabei die vorstehend genannten Informationen oder Parameter bezüglich des weiteren Luftfahrzeugs aufweisen oder enthalten, die zur Flugbahninformation des Luftfahrzeugs bereits genannt wurden. Dabei kann ferner die Flugbahninformation mit der weiteren Flugbahninformation verglichen werden, um den möglichen zukünftigen Kollisionsort und die mögliche zukünftige Kollisionszeit zu erkennen. Die weitere Flugbahninformation repräsentiert eine weitere Flugtrajektorie und kann eine weitere Fluggeschwindigkeit, eine weitere Fahrzeugposition und eine weitere Flugrichtung des weiteren Luftfahrzeugs umfassen. Die weitere Flugtrajektorie kann mit der Flugtrajektorie verglichen werden, um die mögliche zukünftige Kollision zu erkennen.The method may include a step of receiving at least one further trajectory information of another aircraft. The further trajectory information may include or contain the aforementioned information or parameters relating to the further aircraft, which have already been mentioned for the trajectory information of the aircraft. In this case, furthermore, the trajectory information can be compared with the further trajectory information in order to detect the possible future collision location and the possible future collision time. The further trajectory information represents a further trajectory and may comprise a further airspeed, a further vehicle position and a further direction of flight of the further aircraft. The further flight trajectory can be compared with the flight trajectory to detect the possible future collision.

Die Flugbahninformation kann unter Verwendung des optischen Flusses bestimmt werden. In der Bildinformation der Kamera ist neben den zu erkennenden Objekten auch ein aus einer Eigenbewegung des Luftfahrzeugs resultierender optischer Fluss enthalten. Beispielsweise kann in diesem Fall der optische Fluss in Bezug auf Bildpunkte ausgewertet werden, die Objekten zugeordnet sein, die mit dem Untergrund verbunden sind wie beispielsweise Bäume oder Gebäude. Daraus kann dann sehr einfach die Flugbahninformation des Luftfahrzeugs selbst anhand der Auswertung der „Relativbewegung“ des Luftfahrzeugs mit diesen mit dem Boden verbundenen Objekten gewonnen werden, die sich durch die feste Verbindung mit dem Boden nicht selbst bewegen können und die Relativbewegung daher durch eine Bewegung des Luftfahrzeugs gegenüber diesen Objekten resultiert. Insbesondere kann eine Flugrichtung einer Richtung zu einem Konvergenzpunkt von Verschiebungsvektoren eines Bildhintergrunds entsprechen, insbesondere wobei ein solcher Konvergenzpunkt beispielsweise der Baum oder das Gebäude darstellen kann.The trajectory information may be determined using the optical flow. In addition to the objects to be detected, the picture information of the camera also contains an optical flow resulting from a proper movement of the aircraft. For example, in this case, the optical flow may be evaluated with respect to pixels associated with objects associated with the ground, such as trees or buildings. It is then very easy to obtain the trajectory information of the aircraft itself on the basis of the evaluation of the "relative movement" of the aircraft with these objects connected to the ground, which can not move by the fixed connection with the ground itself and therefore the relative movement by a movement of the Aircraft results against these objects. In particular, a direction of flight may correspond to a direction to a point of convergence of displacement vectors of an image background, in particular where such a point of convergence may represent, for example, the tree or the building.

Das Verfahren kann einen Schritt des Bereitstellens der Flugbahninformation umfassen. Die eigene Flugbahninformation kann beispielsweise für ein anderes Luftfahrzeug oder eine zentrale Koordinationsstelle bereitgestellt werden. Damit kann durch eine entsprechende Bekanntgabe der Flugbahninformation an das andere oder ein zusätzliches Luftfahrzeug eine mögliche Konfliktsituation bereits verhindert werden, bevor das andere Luftfahrzeug oder ein zusätzliches Luftfahrzeug in den Erfassungsbereich der Kamera gerät. The method may include a step of providing the trajectory information. The own trajectory information can be provided, for example, for another aircraft or a central coordination point. Thus, by an appropriate disclosure of the trajectory information to the other or an additional aircraft a possible conflict situation already be prevented before the other aircraft or an additional aircraft enters the detection range of the camera.

Das Verfahren kann einen Schritt des Bestimmens einer alternativen Flugbahn für das Luftfahrzeug unter Verwendung der Flugbahninformation, der Objektinformationen, des möglichen zukünftigen Kollisionsorts und der möglichen zukünftigen Kollisionszeit umfassen. Das Luftfahrzeug kann auf die alternative Flugbahn gesteuert werden, um die mögliche zukünftige Kollision zu verhindern. Die Flugbahn beziehungsweise geplante Flugtrajektorie kann so lange verändert werden, bis ein Sicherheitsabstand zwischen dem Objekt und dem Luftfahrzeug gewahrt bleibt und hierdurch die alternative Flugbahn bestimmt wird. The method may include a step of determining an alternative trajectory for the aircraft using the trajectory information, the object information, the potential future collision location, and the possible future collision time. The aircraft may be controlled to the alternative trajectory to prevent the potential future collision. The trajectory or planned trajectory can be changed until a safety distance between the object and the aircraft is maintained and thereby the alternative trajectory is determined.

Das Verfahren kann einen Schritt des Warnens aufweisen, in dem ein Warnsignal über die mögliche zukünftige Kollision für das Objekt bereitgestellt wird. Unter einem Warnsignal kann beispielsweise ein akustisches Signal oder ein optisches Signal verstanden werden. Insbesondere kann ein Warnton bereitgestellt werden, wenn das Objekt als Vogel erkannt wird. Das Warnsignal kann beispielsweise direkt vom Luftfahrzeug aus aus- oder abgegeben werden, beispielsweise um einen auf das Luftfahrzeug zu fliegenden Vogel zu verscheuchen. The method may include a warning step of providing a warning signal about the potential future collision for the object. A warning signal can be understood, for example, as an acoustic signal or an optical signal. In particular, a warning sound may be provided if the object is recognized as a bird. For example, the warning signal may be emitted or disembarked directly from the aircraft, for example, to scare off a bird flying on the aircraft.

Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.This method can be implemented, for example, in software or hardware or in a mixed form of software and hardware, for example in a control unit.

Der hier vorgestellte Ansatz schafft ferner ein Steuergerät zum Erkennen einer möglichen zukünftigen Kollision eines unbemannten Luftfahrzeugs mit einem Objekt, wobei das Steuergerät ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form eines Steuergeräts kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden. The approach presented here also provides a control device for detecting a possible future collision of an unmanned aerial vehicle with an object, wherein the control device is designed to perform the steps of a variant of a method presented here in corresponding facilities to drive or implement. Also by this embodiment of the invention in the form of a control device, the object underlying the invention can be achieved quickly and efficiently.

Unter einem Steuergerät kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Das Steuergerät kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen des Steuergeräts beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a control device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The control unit may have an interface, which may be formed in hardware and / or software. In the case of a hardware-based embodiment, the interfaces can be part of a so-called system ASIC, for example, which contains various functions of the control unit. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.

Weiterhin wird ein Kollisionsvermeidungssystem für ein unbemanntes Luftfahrzeug vorgestellt, wobei das Kollisionsvermeidungssystem die folgenden Merkmale aufweist:
eine Kamera zum Bereitstellen einer Bildinformation;
ein Steuergerät gemäß dem hier vorgestellten Ansatz; und
eine Ausweicheinrichtung zum Beeinflussen der Flugbahn des Luftfahrzeugs, insbesondere ansprechend auf ein vom Steuergerät bereitgestelltes Steuersignal.
Furthermore, a collision avoidance system for an unmanned aerial vehicle is presented, the collision avoidance system having the following features:
a camera for providing image information;
a controller according to the approach presented here; and
an avoidance device for influencing the trajectory of the aircraft, in particular in response to a control signal provided by the control device.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.Also of advantage is a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and / or controlling the steps of the method according to one of the embodiments described above is used, especially when the program product or program is executed on a computer or a device.

Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:Embodiments of the invention are illustrated in the drawings and explained in more detail in the following description. It shows:

1 eine Darstellung eines unbemannten Luftfahrzeugs mit einem Steuergerät zum Erkennen einer möglichen zukünftigen Kollision gemäß einem Ausführungsbeispiel; 1 a representation of an unmanned aerial vehicle with a control unit for detecting a possible future collision according to an embodiment;

2 eine Übersichtsdarstellung eines Kollisionsvermeidungssystems gemäß einem Ausführungsbeispiel; 2 an overview of a collision avoidance system according to an embodiment;

3 eine Darstellung eines unbemannten Luftfahrzeugs mit einem Kollisionsvermeidungssystem gemäß einem Ausführungsbeispiel; 3 a representation of an unmanned aerial vehicle with a collision avoidance system according to an embodiment;

4 eine Darstellung einer Abfolge von Schritten zum Erkennen einer möglichen zukünftigen Kollision gemäß einem Ausführungsbeispiel; 4 a representation of a sequence of steps for detecting a possible future collision according to an embodiment;

5 eine Darstellung einer geänderten Flugbahn zum Vermeiden einer Kollision gemäß einem Ausführungsbeispiel; 5 a representation of a modified trajectory to avoid a collision according to an embodiment;

6 eine Darstellung eines unbemannten Luftfahrzeugs vor einer möglichen zukünftigen Kollision mit einem Vogel; 6 a representation of an unmanned aerial vehicle before a possible future collision with a bird;

7 eine Darstellung eines autonomen Flugs eines unbemannten Luftfahrzeugs mit einem Kollisionsvermeidungssystem gemäß einem Ausführungsbeispiel; 7 a representation of an autonomous flight of an unmanned aerial vehicle with a A collision avoidance system according to an embodiment;

8 eine Darstellung von Ausbaustufen eines Kollisionsvermeidungssystems für ein unbemanntes Luftfahrzeug gemäß einem Ausführungsbeispiel; und 8th an illustration of expansion stages of a collision avoidance system for an unmanned aerial vehicle according to an embodiment; and

9 ein Ablaufdiagramm eines Verfahrens zum Erkennen einer möglichen zukünftigen Kollision gemäß einem Ausführungsbeispiel. 9 a flowchart of a method for detecting a possible future collision according to an embodiment.

In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of favorable embodiments of the present invention, the same or similar reference numerals are used for the elements shown in the various figures and similar acting, wherein a repeated description of these elements is omitted.

1 zeigt eine Darstellung eines unbemannten Luftfahrzeugs 100 mit einem Steuergerät 102 zum Erkennen einer möglichen zukünftigen Kollision gemäß einem Ausführungsbeispiel. Das Luftfahrzeug 100 kann als Drohne 100 bezeichnet werden. Hier ist das Luftfahrzeug 100 ein Quadrokopter 100. Das Steuergerät 102 weist eine Sucheinrichtung 104, eine Zuordnungseinrichtung 106 und eine Vergleichseinrichtung 108 auf. Das Steuergerät 102 ist ein Bestandteil eines Kollisionsvermeidungssystems 110 (das in der nachfolgenden Beschreibung auch synonym als eMSS-System 110, eMSS = expandable Modular Safety System, engl. erweiterbares modulares Sicherheitssystem bezeichnet werden kann) des Luftfahrzeugs 100. Das Steuergerät 102 kann als Kollisionserkennungssystem 102 bezeichnet werden. Das Luftfahrzeug 100 weist zumindest eine Kamera 112 zum Bereitstellen einer Bildinformation 114 auf. Die Kamera 112 ist in eine Hauptflugrichtung 116 des Luftfahrzeugs 100 ausgerichtet und bildet eine vor dem Luftfahrzeug 100 liegende Umgebung des Luftfahrzeugs 100 in der Bildinformation 114 ab. Die Bildinformation 114 besteht aus einer Abfolge von Einzelbildern, die ein Video beziehungsweise Bewegtbild der Umgebung ergeben. 1 shows a representation of an unmanned aerial vehicle 100 with a control unit 102 for detecting a possible future collision according to an embodiment. The aircraft 100 can as a drone 100 be designated. Here is the aircraft 100 a quadrocopter 100 , The control unit 102 has a search facility 104 , an allocation device 106 and a comparator 108 on. The control unit 102 is part of a collision avoidance system 110 (which in the following description synonymous as an eMSS system 110 , eMSS = expandable Modular Safety System, engl. expandable modular safety system) of the aircraft 100 , The control unit 102 can as a collision detection system 102 be designated. The aircraft 100 has at least one camera 112 for providing image information 114 on. The camera 112 is in a main flight direction 116 of the aircraft 100 aligned and forms one in front of the aircraft 100 lying environment of the aircraft 100 in the picture information 114 from. The picture information 114 consists of a sequence of frames that give a video or moving image of the environment.

Die Kamera 112 bildet hier beispielhaft ein Objekt 118 in der Bildinformation 114 ab. Bei einer Relativbewegung zwischen der Kamera 112 und dem abgebildeten Objekt 118 wird es in den Einzelbildern an verschiedenen Stellen und mit einer unterschiedlichen Abbildungsgröße abgebildet. Mit anderen Worten ergibt sich jeweils ein Verschiebungsvektor zwischen Bildkoordinaten, an denen in den Einzelbildern jeweils ein Merkmal des Objekts 118 abgebildet ist. Eine Gesamtheit der Verschiebungsvektoren wird als eine Variante eines optischen Merkmals 120 bezeichnet, die vorliegend auch als optischer Fluss bezeichnet werden kann. Das Suchen des Objektes kann auch durch andere Methoden erfolgen. Die Verwendung des optischen Flusses ist lediglich eine Variante. The camera 112 forms an example here an object 118 in the picture information 114 from. In a relative movement between the camera 112 and the imaged object 118 It is displayed in the individual images in different places and with a different image size. In other words, in each case a displacement vector results between image coordinates, in each case one feature of the object in the individual images 118 is shown. An entirety of the displacement vectors is considered a variant of an optical feature 120 referred to, which can also be referred to herein as optical flow. The search for the object can also be done by other methods. The use of the optical flow is just a variant.

Ebenso kann eine Klassifizierer-Kaskade oder eine Mustererkennung, „Structure from Motion“, was insbesondere für Monokameras geeignet ist und/oder eine Erkennung von gemappten Objekte verwendet werden. Alle diese exemplarisch verwendeten Ansätze oder Kombinationen daraus sind unter der Bezeichnung eines optischen Merkmals zu verstehen, wobei in der folgenden Beschreibung die Variante unter Verwendung des optischen Flusses verwendet wird. Likewise, a classifier cascade or pattern recognition, "structure from motion", which is particularly suitable for monocameras and / or recognition of mapped objects can be used. All of these exemplarily used approaches or combinations thereof are to be understood by the designation of an optical feature, wherein in the following description the variant using the optical flow is used.

Die Sucheinrichtung 104 ist dazu ausgebildet, das Objekt 118 beziehungsweise Objekte in der Bildinformation 114 zu suchen. Dazu liest die Sucheinrichtung 104 die Bildinformation 114 und den optischen Fluss 120 ein. Dabei wird ein Bildbereich 122 der Bildinformation 114 als das Objekt 118 erkannt, wenn Bildpunkte in dem Bildbereich 122 einen ähnlichen optischen Fluss 120 aufweisen. Beispielsweise können die Verschiebungsvektoren eine ähnliche Länge aufweisen. Ebenso können die Verschiebungsvektoren einen gemeinsamen Fluchtpunkt aufweisen. Die Zuordnungseinrichtung 106 ist dazu ausgebildet, unter Verwendung des optischen Flusses 120 Objektinformationen 124 zu dem Objekt 118 beziehungsweise den Objekten zuzuordnen. Dabei werden eine Geschwindigkeitsinformation 126, eine Positionsinformation 128 und eine Richtungsinformation 130 des Objekts 118 aus dem optischen Fluss 120 der, das erkannte Objekt 118 repräsentierenden Bildpunkte ermittelt. Die Vergleichseinrichtung 108 ist dazu ausgebildet, die Objektinformationen 124 mit einer Flugbahninformation 132 des Luftfahrzeugs 100 zu vergleichen. Dabei werden die Geschwindigkeitsinformation 126, die Positionsinformation 128 und die Richtungsinformation 130 des Objekts 118 mit einer Fluggeschwindigkeit 134, einer Fahrzeugposition 136 und einer Flugrichtung 138 des Luftfahrzeugs 100 verglichen, um einen möglichen zukünftigen Kollisionsort 140 und eine mögliche zukünftige Kollisionszeit 142 der möglichen zukünftigen Kollision zu erkennen.The search facility 104 is designed to be the object 118 or objects in the image information 114 to search. The search engine reads this 104 the picture information 114 and the optical flow 120 one. It becomes an image area 122 the picture information 114 as the object 118 detected when pixels in the image area 122 a similar optical flux 120 exhibit. For example, the displacement vectors may have a similar length. Likewise, the displacement vectors may have a common vanishing point. The allocation device 106 is designed using the optical flow 120 Property information 124 to the object 118 or assign to the objects. This will be a speed information 126 , a position information 128 and direction information 130 of the object 118 from the optical river 120 the, the recognized object 118 determined pixels. The comparison device 108 is designed to be the object information 124 with a trajectory information 132 of the aircraft 100 to compare. Thereby the speed information becomes 126 , the position information 128 and the direction information 130 of the object 118 at an airspeed 134 , a vehicle position 136 and a direction of flight 138 of the aircraft 100 compared to a possible future collision location 140 and a possible future collision time 142 to recognize the possible future collision.

Die Objektinformationen 124 und die Flugbahninformationen 132 werden extrapoliert. Eine mögliche zukünftige Kollision kann dann erkannt werden, wenn die extrapolierten Objektinformationen 124 und die extrapolierten Flugbahninformationen 132 ein zukünftiges Unterschreiten eines Sicherheitsabstands anzeigen. The object information 124 and the trajectory information 132 are extrapolated. A possible future collision can then be detected if the extrapolated object information 124 and the extrapolated trajectory information 132 indicate a future fall below a safety margin.

Der mögliche zukünftige Kollisionsort 140 und die mögliche zukünftige Kollisionszeit 142 werden an eine Ausweicheinrichtung 144 des Kollisionsvermeidungssystems 110 weitergeleitet. Die Ausweicheinrichtung 144 ist dazu ausgebildet, unter Verwendung der Flugbahninformation 132, des möglichen zukünftigen Kollisionsorts 140 und der möglichen zukünftigen Kollisionszeit 142 eine zukünftige Flugbahn des Luftfahrzeugs 100 zu beeinflussen, um der Kollision auszuweichen.The possible future collision location 140 and the possible future collision time 142 be sent to an alternate device 144 of the collision avoidance system 110 forwarded. The evasive device 144 is designed using trajectory information 132 , of possible future collision location 140 and the possible future collision time 142 a future trajectory of the aircraft 100 to influence to avoid the collision.

2 zeigt eine Übersichtsdarstellung eines Kollisionsvermeidungssystems 110 gemäß einem Ausführungsbeispiel. Das Kollisionsvermeidungssystem 110 entspricht im Wesentlichen dem Kollisionsvermeidungssystem in 1. Hier stellt die Kamera 112 ein RGB-Signal 114 bereit. Sollte es sich bei der Kamera 112 nicht um eine RGB-Kamera handeln, kann es sich bei dem Signal 114 auch um ein Signal handeln, das dann nicht als RGB-Signal ausgestaltet ist. Die Sucheinrichtung 104 und die Zuordnungseinrichtung 106 zur Objekterkennung und Objektklassifizierung sind hier zusammengefasst. Wie in 1 werden die Geschwindigkeitsinformation 126, die Positionsinformation 128 und die Richtungsinformation 130 für die Vergleichseinrichtung 108 bereitgestellt. In der Vergleichseinrichtung 108 werden diese Informationen mit der Fluggeschwindigkeit 134, der Fahrzeugposition 136 und der Flugrichtung 138 der Flugbahninformationen 132 des Luftfahrzeugs 100 verglichen, um den möglichen zukünftigen Kollisionsort 140 und die mögliche zukünftige Kollisionszeit 142 zu erhalten. Hier ist die Ausweicheinrichtung 144 dazu ausgebildet, direkt Solldrehzahlen 200 der Rotoren des Quadrokopters 100 zu beeinflussen, um den Quadrokopter 100 von seinem Kollisionskurs abzubringen. Dazu werden eine Änderung der Flugtrajektorie und eine Drehzahländerung der Rotoren über einen Algorithmus berechnet. 2 shows an overview of a collision avoidance system 110 according to an embodiment. The collision avoidance system 110 corresponds essentially to the collision avoidance system in 1 , Here is the camera 112 an RGB signal 114 ready. Should it be with the camera 112 can not be an RGB camera, it can be at the signal 114 also act to a signal that is not designed as an RGB signal. The search facility 104 and the allocator 106 for object recognition and object classification are summarized here. As in 1 become the speed information 126 , the position information 128 and the direction information 130 for the comparison device 108 provided. In the comparison device 108 be this information with the airspeed 134 , the vehicle position 136 and the direction of flight 138 the trajectory information 132 of the aircraft 100 compared to the possible future collision location 140 and the possible future collision time 142 to obtain. Here is the backup device 144 designed to directly setpoint speeds 200 the rotors of the quadrocopter 100 to affect the quadrocopter 100 to dissuade his collision course. For this purpose a change of the flight trajectory and a speed change of the rotors are calculated by an algorithm.

In einem Ausführungsbeispiel weist das Luftfahrzeug 100 eine Basissensorik 202 auf, die eine tatsächliche Lageinformation 204 über eine Fluglage des Luftfahrzeugs 100 für die Vergleichseinrichtung 108 bereitstellt. Dabei umfasst die Lageinformation 204 eine Position, eine Ausrichtung und Geschwindigkeit des Luftfahrzeugs 100. Die Basissensorik 202 kann beispielsweise Radar, Ultraschall und/oder Infrarot umfassen.In one embodiment, the aircraft 100 a basic sensor system 202 on, which is an actual location information 204 about an attitude of the aircraft 100 for the comparison device 108 provides. In this case, the position information includes 204 a position, orientation and speed of the aircraft 100 , The basic sensors 202 may include, for example, radar, ultrasound and / or infrared.

Die Lageinformation 204 kann auch eine Position, eine Ausrichtung und Geschwindigkeit des Objekts repräsentieren. The location information 204 may also represent a position, orientation, and speed of the object.

Die Lageinformation 204 wird in der Vergleichseinrichtung 108 dazu verwendet, um den möglichen zukünftigen Kollisionsort 140 und die mögliche zukünftige Kollisionszeit 142 zu bestimmen. The location information 204 is in the comparator 108 used to the possible future collision location 140 and the possible future collision time 142 to determine.

Mit anderen Worten wird in der Vergleichseinrichtung 108 ein Algorithmus zum Abgleich der Objektinformationen 124 aus der Kamera mit den Sensorikdaten 204 ausgeführt. Dabei werden die Flugbahn des Luftfahrzeugs 100 und Bewegungsdaten des Objekts abgeglichen, wobei die Bewegungsdaten einmal über die Objektinformationen 124 und einmal über die Sensorikdaten 204 abgeglichen werden. Die Flugbahn des Luftfahrzeugs 100 wird bezüglich der Geschwindigkeit, Position, Richtung und Lage überprüft. Das Objekt wird ebenfalls bezüglich der Geschwindigkeit, Position, Richtung und/oder Lage überprüft. Es wird eine time-to-collision 142 und eine position-of-collision 140 berechnet.In other words, in the comparator 108 an algorithm for matching the object information 124 from the camera with the sensor data 204 executed. This will be the trajectory of the aircraft 100 and motion data of the object, wherein the motion data once about the object information 124 and once about the sensor data 204 be matched. The trajectory of the aircraft 100 is checked for speed, position, direction and position. The object is also checked for speed, position, direction and / or position. It will be a time-to-collision 142 and a position-of-collision 140 calculated.

In einem Ausführungsbeispiel weist das Luftfahrzeug 100 ein Kartenmodul 206 auf. Das Kartenmodul 206 ist dazu ausgebildet geografische Daten 208 für die Sucheinrichtung 104 und die Zuordnungseinrichtung 106 bereitzustellen. Beispielsweise empfängt das Kartenmodul 206 Kartendaten über eine drahtlose Datenverbindung, wie beispielsweise Mobilfunk. Unter Verwendung der geografischen Daten 208 wird die Bildinformation 114 zum Erfassen der Umgebung des Luftfahrzeugs 100 verwendet. Dabei kann beispielsweise eine inverse Perspektive erzeugt werden, die einer entzerrten Ansicht der Umgebung entspricht.In one embodiment, the aircraft 100 a map module 206 on. The map module 206 is trained geographic data 208 for the search facility 104 and the allocator 106 provide. For example, the card module receives 206 Card data over a wireless data connection, such as cellular. Using the geographic data 208 becomes the picture information 114 for detecting the environment of the aircraft 100 used. In this case, for example, an inverse perspective can be generated which corresponds to an equalized view of the environment.

In einem Ausführungsbeispiel wird in der Sucheinrichtung 104 und der Zuordnungseinrichtung 106 eine dreidimensionale Vermessung der erfassten Objekte ausgeführt, woraus wieder geografische Daten der Umgebung erzeugt werden können. 3 zeigt eine Darstellung eines unbemannten Luftfahrzeugs 100 mit einem Kollisionsvermeidungssystem 110 gemäß einem Ausführungsbeispiel. Das Luftfahrzeug 100 beziehungsweise die Drohne 100 ist wie in den 1 und 2 ein Drehflügler, insbesondere ein Multikopter 100. Das Luftfahrzeug 100 kann auch ein Starrflügler sein. In einer ersten Ausbaustufe weist die Drohne 100 hier einen Sensor 300 zum Erfassen der Umgebung auf. Der Sensor 300 kann wie in den 1 und 2 eine Kamera 112 sein. Ebenso kann der Sensor 300 ein Lasersensor sein. In one embodiment, in the search engine 104 and the allocator 106 carried out a three-dimensional measurement of the detected objects, from which geographic data of the environment can be generated again. 3 shows a representation of an unmanned aerial vehicle 100 with a collision avoidance system 110 according to an embodiment. The aircraft 100 or the drone 100 is like in the 1 and 2 a rotorcraft, especially a multicopter 100 , The aircraft 100 can also be a fixed-wing aircraft. In a first stage, the drone points 100 here a sensor 300 to capture the environment. The sensor 300 like in the 1 and 2 a camera 112 be. Likewise, the sensor 300 be a laser sensor.

In einer erweiterten Ausbaustufe weist die Drohne 100 ein Radar 302 auf, das ebenso dazu ausgebildet ist, die Umgebung zu erfassen. Dabei weist das Radar 302 eine größere Reichweite als der Sensor 300 auf. Das Radar 302 ist auch unabhängig von Sichtbedingungen, da die Radarwellen beispielsweise Nebel, Wolken und Rauch durchdringen können. In an expanded stage, the drone points 100 a radar 302 which is also designed to capture the environment. This shows the radar 302 a greater range than the sensor 300 on. The radar 302 is also independent of viewing conditions, as the radar waves can penetrate, for example, fog, clouds and smoke.

Um einen Boden zu erfassen, weist die Drohne 100 hier zwei nach unten gerichtete Bodenerfassungssensoren 304 auf. Die Bodenerfassungssensoren 304 sind hier Ultraschallsensoren 304. Um eine räumliche Lage der Drohne 100 zu erfassen, sind die Ultraschallsensoren 304 an einem Rumpf der Drohne 100 diametral gegenüberliegend angeordnet. To capture a ground, the drone points 100 here are two downward ground detection sensors 304 on. The ground detection sensors 304 here are ultrasonic sensors 304 , To a spatial location of the drone 100 to detect are the ultrasonic sensors 304 on a fuselage of the drone 100 arranged diametrically opposite.

Die Drohne 100 weist in einer weiteren Ausbaustufe einen drahtlosen Transponder 306 auf, der eine Kommunikation mit einer Bodenstation 308 (der in der nachfolgenden Beschreibung auch synonym als Zentralkoordinator, Informationsdienst oder Cloud-Zone-Koordinator bezeichnet werden kann) aufrechterhält. Die Bodenstation überwacht dabei den Luftraum, um potenzielle Konflikte zwischen der Drohne 100 und anderen Luftfahrzeugen zu erkennen und zu lösen. Dazu stellt ein Flugkontrollmodul 310 der Drohne 100 über den Transponder 306 geplante Fluginformationen zur Verfügung. Von der Bodenstation 308 werden dann Freigaben für den Luftraum erteilt oder zurückgehalten. So wird ein Konfliktpotenzial zwischen mehreren autonomen Drohnen stark verringert. The drone 100 indicates in a further expansion stage a wireless transponder 306 on, who is communicating with a ground station 308 (which in the following description synonymous as a central coordinator, information service or Cloud zone coordinator can be called) maintains. The ground station monitors the airspace to detect potential conflicts between the drone 100 and other aircraft to detect and resolve. This is provided by a flight control module 310 the drone 100 over the transponder 306 scheduled flight information available. From the ground station 308 then clearances for the airspace are granted or withheld. Thus, a potential for conflict between several autonomous drones is greatly reduced.

In einer weiteren Ausbaustufe weist die Drohne 100 einen Transponder 312 zur Kommunikation von Drohne zu Drohne auf. Über den Transponder 312 werden ebenfalls geplante Fluginformationen zur Verfügung gestellt und geplante Fluginformationen von anderen Drohnen empfangen. Das Flugkontrollmodul 310 erkennt zukünftige Konflikte zwischen den beteiligten Drohnen und passt einen geplanten Flugpfad entsprechend an. Ebenso können die anderen Drohnen ihre Flugpfade anpassen, wenn die Drohne 100 beispielsweise eine höhere Priorität zugewiesen hat.In a further expansion stage, the drone points 100 a transponder 312 to communicate from drone to drone. About the transponder 312 Scheduled flight information is also provided and scheduled flight information received from other drones. The flight control module 310 Detects future conflicts between the involved drones and adjusts a planned flight path accordingly. Likewise, the other drones can adjust their flight paths when the drone 100 for example, has assigned a higher priority.

In der Abbildung ist das eMSS System 110 mit möglichen Komponenten dargestellt. Die fünf Aufbaustufen sind unterschiedlich gekennzeichnet.In the picture is the eMSS system 110 represented with possible components. The five advanced levels are marked differently.

4 zeigt eine Darstellung einer Abfolge von Schritten zum Erkennen einer möglichen zukünftigen Kollision gemäß einem Ausführungsbeispiel. In dieser Darstellung ist ein Luftfahrzeug 100 mit einer in Flugrichtung ausgerichteten Kamera 112, wie in 1 dargestellt. Durch eine Relativbewegung zwischen dem Luftfahrzeug 100 und Objekten 118 in einem Erfassungsbereich 400 der Kamera 112 ergibt sich ein optischer Fluss 120 zwischen Einzelbildern der Kamera 112. 4 FIG. 12 is an illustration of a sequence of steps for detecting a potential future collision in accordance with one embodiment. FIG. In this illustration is an aircraft 100 with a directional camera 112 , as in 1 shown. By a relative movement between the aircraft 100 and objects 118 in a detection area 400 the camera 112 results in an optical flow 120 between frames of the camera 112 ,

Beispielhaft ist ein Einzelbild 402 mit den optischen Fluss 120 repräsentierenden Verschiebungsvektoren 404 dargestellt. Die Verschiebungsvektoren 404 sind hier für ein einzelnes bewegtes Objekt 118 in dem Einzelbild 402 dargestellt. Das Objekt 118 ist hier zur Veranschaulichung ein fahrendes Straßenfahrzeug. Die Verschiebungsvektoren 404 des Objekts sind ähnlich. Die Verschiebungsvektoren 404 des Objekts 118 repräsentieren den optischen Fluss 120 des Objekts 118 zwischen dem dargestellten Einzelbild 402 und einem vorhergehenden Einzelbild. Dabei weisen die Verschiebungsvektoren 404 alle eine ähnliche Länge auf, was eine Geschwindigkeit des Objekts 118 repräsentiert. Weiterhin konvergieren die Verschiebungsvektoren 404 alle in einem gemeinsamen Fluchtpunkt. Das Objekt 118 kann also als Bereich erkannt werden, in dem der optische Fluss 120 ähnlich ist. An example is a single image 402 with the optical flow 120 representing displacement vectors 404 shown. The displacement vectors 404 are here for a single moving object 118 in the single picture 402 shown. The object 118 Here is an illustrative road vehicle. The displacement vectors 404 of the object are similar. The displacement vectors 404 of the object 118 represent the optical flow 120 of the object 118 between the displayed single picture 402 and a previous frame. In this case, the displacement vectors 404 all have a similar length, which is a speed of the object 118 represents. Furthermore, the displacement vectors converge 404 all in a common vanishing point. The object 118 can therefore be recognized as an area in which the optical flow 120 is similar.

In einer geplanten Flugtrajektorie des Luftfahrzeugs 100 sind ein Baum 406 und ein Mensch 408 angeordnet. Analog zu dem dargestellten Einzelbild 402 werden der Baum 406 und der Mensch 408 durch Auswerten des optischen Flusses 120 als Objekte 118 erkannt und ein möglicher zukünftiger Kollisionsort sowie eine mögliche zukünftige Kollisionszeit bestimmt. Um die mögliche Kollision zu vermeiden, werden ansprechend auf das Bestimmen Ansätze 410 zur Kollisionsvermeidung ausgeführt. Diese Ansätze 410 werden bereits im Straßenverkehr angewendet. Hier werden die Ansätze 410 um die dritte Dimension beziehungsweise Raumrichtung erweitert, was eine Vielzahl von Möglichkeiten zum Vermeiden der zukünftigen Kollision bietet.In a planned flight trajectory of the aircraft 100 are a tree 406 and a human 408 arranged. Analogous to the single picture shown 402 become the tree 406 and the human 408 by evaluating the optical flow 120 as objects 118 detected and a possible future collision location and a possible future collision time determined. To avoid the potential collision, approaches are appealing to the determining 410 designed for collision avoidance. These approaches 410 are already being used in road traffic. Here are the approaches 410 expanded by the third dimension or spatial direction, which offers a variety of ways to avoid the future collision.

Durch den hier vorgestellten Ansatz werden autonome Flüge ohne Eingreifmöglichkeit des Steuerers ermöglicht. Es wird ein redundantes Sicherheitssystem via Kamera 112 und Basissensorik vorgestellt. Beispielsweise werden so Anwendungen, die das Fliegen in der Nähe von Personen 408 erfordern, wie Auslieferdrohnen ermöglicht.The approach presented here enables autonomous flights without the driver being able to intervene. It becomes a redundant security system via camera 112 and basic sensors presented. For example, applications that are flying close to people 408 require as delivery drones enabled.

Es wird eine Kombination von Ansätzen und Lösungen aus der Fahrerassistenz mit einem unbemannten Luftfahrzeug 100 vorgeschlagen. Hierfür können bekannte Algorithmen aus der Fahrerassistenz erweitert sowie neue Algorithmen hinzugefügt werden. In 4 ist das Ergebnis des angewandten Algorithmus aus der Fahrerassistenz zur Kollisionsvermeidung im Straßenverkehr für die Umsetzung auf dem unbemannten Luftfahrzeug 100 dargestellt.It will be a combination of approaches and driver assistance solutions with an unmanned aerial vehicle 100 proposed. For this purpose, known algorithms can be extended from driver assistance and new algorithms can be added. In 4 is the result of the applied driver assistance algorithm for collision avoidance on the road for implementation on the unmanned aerial vehicle 100 shown.

Es ist schematisch die Funktion des Kollsionsvermeidungssystems für unbemannte Luftfahrzeuge dargestellt. Der Kopter 100 ist mit einer Kamera 112 ausgestattet, die ein Kamerabild in Flugrichtung aufnimmt. Da die meisten unbemannten Luftfahrzeuge bereits mit Kameras ausgestattet sind, beispielsweise für Luftaufnahmen oder dem First Person View, also Bilder aus Sicht des Flugobjekts für den Pilot, entstehen keine Zusatzkosten für die Sensorik des Kollisionsvermeidungssystems.It schematically illustrates the function of the collision avoidance system for unmanned aerial vehicles. The copter 100 is with a camera 112 equipped, which receives a camera image in the direction of flight. Since most unmanned aerial vehicles are already equipped with cameras, for example for aerial photography or the first person view, ie images from the perspective of the flying object for the pilot, there are no additional costs for the sensors of the collision avoidance system.

Dabei erfolgt eine Auswertung des optischen Flusses 120 zur Objekterkennung. Das ist ein Ansatz aus der Fahrerassistenz, der für den Einsatz im Quadrokopter 100 angepasst ist.In this case, an evaluation of the optical flow takes place 120 for object recognition. This is an approach from the driver assistance, for use in the quadrocopter 100 is adjusted.

Wie hier links unten und rechts oben dargestellt, bewegen sich Bildpunkte bei sich schnell nähernden Objekten 118 von einem Bild 402 zum nächsten ebenfalls schnell, dargestellt durch die langen Vektoren 404. Bei entfernten Objekten 118, die sich langsam nähern, bewegen sich die Bildpunkte langsam, sodass der Algorithmus kurze Vektoren 404 berechnet. Aus diesem Ansatz können Objekte 118 erkannt und deren Abstand beziehungsweise die time-to-collision berechnet werden. Diese Daten werden mit der Flugtraktorie des Kopters 100 verglichen. Falls eine Kollision vorhergesagt wird, kann ein Regler die Flugbahn des unbemannten Luftfahrzeugs ändern und greift direkt auf die Drehzahlregelungen der Rotoren zu, die direkt Fluggeschwindigkeit und Flugrichtung beeinflussen.As shown here on the lower left and upper right, pixels move with fast approaching objects 118 from a picture 402 to the next also fast, represented by the long vectors 404 , For distant objects 118 as they approach slowly, the pixels move slowly, so the algorithm produces short vectors 404 calculated. From this approach can objects 118 recognized and their distance or the Time-to-collision can be calculated. These data are taken with the tractors of the Kopter 100 compared. If a collision is predicted, a controller can change the trajectory of the unmanned aerial vehicle and directly access the speed controls of the rotors which directly affect airspeed and heading.

In einer Erweiterung ist das unbemannte Luftfahrzeug 100 mit weiterer Basissensorik, wie Radar, Ultraschall, Infrarot und lnertialsensorik ausgestattet. Das System zur Kollisionsvermeidung kann auf alle Sensorsignale zugreifen. Es wird ein Abgleich beziehungsweise eine Fusion von Sensordaten durchgeführt, der eine robuste und totzeitarme Schätzung der Position, Ausdehnung und des Bewegungszustands der erkannten Objekte 118 ermöglicht.In an extension is the unmanned aerial vehicle 100 equipped with further basic sensors, such as radar, ultrasound, infrared and inertial sensors. The collision avoidance system can access all sensor signals. A reconciliation or fusion of sensor data is performed, providing a robust and low-dead-time estimation of the position, extent and state of motion of the detected objects 118 allows.

In einem Ausführungsbeispiel weist das unbemannte Luftfahrzeug 100 eine 360°-Kamera 112 auf. Die Auswertung des Kamerabildes erfolgt immer zumindest in der Flugrichtung beziehungsweise in Richtung der bekannten Flugtrajektorie des unbemannten Luftfahrzeugs 100. Die Kamera 112 kann auch entsprechend der aktuell herrschenden Schwerkraft ausgerichtet werden. Auf diese Weise wird eine einfache Lageschätzung des unbemannten Luftfahrzeugs 100 in der Welt möglich.In one embodiment, the unmanned aerial vehicle 100 a 360 ° camera 112 on. The evaluation of the camera image always takes place at least in the direction of flight or in the direction of the known flight trajectory of the unmanned aerial vehicle 100 , The camera 112 can also be aligned according to the currently prevailing gravity. In this way, a simple attitude estimation of the unmanned aerial vehicle 100 possible in the world.

Die Auswertung des Kamerabildes, das heißt, die Berechnung des optischen Flusses und des Algorithmus zur Objekterkennung inklusive Abgleich mit weiteren Sensordaten und die Änderung der Flugtrajektorie kann auf einem System on Chip erfolgen. Das Kollisionsvermeidungssystem ist damit abhängig vom Sensor set-up und ist kostengünstig. The evaluation of the camera image, that is, the calculation of the optical flow and the algorithm for object recognition including comparison with other sensor data and the change of the flight trajectory can be done on a system on chip. The collision avoidance system is thus dependent on the sensor set-up and is inexpensive.

5 zeigt eine Darstellung einer geänderten Flugbahn 500 zum Vermeiden einer Kollision gemäß einem Ausführungsbeispiel. Dabei entspricht die Darstellung im Wesentlichen der Darstellung in 4. Der Baum 406 befindet sich innerhalb eines Toleranzbereichs um eine geplante Flugbahn 502 beziehungsweise geplante Flugtrajektorie 502. Unter Verwendung des hier vorgestellten Ansatzes sind der Baum 406 und der Mensch 408 als Objekte 118 erkannt worden. Mit dem Baum 406 droht eine mögliche zukünftige Kollision. Daher erfolgt eine Änderung der Flugtrajektorie 502 im Bereich des Baums 406 abgeändert. Hier beschreibt die geänderte Flugbahn 500 einen Bogen über den Baum 406. 5 shows a representation of a changed trajectory 500 to avoid a collision according to an embodiment. The representation essentially corresponds to the illustration in FIG 4 , The tree 406 is within a tolerance of a planned trajectory 502 or planned flight trajectory 502 , Using the approach presented here, the tree 406 and the human 408 as objects 118 been recognized. With the tree 406 threatens a possible future collision. Therefore, there is a change in the flight trajectory 502 in the area of the tree 406 amended. Here describes the changed trajectory 500 a bow over the tree 406 ,

Stehende Objekte 406 können erkannt werden, indem der erwartete optische Fluss mit dem gemessenen optischen Fluss verglichen wird. Das ist unter Kenntnis der Position und der Bewegung sowie dem Profil der Landschaft möglich. Diese Informationen können aus detaillierten 3-D-Karten entnommen werden. In einer einfachen Ausprägung genügt bereits die grobe Höhenlage der Landschaft. Ergeben sich zusammenhängende Bildregionen, in denen der gemessene Fluss in einer vergleichbaren Art vom erwarteten Fluss abweicht, wird die Bildregion als Objektkandidat weiterbetrachtet.Standing objects 406 can be detected by comparing the expected optical flux with the measured optical flux. This is possible knowing the position and the movement as well as the profile of the landscape. This information can be found in detailed 3-D maps. In a simple form enough already the rough altitude of the landscape. If contiguous image regions in which the measured flow differs in a comparable manner from the expected flow, the image region is considered as an object candidate further.

Eine Berechnung von 3-D-Informationen aus einer Folge von Monobildern ist unter Verwendung eines Verfahren, wie "Structure-from-Motion" möglich. Damit kann ein Hindernis 406 grob in 3-D vermessen werden. Auf Basis der Hindernisvermessung ist dann wieder die Planung einer 3-D Ausweichtrajektorie 500 möglich. Calculation of 3-D information from a sequence of monaural images is possible using a technique such as "structure-from-motion". This can be an obstacle 406 roughly measured in 3-D. On the basis of the obstacle measurement is then again planning a 3-D evasion trajectory 500 possible.

Weitere Kritikalitätsmaße wie die Time-To-Brake beziehungsweise wie viel Zeit das Luftfahrzeug 100 noch zur Verfügung hat, um durch ein Abbremsen in der Luft die Kollision zu vermeiden, oder die Time-To-Steer beziehungsweise wie viel Zeit das Luftfahrzeug 100 noch zur Verfügung hat, um durch einen Lenkeingriff 500 die Kollision zu vermeiden, werden berechnet. Bei Unterschreiten von Schwellwerten auf die genannten Kritikalitätsmaße liegt eine Situation mit Kollisionsgefahr vor. Das unbemannte Luftfahrzeug 100 kann dann abbremsen, in der Luft stehen bleiben oder seine Trajektorie 502 autonom ändern. Bei Vertikalflüglern ist auch das stehen bleiben möglich. Abhängig von der klassifizierten Objektart, kann das Ausweichmanöver 500 entsprechend angepasst werden. Für neugierige Vögel reicht eventuell ein Warnton. Other criticality measures such as the time-to-brake or how much time the aircraft 100 is still available to avoid the collision by slowing down in the air, or the time-to-steer or how much time the aircraft 100 still available to go through a steering intervention 500 to avoid the collision will be charged. Falling below thresholds to the aforementioned Critikalitätsmaße is a situation with risk of collision. The unmanned aerial vehicle 100 can then slow down, stay in the air or its trajectory 502 change autonomously. With vertical wings it is also possible to stand still. Depending on the classified object type, the evasive maneuver may 500 be adjusted accordingly. For curious birds may sound a warning tone.

6 zeigt eine Darstellung eines unbemannten Luftfahrzeugs 100 vor einer möglichen zukünftigen Kollision mit einem Vogel 600. Der Vogel 600 fliegt im Bereich einer geplanten Flugbahn 502 des Luftfahrzeugs 100. Durch den Vergleich der geplanten Flugbahn 502 mit einer Flugtrajektorie 602 des Vogels 600 wird erkannt, dass eine Wahrscheinlichkeit für die Kollision abnimmt, da der Vogel 600 vor dem Luftfahrzeug 100 ausweicht. Das Ausweichen kann unterstützt werden, indem ein akustisches Warnsignal ausgesandt wird. Beispielsweise kann ein Warnruf eines Raubvogels abgespielt werden, um den Vogel 600 zu verscheuchen. 6 shows a representation of an unmanned aerial vehicle 100 before a possible future collision with a bird 600 , The bird 600 flies in the area of a planned trajectory 502 of the aircraft 100 , By comparing the planned trajectory 502 with an air trajectory 602 of the bird 600 it is recognized that a probability of collision decreases as the bird 600 in front of the aircraft 100 dodging. Dodge can be assisted by emitting an audible warning. For example, a warning call from a bird of prey can be played to the bird 600 to scare away.

Wenn sich ein bewegtes, dynamisches Objekt 600 in der Flugbahn 502 des unbemannten Luftfahrzeugs 100 befindet, wird das Objekt 600 über den optischen Fluss als dynamisch erkannt und es wird die "time-to-collision" beziehungsweise die mögliche zukünftige Kollisionszeit berechnet. Hierbei kann ein sogenannter Focus-of-Expansion genutzt werden. Im Falle einer bewegten Kamera erzeugen alle stationären Objekte Flussvektoren, die aus einem Punkt im Bild hervorgehen, dem Focus-of-Expansion. Die Flussvektoren dynamischer Objekte 600 zeigen durch die Objektbewegung 602 eine vom Focus-of-Expansion abweichende Richtung. Ein Schwellwert auf den so berechenbaren Richtungsfehler dient zur Erkennung dynamischer Objekte 600. When there is a moving, dynamic object 600 in the trajectory 502 of the unmanned aerial vehicle 100 is, the object becomes 600 detected as dynamic over the optical flow and the "time-to-collision" or the possible future collision time is calculated. Here, a so-called focus-of-expansion can be used. In the case of a moving camera, all stationary objects generate flux vectors that emerge from a point in the image, the focus of expansion. The flow vectors of dynamic objects 600 show by the object movement 602 a direction deviating from the focus of expansion. A threshold on the thus calculable directional error is used to detect dynamic objects 600 ,

Ebenso kann der Algorithmus berechnen, ob sich ein Objekt 600 aus der Flugbahn 502 des unbemannten Luftfahrzeugs heraus bewegt und somit keine Kollision stattfindet. Der Zustand des unbemannten Luftfahrzeugs, das heißt, seine Geschwindigkeit, Lage und seine Flugbahn werden daher an den Algorithmus übergeben. Das unbemannte Luftfahrzeug benötigt daher Sensordaten dieser Größen. Likewise, the algorithm can calculate if an object is 600 out of the trajectory 502 moved out of the unmanned aerial vehicle and thus no collision takes place. The condition of the unmanned aerial vehicle, that is its speed, attitude and trajectory are therefore passed to the algorithm. The unmanned aerial vehicle therefore requires sensor data of these sizes.

7 zeigt eine Darstellung eines autonomen Flugs eines unbemannten Luftfahrzeugs 100 mit einem Kollisionsvermeidungssystem gemäß einem Ausführungsbeispiel. Dabei ist ein verfügbarer Luftraum in Cloud-Zones 700, 702 geteilt. Jede Cloud-Zone 700, 702 wird von einem Zentralkoordinator 308 überwacht. Die Aufgabe des Zentralkoordinators 308 ist die Überwachung des Luftraums. Dabei können Luftfahrzeuge 100, 704 überwacht werden, zumindest die Fluginformationen für den Zentralkoordinator 308 bereitstellen. Es ist eine frühzeitige Kollisionserkennung zwischen fliegenden Luftfahrzeugen 100, 704 möglich. Dazu werden Freigaben für den Flug in einer Cloud Zone 700, 702 erteilt. Falls eine mögliche Kollision 706 erkannt wird, werden Ausweichtrajektorien 500 zur Kollisionsvermeidung berechnet. 7 shows a representation of an autonomous flight of an unmanned aerial vehicle 100 with a collision avoidance system according to an embodiment. There is an available airspace in cloud zones 700 . 702 divided. Every cloud zone 700 . 702 is by a central coordinator 308 supervised. The task of the central coordinator 308 is the surveillance of the airspace. This can be aircraft 100 . 704 be monitored, at least the flight information for the central coordinator 308 provide. It is an early collision detection between flying aircraft 100 . 704 possible. These are releases for the flight in a cloud zone 700 . 702 granted. If a possible collision 706 Recognition becomes evasion trajectories 500 calculated for collision avoidance.

Hier fliegt das erste Luftfahrzeug 100 in der ersten Cloud-Zone 700 und teilt seinen Flugplan mit dem zuständigen Cloud-Zone-Koordinator 308. Das zweite Luftfahrzeug 704 will in die erste Cloud-Zone 700 hineinfliegen und fordert dafür die Erlaubnis an. Dafür teilt das zweite Luftfahrzeug 704 seinen Flugplan mit dem zuständigen Cloud-Zone-Koordinator 308. Der Cloud-Zone-Koordinator 308 erkennt eine mögliche Kollision 706 zwischen beiden Luftfahrzeugen 100, 704. Der Cloud-Zone-Koordinator 308 überträgt dem zweiten Luftfahrzeug 704 eine neue Flugroute 500, um die Kollision mit dem ersten Luftfahrzeug 100 zu vermeiden. Das erste Luftfahrzeug 100 fliegt weiter ungestört und erkennt ein unerwartetes Objekt 318 mit den Sensoren an Bord. Das erste Luftfahrzeug 100 berechnet eine neue Flugroute 500. Dann fliegt das erste Luftfahrzeug 100 weiter in die zweite Cloud-Zone 702 und teilt seinen Flugplan mit dem neuen zuständigen Zentralkoordinator 308. Das Konzept mit dem "Cloudzonen" 700, 702 ähnelt den Funkzellen eines Mobilfunknetzes.Here flies the first aircraft 100 in the first cloud zone 700 and shares his flight plan with the responsible cloud zone coordinator 308 , The second aircraft 704 wants in the first cloud zone 700 fly in and ask for permission. For the second aircraft shares 704 his flight plan with the responsible cloud zone coordinator 308 , The cloud zone coordinator 308 detects a possible collision 706 between both aircraft 100 . 704 , The cloud zone coordinator 308 transmits to the second aircraft 704 a new flight route 500 to the collision with the first aircraft 100 to avoid. The first aircraft 100 flies on undisturbed and recognizes an unexpected object 318 with the sensors on board. The first aircraft 100 calculates a new flight route 500 , Then the first aircraft flies 100 continue into the second cloud zone 702 and shares his flight plan with the new competent central coordinator 308 , The concept with the "cloud zones" 700 . 702 resembles the radio cells of a mobile network.

8 zeigt ein Konzeptdiagramm von Ausbaustufen eines Kollisionsvermeidungssystems 110 für ein unbemanntes Luftfahrzeug gemäß einem Ausführungsbeispiel. Das Kollisionsvermeidungssystem 110 baut dabei auf einer automatisierten Erkennung 800 einer möglichen zukünftigen Kollision mit einem Objekt auf, wie sie beispielsweise in den 4 bis 6 beschrieben ist. 8th shows a conceptual diagram of expansion stages of a collision avoidance system 110 for an unmanned aerial vehicle according to an embodiment. The collision avoidance system 110 builds on an automated detection 800 a possible future collision with an object, such as in the 4 to 6 is described.

Es wird ein System 110 vorgeschlagen, das einen kollisionsfreien Flug für unbemannte Luftfahrzeuge sicherstellt. Der hier vorgestellte Ansatz stellt sicher, dass keine Kollision mit anderen unbemannten Luftfahrzeugen und stationären oder sich bewegenden Objekten vorkommen kann. Das System 110 verwendet Komponenten zur Objekterkennung oder Cloud-Kommunikation, wie Sensoren, eine Kamera, Algorithmen zur Objekterkennung, Service zum Überwachen von Luftraum und Software, die den Luftraum überwacht und Konflikte zwischen unbemannten Luftfahrzeugen löst.It becomes a system 110 which ensures a collision-free flight for unmanned aerial vehicles. The approach presented here ensures that no collision with other unmanned aerial vehicles and stationary or moving objects can occur. The system 110 uses object detection or cloud communication components such as sensors, a camera, object recognition algorithms, airspace monitoring services, and software that monitors airspace and resolves conflicts between unmanned aerial vehicles.

Es erfolgt eine Beschreibung der Modulstufen des eMSS Systems für die Früherkennung und Vermeidung von Kollisionen.A description is given of the module levels of the eMSS system for early detection and avoidance of collisions.

In einer ersten Ausbaustufe 800 kann das Kollisionsvermeidungssystem 110 als Non Co-Operative Sensor System 800 bezeichnet werden. Hier werden Kollisionen durch Objekterkennung und Abstandsmessung zwischen unbemanntem Luftfahrzeug und Hindernis vorausberechnet. Es gibt keine Kommunikation mit dem Hindernis. Dabei wird die Ausweichtrajektorie ohne eine Absprache mit dem anderen Objekt auf der Flugbahn ausgewählt, was trotz Ausweichtrajektorie zur Kollision führen könnte. Typische Sensoren dafür sind RGB-D Kameras, Ultraschallsensoren oder Laser. Anwendungsfälle umfassen beispielsweise die Überwachung von Agrarfeldern, lndoor Kartierung und Feuerbekämpfung. Das System ist dann vorteilhaft, wenn der Luftraum eingeschränkt und bekannt ist.In a first stage of development 800 can the collision avoidance system 110 as a Non Co-Operative Sensor System 800 be designated. Here, collisions are calculated by object recognition and distance measurement between unmanned aerial vehicle and obstacle. There is no communication with the obstacle. The avoidance trajectory is selected without an agreement with the other object on the trajectory, which could lead to a collision despite avoidance trajectory. Typical sensors for this are RGB-D cameras, ultrasonic sensors or lasers. Use cases include, for example, the monitoring of agricultural fields, indoor mapping and firefighting. The system is advantageous when the airspace is limited and known.

In einer zweiten Ausbaustufe 802 kann das Kollisionsvermeidungssystem 110 als Cloud Based Traffic Control System 802 bezeichnet werden. Hier wird die vorprogrammierte Flugbahn mit einem Zentralkoordinator geteilt, der die Flugerlaubnis für einen bestimmten Luftraum erteilt. Wenn ein unbemanntes Luftfahrzeug keine Erlaubnis bekommt, dann wartet es an der Grenze zum Luftraum, bis die Flugbahn innerhalb des Luftraums wieder frei ist. Durch die Wartezeit werden die Flugzeiten verlängert und damit die Reichweite gekürzt. In einem Ausführungsbeispiel weist das Luftfahrzeug einen ein Transponder zur Kommunikation mit dem Zentralkoordinator auf. Diese zweite Ausbaustufe 802 kann zur Überwachung von Brücken, zur Überwachung eines Werksgeländes oder zur Inspektion von Ölplattformen verendet werden.In a second expansion stage 802 can the collision avoidance system 110 as Cloud Based Traffic Control System 802 be designated. Here, the pre-programmed trajectory is shared with a central coordinator who issues the permission to fly for a specific airspace. If an unmanned aerial vehicle does not get permission, it waits at the airspace boundary until the flight path inside the airspace is clear again. Due to the waiting time, the flight times are extended and thus the range shortened. In one embodiment, the aircraft has a transponder for communication with the central coordinator. This second stage of development 802 can be used to monitor bridges, to monitor a factory site or to inspect oil platforms.

In einer dritten Ausbaustufe 804 kann das Kollisionsvermeidungssystem 110 als Cloud Solves Conflict Situations in Real Time 804 bezeichnet werden. Hier wird die vorprogrammierte Flugbahn mit einem Zentralkoordinator geteilt, der Zentralkoordinator berechnet in Echtzeit die Ausweichtrajektorien und überträgt diese zu den betroffenen Luftfahrzeugen im Kollisionskonflikt, die sofort das Ausweichmanöver umsetzen können. Hier gibt es keine Wartezeiten mehr. Ein Zentralkoordinator erforderlich. Die dritte Ausbaustufe 804 kann bei Lieferung innerhalb Ortschaften, zur Überwachung von Baustellen oder zur Überwachung von Menschenansammlungen verwendet werden.In a third stage of development 804 can the collision avoidance system 110 as Cloud Solves Conflict Situations in Real Time 804 be designated. Here, the pre-programmed trajectory is shared with a central coordinator, the central coordinator calculates in real time the evasion trajectories and transmits them to the affected aircraft in collision conflict, which can immediately implement the evasive maneuver. There are no waiting times here. A central coordinator required. The third expansion stage 804 can be delivered within Localities, to monitor construction sites or to monitor crowds of people.

In einer vierten Ausbaustufe 806 kann das Kollisionsvermeidungssystem 110 als UAV-To-UAV Communication 806 bezeichnet werden. Für den Fall, dass das Luftfahrzeug aus der Cloud-zone in einen nicht kontrollierten Luftraum eintritt, beispielsweise in einen Bereich ohne Cloudkoordinator, wie bei Lieferdrohen in entlegenen Gebieten oder Seerettung, wird ein erweitertes beziehungsweise modifiziertes Konzept zur Berechnung von Konflikten zwischen mehreren Flugobjekten verlangt. Hier wird die vorprogrammierte Flugbahn mit anderen Teilnehmern im Luftraum geteilt. Anschließend wird eine Vereinbarung zwischen den Luftfahrzeugen über die Ausweichtrajektorie getroffen. Die vierte Ausbaustufe 806 kann zur Lieferung in entlegenen Orten oder zur Überwachung von Tierbestand verwendet werden.In a fourth expansion stage 806 can the collision avoidance system 110 as UAV-to-UAV communication 806 be designated. In the event that the aircraft enters the cloud zone into an uncontrolled airspace, such as an area without a cloud coordinator, such as delivery docks in remote areas or sea rescue, an enhanced or modified approach is required to calculate conflicts between multiple flying objects. Here the pre-programmed trajectory is shared with other participants in the airspace. Subsequently, an agreement is made between the aircraft on the evasion trajectory. The fourth expansion stage 806 Can be used for delivery in remote locations or to monitor livestock.

In einer fünften Ausbaustufe 808 kann das Kollisionsvermeidungssystem 110 als Radar/ACAS 808 bezeichnet werden. In der letzten Aufbaustufe 808 ist ein System zur Integration des Luftfahrzeugs in den zivilen Luftraum, in dem auch bemannte Luftfahrzeuge fliegen, in das Kollisionsvermeidungssystem 110 integriert. Dabei ist zu erwarten, dass unbemannte Luftfahrzeuge immer bemannten Luftfahrzeugen auszuweichen haben. Dafür ist ein Einbau entweder eines Radars zur Erkennung von anderen Flugzeugen und deren Geschwindigkeit sinnvoll, da über die Doppler-Spur sehr schnell der Flugzeugtyp und damit die wichtigste Information das heißt, die Größe erkannt werden kann. Alternativ kann ein ACAS-System eingebaut werden. Die fünfte Ausbaustufe 808 kann zur Grenzüberwachung und zum Bereitstellen von Internet in entlegenen Orten verwendet werden.In a fifth expansion stage 808 can the collision avoidance system 110 as radar / ACAS 808 be designated. In the last stage of construction 808 is a system for integrating the aircraft into civil airspace, where even manned aircraft fly, into the collision avoidance system 110 integrated. It is to be expected that unmanned aircraft will always have to avoid manned aircraft. For an installation of either a radar for the detection of other aircraft and their speed makes sense because the Doppler lane very quickly the type of aircraft and thus the most important information that is, the size can be detected. Alternatively, an ACAS system can be installed. The fifth expansion stage 808 can be used to monitor the border and to provide Internet in remote locations.

Da unbemannte Luftfahrzeuge in sehr unterschiedliche Anwendungen eingesetzt werden können, stellen nicht alle Einsatzbereiche beziehungsweise Anwendungen die gleichen Anforderungen an das System 110 zur Kollisionsvermeidung. Daher wird hier eine umfassende und modular aufbaubare Sicherheitsplattform 110 vorgeschlagen. Mit der zunehmenden Komplexität der Aufgabe, die ein unbemanntes Luftfahrzeug durchführen soll, steigt gleichzeitig die Komplexität und Reichweite des Sicherheitssystems, das in Luftfahrzeug eingebaut werden kann und das Luftfahrzeug während des Fluges unterstützt.Since unmanned aerial vehicles can be used in very different applications, not all applications or applications have the same requirements for the system 110 for collision avoidance. Therefore, here is a comprehensive and modular security platform 110 proposed. At the same time, with the increasing complexity of the task that an unmanned aerial vehicle is required to perform, the complexity and range of the security system, which can be incorporated into aircraft and assist the aircraft during flight, increases.

Wird ein unbemanntes Luftfahrzeug beispielsweise für die Ermittlung von Dünger- und Wasserbedarf auf Agrarfeldern eingesetzt, dann sind die Anforderungen an das Kollisionsvermeidungssystem 110 eher gering, da der Luftraum eingeschränkt und kontrollierbar ist. Mit anderen Worten ist die Anzahl der Flugteilnehmer bekannt und kann vom Grundstückseigentümer nach aktueller Gesetzeslage beeinflusst werden, da er Flüge über seinem Grundstück zulassen oder ablehnen kann. Außerdem sind mögliche Hindernisse in der Flugbahn beziehungsweise stationäre Objekte wie beispielsweise Strommasten oder Bäume generell bekannt. Kollisionsgefahr besteht durch unerwartete Flugobjekte, beispielsweise durch Vögel. Unter solchen Voraussetzungen ist ein System 110 zur Kollisionsvermeidung, das auf Sensoren wie Kameras, Ultraschallsensoren oder Laser basiert, ausreichend. Die Sensoren übernehmen die Objekterkennung und Abstandsmessung. Es kann aber nicht sichergestellt werden, dass durch die Ausweichtrajektorie neue Kollisionskonflikte zu erwarten sind, da die Trajektorie des unerwarteten Objektes nicht bekannt ist. Dennoch ist das Risiko von Kollisionen durch das "non-comparative sensor system" 800 erheblich reduziert. Hier ist daher die beispielhaft beschriebene Anwendung "Precision Farming" der untersten Modulebene 800 zugeordnet, die lediglich "non-cooperative" Sensor systems benötigt und die geringste Komplexität des Sicherheitssystems 110 erfordert.If an unmanned aerial vehicle is used, for example, to determine fertilizer and water requirements on agricultural fields, then the requirements for the collision avoidance system must be met 110 rather low, because the airspace is limited and controllable. In other words, the number of flight participants is known and can be influenced by the property owner according to current legislation, as he can allow or reject flights over his property. In addition, possible obstacles in the trajectory or stationary objects such as power pylons or trees are generally known. There is a risk of collision due to unexpected flying objects, for example birds. Under such conditions is a system 110 for collision avoidance, which is based on sensors such as cameras, ultrasonic sensors or laser, sufficient. The sensors assume the object recognition and distance measurement. However, it can not be ensured that new collision conflicts are to be expected due to the avoidance trajectory since the trajectory of the unexpected object is unknown. Nevertheless, the risk of collisions is due to the "non-comparative sensor system" 800 considerably reduced. Here, therefore, is the exemplary application "Precision Farming" of the lowest module level 800 which requires only "non-cooperative" sensor systems and the least complexity of the security system 110 requires.

Wird jedoch ein unbemanntes Luftfahrzeug beispielsweise zur Paketlieferung eingesetzt, dann werden die Anforderungen an das System 110 zunehmen. Beispielhaft ist hier der Anwendungsfall "delivery" der 3. Modulstufe 804 "cloud solves conflict situtations" zugeordnet. Ein unbemanntes Luftfahrzeug soll in diesem Fall innerhalb von Ortschaften fliegen, das heißt, mit Überflug von Menschen. Zudem werden auch andere Flugteilnehmer, wie andere unbemannte Luftfahrzeuge im Luftraum erwartet, die nicht im Vorfeld bekannt sein können. Es ist auch zu erwarten, dass sich die Struktur innerhalb des Luftraumes ständig ändert, beispielsweise durch Zubau von Gebäuden in Baugebieten. Um diesen neuen Herausforderungen gerecht zu werden, wird zusätzlich zu dem Modul 800 auch ein System 110 benötigt, das Konfliktpotenzial mit anderen Flugteilnehmern zu 100% risikofrei lösen kann. Da der Flugplan von einem unbemannten Luftfahrzeug im Vorfeld bekannt ist, kann der Flugplan mit einem Zentralkoordinator geteilt werden, der mögliche Konflikte im Voraus berechnen und lösen kann. Das heißt, Flugerlaubnis und Eintritt in einen definierten Luftraum wird nur erteilt, wenn die angestrebte Flugbahn frei von anderen unbemannten Luftfahrzeugen ist. Dieses System 110 ist zuverlässiger als das sensorbasierte System 800 und erweitert die unterlagerten Modulstufen 800, 802.However, if an unmanned aircraft is used, for example, for parcel delivery, then the requirements for the system 110 increase. As an example, here is the use case "delivery" of the 3rd module stage 804 assigned to "cloud solves conflict situtations". An unmanned aerial vehicle should in this case fly within localities, that is, with overflight of humans. In addition, other flight participants, like other unmanned aerial vehicles expected in the airspace, which can not be known in advance. It is also expected that the structure within the airspace will constantly change, for example by adding buildings in construction areas. In order to meet these new challenges, in addition to the module 800 also a system 110 needed to solve the potential for conflict with other flight participants 100% risk-free. Since the flight plan is known from an unmanned aerial vehicle in advance, the flight plan can be shared with a central coordinator who can calculate and resolve potential conflicts in advance. That is, permission to fly and enter a defined airspace is only granted if the desired trajectory is free of other unmanned aerial vehicles. This system 110 is more reliable than the sensor-based system 800 and extends the subordinate module levels 800 . 802 ,

Beide Beispiele begründen den Nutzen und Vorteil eines modular aufbaubaren Systems 110 zur Kollisionsvermeidung für unbemannte Luftfahrzeuge. Bei dem hier vorgestellten System 110 kann jede Aufbaustufe die vorherige Systemstufe enthalten.Both examples justify the benefits and advantages of a modular system 110 for collision avoidance for unmanned aerial vehicles. In the system presented here 110 Each level can contain the previous system level.

Mit anderen Worten wird eine Sicherheitsplattform für unbemannte Flugobjekte vorgestellt. Die Sicherheitsplattform umfasst Sicherheitsfunktionen, wie Kollisionsvermeidung, zuverlässige Sensorik und ausfallsichere Komponenten. In other words, a security platform for unmanned aerial vehicles is presented. The security platform includes security features such as collision avoidance, reliable sensors and fail-safe components.

9 zeigt ein Ablaufdiagramm eines Verfahrens 900 zum Erkennen einer möglichen zukünftigen Kollision gemäß einem Ausführungsbeispiel. Das Verfahren 900 kann auf einem Steuergerät eines Luftfahrzeugs, wie es beispielsweise in 1 dargestellt ist, ausgeführt werden. Das Verfahren 900 weist einen Schritt 902 des Suchens, einen Schritt 904 des Zuordnens und einen Schritt 906 des Vergleichens auf. Im Schritt 902 des Suchens wird zumindest ein Objekt in einer, von einer Kamera des Luftfahrzeugs eingelesenen Bildinformation gesucht. Dabei wird das zumindest eine Objekt unter Verwendung eines optischen Flusses in einer Bildsequenz aus zumindest zwei Einzelbildern der Bildinformation gesucht. Im Schritt 904 des Zuordnens wird zu dem zumindest einen Objekt zumindest eine Objektinformation unter Verwendung des optischen Flusses zugeordnet. Im Schritt 906 des Vergleichens wird die zumindest eine Objektinformation mit einer Flugbahninformation des Luftfahrzeugs verglichen, um einen möglichen zukünftigen Kollisionsort und eine mögliche zukünftige Kollisionszeit der möglichen zukünftigen Kollision zu erkennen. 9 shows a flowchart of a method 900 for detecting a possible future collision according to an embodiment. The procedure 900 may be on an aircraft control unit, such as in 1 is shown executed. The procedure 900 has a step 902 of searching, a step 904 of assigning and a step 906 of comparing. In step 902 of searching, at least one object in an image information read by a camera of the aircraft is searched for. In this case, the at least one object is searched for using at least two individual images of the image information using an optical flow in an image sequence. In step 904 of assigning, at least one object information is assigned to the at least one object using the optical flow. In step 906 comparing the at least one object information with a trajectory information of the aircraft is compared to detect a possible future collision location and a possible future collision time of the possible future collision.

Es wird eine automatisierte Kollisionsvermeidung für ein unbemanntes Luftfahrzeug (unmanned aerial vehicle, UAV) vorgestellt.An automated collision avoidance for an unmanned aerial vehicle (UAV) is presented.

Unbemannte Luftfahrzeuge, wie Quadrokopter, Multikopter oder Drohnen (UAVs, Unmanned Aerial Vehicles) werden in Zukunft häufig Verwendung finden, da sie sehr vielfältige Einsatzmöglichkeiten haben. Beim Betrieb der Luftfahrzeuge sind Safety, Security und Privacy wichtig, also dass keine Kollisionen und Abstürze, kein Missbrauch der Drohne und der Schutz der Privatsphäre gewährleistet sind.Unmanned aerial vehicles, such as quadrocopters, multicopters or UAVs (Unmanned Aerial Vehicles) will often be used in the future, as they have a very wide range of possible applications. When operating the aircraft safety, security and privacy are important, so that no collisions and crashes, no abuse of the drone and the protection of privacy are guaranteed.

Aktuell ist es beispielsweise in Deutschland gestattet unbemannte Luftfahrzeuge lediglich außerhalb geschlossener Ortschaften, nicht über Personen, und nicht autonom, sondern nur in Sichtkontakt und mit Eingriffsmöglichkeit für den Steuerer zu fliegen. Zudem sind für gewerbliche Zwecke Flugerfahrung und eine Aufstiegsgenehmigung nötig. Dies ist unter anderem der Tatsache geschuldet, dass handelsübliche unbemannte Luftfahrzeuge zwar autonom fliegen könnten, jedoch kein Konzept zur Vermeidung von Kollisionen aufweisen.Currently, for example, in Germany it is permitted to fly unmanned aerial vehicles only outside built-up areas, not over persons, and not autonomously, but only in visual contact and with the possibility of intervention for the driver. In addition, commercial experience and an ascent approval are required for commercial purposes. This is partly due to the fact that commercially available unmanned aircraft could fly autonomously, but have no concept for avoiding collisions.

Die Sicherheit von unbemannten Luftfahrzeugen kann verbessert werden, indem Abstandssensorik wie Infrarotsensoren, Radar oder Ultraschall zum Einsatz kommen. The safety of unmanned aerial vehicles can be improved by using distance sensors such as infrared sensors, radar or ultrasound.

Konventionelle Autopilotsysteme arbeiten bei einem detektierten Objekt über die Weitergabe von Warnsignalen an den Piloten und sind somit auf das richtige Reagieren des Piloten angewiesen.Conventional autopilot systems work on a detected object via the transmission of warning signals to the pilot and are thus dependent on the correct reaction of the pilot.

Um zukünftigen Sicherheitsanforderungen gerecht zu werden, können unbemannte Luftfahrzeuge mit dem hier beschriebenen Konzept zur automatisierten Kollisionsvermeidung ausgerüstet werden.In order to meet future safety requirements, unmanned aerial vehicles can be equipped with the concept described here for automated collision avoidance.

Der hier vorgestellte Ansatz umfasst ein kamerabasiertes Konzept zur Kollisionsvermeidung, basierend auf der Auswertung eines Kamerabildes durch Bildverarbeitungsalgorithmen. Nahezu alle unbemannten Luftfahrzeuge haben bereits eine Kamera verbaut oder verfügen über einen Gimbal beziehungsweise eine Aufhängung zum Anbringen von Kameras. The approach presented here comprises a camera-based concept for collision avoidance, based on the evaluation of a camera image by image processing algorithms. Almost all unmanned aircraft have already installed a camera or have a gimbal or a suspension for attaching cameras.

Auf Basis einer Folge von Kamerabildern kann der optische Fluss berechnet werden. Dieser kann verwendet werden, um die Zeit bis zu einer Kollision zu schätzen (Time-To-Collision) sowie um dynamische Objekte vom Hintergrund zu separieren. Based on a sequence of camera images, the optical flux can be calculated. This can be used to estimate the time to collision (time-to-collision) and to separate dynamic objects from the background.

Weiterhin kann eine Objektklassifikation vorgenommen werden. Dabei können insbesondere spezifisch unter Verwendung des optischen Flusses als eigenbewegt erkannte Objekte, wie Vögel, andere unbemannte Luftfahrzeuge, Heißluftballons oder Gleitschirmflieger klassifiziert werden.Furthermore, an object classification can be made. In particular, specifically using the optical flow, objects classified as self-moving objects, such as birds, other unmanned aerial vehicles, hot-air balloons or paragliders can be classified.

Es kann eine Berechnung der inversen Perspektive beziehungsweise einer sogenannten Bird's eye view erfolgen, wenn eine Höhe und Lage der Kamera beziehungsweise des Luftfahrzeugs bekannt ist. Damit kann eine metrische, verzerrungsfreie Draufsicht auf die Umgebung generiert werden, die in Verbindung mit einer Karte zur Lokalisierung genutzt werden kann. A calculation of the inverse perspective or a so-called bird's eye view can take place if a height and position of the camera or of the aircraft is known. This allows a metric, distortion-free top view of the environment to be generated, which can be used in conjunction with a map for localization.

Ferner kann unter Verwendung von Structure-From-Motion oder Bewegungsstereo eine dreidimensionale Ausdehnung von Objekten bestimmt werden.Further, using structure-from-motion or motion stereo, a three-dimensional extent of objects can be determined.

Die genannten Bildverarbeitungsalgorithmen können mithilfe eines embedded system (System on Chip) an Bord des unbemannten Luftfahrzeugs online berechnet und zur Objektbewegungserkennung eingesetzt werden.The aforementioned image processing algorithms can be calculated online using an embedded system (system on chip) on board the unmanned aerial vehicle and used for object movement detection.

Durch die Verwendung solcher embedded systems, wie sie beispielsweise in Smartphones und Tablets verwendet werden, entstehen geringe Kosten, da die Prozessoren geringe Stückkosten aufweisen, eine geringe Verlustleistung aufweisen und ein geringes Gewicht haben. Dabei ist keine aktive Kühlung notwendig und die embedded systems können aus der Batterie des unbemannten Luftfahrzeugs versorgt werden.The use of such embedded systems, as used for example in smartphones and tablets, resulting in low costs, since the processors have low unit costs, have low power loss and have a low weight. There is no active cooling necessary and the embedded systems can be powered from the battery of the unmanned aerial vehicle.

Bei dem hier vorgestellten Ansatz werden Lösungsansätze aus der Fahrerassistenz, wie die Auswertung eines Kamerabildes, die Objekterkennung und die Kollisionsvermeidung mit einer neuen Technologie, dem unbemannten Luftfahrzeug kombiniert. Die Besonderheiten der Plattform unbemanntes Luftfahrzeug ermöglichen jedoch eine Reihe von Algorithmen, die so in der Fahrassistenz nicht verbreitet beziehungsweise möglich sind. Insbesondere erfolgt bei einem Flugobjekt eine Berechnung einer dreidimensionalen kollisionsvermeidenden Trajektorie. The approach presented here combines approaches from driver assistance, such as the evaluation of a camera image, the object recognition and the collision avoidance with a new technology, the unmanned aerial vehicle. However, the peculiarities of the unmanned aerial vehicle platform make it possible to use a number of algorithms that are not widely available or possible in driver assistance. In particular, in the case of a flying object, a calculation of a three-dimensional collision-avoiding trajectory takes place.

Bei der Anwendung auf ein unbemanntes Luftfahrzeug werden die aus der Fahrerassistenz bekannten Kritikalitätsmaße zur Situationsbewertung erweitert. Insbesondere werden neue Luftfahrzeug-spezifische Bewegungsmodelle erstellt. Neue Maße werden hinzugefügt, beispielsweise erfolgt ein Ausweichen nach oben durch Anlegen der Maximalspannung auf die Rotor-Motoren. Ein Ausweichen nach unten erfolgt dagegen durch Anhalten oder starkes Abbremsen der Rotoren ohne Absturz des unbemannten Luftfahrzeugs.When applied to an unmanned aerial vehicle, the criticality measures known from driver assistance are extended to assess the situation. In particular, new aircraft-specific movement models are created. New dimensions are added, for example, an upward deflection occurs by applying the maximum voltage to the rotor motors. Dodging down, however, occurs by stopping or severely slowing down the rotors without the unmanned aerial vehicle falling.

Durch den hier vorgestellten Ansatz wird das autonome Fliegen von Drohnen ermöglicht, da die Kollisionsvermeidung für unbemannte Luftfahrzeuge einen Sicherheitsaspekt hinzufügt, dem zuvor nicht Rechnung getragen wurde. Bewegte und unvorhergesehene Objekte innerhalb der Flugbahn werden erkannt und die Kollision vermieden.The approach presented here allows for the autonomous flying of drones, as the collision avoidance for unmanned aerial vehicles adds a safety aspect that was previously not taken into account. Moving and unforeseen objects within the trajectory are detected and the collision avoided.

Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

Claims (14)

Verfahren (900) zum Erkennen einer möglichen zukünftigen Kollision (706) eines unbemannten Luftfahrzeugs (100) mit einem Objekt (118), wobei das Verfahren (900) die folgenden Schritte aufweist: Suchen (902) von zumindest einem Objekt (118) in einer, von einer Kamera (112) des Luftfahrzeugs (100) eingelesenen Bildinformation (114) unter Verwendung eines optischen Merkmals (120) in einer Bildsequenz aus zumindest zwei Einzelbildern (402) der Bildinformation (114); Zuordnen (904) von zumindest einer Objektinformation (124) zu dem zumindest einen Objekt (118) unter Verwendung des optischen Merkmals (120); und Vergleichen (906) der zumindest einen Objektinformation (124) mit einer Flugbahninformation (132) des Luftfahrzeugs (100), um einen möglichen zukünftigen Kollisionsort (140) und eine mögliche zukünftige Kollisionszeit (142) der möglichen zukünftigen Kollision (706) zu erkennen.Procedure ( 900 ) for recognizing a possible future collision ( 706 ) of an unmanned aerial vehicle ( 100 ) with an object ( 118 ), the process ( 900 ) has the following steps: Search ( 902 ) of at least one object ( 118 ) in one, from a camera ( 112 ) of the aircraft ( 100 ) read image information ( 114 ) using an optical feature ( 120 ) in an image sequence of at least two individual images ( 402 ) of the image information ( 114 ); Assign ( 904 ) of at least one object information ( 124 ) to the at least one object ( 118 ) using the optical feature ( 120 ); and comparing ( 906 ) of the at least one object information ( 124 ) with trajectory information ( 132 ) of the aircraft ( 100 ) to a possible future collision location ( 140 ) and a possible future collision time ( 142 ) of the possible future collision ( 706 ) to recognize. Verfahren (900) gemäß Anspruch 1, bei dem im Schritt (902) des Suchens ein Bildbereich (122) der Bildinformation (114) als Objekt (118) erkannt wird, wenn Bildpunkte in dem Bildbereich (122) ein optisches Kennzeichen aufweisen, das dem optischen Merkmal und/oder des optischen Flusses innerhalb eines Toleranzbereichs gleich ist.Procedure ( 900 ) according to claim 1, wherein in step ( 902 ) of searching an image area ( 122 ) of the image information ( 114 ) as an object ( 118 ) is detected when pixels in the image area ( 122 ) have an optical characteristic equal to the optical feature and / or the optical flow within a tolerance range. Verfahren (900) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (902) des Suchens ein als Objekt (118) erkannter Bildbereich (122) mit vorab bereits aufgefundenen, bekannten und/oder kartierten Objekten verglichen wird, um das Objekt (118) zu bestätigen. Procedure ( 900 ) according to one of the preceding claims, wherein in step ( 902 ) of searching as an object ( 118 ) recognized image area ( 122 ) is compared with previously found, known and / or mapped objects to the object ( 118 ) to confirm. Verfahren (900) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (904) des Zuordnens aus dem optischen Merkmal (120) der Bildpunkte, die das erkannte Objekt (118) repräsentieren, als Objektinformationen (124) eine Geschwindigkeitsinformation (126), eine Positionsinformation (128) und/oder eine Richtungsinformation (130) des Objekts (118) ermittelt werden.Procedure ( 900 ) according to one of the preceding claims, wherein in step ( 904 ) of the assignment from the optical feature ( 120 ) of the pixels that the detected object ( 118 ), as object information ( 124 ) a speed information ( 126 ), position information ( 128 ) and / or direction information ( 130 ) of the object ( 118 ) be determined. Verfahren (900) gemäß Anspruch 4, bei dem im Schritt (906) des Vergleichens die Geschwindigkeitsinformation (126), die Positionsinformation (128) und/oder die Richtungsinformation (130) des Objekts (118) mit einer in der Flugbahninformation (132) enthaltenen Fluggeschwindigkeit (134), einer in der Flugbahninformation (132) enthaltenen Fahrzeugposition (136) und/oder einer in der Flugbahninformation (132) enthaltenen Flugrichtung (138) des Luftfahrzeugs (100) verglichen werden, um den möglichen zukünftigen Kollisionsort (140) und die mögliche zukünftige Kollisionszeit (142) zu erkennen.Procedure ( 900 ) according to claim 4, wherein in step ( 906 ) of comparing the speed information ( 126 ), the position information ( 128 ) and / or the direction information ( 130 ) of the object ( 118 ) with one in the trajectory information ( 132 ) contained airspeed ( 134 ), one in the trajectory information ( 132 ) vehicle position ( 136 ) and / or in the trajectory information ( 132 ) contained flight direction ( 138 ) of the aircraft ( 100 ) are compared to the possible future collision location ( 140 ) and the possible future collision time ( 142 ) to recognize. Verfahren (900) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Empfangens zumindest einer weiteren Flugbahninformation eines weiteren Luftfahrzeugs (704), wobei im Schritt (906) des Vergleichens ferner die Flugbahninformation (132) mit der weiteren Flugbahninformation verglichen wird, um den möglichen zukünftigen Kollisionsort (140) und die mögliche zukünftige Kollisionszeit (142) zu erkennen.Procedure ( 900 ) according to any one of the preceding claims, comprising a step of receiving at least one further trajectory information of another aircraft ( 704 ), wherein in step ( 906 ) of comparison further the trajectory information ( 132 ) is compared with the further trajectory information to determine the possible future collision location ( 140 ) and the possible future collision time ( 142 ) to recognize. Verfahren (900) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (902) des Suchens die Flugbahninformation (132) unter Verwendung des optischen Merkmals (120) bestimmt wird. Procedure ( 900 ) according to one of the preceding claims, wherein in step ( 902 ) of searching the trajectory information ( 132 ) using the optical feature ( 120 ) is determined. Verfahren (900) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Bereitstellens der Flugbahninformation (132).Procedure ( 900 ) according to one of the preceding claims, comprising a step of providing the trajectory information ( 132 ). Verfahren (900) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Bestimmens einer alternativen Flugbahn (500) für das Luftfahrzeug (100) unter Verwendung der Flugbahninformation (132), der Objektinformationen (124), des möglichen zukünftigen Kollisionsorts (140) und der möglichen zukünftigen Kollisionszeit (142), wobei das Luftfahrzeug (100) auf die alternative Flugbahn (500) gesteuert wird, um die mögliche zukünftige Kollision (706) zu verhindern.Procedure ( 900 ) according to one of the preceding claims, with a step of determining an alternative trajectory ( 500 ) for the aircraft ( 100 ) using the trajectory information ( 132 ), the object information ( 124 ), the possible future collision location ( 140 ) and the possible future collision time ( 142 ), the aircraft ( 100 ) on the alternative trajectory ( 500 ) to control the possible future collision ( 706 ) to prevent. Verfahren (900) gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Warnens, in dem ein Warnsignal über die mögliche zukünftige Kollision (706) für das Objekt (118) bereitgestellt wird.Procedure ( 900 ) according to one of the preceding claims, with a step of warning, in which a warning signal about the possible future collision ( 706 ) for the object ( 118 ) provided. Steuergerät (102) zum Erkennen einer möglichen zukünftigen Kollision (706) eines unbemannten Luftfahrzeugs (100) mit einem Objekt (118), wobei das Steuergerät (102) eingerichtet ist, das Verfahren (900) gemäß einem der vorangegangenen Ansprüche auszuführen.Control unit ( 102 ) for recognizing a possible future collision ( 706 ) of an unmanned aerial vehicle ( 100 ) with an object ( 118 ), whereby the control unit ( 102 ), the procedure ( 900 ) according to one of the preceding claims. Kollisionsvermeidungssystem (110) für ein unbemanntes Luftfahrzeug (100), wobei das Kollisionsvermeidungssystem (110) die folgenden Merkmale aufweist: eine Kamera (112) zum Bereitstellen einer Bildinformation (114); ein Steuergerät (102) gemäß Anspruch 11; und eine Ausweicheinrichtung (144) zum Beeinflussen der Flugbahn (502) des Luftfahrzeugs (100).Collision avoidance system ( 110 ) for an unmanned aerial vehicle ( 100 ), the collision avoidance system ( 110 ) has the following features: a camera ( 112 ) for providing image information ( 114 ); a control device ( 102) according to claim 11; and an evasive device ( 144 ) for influencing the trajectory ( 502 ) of the aircraft ( 100 ). Computerprogramm, das dazu eingerichtet ist, das Verfahren (900) gemäß einem der vorangegangenen Ansprüche auszuführen.Computer program adapted to perform the procedure ( 900 ) according to one of the preceding claims. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 13 gespeichert ist.A machine readable storage medium storing the computer program of claim 13.
DE102015224796.1A 2015-12-10 2015-12-10 Method and control unit for detecting a possible collision of an unmanned aerial vehicle with an object Withdrawn DE102015224796A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102015224796.1A DE102015224796A1 (en) 2015-12-10 2015-12-10 Method and control unit for detecting a possible collision of an unmanned aerial vehicle with an object
PCT/EP2016/078647 WO2017097596A2 (en) 2015-12-10 2016-11-24 Method and control device for identifying a potential collision between an unmanned aerial vehicle and an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015224796.1A DE102015224796A1 (en) 2015-12-10 2015-12-10 Method and control unit for detecting a possible collision of an unmanned aerial vehicle with an object

Publications (1)

Publication Number Publication Date
DE102015224796A1 true DE102015224796A1 (en) 2017-06-14

Family

ID=57485448

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015224796.1A Withdrawn DE102015224796A1 (en) 2015-12-10 2015-12-10 Method and control unit for detecting a possible collision of an unmanned aerial vehicle with an object

Country Status (2)

Country Link
DE (1) DE102015224796A1 (en)
WO (1) WO2017097596A2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016218853A1 (en) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detection and validation of objects from images of a camera
US10984263B2 (en) 2016-09-29 2021-04-20 Conti Temic Microelectronic Gmbh Detection and validation of objects from sequential images of a camera by using homographies
US11087150B2 (en) 2016-09-29 2021-08-10 Conti Temic Microelectronic Gmbh Detection and validation of objects from sequential images of a camera by using homographies
CN114594785A (en) * 2022-01-17 2022-06-07 北京理工大学 Unmanned aerial vehicle obstacle avoidance real-time trajectory planning method based on mixed integer second-order cone optimization
DE102023200083A1 (en) 2023-01-05 2024-07-11 Volkswagen Aktiengesellschaft Integration of vulnerable road users into a V2X system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10757485B2 (en) 2017-08-25 2020-08-25 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
CN107703519B (en) * 2017-10-17 2020-04-28 杭州瓦屋科技有限公司 Plant protection unmanned aerial vehicle obstacle detection method based on laser displacement sensor
US10657833B2 (en) * 2017-11-30 2020-05-19 Intel Corporation Vision-based cooperative collision avoidance
US11163317B2 (en) 2018-07-31 2021-11-02 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
US11181929B2 (en) 2018-07-31 2021-11-23 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
DE102019114354A1 (en) * 2019-05-28 2020-12-03 Volocopter Gmbh Method and system for avoiding collisions between aircraft and other flying objects
CN111880556A (en) * 2020-07-02 2020-11-03 西安理工大学 Wireless ultraviolet light-based anti-collision system and method in unmanned aerial vehicle cluster
CN114500736B (en) * 2020-10-23 2023-12-05 广州汽车集团股份有限公司 Intelligent terminal motion trail decision method and system and storage medium thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070210953A1 (en) * 2006-03-13 2007-09-13 Abraham Michael R Aircraft collision sense and avoidance system and method
US20130238170A1 (en) * 2012-03-09 2013-09-12 John Solomon Klinger Autonomous vehicle and method for coordinating the paths of multiple autonomous vehicles
WO2015175379A1 (en) * 2014-05-10 2015-11-19 Aurora Flight Sciences Corporation Autonomous aerial vehicle collision avoidance system and method
US20160070264A1 (en) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd Velocity control for an unmanned aerial vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008097562A1 (en) * 2007-02-06 2008-08-14 Aai Corporation Utilizing polarization differencing method for detect, sense and avoid systems
ES2409210T3 (en) * 2008-11-12 2013-06-25 Saab Ab Distance estimation device
US8234068B1 (en) * 2009-01-15 2012-07-31 Rockwell Collins, Inc. System, module, and method of constructing a flight path used by an avionics system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070210953A1 (en) * 2006-03-13 2007-09-13 Abraham Michael R Aircraft collision sense and avoidance system and method
US20130238170A1 (en) * 2012-03-09 2013-09-12 John Solomon Klinger Autonomous vehicle and method for coordinating the paths of multiple autonomous vehicles
WO2015175379A1 (en) * 2014-05-10 2015-11-19 Aurora Flight Sciences Corporation Autonomous aerial vehicle collision avoidance system and method
US20160070264A1 (en) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd Velocity control for an unmanned aerial vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016218853A1 (en) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detection and validation of objects from images of a camera
US10984263B2 (en) 2016-09-29 2021-04-20 Conti Temic Microelectronic Gmbh Detection and validation of objects from sequential images of a camera by using homographies
US10984264B2 (en) 2016-09-29 2021-04-20 Conti Temic Microelectronic Gmbh Detection and validation of objects from sequential images of a camera
US11087150B2 (en) 2016-09-29 2021-08-10 Conti Temic Microelectronic Gmbh Detection and validation of objects from sequential images of a camera by using homographies
CN114594785A (en) * 2022-01-17 2022-06-07 北京理工大学 Unmanned aerial vehicle obstacle avoidance real-time trajectory planning method based on mixed integer second-order cone optimization
DE102023200083A1 (en) 2023-01-05 2024-07-11 Volkswagen Aktiengesellschaft Integration of vulnerable road users into a V2X system

Also Published As

Publication number Publication date
WO2017097596A2 (en) 2017-06-15
WO2017097596A3 (en) 2017-07-27

Similar Documents

Publication Publication Date Title
DE102015224796A1 (en) Method and control unit for detecting a possible collision of an unmanned aerial vehicle with an object
EP3432108B1 (en) Method and control device for autonomous and/or partly autonomous transport vehicle
AT507035B1 (en) SYSTEM AND METHOD FOR AVOIDING COLLISION
DE102014114827A1 (en) Path planning for evasive steering maneuvers in the presence of a target vehicle and surrounding objects
DE112014001058T5 (en) Method and system for controlling autonomous vehicles
DE112016000695T5 (en) Evacuation control device and evacuation control method
DE102014114608A1 (en) Path planning for evasive maneuvers using a virtual potential field technique
DE102020113848A1 (en) ECCENTRICITY FUSION
AT16013U1 (en) Unmanned aerial vehicle with a modular swarm control unit
DE112020002287T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
DE102018100487A1 (en) OBJECT TRACKING THROUGH UNDUE MONITORING
DE102016008553B4 (en) System comprising a motor vehicle and an unmanned aircraft and method for detecting conditions in an environment of a motor vehicle
DE602004011611T2 (en) System and method for automatic collision avoidance for aircraft
DE102020102624A1 (en) ADVANCED WILDLIFE COLLISION PREVENTION FOR VEHICLES
DE112014006827T5 (en) Driving assistance system, driving support procedure and program
DE102019107443A1 (en) Method and device for operating a robot with improved object detection
DE102015004854A1 (en) Unmanned aerial object and system for avoiding collisions in airspaces with unmanned aerial vehicles
WO2024067132A1 (en) Flight obstacle avoidance method and system for unmanned aerial vehicle, and readable storage medium
DE102018211905A1 (en) Control device for an unmanned aerial vehicle
DE102015224803A1 (en) Method and control unit for determining an alternative trajectory of an aircraft
WO2017207427A1 (en) Method and system for recording video data using at least one remote-controllable camera system which can be aligned with objects
DE202022105719U1 (en) Semantic adaptation of delivery points of an unmanned aerial vehicle
DE202022105778U1 (en) Semantic abort of unmanned aerial vehicle deliveries
WO2011157723A1 (en) System and method for collision avoidance
DE102022113890A1 (en) SYSTEMS AND METHODS FOR OPERATING DRONE FLIGHTS OVER PUBLIC ROADS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee