WO2019112406A1 - Planification de vol d'avion sans pilote guidée par une caméra rotative dans le but d'optimiser la recherche de cibles - Google Patents

Planification de vol d'avion sans pilote guidée par une caméra rotative dans le but d'optimiser la recherche de cibles Download PDF

Info

Publication number
WO2019112406A1
WO2019112406A1 PCT/MA2018/050012 MA2018050012W WO2019112406A1 WO 2019112406 A1 WO2019112406 A1 WO 2019112406A1 MA 2018050012 W MA2018050012 W MA 2018050012W WO 2019112406 A1 WO2019112406 A1 WO 2019112406A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
camera
detected
flight plan
detection
Prior art date
Application number
PCT/MA2018/050012
Other languages
English (en)
Other versions
WO2019112406A4 (fr
Inventor
Younes MOUMEN
Original Assignee
Atlan Space
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atlan Space filed Critical Atlan Space
Publication of WO2019112406A1 publication Critical patent/WO2019112406A1/fr
Publication of WO2019112406A4 publication Critical patent/WO2019112406A4/fr

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0039Modification of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0078Surveillance aids for monitoring traffic from the aircraft

Definitions

  • the present invention relates to the general field of unmanned aerial vehicles. It belongs to the particular field of autonomous flight operations of unmanned aircraft, especially by the use of a rotating camera in order to optimize the search for targets.
  • HONEYWELL INT INC describes in its patent US20161 16915 a system which aims precisely to search for specific targets in large geographical areas. Their method combines the use of radars to detect objects in a first phase, and then sending one or more unmanned planes into the area of the detection event to take multiple pictures at multiple angles and altitudes. These photos are then immediately transmitted to the control station if it is accessible, otherwise they are kept for later retrieval.
  • this system limits the detection to the radar radius and suffers from its limitations when it is too close to the ground or in non-flat terrain.
  • the transmission of information is also slow in this case because the images are processed by a human on the surface. Two situations arise: the device is close to the control station, and the data can be transmitted immediately, but in a very small radius; otherwise the device is far away, and the information may take hours to transmit (the time the device approaches sufficiently to transmit).
  • the plane (100) will not detect it and will consider that there is no boat in the surface it has just traveled. It is sufficient for the boat to remain in this area so that it completely escapes detection until a new pass of the unmanned airplane (100) can be several hours later. This should not happen in the case of an airplane with pilot on board because the pilot monitors not only the area below the aircraft but also the entire area surrounding the aircraft to the limit of visibility or horizon .
  • Our invention proposes a system and method that offers an efficiency similar to an airplane with pilot on board while using only a pilotless (100) aircraft with decision-making autonomy outside the connection with the control station.
  • Our system uses for detection and identification a down pointing camera (103), connected to an embedded processor running one or more programs capable of detecting and identifying targets.
  • the optical characteristics of the camera and the performance of the processor and the program determine one or more recommended flight altitudes in order to optimize the detection performance according to the target to be detected.
  • Target detection and identification programs may use computer vision techniques such as area of interest descriptors, area of interest detection, neural networks, or any other technique available in the field. the state of the art.
  • the system also uses a second rotating camera (107) on at least one yaw axis.
  • Rotational capability on the pitch and roll axes (when aligned with the unit) is very useful for obtaining a better field of view especially when maneuvering the unit.
  • the position of the rotating camera (107) must allow the maximum of fields of vision not masked by the fuselage while meeting the constraints of the shape of the fuselage and the constraints of manufacture.
  • the rotational camera (107) can also be used for identification by replacing the first camera (103) if the camera specifications permit the change of focal length, lens, capture speed and other parameters necessary to improve performance of both detection and identification. This has the advantage of using a single camera instead of two.
  • the onboard processor also executes a program that calculates the initial flight plan (102) according to a specific pattern.
  • the flight plan is represented in memory in the form of a set of waypoints (101) which define the compulsory passage points of the course (102).
  • the flight plan calculation model can be a zigzag grid, concentric rectangles, concentric circles, or any other model suitable for the desired targets. It can include settings like weather, terrain elevation, area priorities etc.
  • each step (108) is a point belonging to the trajectory of the flight plan (102).
  • the first step is the entry point of the area to be monitored or, in other words, the intersection between the path of the device and the area to be monitored.
  • the other steps are inserted along the path at equal distances until the end of the flight plan covering the surface to be monitored.
  • Each step contains the information of its position and the history of the timestamps passing through the device by this step.
  • Step (1) The rotating camera (107) rotates continuously or discretely to capture photos covering the entire 360 ° field of view around the camera (100).
  • the embedded processor executes a program that processes the captured photos to detect objects (106) with a certainty index. For this, he can use computer vision techniques such as area of interest descriptors, detection of areas of interest, neural networks, or any other available technique.
  • detection is the process that results in having the information that an object is present in an approximate position.
  • Identification is considered to be the process of obtaining information about the object itself, such as its classification, size, content, etc.
  • Step (2) The processor then executes a program that determines the angle of each object (106) detected with respect to the unmanned aircraft (100) in a spherical coordinate system centered on the latter (100) by based on: the orientation of the camera (107), the location of the object in the captured photo, and the attitude of the aircraft (100).
  • the processor then executes a program that estimates the distance of each detected object (106) from the unmanned aircraft (100). This estimate of distance or depth can be based on several techniques such as optical flow, calculation of the position with respect to the horizon line in flat terrain (mainly in marine environments) or any other method available and adapted to the situation.
  • Step (3) Those attributes that include at least certainty, angle, distance, and identification status (already identified or not), are associated with each object detected by the camera. These detected objects are then saved in a table of new objects.
  • Step (4) The processor then performs a comparison between the object attributes of the table of the new objects and the attributes of the objects of a global table of all the objects.
  • the latter contains information about all objects detected since the beginning of the mission. New detected objects already present in the global table are updated in the table of all objects by updating their attributes.
  • Step (5) The objects present in the global table not yet identified are sorted in a queue according to a factor based on the certainty of detection and the estimated distance.
  • Step (6) If no unidentified object is present in the global table, a flight plan (102) is computed to cover all the steps starting with those which have no timestamp , then those with the oldest time stamp keeping the scheduling of the initial trajectory when the timestamps are equal.
  • Step (7) Otherwise, if at least one unidentified object is present in the global table, and still present in the table of new objects (always in the field of view), then a flight plan (109) is calculated to reach the objects in the sort order of the tail. If it turns out that the object is below the plane, the process of identification by the first camera (103) is initiated and the identification attribute of the object is updated.
  • Figure 1 shows a perspective view of a static flight plan not guided by the camera in the scenario where a boat (106) is approaching perpendicular to its path avoiding detection.
  • Figure 2 shows a top view of a camera-guided flight plan (107) with the static flight plan (102) and the calculated flight plan (109) to identify detected objects (106). .
  • FIG. 3 shows a top view of a recalculated flight plan (102) after identification of all detected objects (106).

Abstract

La détection et l'identification de cibles par avions sans pilotes nécessite l'utilisation de caméras pointant vers le bas avec un paramétrage spécifique et une altitude définie afin d'obtenir les meilleures performances de détection. Le plan de vol pour couvrir de larges zones géographiques est généralement défini indépendamment de la détection. Ceci crée des situations où la détection est inefficace. Nous proposons donc un système et méthode où le plan de vol est défini en partie par les données capturées par une caméra rotative couvrant le champ de vision de l'avion sans pilote sur 360°.

Description

Planification de vol d’avion sans pilote guidée par une caméra rotative dans le but d’optimiser la recherche de cibles
Description
[1 ] La présente invention est relative au domaine général des véhicules aériens sans pilotes. Elle appartient au domaine particulier des opérations de vol autonome d’appareils aériens sans pilotes, spécialement, par l’utilisation d’une caméra rotative dans le but d’optimiser la recherche de cibles.
[2] La recherche de cibles dans de larges zones géographiques a toujours été un domaine où l’utilisation d’avions avec pilotes à bord a été la plus efficace en termes du rapport coût-efficacité. C’est le cas en particulier lorsque la taille de la cible ne permet pas une détection ou identification précise avec les satellites. L’avènement des avions sans pilotes n’avait changé la donne qu’à partir du début de développement des technologies d’autonomie qui permettent à l’appareil de naviguer en dehors du rayon de transmission du pilote ou la station de contrôle en surface avec un plan de vol prédéfinit. Avec les débuts de ces technologies, un gain important en termes de coûts logistiques peut être réalisé. Toutefois, ces technologies d’autonomie nécessitent toute une panoplie de techniques pour assurer ce type de mission et espérer égaler ou surpasser les performances des avions avec pilote à bord.
[3] En particulier, nous nous intéressons dans ce document à la détermination d’un plan de vol optimal en utilisant une caméra rotative simulant la surveillance humaine capable de détecter des bateaux à proximité et prioriser leur inspection au lieu d’exécuter bêtement un plan de vol selon un modèle prédéfinit.
[4] L’utilisation d’une caméra rotative dans les avions sans pilotes a longtemps été destinée à transmettre un visuel à la station au sol afin qu’un pilote distant puisse évaluer la situation. Avec le besoin d’améliorer l’autonomie de l’appareil et principalement dans le but d’éviter des obstacles, les caméras rotatives ont commencé à remplir un rôle additionnel de détection des obstacles grâce à un traitement des images capturées par un processeur embarqué dans l’appareil. Le brevet d’invention US2007093945, entre autres, décrit un système où la détermination du plan de vol prend en charge les résultats de la détection des obstacles afin de les éviter. Toutefois, cette technologie est restreinte à une utilisation dans le but d’éviter les obstacles, ou pour suivre un objet. Elle ne peut concrètement pas être utilisée pour surveiller de larges zones géographiques dans le but de rechercher des cibles spécifiques.
[5] HONEYWELL INT INC décrit dans son brevet d’invention US20161 16915 un système qui a justement comme objectif la recherche de cibles spécifiques dans de larges zones géographiques. Leur méthode combine l’utilisation de radars pour détecter des objets dans une première phase, puis l’envoi d’un ou plusieurs avions sans pilotes dans la zone de l’événement de détection afin de prendre plusieurs photos à plusieurs angles et altitudes. Ces photos sont ensuite immédiatement transmises à la station de contrôle si elle est accessible, sinon, ils sont gardés pour une récupération ultérieure. Toutefois, ce système limite la détection au rayon du radar et souffre de ses limitations lorsqu’il est trop près du sol ou dans des terrains non plats. La transmission de l’information est également lente dans ce cas car les images sont traitées par un humain en surface. Deux situations se présentent alors : l’appareil est proche de la station de contrôle, et les données peuvent être transmises immédiatement, mais dans un rayon très réduit ; sinon l’appareil est loin, et l’information peut prendre des heures avant d’être transmise (le temps que l’appareil s’approche suffisamment pour transmettre).
[6] Avec l’avènement de technologies d’autonomie en dehors de la liaison avec une station de contrôle, il devient possible d’assurer la détection directement avec l’avion sans pilote (100). Celui-ci peut alors envoyer juste l’information utile avec des moyens accessibles tels qu’une des messages courts à travers une liaison satellitaire. La solution la plus logique est d’utiliser pour la détection une caméra pointant vers le bas (103) avec une configuration optique spécifique et une altitude déterminée pour pouvoir améliorer les chances de détection tels que décrit par AIRPHRAME INC dans leur brevet d’invention US2017131717. Encore ici, cette méthode souffre de la limitation de la détection à une bande étroite (104) que couvre le champ de vision (105) de la caméra. A titre d’exemple, si l’appareil effectue un plan de vol (102) selon un certain modèle de couverture d’une zone marine (en quadrillage par exemple), et qu’un bateau (106) s’approche perpendiculairement de sa trajectoire, l’avion (100) ne va pas le détecter et va considérer qu’il n’y a aucun bateau dans la surface qu’il vient de parcourir. Il suffit que le bateau reste dans cette surface pour qu’il échappe totalement à la détection jusqu’à une nouvelle passe de l’avion sans pilote (100) qui peut être plusieurs heures après. Ceci ne devrait pas arriver dans le cas d’un avion avec pilote à bord car le pilote surveille non seulement la zone en dessous de l’appareil mais également toute la zone entourant l’appareil jusqu’à la limite de visibilité ou l’horizon.
[7] Notre invention propose un système et méthode qui offre une efficacité semblable à un avion avec pilote à bord tout en utilisant uniquement un avion sans pilote (100) à autonomie décisionnelle en dehors de la liaison avec la station de contrôle.
[8] Notre système utilise pour la détection et l’identification une caméra pointant vers le bas (103), reliée à un processeur embarqué exécutant un ou plusieurs programmes capables de détecter et d’identifier les cibles. Les caractéristiques optiques de la caméra et les performances du processeur et du programme déterminent une ou plusieurs altitudes recommandées de vol en vue d’optimiser les performances de détection selon la cible à détecter.
[9] Les programmes de détection et d’identification des cibles peuvent utiliser des techniques de vision par ordinateur telles que les descripteurs de zones d’intérêts, la détection des zones d’intérêts, les réseaux de neurones, ou toute autre technique disponible dans l’état de la technique.
[10] Le système utilise également une deuxième caméra rotative (107) sur au moins un axe du lacet. Une capacité de rotation sur les axes du tangage et du roulis (lorsqu’elle est alignée avec l’appareil) sont très utiles pour obtenir un meilleur champ de vision en particulier lors des manœuvres de l’appareil.
[1 1 ] La position de la caméra rotative (107) doit permettre le maximum de champs de vision non masqué par le fuselage tout en répondant aux contraintes de la forme du fuselage et aux contraintes de fabrication. La caméra rotative (107) peut également servir à l’identification en remplaçant la première caméra (103) si les spécifications de la caméra permettent le changement de distance focale, de lentille, de vitesse de capture et d’autres paramètres nécessaires à améliorer les performances à la fois de la détection et de l’identification. Ceci a l’avantage d’utiliser une seule caméra au lieu de deux.
[12] Le processeur embarqué exécute également un programme qui calcule le plan de vol initial (102) selon un modèle déterminé. Le plan de vol est représenté en mémoire sous forme d’un ensemble de waypoints (101 ) qui définissent les points de passage obligatoire du parcours (102). Le modèle de calcul du plan de vol peut être un quadrillage en zigzags, en rectangles concentriques, des cercles concentriques, ou tout autre modèle adéquat pour les cibles recherchées. Il peut inclure des paramètres comme la météo, l’élévation de terrain, les priorités de zones etc.
[13] Nous ajoutons à cette représentation en waypoints (101 ) une autre représentation en mémoire d’un ensemble de milestones ou étapes (108). Chaque étape (108) est un point appartenant à la trajectoire du plan de vol (102). La première étape étant le point d’entrée de la zone à surveiller ou, en d’autres termes, l’intersection entre la trajectoire de l’appareil et la zone à surveiller. Les autres étapes sont insérées le long de la trajectoire à distances égales jusqu’à la fin du plan de vol couvrant la surface à surveiller. Chaque étape contient les informations de sa position et l’historique des horodatages de passage de l’appareil par cette étape.
[14] La méthode de détermination du plan de vol basée en partie sur les données capturées par la caméra se déroule selon les étapes suivantes : [15] Etape (1 ) : La caméra rotative (107) fait une rotation continue ou discrète pour effectuer des captures de photos couvrant l’ensemble du champ de vision à 360° autours de l’appareil (100). Le processeur embarqué exécute un programme qui traite les photos capturées pour détecter des objets (106) avec un indice de certitude. Pour cela, il peut utiliser des techniques de vision par ordinateur telles que les descripteurs de zones d’intérêts, la détection des zones d’intérêts, les réseaux de neurones, ou toute autre technique disponible.
[16] Toutefois, il est connu que l'identification par des photos latérales surtout d’objets lointains est très difficile à ce jour. Un passage au-dessus de l’objet détecté doit donc être planifiée pour pouvoir confirmer sa détection et l’identifier en utilisant la première caméra (103), plus précise.
[17] Nous considérons que la détection est le processus qui abouti à avoir l’information qu’un objet est présent dans une position approximée. L’identification par contre est considérée comme étant le processus qui aboutit à obtenir des informations sur l’objet lui-même telle que sa classification, sa taille, son contenu, etc.
[18] Etape (2) : Le processeur exécute alors un programme qui détermine l’angle de chaque objet (106) détecté par rapport à l’avion sans pilote (100) dans un repère sphérique centré sur ce dernier (100) en se basant sur : l’orientation de la caméra (107), l’emplacement de l’objet dans la photo capturée et l’attitude de l’avion (100). Le processeur exécute ensuite un programme qui estime la distance de chaque objet (106) détecté par rapport à l’avion sans pilote (100). Cette estimation de distance ou de profondeur peut se baser sur plusieurs techniques telles que le flux optique, le calcul de la position par rapport à la ligne d’horizon dans les terrains plat (en milieux marins principalement) ou toute autre méthode disponible et adaptée à la situation.
[19] Etape (3) : Ces attributs qui incluent au moins la certitude, l’angle, la distance, et le statut d’identification (déjà identifié ou pas), sont associées à chaque objet détecté par la caméra. Ces objets détectés sont alors enregistrés dans une table des nouveaux objets.
[20] Etape (4) : Le processeur exécute ensuite une comparaison entre les attributs des objets de la table des nouveaux objets et les attributs des objets d’une table globale de tous les objets. Cette dernière contient des informations sur tous les objets détectés depuis le début de la mission. Les nouveaux objets détectés déjà présents dans la table globale sont mis à jour dans la table de tous les objets en mettant à jour leurs attributs.
[21 ] Etape (5) : Les objets présents dans la table globale non encore identifiés sont triés dans une queue selon un facteur basé sur la certitude de détection et la distance estimée.
[22] Etape (6) : Si aucun objet non identifié n’est présent dans la table globale, un plan de vol (102) est calculé pour couvrir l’ensemble des étapes en commençant par celles qui n’ont pas d’horodatage, puis celles ayant le plus ancien horodatage en gardant l’ordonnancement de la trajectoire initiale lorsque les horodatages sont égaux.
[23] Etape (7) Sinon, si au moins un objet non identifié est présent dans la table globale, et toujours présent dans la table des nouveaux objets (toujours dans le champ de vision), alors un plan de vol (109) est calculé pour atteindre les objets dans l’ordre de tri de la queue. S’il s’avère que l’objet se retrouve en dessous de l’avion, le processus d’identification par la première caméra (103) est initié et l’attribut d’identification de l’objet est mis à jour.
[24] Une nouvelle rotation de la caméra à 360° est reprise et le processus de détection est relancé à l’étape (1).
[25] Il est à noter que malgré le fait que les illustrations montrent un avion sans pilote détectant des bateaux, cette invention s’applique à la détection de tout type de cibles quel que soit le terrain. [26] La figure 1 montre une vue en perspective d’un plan de vol statique non guidé par la caméra dans le scénario où un bateau (106) s’approche perpendiculairement de sa trajectoire évitant la détection .
[27] La figure 2 montre une vue de haut d’un plan de vol guidé par la caméra (107) avec le plan de vol statique (102) et le plan de vol calculé (109) pour identifier les objets (106) détectés.
[28] La figure 3 montre une vue de haut d’un plan de vol (102) recalculé après identification de tous les objets (106) détectés.

Claims

Revendications
1 . Un système planification de vol d’un avion sans pilote assurée en partie par une caméra rotative caractérisé par un avion sans pilote équipé au moins d’une caméra rotative (107) reliée à un processeur. Le processeur est équipé d’un programme de calcul de plan de vol selon des modèles définis. Chaque plan de vol est représenté en mémoire sous forme d’un ensemble de waypoints (101) qui définissent les points de passage obligatoire du parcours (102) de l’avion (100). Le processeur dispose en mémoire d’une autre représentation d’un ensemble de milestones ou étapes (108). Chaque étape (108) est un point appartenant à la trajectoire du plan de vol (102). La première étape étant le point d’entrée de la zone à surveiller ou, en d’autres termes, l’intersection entre la trajectoire de l’appareil et la zone à surveiller. Les autres étapes se trouvent le long de la trajectoire à distances égales jusqu’à la fin du plan de vol couvrant la surface à surveiller. Chaque étape contient les informations de sa position et l’historique des horodatages de passage de l’appareil par cette étape.
2. Un système selon la revendication 1 caractérisé par la présence en mémoire de deux tables : une table des nouveaux objets détectés qui contient les objets récemment détectés par la caméra (107) et une table globale de tous les objets détectés depuis le début de la mission. Chaque objet dans la table dispose au moins les attributs de certitude de détection, d’angle, de distance, et le statut d’identification.
3. Une méthode de planification de vol d’un avion sans pilote assurée en partie par une caméra rotative caractérisé par un plan de vol déterminé en partie par l’utilisation des données de la caméra. Ces données étant les informations de détection d’objets ne se trouvant pas uniquement en dessous de l’avion mais également dans l’ensemble du champ visuel de la caméra à 360°.
4. Une méthode selon la revendication 3 caractérisée par les étapes suivantes :
Etape (1 ) : La caméra rotative (107) fait une rotation continue ou discrète pour effectuer des captures de photos couvrant l’ensemble du champ de vision à 360° autours de l’appareil (100). Le processeur embarqué exécute un programme qui traite les photos capturées pour détecter des objets (106) avec un indice de certitude ;
Etape (2) : Le processeur exécute alors un programme qui détermine l’angle de chaque objet (106) détecté par rapport à l’avion sans pilote (100) dans un repère sphérique centré sur ce dernier (100), en se basant sur : l’orientation de la caméra (107), l’emplacement de l’objet dans la photo capturée et l’attitude de l’avion (100). Le processeur exécute ensuite un programme qui estime la distance de chaque objet (106) détecté par rapport à l’avion sans pilote (100) ;
Etape (3) : Ces attributs qui incluent au moins la certitude, l’angle, la distance, et le statut d’identification (déjà identifié ou pas), sont associées à chaque objet détecté par la caméra. Ces objets détectés sont alors enregistrés dans une table des nouveaux objets.
Etape (4) : Le processeur exécute ensuite une comparaison entre les attributs des objets de la table des nouveaux objets et les attributs des objets d’une table globale de tous les objets. Cette dernière contient des informations sur tous les objets détectés depuis le début de la mission. Les nouveaux objets détectés déjà présents dans la table globale sont mis à jour dans la table de tous les objets en mettant à jour leurs attributs.
Etape (5) : Les objets présents dans la table globale non encore identifiés sont triés dans une queue selon un facteur basé sur la certitude de détection et la distance estimée.
Etape (6) : Si aucun objet non identifié n’est présent dans la table globale, un plan de vol (102) est calculé pour couvrir l’ensemble des étapes en commençant par celles qui n’ont pas d’horodatage, puis celles ayant le plus ancien horodatage en gardant l’ordonnancement de la trajectoire initiale lorsque les horodatages sont égaux.
Etape (7) Sinon, si au moins un objet non identifié est présent dans la table globale, et toujours présent dans la table des nouveaux objets (toujours dans le champ de vision), alors un plan de vol (109) est calculé pour atteindre les objets dans l’ordre de tri de la queue. S’il s’avère que l’objet se retrouve en dessous de l’avion, le processus d’identification par la première caméra (103) est initié et l’attribut d’identification de l’objet est mis à jour.
Une nouvelle rotation de la caméra à 360° est reprise et le processus de détection est relancé à l’étape (1).
PCT/MA2018/050012 2017-12-05 2018-12-04 Planification de vol d'avion sans pilote guidée par une caméra rotative dans le but d'optimiser la recherche de cibles WO2019112406A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
MAMA41571 2017-12-05
MA41571A MA41571B1 (fr) 2017-12-05 2017-12-05 Planification de vol d'avion sans pilote guidee par une camera rotative dans le but d'optimiser la recheche de cibles

Publications (2)

Publication Number Publication Date
WO2019112406A1 true WO2019112406A1 (fr) 2019-06-13
WO2019112406A4 WO2019112406A4 (fr) 2019-08-01

Family

ID=65003441

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/MA2018/050012 WO2019112406A1 (fr) 2017-12-05 2018-12-04 Planification de vol d'avion sans pilote guidée par une caméra rotative dans le but d'optimiser la recherche de cibles

Country Status (2)

Country Link
MA (1) MA41571B1 (fr)
WO (1) WO2019112406A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113342040A (zh) * 2021-06-16 2021-09-03 一飞(海南)科技有限公司 无人机编队飞行表演航点动态获取的方法及飞行控制器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070093945A1 (en) 2005-10-20 2007-04-26 Grzywna Jason W System and method for onboard vision processing
EP2520343A2 (fr) * 2011-05-03 2012-11-07 Delta Drone Dispositif et procédé de recherche de cibles
US20160116915A1 (en) 2014-10-22 2016-04-28 Honeywell International Inc. Surveying areas using a radar system and an unmanned aerial vehicle
US9639960B1 (en) * 2016-11-04 2017-05-02 Loveland Innovations, LLC Systems and methods for UAV property assessment, data capture and reporting
US20170131717A1 (en) 2013-03-11 2017-05-11 Airphrame, Inc Unmanned aerial vehicle and methods for controlling same
WO2017116860A1 (fr) * 2015-12-31 2017-07-06 Unmanned Innovation, Inc. Système d'inspection de toiture par un véhicule aérien sans pilote

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070093945A1 (en) 2005-10-20 2007-04-26 Grzywna Jason W System and method for onboard vision processing
EP2520343A2 (fr) * 2011-05-03 2012-11-07 Delta Drone Dispositif et procédé de recherche de cibles
US20170131717A1 (en) 2013-03-11 2017-05-11 Airphrame, Inc Unmanned aerial vehicle and methods for controlling same
US20160116915A1 (en) 2014-10-22 2016-04-28 Honeywell International Inc. Surveying areas using a radar system and an unmanned aerial vehicle
WO2017116860A1 (fr) * 2015-12-31 2017-07-06 Unmanned Innovation, Inc. Système d'inspection de toiture par un véhicule aérien sans pilote
US9639960B1 (en) * 2016-11-04 2017-05-02 Loveland Innovations, LLC Systems and methods for UAV property assessment, data capture and reporting

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113342040A (zh) * 2021-06-16 2021-09-03 一飞(海南)科技有限公司 无人机编队飞行表演航点动态获取的方法及飞行控制器

Also Published As

Publication number Publication date
MA41571A1 (fr) 2019-06-28
WO2019112406A4 (fr) 2019-08-01
MA41571B1 (fr) 2019-08-30

Similar Documents

Publication Publication Date Title
US10466700B1 (en) Detecting of navigation data spoofing based on signal strength variance
US9177481B2 (en) Semantics based safe landing area detection for an unmanned vehicle
US9874878B2 (en) System and method for adaptive multi-scale perception
JP5150615B2 (ja) 航空機衝突感知および回避システムならびに方法
US9892646B2 (en) Context-aware landing zone classification
US11046430B1 (en) Intelligent trajectory adviser system for unmanned aerial vehicles in complex environments
WO2013164237A1 (fr) Procede d'evitement d'un aeronef et drone equipe d'un systeme mettant en oeuvre ce procede
EP2267409B1 (fr) Système et procédé d'affichage d'informations sur un élément d'affichage
WO2018209898A1 (fr) Dispositif de traitement d'informations, procédé de génération de trajet de photographie aérienne, système de génération de trajet de photographie aérienne, programme et support d'enregistrement
US20180144644A1 (en) Method and system for managing flight plan for unmanned aerial vehicle
US11036240B1 (en) Safe landing of aerial vehicles upon loss of navigation
Chun et al. Robot surveillance and security
US10495722B2 (en) System and method for automatic determination of location of an autonomous vehicle when a primary location system is offline
FR2736149A1 (fr) Dispositif de reconnaissance et de poursuite d'objets
FR3020892A1 (fr) Procede de navigation d'un drone aerien en presence d'un aeronef intrus et drone pour la mise en œuvre de ce procede
EP3648439A1 (fr) Dispositif anticollision, système avionique de protection, procédé d'anticollision et programme d'ordinateur associés
EP1057160A1 (fr) Systeme d'aide a l'evitement de collisions d'aeronefs avec le terrain
Kwak et al. Emerging ICT UAV applications and services: Design of surveillance UAVs
Petrides et al. Disaster prevention and emergency response using unmanned aerial systems
FR3077393A1 (fr) Véhicules aériens à vision artificielle
EP2523062B1 (fr) Imagerie à commande de phase de temps pour point de vue artificiel
WO2000002176A1 (fr) Dispositif destine a ameliorer la securite des aeronefs en regime de vol a vue
WO2019112406A1 (fr) Planification de vol d'avion sans pilote guidée par une caméra rotative dans le but d'optimiser la recherche de cibles
EP2924458B1 (fr) Procédé de détection et de visualisation des obstacles artificiels d'un aéronef à voilure tournante
Dolph et al. Detection and Tracking of Aircraft from Small Unmanned Aerial Systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18830537

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18830537

Country of ref document: EP

Kind code of ref document: A1