FR3082013A1 - ELECTRONIC DEVICE FOR DRIVING A DRONE, DRONE, DRIVING METHOD AND COMPUTER PROGRAM THEREOF - Google Patents

ELECTRONIC DEVICE FOR DRIVING A DRONE, DRONE, DRIVING METHOD AND COMPUTER PROGRAM THEREOF Download PDF

Info

Publication number
FR3082013A1
FR3082013A1 FR1854585A FR1854585A FR3082013A1 FR 3082013 A1 FR3082013 A1 FR 3082013A1 FR 1854585 A FR1854585 A FR 1854585A FR 1854585 A FR1854585 A FR 1854585A FR 3082013 A1 FR3082013 A1 FR 3082013A1
Authority
FR
France
Prior art keywords
image
drone
altitude
current
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1854585A
Other languages
French (fr)
Inventor
Sergio Rodriguez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Parrot Drones SAS
Original Assignee
Parrot Drones SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Parrot Drones SAS filed Critical Parrot Drones SAS
Priority to FR1854585A priority Critical patent/FR3082013A1/en
Publication of FR3082013A1 publication Critical patent/FR3082013A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0676Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing

Abstract

Ce dispositif électronique (14) de pilotage d'un drone (10) comprend un module (30) d'acquisition d'au moins une image prise par un capteur d'images, notamment une image de référence d'une scène incluant la zone de décollage, prise à une altitude prédéfinie après le décollage du drone ; un module (32) de calcul d'au moins une image secondaire à partir de l'image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l'altitude prédéfinie. Il comprend un module (34) de détection, dans au moins une image secondaire, d'un ensemble de portion(s) caractéristique(s) ; et un module (36) de détermination d'une position du drone par rapport à la zone de décollage, en détectant dans l'image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l'ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l'ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires.This electronic device (14) for piloting a drone (10) comprises a module (30) for acquiring at least one image taken by an image sensor, in particular a reference image of a scene including the area take-off, taken at a predefined altitude after take-off of the drone; a module (32) for calculating at least one secondary image from the acquired reference image, each secondary image corresponding to an altitude greater than the predefined altitude. It comprises a module (34) for detecting, in at least one secondary image, a set of characteristic portion (s); and a module (36) for determining a position of the drone relative to the take-off zone, by detecting in the current image acquired a current set of characteristic portion (s), then by comparing the current set of characteristic portion (s) with at least a portion of the detected set of characteristic portion (s) associated with the secondary image (s).

Description

La présente invention concerne un dispositif électronique de pilotage d’un drone.The present invention relates to an electronic device for piloting a drone.

L’invention concerne également un drone comprenant un tel dispositif électronique de pilotage.The invention also relates to a drone comprising such an electronic piloting device.

L’invention concerne également un procédé de pilotage du drone.The invention also relates to a method for piloting the drone.

L’invention concerne également un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en oeuvre un tel procédé de pilotage.The invention also relates to a computer program comprising software instructions which, when executed by a computer, implement such a control method.

L’invention concerne le domaine des drones, c’est-à-dire des appareils motorisés volants pilotés à distance. L’invention concerne notamment des drones à voilure tournante propres à se déplacer dans l’air au moyen d’au moins un rotor actionné par au moins un moteur, aussi bien les drones mono-rotor que les drones multi-rotors, notamment des quadricoptères à quatre rotors. L’invention concerne également des drones à voilure fixe.The invention relates to the field of drones, that is to say flying motorized devices controlled remotely. The invention relates in particular to rotary-wing drones capable of moving in the air by means of at least one rotor actuated by at least one motor, both single-rotor drones and multi-rotor drones, in particular quadricopters with four rotors. The invention also relates to fixed-wing drones.

On connaît un dispositif électronique de pilotage comprenant un module d’acquisition configuré pour acquérir des images de référence d’une scène, prises à une ou plusieurs altitudes prédéfinies, typiquement de 6 à 10 mètres, après le décollage du drone depuis une zone de décollage, ladite scène incluant la zone de décollage.An electronic piloting device is known comprising an acquisition module configured to acquire reference images of a scene, taken at one or more predefined altitudes, typically from 6 to 10 meters, after takeoff of the drone from a takeoff area. , said scene including the take-off area.

Le dispositif de pilotage comprend un module de détection configuré pour détecter un ensemble de portion(s) caractéristique(s) dans les images de référence, et un module de guidage configuré pour, lors de l’atterrissage, guider le drone vers la zone de décollage initial, en détectant dans une image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble de portion(s) caractéristique(s) détecté dans les images de référence.The piloting device comprises a detection module configured to detect a set of characteristic portion (s) in the reference images, and a guidance module configured to, during landing, guide the drone towards the area of initial takeoff, by detecting in a current acquired image a current set of characteristic portion (s), then by comparing the current set of characteristic portion (s) with the set of characteristic portion (s) ( s) detected in the reference images.

Toutefois, avec un tel dispositif de pilotage, le retour du drone à proximité de sa zone de décollage n’est pas optimal.However, with such a piloting device, the return of the drone near its takeoff area is not optimal.

Le but de l’invention est alors de proposer un dispositif électronique de pilotage permettant d’améliorer le retour du drone à proximité de sa zone de décollage, tout en offrant une mise en oeuvre facilitée.The object of the invention is then to propose an electronic piloting device making it possible to improve the return of the drone near its takeoff zone, while offering easier implementation.

A cet effet, l’invention a pour objet un dispositif électronique de pilotage d’un drone, le dispositif comprenant :To this end, the invention relates to an electronic device for piloting a drone, the device comprising:

- un module d’acquisition configuré pour acquérir au moins une image prise par un capteur d’images équipant le drone, le module d’acquisition étant configuré pour acquérir une image de référence d’une scène, prise à une altitude prédéfinie, après le décollage du drone depuis une zone de décollage, ladite scène incluant la zone de décollage,an acquisition module configured to acquire at least one image taken by an image sensor fitted to the drone, the acquisition module being configured to acquire a reference image of a scene, taken at a predefined altitude, after the takeoff of the drone from a takeoff area, said scene including the takeoff area,

- un module de calcul configuré pour calculer au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie,- a calculation module configured to calculate at least one secondary image from the acquired reference image, each secondary image corresponding to an altitude greater than the predefined altitude,

- un module de détection configuré pour détecter, dans au moins une image secondaire, un ensemble de portion(s) caractéristique(s), eta detection module configured to detect, in at least one secondary image, a set of characteristic portion (s), and

- un module de détermination configuré pour déterminer une position du drone par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires.- a determination module configured to determine a position of the drone relative to the take-off zone, by detecting in the current image acquired a current set of portion (s) characteristic (s), then by comparing the current set of portion (s) characteristic (s) with at least a portion of the detected set of characteristic portion (s) associated with the secondary image (s).

Avec le dispositif électronique de pilotage selon l’invention, le module de calcul calcule au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie, et l’altitude prédéfinie à laquelle est prise l’image de référence peut être faible, par exemple de l’ordre d’un mètre.With the electronic control device according to the invention, the calculation module calculates at least one secondary image from the acquired reference image, each secondary image corresponding to an altitude greater than the predefined altitude, and the predefined altitude to which the reference image is taken may be weak, for example of the order of one meter.

Avec le dispositif électronique de pilotage de l’état de la technique, l’altitude prédéfinie à laquelle est prise l’image de référence est au contraire élevée, généralement supérieure à 5 mètres, voire à 10 mètres, ce qui est contraignant. Cette altitude prédéfinie élevée est nécessaire pour que le module de guidage puisse ensuite, lors de l’atterrissage du drone depuis un vol stationnaire à une altitude généralement comprise entre 10 m et 20 m, retrouver dans l’image courante acquise une ou plusieurs portions caractéristiques correspondant à celles préalablement détectées dans l’image de référence.With the electronic device for piloting the state of the art, the predefined altitude at which the reference image is taken is on the contrary high, generally greater than 5 meters, or even 10 meters, which is restrictive. This high predefined altitude is necessary so that the guidance module can then, when the drone lands from a hover at an altitude generally between 10 m and 20 m, find in the current image acquired one or more characteristic portions corresponding to those previously detected in the reference image.

Suivant d’autres aspects avantageux de l’invention, le dispositif électronique de pilotage comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :According to other advantageous aspects of the invention, the electronic control device comprises one or more of the following characteristics, taken in isolation or in any technically possible combination:

- le dispositif comprend en outre un module de guidage configuré pour, sur réception d’une instruction d’atterrissage, guider le drone vers une zone d’atterrissage, en fonction de la position du drone déterminée par le module de détermination ;- The device further comprises a guidance module configured to, on receipt of a landing instruction, guide the drone to a landing zone, depending on the position of the drone determined by the determination module;

- le dispositif comprend en outre un deuxième module d’acquisition configuré pour acquérir la sélection d’un mode de retour à proximité de la zone de décollage, et si ledit mode de retour est sélectionné, le module de guidage est alors configuré pour, sur réception d’une instruction d’atterrissage, guider le drone vers la zone de décollage, en fonction de la position du drone déterminée par le module de détermination ;the device also comprises a second acquisition module configured to acquire the selection of a return mode near the takeoff zone, and if said return mode is selected, the guidance module is then configured to, on reception of a landing instruction, guide the drone towards the take-off zone, according to the position of the drone determined by the determination module;

- le module de détection est configuré pour détecter, dans chaque image parmi l’image de référence et la ou les images secondaires, un ensemble respectif de portion(s) caractéristique(s) ;- the detection module is configured to detect, in each image among the reference image and the secondary image or images, a respective set of characteristic portion (s);

- le module de détermination est configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec chaque ensemble détecté de portion(s) caractéristique(s) pour l’image de référence et la ou les images secondaires ;- the determination module is configured to compare the current set of characteristic portion (s) with each detected set of characteristic portion (s) for the reference image and the secondary image (s);

- le module de détermination est configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble détecté de portion(s) caractéristique(s) correspondant à l’image qui parmi l’image de référence et la ou les images secondaires est associée à l’altitude la plus proche d’une altitude courante du drone ; et- the determination module is configured to compare the current set of characteristic portion (s) with the detected set of characteristic portion (s) corresponding to the image which among the reference image and the or the secondary images is associated with the altitude closest to a current altitude of the drone; and

- le module de détermination est configuré en outre pour modifier une orientation de l’image courante en fonction d’une orientation de l’image de référence, préalablement à la détection dans l’image courante acquise de l’ensemble courant de portion(s) caractéristique(s).the determination module is further configured to modify an orientation of the current image as a function of an orientation of the reference image, prior to detection in the current image acquired of the current portion assembly (s ) characteristics).

L’invention a également pour objet un drone comprenant un dispositif électronique de pilotage, dans lequel le dispositif électronique de pilotage est tel que défini ci-dessus.The invention also relates to a drone comprising an electronic piloting device, in which the electronic piloting device is as defined above.

L’invention a également pour objet un procédé de pilotage d’un drone, le procédé étant mis en oeuvre par un dispositif électronique et comprenant les étapes consistant à :The invention also relates to a method for piloting a drone, the method being implemented by an electronic device and comprising the steps consisting in:

- acquérir au moins une image prise par un capteur d’images équipant le drone, ladite étape comportant l’acquisition d’une image de référence d’une scène, prise à une altitude prédéfinie après le décollage du drone depuis une zone de décollage, ladite scène incluant la zone de décollage,acquire at least one image taken by an image sensor fitted to the drone, said step comprising the acquisition of a reference image of a scene, taken at a predefined altitude after takeoff of the drone from a takeoff area, said scene including the takeoff area,

- calculer au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie,- calculate at least one secondary image from the acquired reference image, each secondary image corresponding to an altitude greater than the predefined altitude,

- détecter, dans au moins une image secondaire, un ensemble de portion(s) caractéristique(s), et- detecting, in at least one secondary image, a set of characteristic portion (s), and

- déterminer une position du drone par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires.- determine a position of the drone relative to the take-off zone, by detecting in the current image acquired a current set of characteristic portion (s), then by comparing the current set of characteristic portion (s) ) with at least a portion of the detected set of characteristic portion (s) associated with the secondary image (s).

L’invention a également pour objet un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en oeuvre un procédé de pilotage tel que défini ci-dessus.The invention also relates to a computer program comprising software instructions which, when executed by a computer, implement a control method as defined above.

Ces caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels :These characteristics and advantages of the invention will appear more clearly on reading the description which follows, given solely by way of nonlimiting example, and made with reference to the appended drawings, in which:

- la figure 1 est une représentation schématique d’un drone comprenant un dispositif électronique de pilotage, le dispositif électronique de pilotage comportant notamment un module d’acquisition d’image(s) prise(s) par un capteur d’images équipant le drone, en particulier d’une image de référence d’une scène, prise à une altitude prédéfinie, après le décollage du drone depuis une zone de décollage, un module de calcul d’au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie, un module de détection, dans au moins une image secondaire, d’un ensemble de portion(s) caractéristique(s), et un module de détermination d’une position du drone par rapport à la zone de décollage, en détectant dans une image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires ;- Figure 1 is a schematic representation of a drone comprising an electronic piloting device, the electronic piloting device comprising in particular an image acquisition module (s) taken (s) by an image sensor equipping the drone , in particular of a reference image of a scene, taken at a predefined altitude, after takeoff of the drone from a takeoff area, a module for calculating at least one secondary image from the reference image acquired, each secondary image corresponding to an altitude greater than the predefined altitude, a detection module, in at least one secondary image, of a set of characteristic portion (s), and a module for determining a position of the drone relative to the take-off zone, by detecting in a current acquired image a current set of characteristic portion (s), then by comparing the current set of characteristic portion (s) eu (s) with at least a portion of the detected set of characteristic portion (s) associated with the secondary image (s);

- les figures 2 et 3 illustrent le calcul d’images secondaires à partir de l’image de référence acquise pour différentes altitudes ;- Figures 2 and 3 illustrate the calculation of secondary images from the reference image acquired for different altitudes;

- la figure 4 est un organigramme d’un procédé de pilotage du drone selon l’invention ;- Figure 4 is a flowchart of a method of piloting the drone according to the invention;

- la figure 5 est une représentation d’un exemple de machine d’états mise en oeuvre pour effectuer le procédé de pilotage selon l’invention ;- Figure 5 is a representation of an example of state machine used to perform the control method according to the invention;

- la figure 6 est une comparaison de positions du drone déterminées par le dispositif de pilotage, représentées sous forme de points, avec celles déterminées par une centrale inertielle équipant le drone, représentées sous forme d’une courbe ;- Figure 6 is a comparison of positions of the drone determined by the piloting device, represented in the form of points, with those determined by an inertial unit equipping the drone, represented in the form of a curve;

- la figure 7 est une vue d’une image de référence acquise ;- Figure 7 is a view of an acquired reference image;

- la figure 8 est une vue d’une image courante acquise ; et- Figure 8 is a view of a current acquired image; and

- la figure 9 illustre la détection dans l’image courante acquise de portion(s) caractéristique(s) correspondant au(x) portion(s) caractéristique(s) associé(s) à la ou aux images secondaires, et la détermination d’une altitude du drone à partir de cette détection.FIG. 9 illustrates the detection in the current image acquired of characteristic portion (s) corresponding to the characteristic portion (s) associated with the secondary image (s), and the determination of '' an altitude of the drone from this detection.

Dans la suite de la description, l’expression « sensiblement égal à >> s’entend comme une relation d’égalité à plus ou moins 10%, c’est-à-dire avec une variation d’au plus 10%, de préférence encore comme une relation d’égalité à plus ou moins 5%, c’est-à-dire avec une variation d’au plus 5%. De même, l’expression « sensiblement parallèle à >>In the remainder of the description, the expression “substantially equal to” is understood to mean an equality relationship of plus or minus 10%, that is to say with a variation of at most 10%, of more preferably as an equal relation at plus or minus 5%, that is to say with a variation of at most 5%. Likewise, the expression "substantially parallel to"

s’entend comme une relation de parallélisme à plus ou moins 10°, de préférence encore comme une relation de parallélisme à plus ou moins 5°.is understood as a relation of parallelism at plus or minus 10 °, more preferably still as a relation of parallelism at plus or minus 5 °.

Sur la figure 1, un drone 10, c’est-à-dire un aéronef sans pilote à bord, comprend une caméra 12 et un dispositif électronique de pilotage 14.In FIG. 1, a drone 10, that is to say an unmanned aircraft on board, comprises a camera 12 and an electronic piloting device 14.

Le drone 10 est un engin volant motorisé pilotable à distance, notamment via une manette 16 équipée d’un écran d’affichage 18, permettant à l’utilisateur de saisir ses commandes de vol.The drone 10 is a remote-controlled motorized flying machine, in particular via a joystick 16 equipped with a display screen 18, allowing the user to enter his flight commands.

Le drone 10 est par exemple un drone à voilure tournante, comportant au moins un rotor 20. Sur la figure 1, le drone 10 comporte une pluralité de rotors 20, et est alors appelé drone multirotor. Le nombre de rotors 20 est par exemple égal à 4, et le drone 10 est alors un drone quadrirotor. En variante, non représentée, le drone 10 est un drone à voilure fixe.The drone 10 is for example a rotary wing drone, comprising at least one rotor 20. In FIG. 1, the drone 10 comprises a plurality of rotors 20, and is then called a multirotor drone. The number of rotors 20 is for example equal to 4, and the drone 10 is then a quadrotor drone. Alternatively, not shown, the drone 10 is a fixed-wing drone.

Le drone 10 comporte un module de transmission 22 configuré pour échanger des données, de préférence par ondes radioélectriques, avec un ou plusieurs équipements électroniques, notamment avec la manette 16, voire avec d’autres équipements électroniques pour la transmission de la ou des images acquises par la caméra 12 et/ou d’autres informations relatives au drone 10, telles qu’une altitude, une inclinaison, une vitesse, un état de vol, une qualité de géolocalisation GPS ou Galliléo, une charge d’une batterie équipant le drone 10.The drone 10 comprises a transmission module 22 configured to exchange data, preferably by radio waves, with one or more electronic equipment, in particular with the joystick 16, or even with other electronic equipment for the transmission of the acquired image or images. by the camera 12 and / or other information relating to the drone 10, such as an altitude, an inclination, a speed, a flight status, a quality of GPS or Gallileo geolocation, a charge of a battery equipping the drone 10.

La caméra 12 est par exemple une caméra montée sur une nacelle (de l’anglais gimbal), de préférence stabilisatrice, non représentée. En variante, la caméra 12 est une caméra à visée frontale permettant d’obtenir une image d’une scène vers laquelle est orienté le drone 10. En variante encore, la caméra 12 est une caméra à visée verticale, non représentée, pointant vers le bas et configurée pour capter des images successives d’un terrain survolé par le drone 10.The camera 12 is for example a camera mounted on a nacelle (from English gimbal), preferably stabilizer, not shown. As a variant, the camera 12 is a front view camera making it possible to obtain an image of a scene towards which the drone is oriented. As a further variant, the camera 12 is a vertical view camera, not shown, pointing towards the low and configured to capture successive images of a terrain overflown by the drone 10.

La caméra 12 comporte au moins un capteur d’image(s) et un objectif associé au capteur d’image(s), non représentés. Le capteur d’image(s) comprend par exemple un photodétecteur matriciel comportant une pluralité de photosites, chaque photosite correspondant à un pixel respectif de l’image prise par le capteur. Le capteur d’image(s) s’étend alors suivant un plan d’extension, et le plan d’extension correspond au plan du photodétecteur matriciel. L’objectif est par exemple un objectif à focale fixe, tel qu’un objectif hémisphérique de type hypergone (de l’anglais fisheye), c’est-à-dire couvrant un champ visuel ayant un angle de vue, également appelé champ de vue et noté FOV (de l’anglais Field Of View), de valeur élevée, de l’ordre de 180° ou plus. Lbbjectif est disposé devant le capteur d’image(s) de façon que le capteur d’image(s) capte les images à travers l’objectif. En variante, l’objectif est un objectif avec une focale variable.The camera 12 includes at least one image sensor (s) and a lens associated with the image sensor (s), not shown. The image sensor (s) comprises for example a matrix photodetector comprising a plurality of photosites, each photosite corresponding to a respective pixel of the image taken by the sensor. The image sensor (s) then extends along an extension plane, and the extension plane corresponds to the plane of the matrix photodetector. The objective is for example a fixed focal objective, such as a hemispherical objective of hypergone type (from the English fisheye), that is to say covering a visual field having an angle of view, also called field of view. sight and noted FOV (from the English Field Of View), of high value, of the order of 180 ° or more. The lens is positioned in front of the image sensor (s) so that the image sensor (s) picks up images through the lens. Alternatively, the lens is a lens with a variable focal length.

Le dispositif électronique de pilotage 14 comprend un premier module d’acquisition 30 configuré pour acquérir au moins une image prise par le capteur d’images équipant le drone 10, le premier module d’acquisition 30 étant configuré pour acquérir une image de référence lR d’une scène, prise à une altitude prédéfinie Zref, après le décollage du drone 10 depuis une zone de décollage, ladite scène incluant la zone de décollage.The electronic control device 14 comprises a first acquisition module 30 configured to acquire at least one image taken by the image sensor equipping the drone 10, the first acquisition module 30 being configured to acquire a reference image l R a scene, taken at a predefined altitude Z re f, after takeoff of the drone 10 from a takeoff area, said scene including the takeoff area.

Le dispositif électronique de pilotage 14 comprend un module de calcul 32 configuré pour calculer au moins une image secondaire Is à partir de l’image de référence acquise lR, chaque image secondaire Is correspondant à une altitude supérieure à l’altitude prédéfinie Zref.The electronic control device 14 comprises a calculation module 32 configured to calculate at least one secondary image Is from the acquired reference image l R , each secondary image Is corresponding to an altitude greater than the predefined altitude Zref.

Le dispositif électronique de pilotage 14 comprend également un module de détection 34 configuré pour détecter, dans au moins une image secondaire Is, un ensemble de portion(s) caractéristique(s), et un module de détermination 36 configuré pour déterminer une position du drone par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires Is.The electronic control device 14 also comprises a detection module 34 configured to detect, in at least one secondary image Is, a set of characteristic portion (s), and a determination module 36 configured to determine a position of the drone relative to the take-off area, by detecting in the current image acquired a current set of characteristic portion (s), then by comparing the current set of characteristic portion (s) with at least one portion of the detected set of characteristic portion (s) associated with the secondary image (s) Is.

En complément facultatif, le dispositif électronique de pilotage 14 comprend en outre un module de guidage 38 configuré pour, sur réception d’une instruction d’atterrissage, guider le drone 10 vers une zone d’atterrissage, en fonction de la position du drone 10 déterminée par le module de détermination 36.In optional addition, the electronic piloting device 14 further comprises a guidance module 38 configured to, on receipt of a landing instruction, guide the drone 10 towards a landing zone, as a function of the position of the drone 10 determined by the determination module 36.

En complément facultatif encore, le dispositif électronique de pilotage 14 comprend en outre un deuxième module d’acquisition 39 configuré pour acquérir la sélection d’un mode de retour à proximité de la zone de décollage, et si ledit mode de retour est sélectionné, le module de guidage 38 est alors configuré pour, sur réception d’une instruction d’atterrissage, guider le drone 10 vers la zone de décollage, en fonction de la position du drone 10 déterminée par le module de détermination 36. Autrement dit, le module de guidage 38 est alors configuré pour guider le drone 10 vers une zone d’atterrissage proche de la zone de décollage.As an additional optional element, the electronic piloting device 14 further comprises a second acquisition module 39 configured to acquire the selection of a return mode near the take-off area, and if said return mode is selected, the guidance module 38 is then configured to, on receipt of a landing instruction, guide the drone 10 towards the take-off zone, as a function of the position of the drone 10 determined by the determination module 36. In other words, the module guide 38 is then configured to guide the drone 10 to a landing zone close to the take-off zone.

Dans l’exemple de la figure 1, le dispositif électronique de pilotage 14 comporte une unité de traitement d’informations 40, formée par exemple d’une mémoire 42 et d’un processeur 44, tel qu’un processeur de type CPU (de l’anglais Central Processing Unit), de type GPU (de l’anglais Graphies Processing Unit), ou de type VPU (de l’anglais Vision Processing Unit), associé à la mémoire 42.In the example of FIG. 1, the electronic control device 14 comprises an information processing unit 40, formed for example by a memory 42 and a processor 44, such as a processor of the CPU type (of English Central Processing Unit), of GPU type (from English Graphies Processing Unit), or of VPU type (from English Vision Processing Unit), associated with memory 42.

Dans l’exemple de la figure 1, le dispositif électronique de pilotage 14 est embarqué à bord du drone 10.In the example of FIG. 1, the electronic piloting device 14 is on board the drone 10.

L’homme du métier comprendra que le dispositif électronique de pilotage 14 n’est pas nécessairement embarqué à bord du drone 10 et qu’en variante, non représentée, le dispositif électronique de pilotage 14 est au moins partiellement externe au drone 10. Selon cette variante, le dispositif électronique de pilotage 14 est par exemple au moins partiellement embarqué dans la manette 16, notamment lorsque la manette 16 est un ordiphone. Le module de calcul 32 et le module de détection 34 sont par exemple disposés à l’extérieur du drone 10, et sont distincts du drone 10, et sont alors typiquement embarqués dans ladite manette 16.Those skilled in the art will understand that the electronic piloting device 14 is not necessarily on board the drone 10 and that, as a variant, not shown, the electronic piloting device 14 is at least partially external to the drone 10. According to this as a variant, the electronic control device 14 is for example at least partially on board the controller 16, in particular when the controller 16 is a smartphone. The calculation module 32 and the detection module 34 are for example arranged outside of the drone 10, and are distinct from the drone 10, and are then typically embedded in said controller 16.

En variante encore, le dispositif électronique de pilotage 14 est totalement, ou encore intégralement, disposé à l’extérieur du drone 10. L’ensemble du dispositif électronique de pilotage 14 est alors distinct du drone 10, et par exemple embarqué dans la manette 16, notamment lorsqu’elle est en forme d’un ordiphone ou d’une tablette électronique.In another variant, the electronic piloting device 14 is totally, or even entirely, disposed outside of the drone 10. The whole of the electronic piloting device 14 is then separate from the drone 10, and for example on board the joystick 16 , especially when it is in the shape of a computer or an electronic tablet.

La manette 16 est connue en soi et permet de piloter le drone 10. Dans l’exemple de la figure 1, la manette 16 est mise en oeuvre via un ordiphone (de l’anglais smartphone) ou une tablette électronique, comportant l’écran d’affichage 18, de préférence tactile.The controller 16 is known per se and allows the drone 10 to be piloted. In the example of FIG. 1, the controller 16 is implemented via a computer (smartphone) or an electronic tablet, comprising the screen display 18, preferably tactile.

En variante non représentée ou en complément, la manette 16 comprend deux poignées de préhension, chacune étant destinée à être saisie par une main respective du pilote, une pluralité d’organes de commande, dont deux manches à balai (de l’anglais Joystick), chacun étant disposé à proximité d’une poignée de préhension respective et étant destiné à être actionné par le pilote, de préférence par un pouce respectif.In a variant not shown or in addition, the lever 16 comprises two grips, each intended to be grasped by a respective hand of the pilot, a plurality of control members, including two joysticks (from the English Joystick) , each being arranged near a respective grip handle and being intended to be actuated by the pilot, preferably by a respective thumb.

La manette 16 comprend une antenne radioélectrique et un émetteur-récepteur radioélectrique, non représentés, pour l’échange de données par ondes radioélectriques avec le drone 10, à la fois en liaison montante et en liaison descendante.The controller 16 comprises a radio antenna and a radio transceiver, not shown, for the exchange of data by radio waves with the drone 10, both in uplink and in downlink.

Dans l’exemple de la figure 1, le premier module d’acquisition 30, le module de calcul 32, le module de détection 34 et le module de détermination 36, ainsi qu’en complément facultatif le module de guidage 38 et le deuxième module d’acquisition 39, sont réalisés chacun sous forme d’un logiciel exécutable par le processeur 44. La mémoire 42 de l’unité de traitement d’informations 40 est alors apte à stocker un premier logiciel d’acquisition configuré pour acquérir au moins une image prise par le capteur d’images équipant le drone 10, le premier logiciel d’acquisition étant configuré pour acquérir l’image de référence lR d’une scène, prise à l’altitude prédéfinie Zref, après le décollage du drone 10 depuis la zone de décollage, un logiciel de calcul configuré pour calculer au moins une image secondaire Is à partir de l’image de référence acquise lR, chaque image secondaire Is correspondant à une altitude supérieure à l’altitude prédéfinie Zref, un logiciel de détection configuré pour détecter, dans au moins une image secondaire Is, l’ensemble de portion(s) caractéristique(s), et un logiciel de détermination configuré pour déterminer une position du drone par rapport à la zone de décollage, en détectant dans l’image courante acquise l’ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires Is. En complément facultatif, la mémoire 42 de l’unité de traitement d’informations 40 est apte à stocker un logiciel de guidage configuré pour, sur réception d’une instruction d’atterrissage, guider le drone 10 vers la zone d’atterrissage, en fonction de la position du drone 10 déterminée par le logiciel de détermination. En complément facultatif encore, la mémoire 42 de l’unité de traitement d’informations 40 est apte à stocker un deuxième logiciel d’acquisition configuré pour acquérir la sélection d’un mode de retour à proximité de la zone de décollage, et si ledit mode de retour est sélectionné, le logiciel de guidage est alors configuré pour, sur réception d’une instruction d’atterrissage, guider le drone 10 vers la zone de décollage, en fonction de la position du drone 10 déterminée par le logiciel de détermination. Le processeur 44 est alors apte à exécuter le premier logiciel d’acquisition, le logiciel de calcul, le logiciel de détection et le logiciel de détermination, ainsi qu’en complément facultatif le logiciel de guidage et le deuxième logiciel d’acquisition.In the example of FIG. 1, the first acquisition module 30, the calculation module 32, the detection module 34 and the determination module 36, as well as an optional complement the guidance module 38 and the second module 39, are each produced in the form of software executable by the processor 44. The memory 42 of the information processing unit 40 is then able to store a first acquisition software configured to acquire at least one image taken by the image sensor equipping the drone 10, the first acquisition software being configured to acquire the reference image l R of a scene, taken at the predefined altitude Z re f, after takeoff of the drone 10 from the take-off zone, calculation software configured to calculate at least one secondary image Is from the acquired reference image l R , each secondary image Is corresponding to an altitude greater than the predefined altitude Z re f, a detection software configured to detect, in at least one secondary image Is, the set of characteristic portion (s), and determination software configured to determine a position of the drone relative to the take-off zone, by detecting in the current image acquired the current set of characteristic portion (s), then by comparing the current set of characteristic portion (s) with at least one portion of the detected set of portion (s) ) characteristic (s) associated with the secondary image (s) Is. In optional addition, the memory 42 of the information processing unit 40 is capable of storing guidance software configured for, on receipt of an instruction landing, guide the drone 10 towards the landing zone, according to the position of the drone 10 determined by the determination software. In addition, as an optional addition, the memory 42 of the information processing unit 40 is capable of storing a second acquisition software configured to acquire the selection of a return mode near the take-off area, and if said Return mode is selected, the guidance software is then configured to, on receipt of a landing instruction, guide the drone 10 towards the take-off zone, according to the position of the drone 10 determined by the determination software. The processor 44 is then able to execute the first acquisition software, the calculation software, the detection software and the determination software, as well as optional guidance software and the second acquisition software.

En variante non représentée, le premier module d’acquisition 30, le module de calcul 32, le module de détection 34 et le module de détermination 36, ainsi qu’en complément facultatif le module de guidage 38 et le deuxième module d’acquisition 39, sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglais Field Programmable Gate Array), ou encore sous forme d’un circuit intégré dédié, tel qu’un ASIC (de l’anglais Application Specific Integrated Circuit).In a variant not shown, the first acquisition module 30, the calculation module 32, the detection module 34 and the determination module 36, as well as an optional supplement the guidance module 38 and the second acquisition module 39 , are each produced in the form of a programmable logic component, such as an FPGA (from the English Field Programmable Gate Array), or alternatively in the form of a dedicated integrated circuit, such as an ASIC (from the English Application Specific Integrated Circuit).

Lorsque le dispositif électronique de pilotage 14 est réalisé sous forme d’un ou plusieurs logiciels, c’est-à-dire sous forme d’un programme d’ordinateur, il est en outre apte à être enregistré sur un support, non représenté, lisible par ordinateur. Le support lisible par ordinateur est par exemple, un médium apte à mémoriser des instructions électroniques et à être couplé à un bus d’un système informatique. A titre d’exemple, le support lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire non volatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comprenant des instructions logicielles.When the electronic control device 14 is produced in the form of one or more software, that is to say in the form of a computer program, it is also able to be recorded on a medium, not shown, readable by computer. The computer-readable medium is, for example, a medium capable of storing electronic instructions and of being coupled to a bus of a computer system. For example, the readable medium is an optical disc, a magneto-optical disc, a ROM memory, a RAM memory, any type of non-volatile memory (for example EPROM, EEPROM, FLASH, NVRAM), a magnetic card or an optical card. On the readable medium is then stored a computer program comprising software instructions.

Le module de calcul 32 est configuré pour calculer au moins une image secondaire Is, de préférence plusieurs images secondaires Is, à partir de l’image de référence acquise lR, chaque image secondaire Is correspondant à une altitude respective supérieure à l’altitude prédéfinie Zref qui est associée à l’image de référence acquise lR.The calculation module 32 is configured to calculate at least one secondary image Is, preferably several secondary images Is, from the acquired reference image l R , each secondary image Is corresponding to a respective altitude greater than the predefined altitude Z re f which is associated with the acquired reference image l R.

Dans l’exemple des figures 2 et 3, les images secondaires Is calculées correspondent à des octaves successives d’une octave 0 associée à l’image de référence acquise Ir.In the example of FIGS. 2 and 3, the secondary images Is calculated correspond to successive octaves of an octave 0 associated with the acquired reference image Ir.

Autrement dit, le module de calcul 32 est par exemple configuré pour calculer les images secondaires Is à partir de l’image de référence acquise Ir, selon une implémentation de type pyramidale, comme représenté sur la figure 2, la pyramide 50 comportant plusieurs niveaux 52 et l’image lK associée à un niveau K respectif étant une image souséchantillonnée de l’image lK_1 associée au niveau précédent K-1. K est un indice représentant le niveau et compris entre 0 et N, 0 désignant le niveau initial correspondant l’image de référence acquise Ir et 1, ..., N désignant les niveaux suivants correspondant chacun à une image secondaire Is calculée.In other words, the calculation module 32 is for example configured to calculate the secondary images Is from the acquired reference image Ir, according to an implementation of pyramidal type, as shown in FIG. 2, the pyramid 50 comprising several levels 52 and the image l K associated with a respective level K being an undersampled image of the image l K_1 associated with the previous level K-1. K is an index representing the level and between 0 and N, 0 designating the initial level corresponding to the acquired reference image Ir and 1, ..., N designating the following levels each corresponding to a calculated secondary image Is.

L’image lN la plus sous-échantillonnée correspond alors au niveau final N, ou encore au niveau supérieur de la pyramide 50. L’image l° associée au niveau initial 0, ou encore au niveau inférieur de la pyramide 50, est l’image de référence Ir telle qu’acquise par le premier module d’acquisition 30. En d’autres termes, l’image l° associée au niveau initial 0 n’est pas sous-échantillonnée. En termes de notations, l’image l° désigne l’image de référence Ir, et les images I1, ..., IN désignent les images secondaires Is calculées successivement, celles-ci étant par exemple notées Is1 pour la première image secondaire calculée correspondant au niveau 1, Is2 pour la deuxième image secondaire calculée correspondant au niveau 2 et à l’image I2, ... et lsN pour la dernière image secondaire calculée correspondant au niveau final N et à l’image lN.The most subsampled image l N then corresponds to the final level N, or even to the upper level of the pyramid 50. The image l ° associated with the initial level 0, or even at the lower level of the pyramid 50, is l reference image Ir as acquired by the first acquisition module 30. In other words, the image l ° associated with the initial level 0 is not subsampled. In terms of notations, the image l ° designates the reference image Ir, and the images I 1 , ..., I N designate the secondary images Is calculated successively, these being for example denoted Is 1 for the first calculated secondary image corresponding to level 1, Is 2 for the second calculated secondary image corresponding to level 2 and to the image I 2 , ... and ls N for the last calculated secondary image corresponding to the final level N and to the image l N.

Le facteur F de sous-échantillonnage d’un niveau K au niveau suivant K+1 est par exemple égal à 2. Le nombre de niveaux 52, égal à N+1, est, par exemple, compris entre 2 et 5, et de préférence égal à 4. Autrement dit, N est, par exemple, compris entre 1 et 4, et de préférence égal à 3.The subsampling factor F from one level K to the next level K + 1 is for example equal to 2. The number of levels 52, equal to N + 1, is, for example, between 2 and 5, and of preferably equal to 4. In other words, N is, for example, between 1 and 4, and preferably equal to 3.

L’image de référence acquise Ir présente un petit côté A et un grand côté B, chacun exprimé en nombre de pixels, soit une résolution B x A. La première image secondaire calculée Is1 correspondant au niveau 1 a alors une résolution égale (B/F) x (A/F), la deuxième image secondaire calculée Is2 correspondant au niveau 2 a alors une résolution égale (B/F2) x (A/F2), et la dernière image secondaire calculée lsN correspondant au niveau final N a alors une résolution égale (B/FN) x (A/FN).The acquired reference image Ir has a small side A and a large side B, each expressed in number of pixels, ie a resolution B x A. The first calculated secondary image Is 1 corresponding to level 1 then has an equal resolution (B / F) x (A / F), the second calculated secondary image Is 2 corresponding to level 2 then has an equal resolution (B / F 2 ) x (A / F 2 ), and the last calculated secondary image ls N corresponding to final level N then has an equal resolution (B / F N ) x (A / F N ).

Dans l’exemple des figures 2 et 3, où F est égal à 2 et où A et B sont respectivement égaux à 240 pixels et 360 pixels, l’image de référence acquise Ir a une résolution de 320 x 240 pixels, la première image secondaire calculée Is1 a une résolution de 160 x 120 pixels, la deuxième image secondaire calculée Is2 a une résolution de 80 x 60 pixels, et la troisième image secondaire calculée Is3 a une résolution de 40 x 30 pixels, N étant égal à 3 dans cet exemple.In the example of FIGS. 2 and 3, where F is equal to 2 and where A and B are respectively equal to 240 pixels and 360 pixels, the acquired reference image Ir has a resolution of 320 x 240 pixels, the first image calculated secondary Is 1 has a resolution of 160 x 120 pixels, the second calculated secondary image Is 2 has a resolution of 80 x 60 pixels, and the third calculated secondary image Is 3 has a resolution of 40 x 30 pixels, N being equal to 3 in this example.

Le sous-échantillonnage de l’image lK associée à un niveau K par rapport à l’image lK_1 associée au niveau précédent K-1 est, par exemple, obtenu en calculant chaque pixel de l’image lK à partir de F2 pixels de l’image lK_1, chaque pixel de l’image lK étant par exemple une moyenne de F2 pixels correspondants de l’image lK_1, F représentant le facteur de souséchantillonnage. Dans l’exemple des figures 2 et 3, F est égal à 2, et chaque pixel de l’image lK dépend alors de 4 pixels de l’image lK_1, en étant par exemple une moyenne de ces 4 pixels.The subsampling of the image l K associated with a level K with respect to the image l K_1 associated with the previous level K-1 is, for example, obtained by calculating each pixel of the image l K from F 2 pixels of image l K_1 , each pixel of image l K being for example an average of F 2 corresponding pixels of image l K_1 , F representing the subsampling factor. In the example of FIGS. 2 and 3, F is equal to 2, and each pixel of the image l K then depends on 4 pixels of the image l K_1 , for example being an average of these 4 pixels.

L’altitude correspondant à chaque image secondaire Is calculée est par exemple un multiple respectif de l’altitude prédéfinie Zref qui est associée à l’image de référence acquise Ir.The altitude corresponding to each secondary image Is calculated is for example a respective multiple of the predefined altitude Z re f which is associated with the acquired reference image Ir.

Dans l’exemple de l’implémentation de type pyramidale de la figure 2, ce multiple respectif est un multiple dépendant du facteur F de sous-échantillonnage d’un niveau K au niveau suivant K+1.In the example of the pyramid-type implementation of FIG. 2, this respective multiple is a multiple depending on the factor F of sub-sampling from one level K to the next level K + 1.

L’altitude correspondant à la première image secondaire calculée Is1 est alors par exemple égale à F x Zref, celle correspondant à la deuxième image secondaire calculée Is2 est égale à F2 x Zref, et celle correspondant à la dernière image secondaire calculée lsN égale à FN x Zref.The altitude corresponding to the first calculated secondary image Is 1 is then for example equal to F x Zref, that corresponding to the second calculated secondary image Is 2 is equal to F 2 x Zref, and that corresponding to the last calculated secondary image ls N equal to F N x Z re f.

L’altitude correspondant à chaque image secondaire calculée Is vérifie alors par exemple l’équation suivante :The altitude corresponding to each calculated secondary image Is then checks for example the following equation:

Zi = Fi-Zref (1) où Z, représente l’altitude correspondant à la ième image secondaire calculée, i est un indice entier compris entre 1 et N, représentant le numéro de l’image secondaire calculée parmi la succession d’images secondaires calculées Is,Z i = F i -Z ref (1) where Z represents the altitude corresponding to the i th calculated secondary image, i is an integer index between 1 and N, representing the number of the secondary image calculated among the succession calculated secondary images Is,

F représente le facteur de sous-échantillonnage de l’image de référence acquise Ir à la 1ère image secondaire calculée, ou encore d’une image secondaire calculée à la suivante, etF represents the subsampling factor of the reference image acquired Ir at the 1 st calculated secondary image, or of a secondary image calculated at the following, and

Zref représente l’altitude prédéfinie.Z re f represents the predefined altitude.

L’altitude prédéfinie Zref est par exemple comprise entre 1 mètre et 5 mètres.The predefined altitude Z re f is for example between 1 meter and 5 meters.

Dans l’exemple des figures 2 et 3, où F est égal à 2 et N est égal à 3, pour une altitude prédéfinie Zref égale à 1 mètre, les altitudes respectives correspondant aux N images secondaires calculées Is sont alors égales à 2 mètres, 4 mètres et 8 mètres. De manière analogue, pour une altitude prédéfinie Zref égale à 3 mètres, les altitudes respectives correspondant aux N images secondaires calculées Is sont alors égales à 6 mètres, 12 mètres et 24 mètres.In the example of FIGS. 2 and 3, where F is equal to 2 and N is equal to 3, for a predefined altitude Z re f equal to 1 meter, the respective altitudes corresponding to the N calculated secondary images Is are then equal to 2 meters, 4 meters and 8 meters. Similarly, for a predefined altitude Z re f equal to 3 meters, the respective altitudes corresponding to the N calculated secondary images Is are then equal to 6 meters, 12 meters and 24 meters.

Le module de détection 34 est configuré pour détecter un ensemble de portion(s) caractéristique(s) dans au moins une image secondaire Is, de préférence dans chaque image parmi l’image de référence lR et la ou les images secondaires Is.The detection module 34 is configured to detect a set of characteristic portion (s) in at least one secondary image Is, preferably in each image from the reference image l R and the secondary image (s) Is.

Le module de détection 34 est configuré pour détecter d’abord un ensemble de point(s) caractéristique(s) dans l’image Is, Ir correspondante via la mise en oeuvre d’un algorithme de détection de point(s) caractéristique(s), puis pour caractériser, via la mise en oeuvre d’un algorithme de caractérisation, une portion de l’image associée à chaque point caractéristique détecté.The detection module 34 is configured to first detect a set of characteristic point (s) in the corresponding image Is, Ir via the implementation of a characteristic point (s) detection algorithm ), then to characterize, via the implementation of a characterization algorithm, a portion of the image associated with each characteristic point detected.

L’homme du métier comprendra que la portion de l’image associée à chaque point caractéristique détecté correspond à un voisinage de ce point, également appelé descripteur, une telle portion étant ensuite plus à même d’être identifiée par comparaison dans une nouvelle image qu’un simple point.Those skilled in the art will understand that the portion of the image associated with each characteristic point detected corresponds to a neighborhood of this point, also called a descriptor, such a portion then being more likely to be identified by comparison in a new image that 'a simple point.

L’algorithme de détection de point(s) caractéristique(s) est, par exemple, un algorithme de caractéristiques issues de tests accélérés de segments, également appelé FAST (de l’anglais Features from Accelerated Segment Test), ou un algorithme de détection de coins de type Harris, également appelé Harris Corner (de l’anglais Harris Corner Detector).The characteristic point (s) detection algorithm is, for example, a characteristic algorithm from accelerated segment tests, also called FAST (from the English Features from Accelerated Segment Test), or a detection algorithm Harris-type corners, also called Harris Corner (from the English Harris Corner Detector).

L’algorithme de caractérisation est, par exemple, un algorithme BRIEF (de l’anglais Binary Robust Independent Elementary Features), ou un algorithme ORB qui est une combinaison des algorithmes FAST et BRIEF (de l’anglais Oriented FAST and rotated BRIEF), ou un algorithme BRISK (de l’anglais Binary Robust Invariant Scalable Keypoints), ou encore un algorithme FREAK (de l’anglais Fast REtinA Keypoint).The characterization algorithm is, for example, a BRIEF algorithm (from the English Binary Robust Independent Elementary Features), or an ORB algorithm which is a combination of the FAST and BRIEF algorithms (from the English Oriented FAST and rotated BRIEF), or a BRISK algorithm (from the English Binary Robust Invariant Scalable Keypoints), or a FREAK algorithm (from the English Fast REtinA Keypoint).

En variante, l’algorithme mis en oeuvre par le module de détection 34 est par exemple un algorithme de transformation de caractéristiques visuelles invariante à l'échelle, également appelé SIFT (de l’anglais Scale-Invariant Feature Transform), qui est à la fois un algorithme de détection de point(s) caractéristique(s) et de de caractérisation, en fournissant en sortie la ou les portions caractéristiques détectées, sous forme de descripteurs SIFT.As a variant, the algorithm implemented by the detection module 34 is for example an algorithm for transforming visual characteristics invariant to scale, also called SIFT (from the English Scale-Invariant Feature Transform), which is times a characteristic point (s) detection and characterization algorithm, by providing as output the characteristic portion (s) detected, in the form of SIFT descriptors.

En variante encore, l’algorithme mis en oeuvre par le module de détection 34 est par exemple un algorithme de caractéristiques robustes accélérées, également appelé SURF (de l’anglais Speeded Up Robust Features), qui est à la fois un algorithme de détection de point(s) caractéristique(s) et de de caractérisation, en fournissant en sortie la ou les portions caractéristiques détectées, sous forme de descripteurs SURF.In another variant, the algorithm implemented by the detection module 34 is for example an algorithm of accelerated robust characteristics, also called SURF (from English Speeded Up Robust Features), which is both a detection algorithm characteristic and characterization point (s), by providing as output the characteristic portion or portions detected, in the form of SURF descriptors.

Le module de détermination 36 est configuré pour déterminer la position du drone 10 par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s).The determination module 36 is configured to determine the position of the drone 10 relative to the take-off zone, by detecting in the current image acquired a current set of characteristic portion (s).

Le module de détermination 36 est de préférence configuré pour comparer ensuite l’ensemble courant de portion(s) caractéristique(s) avec chaque ensemble détecté de portion(s) caractéristique(s) pour l’image de référence lR et la ou les images secondaires Is.The determination module 36 is preferably configured to then compare the current set of characteristic portion (s) with each detected set of characteristic portion (s) for the reference image l R and the one or more secondary images Is.

Le module de détermination 36 est de préférence encore configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble détecté de portion(s) caractéristique(s) correspondant à l’image qui parmi l’image de référence lR et la ou les images secondaires Is est associée à l’altitude la plus proche d’une altitude courante du drone 10.The determination module 36 is preferably further configured to compare the current set of characteristic portion (s) with the detected set of characteristic portion (s) corresponding to the image which among the image of reference l R and the secondary image or images Is is associated with the altitude closest to a current altitude of the drone 10.

L’altitude courante est par exemple estimée via une centrale inertielle, non représentée, ou encore via un dispositif de géolocalisation, tel qu’un dispositif de positionnement par satellite, par exemple GPS ou Galliléo, équipant le drone 10.The current altitude is for example estimated via an inertial unit, not shown, or even via a geolocation device, such as a satellite positioning device, for example GPS or Gallileo, equipping the drone 10.

A titre d’exemple, en supposant l’altitude courante du drone 10 sensiblement égale à 20 mètres et les altitudes correspondant aux N images secondaires calculées Is respectivement égales à 6 mètres, 12 mètres et 24 mètres avec l’exemple précédent de l’altitude prédéfinie Zref égale à 3 mètres, alors le module de détermination 36 est configuré pour comparer dans ce cas l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble détecté de portion(s) caractéristique(s) associé à la 3ème image secondaire calculée, l’altitude courante de 20 mètres étant plus proche de 24 mètres que de 12 mètres.By way of example, assuming the current altitude of the drone 10 substantially equal to 20 meters and the altitudes corresponding to the N calculated secondary images Is respectively equal to 6 meters, 12 meters and 24 meters with the previous example of the altitude predefined Z re f equal to 3 meters, then the determination module 36 is configured to compare in this case the current set of characteristic portion (s) with the detected set of associated characteristic portion (s) at the 3 rd secondary image calculated, the current altitude of 20 meters being closer to 24 meters than to 12 meters.

Le module de détermination 36 est configuré en outre pour modifier une orientation de l’image courante en fonction d’une orientation de l’image de référence lR, préalablement à la détection dans l’image courante acquise de l’ensemble courant de portion(s) caractéristique(s).The determination module 36 is further configured to modify an orientation of the current image as a function of an orientation of the reference image l R , prior to detection in the current image acquired of the current portion assembly. (s) characteristic (s).

Le module de détermination 36 est alors de préférence configuré pour modifier l’orientation de l’image courante de manière à ce qu’elle soit identique à celle de l’image de référence lR, en appliquant à l’image courante une rotation d’angle égal à la différence angulaire entre l’orientation de l’image de référence lR et l’orientation de l’image courante avant modification. Ceci permet que l’image prise en compte ait alors la même orientation que l’image de référence lR.The determination module 36 is then preferably configured to modify the orientation of the current image so that it is identical to that of the reference image l R , by applying to the current image a rotation d angle equal to the angular difference between the orientation of the reference image l R and the orientation of the current image before modification. This allows the image taken into account then to have the same orientation as the reference image l R.

Le module de détermination 36 est alors configuré pour établir une correspondance entre une ou des portions caractéristiques de l’ensemble courant de portions caractéristiques associé à l’image courante et une ou des portions caractéristiques de l’ensemble détecté de portions caractéristiques associé à la ou aux images secondaires Is voire à l’image de référence lR. Le module de détermination 36 est par exemple configuré pour établir cette correspondance via une méthode RANSAC (de l’anglais RANdom SAmple Consensus), et les correspondances entre portions caractéristiques sont déduites des « inliers » obtenus via la méthode RANSAC, c’est-à-dire aux données pertinentes, par opposition aux « outliers » correspondant aux données non-pertinentes.The determination module 36 is then configured to establish a correspondence between one or more characteristic portions of the current set of characteristic portions associated with the current image and one or more characteristic portions of the detected set of characteristic portions associated with the or to the secondary images Is or even to the reference image l R. The determination module 36 is for example configured to establish this correspondence via a RANSAC method (from the English RANdom SAmple Consensus), and the correspondences between characteristic portions are deduced from the "inliers" obtained via the RANSAC method, ie - say relevant data, as opposed to "outliers" corresponding to non-relevant data.

Le module de détermination 36 est alors, de par cette ou ces correspondances, apte à identifier la zone de décollage dans l’image courante, puis à déterminer la position du drone 10 par rapport à la zone de décollage en fonction de l’emplacement de la représentation de la zone de décollage identifiée à l’intérieur de l’image courante.The determination module 36 is then, by virtue of this or these correspondences, able to identify the take-off zone in the current image, then to determine the position of the drone 10 relative to the take-off zone as a function of the location of the representation of the take-off area identified inside the current image.

Le fonctionnement du dispositif électronique de pilotage 14 selon l’invention va être à présent expliqué en regard de la figure 4 représentant un organigramme du procédé de pilotage du drone 10 selon l’invention.The operation of the electronic piloting device 14 according to the invention will now be explained with reference to FIG. 4 showing a flow diagram of the method for piloting the drone 10 according to the invention.

Lors de chaque étape 100, le dispositif de pilotage 14 acquiert, via son premier module d’acquisition 30, au moins une image prise par le capteur d’images équipant le drone 10.During each step 100, the piloting device 14 acquires, via its first acquisition module 30, at least one image taken by the image sensor equipping the drone 10.

Initialement, lorsque le drone 10 est sensiblement à l’altitude prédéfinie Zref après le décollage du drone 10, le dispositif de pilotage 14 acquiert, via son premier module d’acquisition 30, l’image de référence lR d’une scène incluant la zone de décollage.Initially, when the drone 10 is substantially at the predefined altitude Z re f after takeoff of the drone 10, the piloting device 14 acquires, via its first acquisition module 30, the reference image l R of a scene including the take-off area.

Le dispositif de pilotage 14 calcule, ensuite lors de l’étape suivante 110 et via son module de calcul 32, au moins une image secondaire Is à partir de l’image de référence lR acquise, chaque image secondaire Is correspondant à une altitude supérieure à l’altitude prédéfinie Zref.The control device 14 calculates, then during the next step 110 and via its calculation module 32, at least one secondary image Is from the reference image l R acquired, each secondary image Is corresponding to a higher altitude at the predefined altitude Z re f.

Le dispositif de pilotage 14 calcule de préférence plusieurs images secondaires Is à partir de l’image de référence acquise lR, selon une implémentation de type pyramidale, comme représenté sur la figure 2.The control device 14 preferably calculates several secondary images Is from the acquired reference image l R , according to an implementation of the pyramidal type, as shown in FIG. 2.

L’altitude associée à chaque image secondaire Is calculée vérifie par exemple l’équation (1) précédente.The altitude associated with each calculated secondary image Is verifies for example the previous equation (1).

Lors de l’étape suivante 120, le dispositif de pilotage 14 détecte, via son module de détection 34, un ensemble de portion(s) caractéristique(s) dans au moins une image secondaire Is, et de préférence dans chaque image parmi l’image de référence lR et la ou les images secondaires Is.During the next step 120, the control device 14 detects, via its detection module 34, a set of characteristic portion (s) in at least one secondary image Is, and preferably in each image among the reference image l R and the secondary image (s) Is.

Cette détection comporte la mise en oeuvre d’un algorithme de détection de point(s) caractéristique(s), tel que FAST ou Harris Corners ; suivie de la mise en oeuvre d’un algorithme de caractérisation, tel que ORB, BRISK, FREADK, ou encore BRIEF. L’homme du métier observera qu’en variante, l’algorithme de détection de point(s) caractéristique(s) et l’algorithme de caractérisation sont un unique algorithme, tel que l’algorithme SIFT ou encore l’algorithme SURF.This detection includes the implementation of a characteristic point (s) detection algorithm, such as FAST or Harris Corners; followed by the implementation of a characterization algorithm, such as ORB, BRISK, FREADK, or even BRIEF. Those skilled in the art will observe that, as a variant, the characteristic point (s) detection algorithm and the characterization algorithm are a single algorithm, such as the SIFT algorithm or even the SURF algorithm.

Le dispositif de pilotage 14 détermine, ensuite lors de l’étape suivante 130 et via son module de détermination 36, la position du drone 10 par rapport à la zone de décollage, en détectant l’ensemble courant de portion(s) caractéristique(s)dans l’image courante acquise, puis en comparant ledit ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires Is voire à l’image de référence lR.The piloting device 14 then determines, during the next step 130 and via its determination module 36, the position of the drone 10 relative to the take-off zone, by detecting the current assembly of characteristic portion (s). ) in the current image acquired, then by comparing said current set of characteristic portion (s) with at least a portion of the detected set of characteristic portion (s) associated with the secondary image (s) Is see the reference image l R.

Lors de l’étape suivante 140, le dispositif électronique de pilotage 14 détermine, via son deuxième module d’acquisition 39, si le mode de retour à proximité de la zone de décollage a été sélectionné par l’utilisateur ou prédéfini selon le type de drone 10, et acquiert le cas échéant cette sélection via son deuxième module d’acquisition 39.During the next step 140, the electronic piloting device 14 determines, via its second acquisition module 39, whether the return mode near the takeoff area has been selected by the user or predefined according to the type of drone 10, and if necessary acquires this selection via its second acquisition module 39.

Si, lors de l’étape 140, aucune sélection du mode de retour à proximité de la zone de décollage n’est acquise, le dispositif électronique de pilotage 14 retourne alors à l’étape 100 pour acquérir une nouvelle image courante.If, during step 140, no selection of the return mode near the take-off area is acquired, the electronic piloting device 14 then returns to step 100 to acquire a new current image.

Lorsqu’une sélection du mode de retour à proximité de la zone de décollage a été acquise lors de l’étape 140, le dispositif électronique de pilotage 14 passe ensuite à l’étape 150 pour guider, via son module de guidage 38, le drone 10 vers une zone d’atterrissage la plus proche possible de la zone de décollage, en fonction de la position du drone 10 déterminée par le module de détermination 36.When a selection of the return mode near the takeoff zone has been acquired during step 140, the electronic piloting device 14 then goes to step 150 to guide, via its guidance module 38, the drone 10 to a landing zone as close as possible to the take-off zone, as a function of the position of the drone 10 determined by the determination module 36.

A la fin de l’étape 150, le dispositif électronique de pilotage 14 retourne à l’étape 100 pour acquérir une nouvelle image courante.At the end of step 150, the electronic control device 14 returns to step 100 to acquire a new current image.

L’homme du métier observera que les étapes 110 et 120 sont effectuées une seule fois après l’acquisition initiale de l’image de référence lR lors de l’étape 100, et que lorsque le dispositif électronique de pilotage 14 retourne ensuite à l’étape 100 pour acquérir une image courante ou une nouvelle image courante, il passe directement de l’étape d’acquisition 100 à l’étape 130 de détermination de la position du drone 10 par rapport à la zone de décollage.Those skilled in the art will observe that steps 110 and 120 are carried out only once after the initial acquisition of the reference image l R during step 100, and that when the electronic control device 14 then returns to l step 100 to acquire a current image or a new current image, it goes directly from the acquisition step 100 to step 130 of determining the position of the drone 10 relative to the take-off zone.

Sur la figure 5, représentant un exemple de machine d’états mise en oeuvre pour effectuer le procédé de pilotage selon l’invention, lors d’un état inactif 200, le drone 10 est posé, c’est-à-dire au contact du sol, dans l’attente d’une instruction de décollage.In FIG. 5, representing an example of a state machine implemented to carry out the piloting method according to the invention, during an inactive state 200, the drone 10 is placed, that is to say in contact from the ground, pending a take-off instruction.

Le dispositif de pilotage 14 reste dans cet état inactif 200 en bouclant selon la flèche F1, tant qu’il n’a pas reçu d’instruction de décollage. Dans cet état inactif 200, le dispositif de pilotage 14 acquiert, via un dispositif de mesure, tel que la centrale inertielle, une position du drone 10 dans cet état, c’est-à-dire une position de décollage.The piloting device 14 remains in this inactive state 200 while looping according to arrow F1, as long as it has not received a take-off instruction. In this inactive state 200, the piloting device 14 acquires, via a measurement device, such as the inertial unit, a position of the drone 10 in this state, that is to say a take-off position.

Après avoir reçu une instruction de décollage, le dispositif de pilotage 14 passe, selon la flèche F2, de l’état inactif 200 à un état initial 210.After receiving a take-off instruction, the piloting device 14 changes, according to arrow F2, from the inactive state 200 to an initial state 210.

Dans cet état initial 210, le dispositif de pilotage 14 acquiert, via le dispositif de mesure, une nouvelle position du drone, également appelée position initiale, et la compare à la position de décollage du drone 10 pour déterminer si des conditions de passage dans un état d’apprentissage 220 sont remplies ou non.In this initial state 210, the piloting device 14 acquires, via the measuring device, a new position of the drone, also called the initial position, and compares it to the take-off position of the drone 10 to determine whether conditions for passing through a learning state 220 are fulfilled or not.

Les conditions de passage dans l’état d’apprentissage 220 sont par exemple un écart inférieur à 0,5 mètre selon les axes longitudinal X et transversal Y du référentiel terrestre entre la position initiale et la position de décollage, et une altitude en position initiale supérieure ou égale à l’altitude prédéfinie Zref par rapport au sol, c’est-à-dire un écart supérieur à l’altitude prédéfinie Zref selon l’axe vertical Z du référentiel terrestre entre la position initiale et la position de décollage.The conditions for passing into learning state 220 are, for example, a deviation of less than 0.5 meters along the longitudinal X and transverse Y axes of the terrestrial frame of reference between the initial position and the take-off position, and an altitude in the initial position. greater than or equal to the predefined altitude Z re f with respect to the ground, i.e. a deviation greater than the predefined altitude Z re f along the vertical axis Z of the terrestrial frame of reference between the initial position and the position takeoff.

Si lors de la transition de l’état inactif 200 à l’état initial 210, le drone 10 s’est trop décalé latéralement par rapport à la position de décollage, et que l’écart entre la position initiale et la position de décollage est supérieur à 0,5 mètre selon l’un des axes longitudinal X et transversal Y du référentiel terrestre, alors le dispositif de pilotage 14 retourne à l’état inactif 200 selon la flèche F3. L’aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante n’est alors pas mise en oeuvre pour ce vol.If during the transition from the inactive state 200 to the initial state 210, the drone 10 has shifted too much laterally with respect to the take-off position, and the difference between the initial position and the take-off position is greater than 0.5 meters along one of the longitudinal X and transverse axes Y of the terrestrial frame of reference, then the control device 14 returns to the inactive state 200 according to arrow F3. The landing aid of the drone 10 via the detection of the take-off area in the current image is therefore not implemented for this flight.

Depuis l’état initial 210, le dispositif de pilotage 14 retourne également à l’état inactif 200 selon la flèche F3, en cas de réception d’une instruction d’atterrissage de l’utilisateur, d’une instruction d’urgence, par exemple en cas d’énergie électrique restante insuffisante, ou encore d’une instruction d’atterrissage urgent, par exemple en cas de vent trop fort ou de collision avec un obstacle.From the initial state 210, the control device 14 also returns to the inactive state 200 according to arrow F3, in the event of reception of a landing instruction from the user, of an emergency instruction, by example in the event of insufficient remaining electric power, or else an urgent landing instruction, for example in the event of too strong wind or collision with an obstacle.

Depuis l’état initial 210, le dispositif de pilotage 14 passe à l’état d’apprentissage 220 selon la flèche F4 dès que les conditions de passage précitées sont remplies.From the initial state 210, the control device 14 switches to the learning state 220 according to the arrow F4 as soon as the aforementioned passage conditions are met.

Enfin, si l’écart entre la position initiale et la position de décollage est inférieur à 0,5 mètre selon les axes longitudinal X et transversal Y du référentiel terrestre, mais que l’altitude par rapport au sol n’est pas encore à l’altitude prédéfinie Zref, le dispositif de pilotage 14 reste dans cet état initial 210 en bouclant selon la flèche F4’, jusqu’à ce que l’altitude par rapport au sol soit égale à l’altitude prédéfinie Zref.Finally, if the difference between the initial position and the take-off position is less than 0.5 meters along the longitudinal X and transverse Y axes of the terrestrial frame of reference, but the altitude relative to the ground is not yet at l 'predefined altitude Z re f, the control device 14 remains in this initial state 210 by looping according to arrow F4', until the altitude relative to the ground is equal to the predefined altitude Z re f.

Dans cet état d’apprentissage 220, effectué sensiblement à l’altitude prédéfinie Zref, le dispositif de pilotage 14 acquiert l’image de référence lR de la scène incluant la zone de décollage, puis calcule au moins une image secondaire Is, et de préférence plusieurs images secondaires Is, à partir de l’image de référence lR acquise, et détecte ensuite un ensemble de portion(s) caractéristique(s) dans au moins une image secondaire Is, et de préférence dans chaque image parmi l’image de référence lR et la ou les images secondaires Is.In this learning state 220, carried out substantially at the predefined altitude Z re f, the control device 14 acquires the reference image l R of the scene including the take-off zone, then calculates at least one secondary image Is, and preferably several secondary images Is, from the acquired reference image l R , and then detects a set of characteristic portion (s) in at least one secondary image Is, and preferably in each image among l reference image l R and the secondary image (s) Is.

Si lors de cet état d’apprentissage 220, le dispositif de pilotage 14 ne détecte aucune portion caractéristique, l’image de référence lR ne contenant aucune caractéristique particulière, alors le dispositif de pilotage 14 retourne à l’état inactif 200 selon la flèche F5.If during this learning state 220, the control device 14 does not detect any characteristic portion, the reference image l R containing no particular characteristic, then the control device 14 returns to the inactive state 200 according to the arrow F5.

L’aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante n’est plus mise en œuvre pour ce vol.The landing aid for drone 10 via the detection of the take-off area in the current image is no longer used for this flight.

Après avoir effectué les opérations précitées dans l’état d’apprentissage 220 et détecté au moins une portion caractéristique, passe selon la flèche F6 à l’état prêt 230, indiquant que le dispositif de pilotage 14 est prêt à mettre en œuvre une fonction d’atterrissage de précision, avec aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante, pour que l’atterrissage s’effectue aussi près que possible de la zone de décollage.After having carried out the aforementioned operations in the learning state 220 and detected at least one characteristic portion, goes according to the arrow F6 to the ready state 230, indicating that the control device 14 is ready to implement a function d precision landing, with assistance with the landing of the drone 10 via the detection of the take-off zone in the current image, so that the landing is carried out as close as possible to the take-off zone.

Le dispositif de pilotage 14 reste dans cet état prêt 230 en bouclant selon la flèche F7, tant qu’il n’a pas reçu d’instruction d’atterrissage. Cet état prêt 230 correspond à une phase de vol principal ou à une phase de vol stationnaire avant atterrissage.The piloting device 14 remains in this ready state 230 while looping according to arrow F7, as long as it has not received a landing instruction. This ready state 230 corresponds to a main flight phase or to a hover phase before landing.

Après avoir reçu une instruction d’atterrissage, le dispositif de pilotage 14 passe ensuite, selon la flèche F8, de l’état prêt 230 à un état d’atterrissage de précision 240.After receiving a landing instruction, the piloting device 14 then passes, according to arrow F8, from the ready state 230 to a precision landing state 240.

Depuis l’état prêt 230, le dispositif de pilotage 14 retourne également à l’état inactif 200 selon la flèche F9, en cas de réception d’une instruction d’urgence, ou encore d’une instruction d’atterrissage urgent. L’aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante n’est plus mise en œuvre pour ce vol.From the ready state 230, the piloting device 14 also returns to the inactive state 200 according to the arrow F9, in the event of receiving an emergency instruction, or even an urgent landing instruction. The landing aid for drone 10 via the detection of the take-off area in the current image is no longer used for this flight.

Depuis l’état d’atterrissage de précision 240, le dispositif de pilotage 14 retourne selon la flèche F10 à l’état prêt 230, en cas de réception d’une instruction de vol annulant l’instruction d’atterrissage précédemment reçue, telle qu’une instruction de montée du drone 10.From the precision landing state 240, the piloting device 14 returns according to arrow F10 to the ready state 230, in the event of receipt of a flight instruction canceling the previously received landing instruction, such as '' a drone climb instruction 10.

Le dispositif de pilotage 14 reste dans cet état d’atterrissage de précision 240, en bouclant selon la flèche F11, tant que l’instruction d’atterrissage reste active.The piloting device 14 remains in this precision landing state 240, looping along arrow F11, as long as the landing instruction remains active.

Dans cet état d’atterrissage de précision 240, le dispositif de pilotage 14 met en œuvre la fonction d’atterrissage de précision, avec aide à l’atterrissage du drone 10 via la détection de la zone de décollage dans l’image courante. A cet effet, le dispositif de pilotage 14 détermine la position du drone 10 par rapport à la zone de décollage, en détectant l’ensemble courant de portion(s) caractéristique(s) dans l’image courante acquise, puis en comparant ledit ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires Is voire à l’image de référence IR, puis guide progressivement le drone 10 vers une zone d’atterrissage la plus proche possible de la zone de décollage, en fonction de la position du drone 10 ainsi déterminée.In this precision landing state 240, the piloting device 14 implements the precision landing function, with assistance in landing the drone 10 via the detection of the take-off zone in the current image. To this end, the piloting device 14 determines the position of the drone 10 relative to the take-off zone, by detecting the current set of characteristic portion (s) in the current image acquired, then by comparing said set characteristic portion (s) current with at least a portion of the detected set of characteristic portion (s) associated with the secondary image (s) Is or even with the reference image I R , then guide progressively the drone 10 to a landing zone as close as possible to the take-off zone, as a function of the position of the drone 10 thus determined.

Lorsque le drone 10 est posé, et est alors à nouveau en contact avec le sol, le dispositif de pilotage 14 retourne enfin à l’état inactif 200 selon la flèche F12.When the drone 10 is placed, and is then again in contact with the ground, the piloting device 14 finally returns to the inactive state 200 according to arrow F12.

Sur la figure 6, les positions du drone 10 déterminées par le dispositif de pilotage 14 sont représentées successivement dans le temps T, indiqué en abscisse, sous forme de points 300 et 310 pour les coordonnées selon les axes X et Y du référentiel considéré, et de points 320 pour les coordonnées selon l’axe vertical Z du référentiel considéré, par une distance D, exprimée en mètres et indiquée en ordonnée, par rapport à la position de décollage, correspondant à l’origine du référentiel considéré.In FIG. 6, the positions of the drone 10 determined by the piloting device 14 are represented successively in time T, indicated on the abscissa, in the form of points 300 and 310 for the coordinates along the axes X and Y of the reference frame considered, and of points 320 for the coordinates along the vertical axis Z of the reference system considered, by a distance D, expressed in meters and indicated on the ordinate, with respect to the take-off position, corresponding to the origin of the reference system considered.

Sur la figure 6, le positionnement à l’état haut d’un indicateur 340 indique les phases durant lesquelles les positions du drone 10 ne sont pas déterminées par le dispositif de pilotage 14 selon l’invention, soit parce que le drone 10 est trop éloigné de la zone de décollage et que celle-ci n’apparait alors plus dans l’image courante acquise, correspondant à la phase principale durant laquelle l’indicateur 340 est à l’état haut ; soit parce que le drone 10 est au contact ou à proximité immédiate du sol, correspondant à la phase finale durant laquelle l’indicateur 340 est à l’état haut.In FIG. 6, the positioning in the high state of an indicator 340 indicates the phases during which the positions of the drone 10 are not determined by the piloting device 14 according to the invention, either because the drone 10 is too distant from the take-off zone and that the latter then no longer appears in the current image acquired, corresponding to the main phase during which the indicator 340 is in the high state; either because the drone 10 is in contact with or in close proximity to the ground, corresponding to the final phase during which the indicator 340 is in the high state.

Une courbe 350 représente les coordonnées, selon l’axe vertical Z du référentiel considéré, des positions du drone 10 fournies successivement au cours du temps T par la centrale inertielle équipant le drone 10.A curve 350 represents the coordinates, along the vertical axis Z of the reference system considered, of the positions of the drone 10 successively supplied over time T by the inertial unit equipping the drone 10.

L’homme du métier pourra alors observer que le dispositif de pilotage 14 selon l’invention permet de déterminer, avec une précision satisfaisante, la position du drone 10 lors des phases de décollage et d’atterrissage, par comparaison avec celle issue de la centrale inertielle.Those skilled in the art will then be able to observe that the piloting device 14 according to the invention makes it possible to determine, with satisfactory precision, the position of the drone 10 during the takeoff and landing phases, by comparison with that coming from the power plant. inertial.

Lors de la phase d’atterrissage, le dispositif de pilotage 14 selon l’invention fournit même une position du drone 10 plus précise que celle fournie par la centrale inertielle équipant le drone 10, la position issue de la centrale inertielle rejoignant celle déterminée par le dispositif de pilotage 14 en fin de phase d’atterrissage.During the landing phase, the piloting device 14 according to the invention even provides a position of the drone 10 more precise than that provided by the inertial unit equipping the drone 10, the position coming from the inertial unit joining that determined by the piloting device 14 at the end of the landing phase.

Les figures 7 à 9 représentent des exemples d’images utilisées par le dispositif de pilotage 14 selon l’invention. La figure 7 est un exemple d’image de référence acquise lR et la figure 8 est une vue 400 d’une image courante acquise. La figure 9 est une vue 410 de l’image courante acquise, avec en outre la détection dans l’image courante acquise de portion(s) caractéristique(s) correspondant au(x) portion(s) caractéristique(s) associé(s) à la ou aux images secondaires, permettant de retrouver l’image de référence acquise lR indiquée par l’encadré rectangulaire, puis de déterminer l’altitude du drone 10 à partir de cette détection, l’altitude déterminée étant égale à 11,36 m dans cet exemple.Figures 7 to 9 show examples of images used by the control device 14 according to the invention. FIG. 7 is an example of acquired reference image l R and FIG. 8 is a view 400 of a current acquired image. FIG. 9 is a view 410 of the current image acquired, with in addition the detection in the current image acquired of characteristic portion (s) corresponding to the associated characteristic portion (s). ) the secondary image (s), making it possible to find the acquired reference image l R indicated by the rectangular box, then to determine the altitude of the drone 10 from this detection, the determined altitude being equal to 11, 36 m in this example.

Ainsi, le dispositif électronique de pilotage 14 selon l’invention permet d’éviter l’acquisition de l’image de référence lR à une altitude prédéfinie Zref trop élevée, en calculant au moins une image secondaire à partir de l’image de référence acquise, chaque image secondaire correspondant à une altitude supérieure à l’altitude prédéfinie. L’altitude prédéfinie Zref à laquelle est prise l’image de référence est alors de préférence faible, par exemple de l’ordre d’un mètre, ce qui permet en outre d’avoir plus facilement une image de référence lR qui soit plus représentative de la zone de décollage.Thus, the electronic control device 14 according to the invention makes it possible to avoid the acquisition of the reference image l R at a predefined altitude Z re f which is too high, by calculating at least one secondary image from the image. reference acquired, each secondary image corresponding to an altitude greater than the predefined altitude. The predefined altitude Z re f at which the reference image is taken is then preferably low, for example of the order of one meter, which also makes it easier to have a reference image l R which is more representative of the take-off area.

Avec le dispositif électronique de pilotage de l’état de la technique, l’altitude prédéfinie à laquelle est prise l’image de référence est au contraire élevée, généralement supérieure à 5 mètres, voire à 10 mètres, ce qui est contraignant. Cette altitude prédéfinie élevée est, avec le dispositif électronique de pilotage de l’état de la technique, nécessaire pour que le module de guidage puisse ensuite, lors de l’atterrissage du drone depuis un vol stationnaire à une altitude généralement comprise entre 10 m et 20 m, retrouver dans 10 l’image courante acquise une ou plusieurs portions caractéristiques correspondant à celles préalablement détectées dans l’image de référence.With the electronic device for piloting the state of the art, the predefined altitude at which the reference image is taken is, on the contrary, high, generally greater than 5 meters, or even 10 meters, which is restrictive. This high predefined altitude is, with the electronic piloting device of the state of the art, necessary so that the guidance module can then, when the drone lands from a hovering flight at an altitude generally between 10 m and 20 m, find in 10 the current acquired image one or more characteristic portions corresponding to those previously detected in the reference image.

On conçoit ainsi que le dispositif électronique de pilotage 14 et le procédé de pilotage selon l’invention permettent d’améliorer le retour du drone 10 à proximité de sa zone de décollage, tout en offrant une mise en oeuvre facilitée.It can thus be seen that the electronic piloting device 14 and the piloting method according to the invention make it possible to improve the return of the drone 10 near its takeoff zone, while offering easier implementation.

Claims (10)

REVENDICATIONS 1. Dispositif électronique (14) de pilotage d’un drone (10), le dispositif (14) comprenant :1. Electronic device (14) for piloting a drone (10), the device (14) comprising: - un module d’acquisition (30) configuré pour acquérir au moins une image prise par un capteur d’images équipant le drone (10), le module d’acquisition (30) étant configuré pour acquérir une image de référence (lr) d’une scène, prise à une altitude prédéfinie (Zref), après le décollage du drone (10) depuis une zone de décollage, ladite scène incluant la zone de décollage,- an acquisition module (30) configured to acquire at least one image taken by an image sensor fitted to the drone (10), the acquisition module (30) being configured to acquire a reference image (lr) d a scene, taken at a predefined altitude (Z re f), after takeoff of the drone (10) from a takeoff area, said scene including the takeoff area, - un module de calcul (32) configuré pour calculer au moins une image secondaire (ls) à partir de l’image de référence acquise (Ir), chaque image secondaire (Is) correspondant à une altitude (F' x Zref) supérieure à l’altitude prédéfinie (Zref),- a calculation module (32) configured to calculate at least one secondary image (ls) from the acquired reference image (Ir), each secondary image (Is) corresponding to an altitude (F 'x Z re f) higher than the predefined altitude (Z re f), - un module de détection (34) configuré pour détecter, dans au moins une image secondaire (Is), un ensemble de portion(s) caractéristique(s), eta detection module (34) configured to detect, in at least one secondary image (Is), a set of characteristic portion (s), and - un module de détermination (36) configuré pour déterminer une position du drone (10) par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires (Is).- a determination module (36) configured to determine a position of the drone (10) relative to the take-off zone, by detecting in the current image acquired a current set of characteristic portion (s), then by comparing the current set of characteristic portion (s) with at least one portion of the detected set of characteristic portion (s) associated with the secondary image (s). 2. Dispositif (14) selon la revendication 1, dans lequel le dispositif (14) comprend en outre un module de guidage (38) configuré pour, sur réception d’une instruction d’atterrissage, guider le drone (10) vers une zone d’atterrissage, en fonction de la position du drone (10) déterminée par le module de détermination (36).2. Device (14) according to claim 1, wherein the device (14) further comprises a guidance module (38) configured to, on receipt of a landing instruction, guide the drone (10) towards an area landing, according to the position of the drone (10) determined by the determination module (36). 3. Dispositif (14) selon la revendication 2, dans lequel le dispositif (14) comprend en outre un deuxième module d’acquisition (39) configuré pour acquérir la sélection d’un mode de retour à proximité de la zone de décollage, et si ledit mode de retour est sélectionné, le module de guidage (38) est alors configuré pour, sur réception d’une instruction d’atterrissage, guider le drone (10) vers la zone de décollage, en fonction de la position du drone (10) déterminée par le module de détermination (36).3. Device (14) according to claim 2, in which the device (14) further comprises a second acquisition module (39) configured to acquire the selection of a return mode near the take-off area, and if said return mode is selected, the guidance module (38) is then configured to, on receipt of a landing instruction, guide the drone (10) towards the take-off area, as a function of the position of the drone ( 10) determined by the determination module (36). 4. Dispositif (14) selon l’une quelconque des revendications précédentes, dans lequel le module de détection (34) est configuré pour détecter, dans chaque image parmi l’image de référence (Ir) et la ou les images secondaires (Is), un ensemble respectif de portion(s) caractéristique(s).4. Device (14) according to any one of the preceding claims, in which the detection module (34) is configured to detect, in each image among the reference image (Ir) and the secondary image or images (Is) , a respective set of characteristic portion (s). 5. Dispositif (14) selon l’une quelconque des revendications précédentes, dans lequel le module de détermination (36) est configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec chaque ensemble détecté de portion(s) caractéristique(s) pour l’image de référence (lR) et la ou les images secondaires (Is).5. Device (14) according to any one of the preceding claims, in which the determination module (36) is configured to compare the current set of characteristic portion (s) with each detected set of portion (s) characteristic (s) for the reference image (l R ) and the secondary image (s) (Is). 6. Dispositif (14) selon l’une quelconque des revendications 1 à 4, dans lequel le module de détermination (36) est configuré pour comparer l’ensemble courant de portion(s) caractéristique(s) avec l’ensemble détecté de portion(s) caractéristique(s) correspondant à l’image qui parmi l’image de référence (lR) et la ou les images secondaires (Is) est associée à l’altitude la plus proche d’une altitude courante du drone (10).6. Device (14) according to any one of claims 1 to 4, in which the determination module (36) is configured to compare the current set of portion (s) characteristic (s) with the detected set of portion (s) characteristic (s) corresponding to the image which among the reference image (l R ) and the secondary image (s) (Is) is associated with the altitude closest to a current altitude of the drone (10 ). 7. Dispositif (14) selon l’une quelconque des revendications précédentes, dans lequel le module de détermination (36) est configuré en outre pour modifier une orientation de l’image courante en fonction d’une orientation de l’image de référence (lR), préalablement à la détection dans l’image courante acquise de l’ensemble courant de portion(s) caractéristique(s).7. Device (14) according to any one of the preceding claims, in which the determination module (36) is further configured to modify an orientation of the current image as a function of an orientation of the reference image ( l R ), prior to detection in the current image acquired of the current set of characteristic portion (s). 8. Drone (10) comprenant un dispositif électronique de pilotage (14), caractérisé en ce que le dispositif électronique de pilotage (14) est selon l’une quelconque des revendications précédentes.8. Drone (10) comprising an electronic piloting device (14), characterized in that the electronic piloting device (14) is according to any one of the preceding claims. 9. Procédé de pilotage d’un drone (10), le procédé étant mis en oeuvre par un dispositif électronique (14) et comprenant les étapes consistant à :9. Method of piloting a drone (10), the method being implemented by an electronic device (14) and comprising the steps consisting in: - acquérir (100) au moins une image prise par un capteur d’images équipant le drone (10), ladite étape (100) comportant l’acquisition d’une image de référence (lR) d’une scène, prise à une altitude prédéfinie (Zref) après le décollage du drone (10) depuis une zone de décollage, ladite scène incluant la zone de décollage,- acquire (100) at least one image taken by an image sensor fitted to the drone (10), said step (100) comprising the acquisition of a reference image (l R ) of a scene, taken at a predefined altitude (Z re f) after takeoff of the drone (10) from a takeoff area, said scene including the takeoff area, - calculer (110) au moins une image secondaire (Is) à partir de l’image de référence (lR) acquise, chaque image secondaire (Is) correspondant à une altitude (F' x Zref) supérieure à l’altitude prédéfinie (Zref),- calculate (110) at least one secondary image (Is) from the acquired reference image (l R ), each secondary image (Is) corresponding to an altitude (F 'x Z re f) greater than the altitude predefined (Z re f), - détecter (120), dans au moins une image secondaire (Is), un ensemble de portion(s) caractéristique(s), et- detect (120), in at least one secondary image (Is), a set of characteristic portion (s), and - déterminer (130) une position du drone (10) par rapport à la zone de décollage, en détectant dans l’image courante acquise un ensemble courant de portion(s) caractéristique(s), puis en comparant l’ensemble courant de portion(s) caractéristique(s) avec au moins une portion de l’ensemble détecté de portion(s) caractéristique(s) associé à la ou aux images secondaires (Is).- determining (130) a position of the drone (10) relative to the take-off zone, by detecting in the current image acquired a current set of portion (s) characteristic (s), then by comparing the current set of portion (s) characteristic (s) with at least a portion of the detected set of characteristic portion (s) associated with the secondary image (s). 55 10. Programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en oeuvre un procédé selon la revendication précédente.10. Computer program comprising software instructions which, when executed by a computer, implement a method according to the preceding claim.
FR1854585A 2018-05-29 2018-05-29 ELECTRONIC DEVICE FOR DRIVING A DRONE, DRONE, DRIVING METHOD AND COMPUTER PROGRAM THEREOF Withdrawn FR3082013A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1854585A FR3082013A1 (en) 2018-05-29 2018-05-29 ELECTRONIC DEVICE FOR DRIVING A DRONE, DRONE, DRIVING METHOD AND COMPUTER PROGRAM THEREOF

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1854585A FR3082013A1 (en) 2018-05-29 2018-05-29 ELECTRONIC DEVICE FOR DRIVING A DRONE, DRONE, DRIVING METHOD AND COMPUTER PROGRAM THEREOF
FR1854585 2018-05-29

Publications (1)

Publication Number Publication Date
FR3082013A1 true FR3082013A1 (en) 2019-12-06

Family

ID=63637980

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1854585A Withdrawn FR3082013A1 (en) 2018-05-29 2018-05-29 ELECTRONIC DEVICE FOR DRIVING A DRONE, DRONE, DRIVING METHOD AND COMPUTER PROGRAM THEREOF

Country Status (1)

Country Link
FR (1) FR3082013A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106774423A (en) * 2017-02-28 2017-05-31 亿航智能设备(广州)有限公司 The landing method and system of a kind of unmanned plane
WO2018035835A1 (en) * 2016-08-26 2018-03-01 SZ DJI Technology Co., Ltd. Methods and system for autonomous landing
WO2018053861A1 (en) * 2016-09-26 2018-03-29 SZ DJI Technology Co., Ltd. Methods and system for vision-based landing
WO2018064657A1 (en) * 2016-09-30 2018-04-05 Stealth Air Corp Re-search method during uav landing process

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018035835A1 (en) * 2016-08-26 2018-03-01 SZ DJI Technology Co., Ltd. Methods and system for autonomous landing
WO2018053861A1 (en) * 2016-09-26 2018-03-29 SZ DJI Technology Co., Ltd. Methods and system for vision-based landing
WO2018064657A1 (en) * 2016-09-30 2018-04-05 Stealth Air Corp Re-search method during uav landing process
CN106774423A (en) * 2017-02-28 2017-05-31 亿航智能设备(广州)有限公司 The landing method and system of a kind of unmanned plane

Similar Documents

Publication Publication Date Title
US11263761B2 (en) Systems and methods for visual target tracking
EP2400460B1 (en) Method for assessing the horizontal speed of a drone, particularly of a drone capable of hovering on automatic pilot
Fazeli et al. Evaluating the potential of RTK-UAV for automatic point cloud generation in 3D rapid mapping
EP3270365B1 (en) A device for assisting the piloting of a rotorcraft, an associated display, and a corresponding method of assisting piloting
US20180343401A1 (en) Method and System for Collision Avoidance
EP3388914A1 (en) Target tracking method performed by a drone, related computer program, electronic system and drone
EP3112803A1 (en) Camera unit capable of being installed in a drone for mapping a terrain and method for managing the collection of images by a camera unit
EP3276591A1 (en) Drone with an obstacle avoiding system
EP3281870A1 (en) Method for capturing a video by a drone, related computer program and electronic system for capturing a video
CN114544006B (en) Low-altitude remote sensing image correction system and method based on ambient illumination condition
US20240007752A1 (en) Variable focal length multi-camera aerial imaging system and method
WO2014147042A2 (en) Method and device for determining a distance separating a drone and an object, and method for controlling the flight of a drone
EP3333539A1 (en) Electronic control device for controlling a drone, related drone, controlling method and computer program
EP3571468B1 (en) Method for observing the surface of the earth and device for implementing same
FR3082013A1 (en) ELECTRONIC DEVICE FOR DRIVING A DRONE, DRONE, DRIVING METHOD AND COMPUTER PROGRAM THEREOF
FR3038585A1 (en) AUTOMATIC AIRCRAFT CONTROL SYSTEM AND METHOD THEREOF
FR3047829A1 (en) METHOD FOR ESTIMATING THE POSITION OF THE SOLAR DISK IN A SKY IMAGE
CN111433819A (en) Target scene three-dimensional reconstruction method and system and unmanned aerial vehicle
CA3048013C (en) Process and drone equipped with a landing/take off assistance system
US20210256732A1 (en) Image processing method and unmanned aerial vehicle
EP3620852B1 (en) Method of capturing aerial images of a geographical area, method for three-dimensional mapping of a geographical area and aircraft for implementing such methods
WO2021035746A1 (en) Image processing method and device, and movable platform
EP3882735B1 (en) Electronic method and system for generating at least one guidance instruction for an aircraft, associated computer program and aircraft
FR3069688A1 (en) ELECTRONIC DEVICE AND METHOD FOR ESTIMATING A DISPLACEMENT OF A DRONE OBSERVED SCENE, ELECTRONIC APPARATUS FOR CALCULATING A DRONE SOIL SPEED, DRONE AND COMPUTER PROGRAM
CN111561949B (en) Coordinate matching method of airborne laser radar and hyperspectral imager integrated machine

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20191206

ST Notification of lapse

Effective date: 20200108