WO2021048500A1 - Procédé et système de positionnement automatique de drones en essaim - Google Patents

Procédé et système de positionnement automatique de drones en essaim Download PDF

Info

Publication number
WO2021048500A1
WO2021048500A1 PCT/FR2020/051562 FR2020051562W WO2021048500A1 WO 2021048500 A1 WO2021048500 A1 WO 2021048500A1 FR 2020051562 W FR2020051562 W FR 2020051562W WO 2021048500 A1 WO2021048500 A1 WO 2021048500A1
Authority
WO
WIPO (PCT)
Prior art keywords
drone
drones
uwb
sensor
module
Prior art date
Application number
PCT/FR2020/051562
Other languages
English (en)
Inventor
Laurent PERCHAIS
Rémi POTET
Original Assignee
Dronisos
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dronisos filed Critical Dronisos
Publication of WO2021048500A1 publication Critical patent/WO2021048500A1/fr

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/06Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0263Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
    • G01S5/0264Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems at least one of the systems being a non-radio wave positioning system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/102UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] adapted for flying in formations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S2205/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S2205/01Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations specially adapted for specific applications
    • G01S2205/03Airborne

Definitions

  • the present invention belongs to the general field of aerial drones, in particular of controlling a swarm of drones, and relates more particularly to a method and a system for the automatic positioning of drones evolving in a swarm, for example, during an air show (compositions artistic, choreography, etc.).
  • the invention also relates to what is commonly called swarm robotics, since it relates to a complex system with several relatively simple robots (drones).
  • Unmanned aerial vehicles commonly referred to as aerial drones or simply drones, are widely used for civilian use, particularly as objects of entertainment and recreation. While aerial, photo and video shooting remains one of the main fields of application in the civil drone industry, new applications are emerging, such as drone shows, to name just this application directly linked to this invention.
  • a drone show involves flying a swarm of drones to perform artistic demonstrations such as choreography, animated aerial compositions and more.
  • artistic demonstrations such as choreography, animated aerial compositions and more.
  • There is a growing interest in this type of entertainment because of the accessibility of drones, and above all, the possibilities it offers, giving free rein to the creativity and imagination of each user.
  • nighttime drone light shows have replaced traditional attractions like fireworks, with a much smaller environmental footprint.
  • the players in the drone shows sector around the world are constantly seeking to optimize the control of drones in swarms in order to achieve increasingly complex and controlled aerial figures.
  • Control optimization requires positioning solutions that are robust in terms of stability and performance.
  • a positioning solution known under the name of “magic carpet”, is described in document FR 1350054. This solution is however not sufficient to ensure the positioning of drones outdoors or when the visibility conditions of on-board cameras deteriorate. , because of altitude or weather conditions for example.
  • the most widely used positioning system is satellite positioning, or GPS in its American version. It is commonly used in outdoor positioning applications, and in particular in drone navigation. However, this system is not operational in indoor environments, for several reasons: on the one hand, the accuracy of standard GPS is in the order of 3 to 15 meters, and on the other hand there is a strong attenuation. signal inside buildings, which makes this system unsuitable for an indoor environment in most cases.
  • Document CN108170159 describes a method of changing position for drones forming an aerial pattern, in which each drone follows a precise sequence.
  • US2018136646 relates to systems and methods for generating a morphing sequence for an air show.
  • the systems and methods may include: receiving, on a computing device including a processor, first frame data defining a first location for each drone in the swarm in a first image of the air show; receiving, on the computing device, the second frame data defining a second location for each drone in a second image of the air show; and generating the morphing sequence, defining a flight path for each drone to move from the first location associated with the first image to the second location associated with the second image.
  • Document US10114384 describes a method of implementing a formation flight path coordination for an evolving group of drones comprising a recursive architecture with a leader drone and a plurality of follower drones in communication with the leader drone.
  • CN108153327 discloses a quadcopter drone outdoor training lighting performance system and corresponding control method.
  • the drone's hardware configuration, control tests, host computer compilation and communication link design are included, and one of the primary goals is to perform light performance with drones.
  • document WO2018134284 relates to a system making it possible to provide a visual aerial presentation, and which comprises a ground control station and at least two drones, each drone comprising a body, an integrated display and a control unit designed to move the drone according to position information.
  • the present invention aims to overcome the drawbacks of the state of the art, in particular the limitations of systems and methods for positioning drones when it comes to flying a swarm of drones.
  • the present invention relates to a method for automatically positioning a plurality of drones evolving in a swarm, each drone comprising an inertial sensor, a localization module for a satellite positioning system, an altitude sensor, an image sensor, an ultra-wideband communication module (UWB) and a central computer, said method comprising for each drone :
  • the inertial sensor comprises an inertial measurement unit (IMU), the location module comprises a GPS receiver, the altitude sensor comprises a barometric pressure sensor and / or an ultrasonic sensor, and the sensor image is a vertical view camera, called a ventral camera.
  • IMU inertial measurement unit
  • the location module comprises a GPS receiver
  • the altitude sensor comprises a barometric pressure sensor and / or an ultrasonic sensor
  • the sensor image is a vertical view camera, called a ventral camera.
  • the step of measuring distances by UWB communication is carried out with a Time Difference of Arrival (TDoA) technique, by direct calculation of the signal propagation time between the UWB communication module and the UWB fixed antennas with or without synchronization of said module with said antennas, preferably with synchronization.
  • TDoA Time Difference of Arrival
  • TWR Two Way Ranging
  • the step of merging the data from the sensors with the data from the UWB communication comprises: a step of calculating the kinematic variables of the drone from the measurements of the inertial sensor and of a dynamic model implemented in the central computer; a step of integrating the data from the previous step and from the step of measuring UWB distances in a Kalman filter; and a step of estimation by the Kalman filter of the state of the drone.
  • the step of integrating the data into the Kalman filter mainly comprises a prediction step and an update step.
  • the positioning method further comprises at least one innovation test between the prediction step and the update step.
  • the image sensor is able to provide measurements of the speed of the drone, by an optical flow technique, and measurements of the position and attitude of the drone, by a technique of detecting targets on the ground.
  • each drone in the swarm is equipped with at least one light-emitting diode (LED) module, the light intensity of which is adjustable.
  • each drone of the swarm further comprises a magnetometer in addition to the aforementioned sensors.
  • the invention also relates to an automatic positioning system of a plurality of drones evolving in a swarm, for the implementation of the positioning method as presented, this system comprises the plurality of drones and fixed UWB antennas, each drone comprising an ultra-wideband communication module (UWB).
  • UWB ultra-wideband communication module
  • Figure 1 a swarm of drones according to the invention, forming a geometric pattern
  • Figures 2a and 2b schematic views, respectively from above and from the front, of a drone according to one embodiment of the invention
  • Figure 3 a schematic block diagram of the onboard systems of a drone according to the invention
  • Figure 4 a diagram of the positioning system with anchors and targets according to the invention.
  • Figure 5 a diagram of the data fusion between inertial sensor and UWB system according to the invention.
  • Figure 6 an architecture of a data fusion block between inertial sensor and UWB system according to the invention.
  • Figure 7 the main steps of a positioning process according to the invention.
  • Figure 8a a swarm of drones according to the invention, forming a symbolic representation (smiley);
  • Figure 8b An overview of the light output of the swarm in Figure 8a.
  • drone and “swarm” denote by extension, respectively, an aerial drone, or unmanned aerial vehicle (UAV), and a group of drones flying simultaneously and in a coordinated manner.
  • UAV unmanned aerial vehicle
  • Figure 1 schematically shows a swarm 100 of drones 10 forming a particular geometric pattern during an aerial demonstration.
  • swarm 100 can number several hundred or even a few thousand drones 10 operating in small volumes to produce a wide variety of artistic figures.
  • the positioning system of the invention makes it possible to fly a very large number of drones in close proximity with a lower risk of collisions.
  • Different drones can be used.
  • civil rotary-wing drones preferably quadri-rotor drones, such as Parrot Bebop Drone (registered trademark) from the company PARROT SA can be used.
  • drones For the purposes of the invention and of drone shows, which are often nocturnal and require light devices, commercially available drones can easily be functionally modified by incorporating new components as described below.
  • the drones 10 used are of the quadricopter type and each comprise a body 20 and four coplanar propeller motors 30 connected to the body by arms 40.
  • the body 20 has a shape. elongated, and is equipped with two light emitting diode (LED) modules 21a and 21b at both ends. These LEDs allow 10 drones to light up to perform artistic tricks during a nighttime performance outdoors or in a low-light environment, the light intensity of the LEDs being adjustable according to the brightness of the environment.
  • Each drone LED is connected to a control module which allows its light intensity to be adjusted as well as its ignition sequence according to the instructions received.
  • each drone 10 mainly comprises a movement sensor 22, a geolocation module 23 for a satellite positioning system, a communication module 24, a central computer 25, an image sensor 26 and an electric battery 29.
  • the motion sensor 22 is an inertial sensor in the form of a miniature inertial unit of the inertial measurement unit type, known by its acronym IMU (for Inertial Measurement Unit).
  • IMU Inertial Measurement Unit
  • an inertial measurement unit consists of an association of sensors, called proprioceptffs, directly measuring the movements of the mobile on which said unit is fixed, here the drone. 10.
  • sensors are accelerometers and gyrometers. For reasons of miniaturization, these sensors are for example designed according to the technology of microelectromechanical systems (MEMS).
  • MEMS microelectromechanical systems
  • the IMU comprises an accelerometer, called 3 axes, measuring the accelerations along three axes of an inertial measurement frame shown in FIG. 1 (North East Down (NED) frame for example), and a gyrometer, called 3 axes, measuring the rotational speeds around the three axes of a local reference point linked to the drone. Gyrometer readings are only affected by the change in orientation relative to the inertial frame, while accelerometer readings are affected by orientation, rotational speeds, and position and change.
  • the IMU is equipped with an integrated computer in the form of a 32-bit microcontroller, integrating the angular speeds to obtain the attitude angles (roll, pitch and yaw), and successive integrations of the accelerations to obtain the components of the linear velocity vector as well as the position.
  • the IMU can optionally include a gyroscope to directly measure the angular position (or orientation) of the drone.
  • the IMU is thus capable of estimating the attitude and the position of the drone 10 with a view to allowing dead reckoning and servo control of the drone in attitude ensuring its stability in flight.
  • the drone 10 can also include a magnetometer, independent or integrated into the IMU, which makes it possible to determine the absolute orientation of the drone in the terrestrial reference frame by comparison with magnetic north, as well as a barometric pressure sensor 27, both in the form of MEMS.
  • the barometric pressure sensor 27 is used to measure the atmospheric pressure, and therefore, to determine the altitude of the drone according to the well-known formula of barometric leveling. Preferably, this sensor is fixed against a foam block because of its sensitivity to overpressures due to the wind.
  • the drone 10 is equipped with an ultrasonic sensor 28 directed towards the ground and acting as an altimeter.
  • the drone can also include a laser altimeter for even greater accuracy.
  • the barometric pressure sensor 27 and the ultrasonic sensor 28 can function in a complementary manner. For example, when the altitude of the drone exceeds the range of the ultrasonic sensor, the measurement of this altitude is ensured by the barometric pressure sensor, conversely, when the drone is close to the ground, the ultrasonic sensor is preferred.
  • the geolocation module 23 for a satellite positioning system is of the GPS type and essentially comprises a GPS receiver. This module allows the drone 10 to operate geolocalized automatic flights, especially outdoors for obvious reasons of signal quality.
  • the RTK for Real Time Kinematic
  • the GPS module of the drone 10 is implemented in the GPS module of the drone 10.
  • the aforementioned sensors namely the inertial measurement unit 22 (IMU), the barometric pressure sensor 27, the ultrasonic sensor 28, the geolocation module 23 (GPS) and, optionally, the magnetometer, thus allow positioning of the drone 10 outdoors thanks to orientation, speed and horizontal position measurements.
  • the GPS module and the magnetometer cannot function properly indoors, especially due to insufficient precision and wave disturbance phenomena. Therefore, the drone 10 therefore uses the image sensor 26 indoors to compensate for the missing measurements from the GPS module and the magnetometer.
  • the image sensor 26 is a camera placed under the drone 10, which will be called the ventral camera.
  • the ventral camera 26 is characterized by its angles of view, vertical and horizontal, and is used in combination with precise altitude sensors (ultrasound or laser) to provide measurements of the speed and position of the drone.
  • the ventral camera 26, thanks to the technique of optical flow (or visual scrolling), allows an estimation of the speed of rotation of said camera around its axis, which speed corresponds to a change in orientation of the drone or to a speed yaw rate, as well as an estimate of the horizontal speed of the drone.
  • the optical flow technique can be used to control the drone in horizontal speed in the case of hovering indoors in the absence of external disturbances.
  • the ventral camera 26 is also used to determine the position of the drone 10 by detecting targets on the ground such as the “ArUco” targets or the “carpet”. magical ".
  • targets on the ground such as the “ArUco” targets or the “carpet”. magical ".
  • the principle of the magic carpet is described in patent application FR1350054 in the name of the French company PARROT SA.
  • ventral camera 26 makes it possible to obtain measurements of the speed, by optical flow, of the position and the orientation of the drone 10 indoors, by detection of targets (ArUco or magic carpet).
  • the drone 10 is positioned thanks to a fusion of the data of the motion and position sensors and of the communication data.
  • the communication module 24 is a radiofrequency module using Ultra Wide Band UWB (for Ultra Wide Band) technology, consisting in transmitting very short pulses, often below a nanosecond, which therefore correspond to very wide bandwidths.
  • UWB technology is characterized by its high temporal resolution which allows very precise measurements of signal propagation delay.
  • the merger of distance measurements from UWB technology with an inertial navigation system, made up of the IMU and a dynamic model of the drone implemented on the computer also makes it possible to have a high-precision localization system. both indoors and outdoors. This data fusion is described later in the description.
  • the communication module 24 of each drone 10 comprises a “target” antenna which cooperates with fixed antennas 200, hereinafter referred to as “anchors”, shown in FIG. 4.
  • the target antennas of all the drones 10 of the swarm 100 and the anchors 200 constitute a UWB positioning system which makes it possible to determine in real time the positions of the drones of the swarm.
  • the position of the target antennas, and thereby of their drones, is determined by trilateration, knowing precisely the distances (du de dy) which separate each target i from the anchors 200. These distances can be determined according to different methods. .
  • the UWB positioning system is based on locating the drones of the swarm by distance measurement (ranging), using localization algorithms based on the TWR (Two Way Ranging) technique for example, or preferably on its version. improved SDS-TWR (Symmetrical Double Sided Two Way Ranging).
  • the localization can also consist of a direct calculation of the propagation time of the signal between the target and the anchors without synchronization of their antennas, this time being known as the Time of Arrival (ToA).
  • ToA Time of Arrival
  • This latter method makes it possible to reduce the impulse traffic and therefore to increase the number of targets that can be located simultaneously as well as the localization frequency, and thus presents an advantageous solution for the location of the drones of a swarm.
  • the target and the anchors are time synchronized, the target broadcasts a message to all the anchors at the same time at a known time.
  • the anchors calculate the signal propagation time as well as the distance separating them from the target.
  • the accuracy of the distance measurements using this system depends crucially on the synchronization between the different radio nodes used (transmitters and receivers), due to the fact that a simple lack of synchronization between the different nodes of the system can cause a large error on the system. position estimation.
  • the distance measurement is carried out with the Time Difference of Arrival (TDoA) technique.
  • TDoA Time Difference of Arrival
  • the central computer 25 constitutes the flight controller of the drone 10 by performing all the processing and analyzes necessary for the smooth running of the flight plan, and for this purpose comprises one or more microprocessors and / or microcontrollers, memory means (RAM, Flash ), data transmission means, as well as any other specific processing unit (digital signal processing, power management, etc.).
  • the various algorithms are implemented in the central computer 25, in particular the control algorithms of the drone 10, which necessarily make use of the state estimation algorithms (orientation and vector speed) of said drone in the form of a Kalman filter 251.
  • FIG. 5 schematically illustrates an example of data fusion in which the position and orientation measurements of the IMU are merged with the distance (and position) measurements of the UWB system to compensate for the shortcomings of each of the two sources.
  • the UWB system does not provide orientation measurements of the drone, unless several UWB modules are distributed on each drone, which risks greatly reducing the sampling rate and therefore the performance of the drone.
  • the IMU on the other hand provides orientation measurements with a lower drift than for position measurements.
  • FIG. 6 represents the simplified architecture of a fusion block 252 implemented in the central computer 25.
  • the information coming from the sensors of the drone are merged with a dynamic model in order to provide an estimate. the state of the drone.
  • the inertial measurement unit 22 supplies the necessary position and attitude measurements to a kinematic model, implemented in the computer 25, the assembly forming an inertial navigation system INS which provides a prediction of the current state of the drone.
  • the UWB system provides position measurements which are merged with the TINS data in merge block 252 which implements an extended Kalman filter 251 (EKF). The measurements of the sensors of the drone 10 as well as the UWB distance measurements are integrated into the Kalman filter.
  • the UWB location system is composed of the UWB 24 module and the IMU 22.
  • Other combinations are possible, for example the UWB module with the GPS module.
  • UWB distance measurements are used as the first source and a sensor (IMU, GPS, Belly camera) as the second data source. It is then a matter of combining the information from the different sensors, in what is called multi-sensor fusion, to compensate for the shortcomings of each of said sensors and produce a more complete estimate of the state of the drone.
  • the calculation unit 25 also includes a “black box” data backup system set to periodically record the variables of interest at a frequency of 200 Hz, without impacting the in-flight performance of the drone.
  • the calculation unit 25 also makes it possible to directly calculate the instantaneous orientation of the drone, in addition to the orientation obtained by the magnetometer, from the movements of the drone and from the position measurements.
  • the calculation unit 25 implements a dedicated algorithm, assimilated to a virtual magnetometer, to guarantee a second estimate of the orientation, in addition to that obtained from the physical magnetometer.
  • the various components and systems of the drone operate according to an automatic positioning method comprising, with reference to FIG. 7:
  • the merger step mainly includes:
  • INS inertial navigation system
  • step 800 of estimation by the Kalman filter of the state of the drone The algorithm for integrating inertial sensor data with UWB distance measurements was developed with an extended Kalman filter (EKF). The algorithm runs in two distinct phases: Prediction 720 and Update 740.
  • the prediction phase consists in estimating the state of the drone by the propagation of the navigation equations (between position, speed and acceleration) fed by the measurements of the IMU in order to produce an estimate of the current state.
  • the update step consists in using the latest UWB distance measurements to correct the predicted state in order to improve the estimates of the inertial navigation system (INS).
  • INS inertial navigation system
  • the equations of the algorithm associated with each phase of the EKF filter are defined. The example below describes the sequence of execution of these equations which takes place in two stages: a prediction of the state of the drone with the inertial navigation system and a correction phase with the UWB distance measurements. For the sake of simplicity, only the sensors allowing the observation of the position (ventral camera) are integrated in the filters below. The integration of other sensors (barometer, ultrasonic sensor, accelerometer, gyroscope, etc.) will not be detailed.
  • P k / k the error covariance matrix, which represents a measure of the state's precision estimated at time k;
  • H k the observability matrix which projects the state in the space of measurements at the instant k;
  • R k the measurement noise covariance matrix at time k, which makes it possible to define the precision of a measurement
  • Z k the vector of measurements or observations at time k
  • Dt the time interval since the last prediction step.
  • the prediction is based on the following equations:
  • the update consists of a set of operations to estimate the quantities listed below:
  • the integration takes the following form:
  • the correct integration of the position measurement depends solely on the correct determination of the standard deviations of each of the measurement noises. Note that initializing the covariance matrix with a standard deviation of 1 m is completely arbitrary. Otherwise, initialization should depend on knowing the position of the drone at startup.
  • the innovation test consists of comparing the innovation induced by a measure to the covariance of this innovation.
  • FIGS. 8a and 8b illustrate an example of a swarm of drones according to the invention, forming a symbolic representation, and an aspect of the light rendering that can be obtained.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)

Abstract

La présente invention concerne un procédé de positionnement automatique d'une pluralité de drones (10) évoluant en essaim (100), chaque drone comportant un capteur inertiel (22), un module de localisation (23) pour système de positionnement par satellites, un capteur d'altitude (27, 28), un capteur d'image (26), un module de communication (24) ultra-large bande (UWB) et un calculateur central (25), ledit procédé comprenant pour chaque drone : une étape (500) de mesure de la position et de l'attitude du drone par les différents capteurs et par le module de localisation; une étape (600) de mesure de distances au moyen du module de communication (24), comme cible, et de modules radiofréquence fixes (200), comme ancres; une étape (700) de fusion des données issues de tout ou partie des capteurs du drone avec les mesures de distance obtenues à l'étape précédente, dans le calculateur central; une étape (800) d'estimation de l'état dudit drone.

Description

Procédé et système de positionnement automatique de drones en essaim
DOMAINE TECHNIQUE
La présente invention appartient au domaine général des drones aériens, notamment du contrôle d’un essaim de drones, et concerne plus particulièrement un procédé et un système de positionnement automatique de drones évoluant en essaim, par exemple, lors d’un spectacle aérien (compositions artistiques, chorégraphies, etc.).
L'invention a également trait à ce qu'il est commun d’appeler la robotique en essaim, dès lors qu'elle concerne un système complexe à plusieurs robots (drones) relativement simples.
ÉTAT DE LA TECHNIQUE
Les véhicules aériens sans pilote (UAV), communément appelés drones aériens ou simplement drones, sont largement répandus de par leur usage civil, en particulier en tant qu’objets de divertissement et de loisir. Si la prise de vue aérienne, photo et vidéo, reste un des principaux domaines d’application de la filière drone civil, de nouvelles applications voient le jour, comme les spectacles de drones, pour ne citer que cette application en lien direct avec la présente invention.
Un spectacle de drones consiste à faire voler un essaim de drones en vue d’accomplir des démonstrations artistiques telles que des chorégraphies, des compositions aériennes animées et autres. Ce type de divertissement connaît un intérêt grandissant en raison de l’accessibilité des drones, et surtout, des possibilités qu'il offre, laissant libre cours à la créativité et à l’imagination de chaque utilisateur. Récemment, des spectacles nocturnes de drones lumineux ont remplacé des attractions traditionnelles comme les feux d’artifice, avec une empreinte environnementale bien moindre.
Les acteurs du secteur des spectacles de drones dans le monde n’ont de cesse de chercher à optimiser la commande des drones en essaim en vue de réaliser des figures aériennes de plus en plus complexes et maîtrisées. L'optimisation de la commande nécessite des solutions de positionnement robustes en termes de stabilité et de performance.
Une solution de positionnement, connue sous le nom de « tapis magique », est décrite dans le document FR 1350054. Cette solution n'est cependant pas suffisante pour assurer le positionnement des drones en extérieur ou lorsque les conditions de visibilité des caméras embarquées se dégradent, à cause de l’altitude ou des conditions météorologiques par exemple.
Connaître la position des drones dans leur environnement est une question importante, voire cruciale, dans le cadre des spectacles de drones qui nécessite une coordination réglée au centimètre près. En environnement intérieur, certaines approches utilisent des signaux optiques tels que l'infrarouge, le laser ou le suivi vidéo (comme le système Vicon). Ces solutions restent assez coûteuses et complexes d'installation. Sous ces contraintes, la localisation basée sur les signaux radio présente la meilleure alternative. Ces dernières années, de nombreux standards radio pour la localisation ont été testés comme le WiFi, le Bluetooth ou le ZigBee. Ces derniers fournissent une information de localisation en se basant sur la force du signal reçu. Les performances sont souvent décevantes en raison du manque de précision (environ 2,5 mètres) et se détériorent encore plus lorsque le mobile est en mouvement, n'est pas en ligne de vue ou s'il y a des trajets multiples (murs, objets).
Le système de positionnement le plus répandu est le positionnement par satellite, ou GPS dans sa version américaine. Il est couramment utilisé dans des applications pour le positionnement extérieur, et notamment dans la navigation de drones. Néanmoins, ce système n’est pas opérationnel dans les environnements intérieurs, pour plusieurs raisons : d’une part, la précision du GPS standard est de l’ordre de 3 à 15 mètres, et d’autre part il y a une forte atténuation du signal à l’intérieur des bâtiments, ce qui rend ce système inapproprié pour un environnement intérieur dans la plupart des cas.
De façon générale, on présente ci-dessous quelques solutions dans le domaine des spectacles de drones et plus généralement du vol en essaim.
Le document CN108170159 décrit un procédé de changement de position pour des drones formant un motif aérien, dans lequel chaque drone suit une séquence précise. Le document US2018136646 concerne des systèmes et des procédés permettant de générer une séquence de morphing pour un spectacle aérien. Les systèmes et les procédés peuvent comprendre : la réception, sur un dispositif informatique comprenant un processeur, de premières données de trame définissant un premier emplacement pour chaque drone de l’essaim dans une première image du spectacle aérien ; la réception, sur le dispositif informatique, des secondes données de trame définissant un second emplacement pour chaque drone dans une seconde image du spectacle aérien ; et la génération de la séquence de morphing, définissant un trajet de vol pour chaque drone afin de passer du premier emplacement associé à la première image au second emplacement associé à la seconde image.
Le document US10114384 décrit un procédé de mise en œuvre d'une coordination de trajectoire de vol en formation pour un groupe évolutif de drones comprenant une architecture récursive avec un drone leader et une pluralité de drones suiveurs en communication avec le drone leader.
Le document CN108153327 décrit un système de performance d'éclairage de formation en extérieur pour drone quadrirotor et un procédé de commande correspondant. La configuration matérielle du drone, les tests de contrôle, la compilation de l’ordinateur hôte et la conception des liaisons de communication sont inclus, et l’un des principaux objectifs est d’effectuer des performances de lumière avec les drones.
Enfin le document WO2018134284 se rapporte à un système permettant de fournir une présentation aérienne visuelle, et qui comprend une station de commande au sol et au moins deux drones, chaque drone comportant un corps, un afficheur intégré et une unité de commande conçue pour déplacer le drone selon des informations de position.
PRÉSENTATION DE L’INVENTION
La présente invention vise à pallier les inconvénients de l'état de la technique, notamment les limites des systèmes et des procédés de positionnement des drones lorsqu’il s'agit de faire voler un essaim de drones.
À cet effet, la présente invention concerne un procédé de positionnement automatique d'une pluralité de drones évoluant en essaim, chaque drone comportant un capteur inertiel, un module de localisation pour système de positionnement par satellites, un capteur d'altitude, un capteur d’image, un module de communication ultra-large bande (UWB) et un calculateur central, ledit procédé comprenant pour chaque drone :
- une étape de mesure de la position et de l'attitude du drone par les différents capteurs et par le module de localisation ;
- une étape de mesure de distances au moyen du module de communication et d'antennes UWB fixes, permettant une détermination de la position du drone ;
- une étape de fusion des données issues de tout ou partie des capteurs du drone avec les mesures de distances et de position obtenues à l’étape précédente, dans le calculateur central ; et
- une étape d’estimation de l’état dudit drone.
Selon un mode de réalisation, le capteur inertiel comprend une unité de mesure inertielle (IMU), le module de localisation comprend un récepteur GPS, le capteur d’altitude comprend un capteur de pression barométrique et/ou un capteur à ultrasons, et le capteur d'image est une caméra à visée verticale, dite caméra ventrale.
Plus particulièrement, l’étape de mesure de distances par la communication UWB est réalisée avec une technique Time Différence of Arrivai (TDoA), par calcul direct du temps de propagation du signal entre le module de communication UWB et les antennes fixes UWB avec ou sans synchronisation dudit module avec lesdites antennes, de préférence avec synchronisation.
Une autre technique Two Way Ranging (TWR) peut également être utilisée pour la mesure de distances.
Avantageusement, l’étape de fusion des données des capteurs avec les données de la communication UWB comprend : une étape de calcul des variables cinématiques du drone à partir des mesures du capteur inertiel et d'un modèle dynamique implémenté dans le calculateur central ; une étape d’intégration des données de l'étape précédente et de l'étape de mesure de distances UWB dans un filtre de Kalman ; et une étape d’estimation par le filtre de Kalman de l'état du drone. L’étape d’intégration des données dans le filtre de Kalman comprend principalement une étape de prédiction et une étape de mise à jour.
Selon un mode de réalisation, le procédé de positionnement comprend en outre au moins un test d'innovation entre l'étape de prédiction et l’étape de mise à jour. De façon avantageuse, le capteur d’image est apte à fournir des mesures de vitesse du drone, par une technique de flux optique, et des mesures de position et d'attitude du drone, par une technique de détection de cibles au sol.
Plus particulièrement, chaque drone de l’essaim est équipé d'au moins un module de diode électroluminescente (LED), dont l'intensité lumineuse est réglable. Selon un mode de réalisation, chaque drone de l’essaim comporte en outre un magnétomètre en plus des capteurs précités.
L’invention porte également sur un système de positionnement automatique d’une pluralité de drones évoluant en essaim, pour la mise en œuvre du procédé de positionnement tel que présenté, ce système comporte la pluralité de drones et des antennes UWB fixes, chaque drone comportant un module de communication ultra- large bande (UWB).
Les concepts fondamentaux de l’invention venant d'être exposés ci-dessus dans leur forme la plus élémentaire, d’autres détails et caractéristiques ressortiront plus clairement à la lecture de la description qui suit et en regard des dessins annexés, donnant à titre d'exemple non limitatif un mode de réalisation d’un procédé et d’un système de positionnement de drones en essaim conformes aux principes de l’invention.
BRÈVE DESCRIPTION DES FIGURES Les différentes figures et les éléments d’une même figure ne sont pas nécessairement représentés à la même échelle. Sur l’ensemble des figures, les éléments identiques ou équivalents portent la même référence numérique.
Il est ainsi illustré en :
Figure 1 : un essaim de drones selon l'invention, formant un motif géométrique ;
Figures 2a et 2b : des vues schématiques, respectivement de dessus et de face, d’un drone selon un mode de réalisation de l’invention ; Figure 3 : un diagramme bloc schématique des systèmes embarqués d’un drone selon l’invention ;
Figure 4 : un schéma du système de positionnement avec ancres et cibles selon l’invention ;
Figure 5 : un schéma de la fusion de données entre capteur inertiel et système UWB selon l’invention ;
Figure 6 : une architecture d’un bloc de fusion de données entre capteur inertiel et système UWB selon l’invention ;
Figure 7 : les principales étapes d’un procédé de positionnement selon l’invention ;
Figure 8a : un essaim de drones selon l’invention, formant une figuration symbolique (smiley) ;
Figure 8b : un aperçu du rendu lumineux de l’essaim de la figure 8a. DESCRIPTION DÉTAILLÉE DE MODES DE RÉALISATION
Dans le mode de réalisation décrit ci-après, on fait référence à un système de positionnement automatique d’un essaim de drones et à son procédé de mise en œuvre, destinés principalement à une application dans le domaine des spectacles de drones. Cet exemple non limitatif est donné pour une meilleure compréhension de l’invention et n’exclut pas l’utilisation du système et du procédé pour, par exemple, commander un essaim de drones effectuant une inspection coordonnée d’une structure (avion, pales d'éolienne, etc.), d’un site industriel ou autres.
Dans la suite de la description, les termes « drone » et « essaim » désignent par extension, respectivement, un drone aérien, ou véhicule aérien sans pilote (UAV), et un groupe de drones volant simultanément et de façon coordonnée.
La figure 1 représente schématiquement un essaim 100 de drones 10 formant un motif géométrique particulier lors d’une démonstration aérienne. Selon le cas, l’essaim 100 peut compter plusieurs centaines voire quelques milliers de drones 10 évoluant dans des volumes réduits pour produire une grande variété de figures artistiques.
Le système de positionnement de l’invention permet de faire voler un très grand nombre de drones de façon rapprochée avec un risque de collisions moindre. Différents drones peuvent être utilisés. Toutefois, il est préférable d’utiliser des drones de petite taille, voire des micro-drones, en raison de leur faible masse, de leur grande maniabilité et de l’agrément esthétique qu’ils offrent lorsqu'ils composent un motif, autrement dit, plus les drones sont petits plus les motifs formés paraissent « lisses » et uniformes lors d’un spectacle aérien. Par exemple, peuvent être utilisés des drones civils à voilure tournante, de préférence quadri rotor tels que Parrot Bebop Drone (marque déposée) de la société PARROT SA.
Pour les besoins de l’invention et des spectacles de drones, lesquels sont souvent nocturnes et nécessitent des dispositifs lumineux, les drones se trouvant dans le commerce peuvent aisément être modifiés fonctionnellement par l’intégration de nouveaux composants comme décrit ci-après.
Les drones 10 utilisés, selon l’exemple de réalisation des figures 2a et 2b, sont de type quadricoptère et comportent, chacun, un corps 20 et quatre moteurs à hélice 30 coplanaires reliés au corps par des bras 40. Le corps 20 présente une forme allongée, et est équipé de deux modules de diodes électroluminescentes (LED) 21a et 21 b à ses deux extrémités. Ces LED permettent aux drones 10 de s’illuminer pour réaliser des figures artistiques lors d’un spectacle nocturne en extérieur ou dans un environnement faiblement éclairé, l’intensité lumineuse des LED pouvant être réglée en fonction de la luminosité du milieu. Chaque LED drone est connectée à un module de contrôle qui permet de régler son intensité lumineuse ainsi que sa séquence d'allumage en fonction des consignes reçues.
Le corps 20 permet en outre d’embarquer les composants électroniques (avionique, alimentation, etc.) nécessaires au vol autonome du drone 10. En référence à la figure 3, chaque drone 10 comporte principalement un capteur de mouvement 22, un module de géolocalisation 23 pour système de positionnement par satellites, un module de communication 24, un calculateur central 25, un capteur d’image 26 et une batterie électrique 29.
Le capteur de mouvement 22 est un capteur inertiel sous forme d’une centrale inertielle miniature de type unité de mesure inertielle, connue par son acronyme anglosaxon IMU (pour Inertial Measurement Unit). En effet, une unité de mesure inertielle est constituée d'une association de capteurs, dits proprioceptffs, mesurant directement les mouvements du mobile sur lequel ladite unité est fixée, ici le drone 10. De tels capteurs sont des accéléromètres et des gyromètres. Pour des raisons de miniaturisation, ces capteurs sont par exemple conçus selon la technologie des microsystèmes électromécaniques (MEMS).
L’IMU comporte un accéléromètre, dit 3 axes, mesurant les accélérations selon trois axes d’un repère inertiel de mesure représenté sur la figure 1 (repère North East Down (NED) par exemple), et un gyromètre, dit 3 axes, mesurant les vitesses de rotations autour des trois axes d’un repère local lié au drone. Les mesures du gyromètre ne sont affectées que par l’évolution de l’orientation par rapport au repère inertiel, alors que les mesures de l’accéléromètre sont affectées par l’orientation, par les vitesses de rotation et par la position et son évolution. L’IMU est munie d’un calculateur intégré sous forme de microcontrôleur, de type 32 bits, opérant une intégration des vitesses angulaires pour obtenir les angles d’attitude (roulis, tangage et lacet), et des intégrations successives des accélérations pour obtenir les composantes du vecteur vitesse linéaire ainsi que la position. L’IMU peut éventuellement comporter un gyroscope pour mesurer directement la position angulaire (ou orientation) du drone.
L’IMU est ainsi capable d’estimer l’attitude et la position du drone 10 en vue de permettre une navigation à l’estime (ou dead reckoning) et un asservissement du drone en attitude assurant sa stabilité en vol. Le drone 10 peut en outre comporter un magnétomètre, indépendant ou intégré à l’IMU, qui permet de déterminer l’orientation absolue du drone dans le repère terrestre par comparaison au nord magnétique, ainsi qu’un capteur de pression barométrique 27, tous deux sous forme de MEMS.
Le capteur de pression barométrique 27 sert à mesurer la pression atmosphérique, et de ce fait, à déterminer l’altitude du drone selon la formule bien connue du nivellement barométrique. De préférence, ce capteur est fixé contre un bloc en mousse en raison de sa sensibilité aux surpressions dues au vent.
Pour une mesure plus précise son altitude, et notamment dans le cas des vols proches du sol, le drone 10 est équipé d’un capteur à ultrasons 28 dirigé vers le sol et agissant comme altimètre. Le drone peut également comporter un altimètre laser pour une précision encore plus grande.
Le capteur de pression barométrique 27 et le capteur à ultrasons 28 peuvent fonctionner de manière complémentaire. Par exemple, lorsque l’altitude du drone dépasse la portée du capteur à ultrasons, la mesure de cette altitude est assurée par le capteur de pression barométrique, inversement, lorsque le drone est proche du sol, le capteur à ultrasons est privilégié.
Le module de géolocalisation 23 pour système de positionnement par satellites est de type GPS et comprend essentiellement un récepteur GPS. Ce module permet au drone 10 d’opérer des vols automatiques géolocal isés, surtout en extérieur pour des raisons évidentes de qualité du signal.
Dans un mode de réalisation particulier, la technologie de la cinématique temps réel RTK (pour Real Time Kinematic ) est implémentée dans le module GPS du drone 10.
Les capteurs précités, à savoir l’unité de mesure inertielle 22 (IMU), le capteur de pression barométrique 27, le capteur à ultrasons 28, le module de géolocalisation 23 (GPS) et, éventuellement, le magnétomètre, permettent ainsi un positionnement du drone 10 en extérieur grâce aux mesures d’orientation, de vitesses et de position horizontale. Toutefois, le module GPS et le magnétomètre ne peuvent pas fonctionner convenablement en intérieur, en particulier à cause d’une précision insuffisante et de phénomènes de perturbation des ondes. De ce fait, le drone 10 utilise donc le capteur d'image 26 en intérieur pour compenser les mesures manquantes du module GPS et du magnétomètre. Le capteur d'image 26 est une caméra placée sous le drone 10, qu’on appellera caméra ventrale.
La caméra ventrale 26 est caractérisée par ses angles de champ, vertical et horizontal, et est utilisée en combinaison avec des capteurs d'altitude précis (ultrasons ou laser) pour fournir des mesures de vitesse et de position du drone. La caméra ventrale 26, grâce à la technique du flux optique (ou du défilement visuel), permet une estimation de la vitesse de rotation de ladite caméra autour de son axe, laquelle vitesse correspond à un changement d’orientation du drone ou à une vitesse de lacet, ainsi qu’une estimation de la vitesse horizontale du drone. Avantageusement, la technique du flux optique peut être utilisée pour asservir le drone en vitesse horizontale dans le cas d’un vol stationnaire en intérieur en l’absence de perturbations extérieures.
La caméra ventrale 26 est également utilisée pour déterminer la position du drone 10 grâce à une détection de cibles au sol telles que les cibles « ArUco » ou le « tapis magique ». Le principe du tapis magique est décrit dans la demande de brevet FR1350054 au nom de la société française PARROT SA.
Ainsi, l’utilisation de la caméra ventrale 26 permet d’obtenir des mesures de la vitesse, par flux optique, de la position et de l’orientation du drone 10 en intérieur, par détection de cibles (ArUco ou tapis magique).
Selon un aspect avantageux de l’invention, le drone 10 est positionné grâce à une fusion des données des capteurs de mouvement et de position et des données de communication.
Il faut également noter que les différents capteurs du drone sont sujets à des erreurs systématiques d’échelle et d’offset, ces erreurs sont estimées puis corrigées selon une estimation de la dérive, de sorte que leur effet sur le vol du drone reste très négligeable.
Le module de communication 24 est un module radiofréquence utilisant la technologie Ultra Large Bande UWB (pour Ultra Wide Band ), consistant à transmettre des impulsions très brèves, souvent en dessous de la nanoseconde, qui correspondent donc à des bandes passantes très larges. La technologie UWB se caractérise par sa forte résolution temporelle qui permet d’effectuer des mesures très précises du temps de propagation du signal. De plus, la fusion de mesures de distance issues de la technologie UWB avec un système de navigation inertielle, composé de l’IMU et d’un modèle dynamique du drone implémenté sur le calculateur, permet d’avoir un système de localisation haute précision aussi bien en intérieur qu’en extérieur. Cette fusion des données est décrite plus loin dans la description.
Le module de communication 24 de chaque drone 10 comporte une antenne « cible » qui coopère avec des antennes fixes 200, ci-après dénommées « ancres », représentées sur la figure 4. Les antennes cibles de tous les drones 10 de l'essaim 100 et les ancres 200 constituent un système de positionnement UWB qui permet de déterminer en temps réel les positions des drones de l'essaim.
La détermination de la position des antennes cibles, et par là-même de leurs drones, s'effectue par trilatération en connaissant précisément les distances (du de dy) qui séparent chaque cible i des ancres 200. Ces distances peuvent être déterminées selon différentes méthodes. Le système de positionnement UWB repose sur une localisation des drones de l’essaim par mesure de distance (ranging), au moyen d’algorithmes de localisation reposant sur la technique TWR (Two Way Ranging) par exemple, ou de préférence, sur sa version améliorée SDS-TWR ( Symmetrical Double Sided Two Way Ranging). La localisation peut également consister en un calcul direct du temps de propagation du signal entre la cible et les ancres sans synchronisation de leurs antennes, ce temps étant connu sous le nom de Time of Arrivai (ToA).
Cette dernière méthode permet de diminuer le trafic d’impulsions et donc d'augmenter le nombre de cibles pouvant être localisées simultanément ainsi que la fréquence de localisation, et présente alors une solution avantageuse pour la localisation des drones d'un essaim.
Dans une configuration alternative, la cible et les ancres sont synchronisées dans le temps, la cible diffuse un message à toutes les ancres en même temps à un instant connu. À la réception du message au niveau des ancres, ces dernières calculent le temps de propagation du signal ainsi que la distance qui les sépare de la cible. La précision des mesures de distance utilisant ce système dépend crucialement de la synchronisation entre les différents nœuds radio utilisés (émetteurs et récepteurs), en raison du fait qu’un simple défaut de synchronisation entre les différents nœuds du système peut causer une erreur importante sur l’estimation de position.
Selon un mode de réalisation préféré, la mesure de distances est réalisée avec la technique Time Différence of Arrivai (TDoA).
Le calculateur central 25 constitue le contrôleur de vol du drone 10 en exécutant tous les traitements et analyses nécessaires au bon déroulement du plan de vol, et comprend à cet effet un ou plusieurs microprocesseurs et/ou microcontrôleurs, des moyens de mémoire (RAM, Flash), des moyens de transmission de données, ainsi que toute autre unité de traitement spécifique (traitement numérique du signal, gestion de l’alimentation, etc.). Les différents algorithmes (localisation, fusion, estimation, commande, etc.) sont implémentés dans le calculateur central 25, en particulier les algorithmes de commande du drone 10, qui font nécessairement appel aux algorithmes d'estimation de l’état (orientation et vecteur vitesse) dudit drone sous forme d’un filtre de Kalman 251 . La figure 5 schématise un exemple de fusion de données dans lequel les mesure de position et d’orientation de l’IMU sont fusionnées avec les mesures de distance (et de position) du système UWB pour compenser les lacunes de chacune des deux sources. En effet, le système UWB ne fournit pas de mesures d’orientation du drone, à moins que plusieurs modules UWB soient répartis sur chaque drone, ce qui risque de réduire fortement le taux d’échantillonnage et donc les performances du drone. L’IMU quant à elle fournit des mesures d’orientation avec une plus faible dérive que pour les mesures de position. De ce fait, la fusion permet bel et bien de profiter des avantages de chaque système. Plus précisément, la figure 6 représente l’architecture simplifiée d’un bloc de fusion 252 implémenté dans le calculateur central 25. Grâce aux algorithmes d'estimation, les informations provenant des capteurs du drone sont fusionnées avec un modèle dynamique afin de fournir une estimation de l’état du drone. L’unité de mesure inertielle 22 fournit les mesures nécessaires de position et d'attitude à un modèle cinématique, implémenté dans le calculateur 25, l’ensemble formant un système de navigation inertielle INS qui fournit une prédiction de l’état courant du drone. Le système UWB fournit des mesures de position qui sont fusionnées avec les données de TINS dans le bloc de fusion 252 qui implémente un filtre de Kalman 251 étendu (EKF). Les mesures des capteurs du drone 10 ainsi que les mesures de distance UWB sont intégrées dans le filtre de Kalman.
Le système de localisation UWB, selon l'exemple de la figure 5, est composé du module UWB 24 et de l’IMU 22. D’autres combinaisons sont possibles comme par exemple le module UWB avec le module GPS. Plus généralement, pour effectuer une fusion des données en vue de la localisation du drone, on utilise les mesures de distance UWB comme première source et un capteur (IMU, GPS, Caméra ventrale) comme deuxième source de données. Il s'agit alors de combiner les informations provenant des différents capteurs, dans ce qu’on appelle la fusion multi-capteurs, pour compenser les lacunes de chacun desdits capteurs et produire une estimation plus complète de l’état du drone.
L'unité de calcul 25 comprend également un système de sauvegarde de données « boite noire » réglé pour enregistrer périodiquement les variables d'intérêt à une fréquence de 200 Hz, sans impacter les performances en vol du drone. Selon un mode de réalisation particulièrement avantageux, l’unité de calcul 25 permet également de calculer directement l’orientation instantanée du drone, en plus de l'orientation obtenue par le magnétomètre, à partir des mouvements du drone et des mesures de position. A cet effet, l'unité de calcul 25 implémente un algorithme dédié, assimilé à un magnétomètre virtuel, pour garantir une deuxième estimation de l’orientation, en plus de celle issue du magnétomètre physique.
Les différents composants et systèmes du drone fonctionnent selon un procédé de positionnement automatique comprenant, en référence à la figure 7 :
- une étape 500 de mesure de la position et de l’attitude du drone par les différents capteurs et par le module de localisation ;
- une étape 600 de mesure de distances au moyen du module de communication 24 et des antennes UWB fixes 200, permettant une détermination de la position du drone ;
- une étape 700 de fusion des données issues de tout ou partie des capteurs du drone avec les mesures de distances et de position obtenues à l’étape précédente, dans le calculateur central ; et
- une étape 800 d’estimation de l’état dudit drone.
L’étape de fusion comprend principalement :
- une étape 710 de calcul des variables cinématiques du drone au moyen du système de navigation inertiel (INS) ;
- une étape d’intégration des données des étapes 710 et 600 dans le filtre de Kalman 251 ; et
- une étape 800 d'estimation par le filtre de Kalman de l’état du drone. L’algorithme d’intégration des données des capteurs inertiels avec les mesures de distance UWB a été développé avec un filtre de Kalman étendu (EKF). L’algorithme s’exécute en deux phases distinctes : prédiction 720 et mise à jour 740.
La phase de prédiction consiste à estimer l’état du drone par la propagation des équations de navigation (entre position, vitesse et accélération) alimentées par les mesures de l’IMU afin de produire une estimation de l’état courant. L’étape de mise à jour consiste quant à elle à utiliser les dernières mesures de distance UWB pour corriger l’état prédit dans le but d’améliorer les estimations du système de navigation inertielle (INS). Les équations de l’algorithme associé à chaque phase du filtre EKF sont définies. L’exemple ci-dessous décrit la séquence d’exécution de ces équations qui se déroule sur deux étapes : une prédiction de l’état du drone avec le système de navigation inertielle et une phase de correction avec les mesures de distance UWB. Par souci de simplicité, seuls les capteurs permettant l’observation de la position (caméra ventrale) sont intégrés dans les filtres ci-après. L'intégration des autres capteurs (baromètre, capteur à ultrasons, accéléromètre, gyroscope, etc.) ne sera pas détaillée.
Les différentes variables sont définies comme suit : Xk/k : l'estimation d’état à l'instant k ;
Pk/k : la matrice de covariance de l'erreur, qui représente une mesure de la précision de l’état estimée à l’instant k ;
Qk = Q * At : la matrice de covariance du bruit de modèle, qui représente une évaluation de l'écart entre le modèle théorique et la réalité ; Fk : la matrice d'évolution de l'état à l'instant k ;
Hk : la matrice d’observabilité qui projette l'état dans l’espace des mesures à l’instant k ;
Rk : la matrice de covariance du bruit de mesure à l'instant k, qui permet de définir la précision d'une mesure ; Zk : le vecteur des mesures ou observations à l'instant k ; et Dt : l’intervalle de temps depuis la dernière étape de prédiction.
La prédiction repose sur les équations suivantes :
Figure imgf000016_0001
La mise à jour consiste en un ensemble d’opérations pour estimer les grandeurs listées ci-dessous :
L’innovation, qui correspond à l’écart de la mesure à la prédiction :
La covariance de l'innovation :
Le gain de Kalman optimal :
Figure imgf000016_0002
Figure imgf000016_0003
La mise à jour de l’état :
La mise à jour de la covariance : Par exemple, dans le cas où le capteur fournit directement des informations de position (comme pour un système de tapis magique coopérant avec la caméra ventrale), l’intégration prend la forme suivante :
Avec :
Figure imgf000017_0001
sxmeas l’écart-type associé à la mesure xmeas ; sxy = sy = sc : l’écart-type du bruit de modélisation des variables x et y.
Dans ce cas simple, la bonne intégration de la mesure de position dépend uniquement de la bonne détermination des écart-types de chacun des bruits de mesure. Il faut noter que l'initialisation de la matrice de covariance avec un écart- type de 1 m est totalement arbitraire. Autrement, l’initialisation doit dépendre de la connaissance de la position du drone au démarrage.
Pour pallier aux problèmes de multi-trajets (réception d’une onde qui n’a pas effectué un trajet direct depuis la source) liés à l'utilisation de la technologie UWB, des tests d’innovation 730 sont introduits avant l'utilisation d’une mesure lors de l'étape de mise à jour. Le test d'innovation consiste à comparer l'innovation induite par une mesure à la covariance de cette innovation.
Les figures 8a et 8b illustrent un exemple d’essaim de drones selon l'invention, formant une figuration symbolique, et un aspect du rendu lumineux pouvant être obtenu.

Claims

R E V E N D I C A T I O N S
1. Procédé de positionnement automatique d’une pluralité de drones (10) évoluant en essaim (100), chaque drone comportant un capteur inertiel (22), un module de localisation (23) pour système de positionnement par satellites, un capteur d’altitude (27, 28), un capteur d’image (26), un module de communication (24) ultra-large bande (UWB) et un calculateur central (25), ledit procédé étant caractérisé en ce qu’il comprend pour chaque drone : une étape (500) de mesure de la position et de l'attitude du drone par les différents capteurs et par le module de localisation ; une étape (600) de mesure de distances au moyen du module de communication (24) et d’antennes UWB fixes (200), permettant une détermination de la position du drone ; une étape (700) de fusion des données issues de tout ou partie des capteurs du drone avec les mesures de distances et de position obtenues à l’étape précédente, dans le calculateur central ; et une étape (800) d'estimation de l’état dudit drone.
2. Procédé de positionnement selon la revendication 1 , dans lequel le capteur inertiel (22) comprend une unité de mesure inertielle (IMU), le module de localisation (23) comprend un récepteur GPS, le capteur d'altitude (27, 28) comprend un capteur de pression barométrique (27) et/ou un capteur à ultrasons (28), et dans lequel le capteur d’image (26) est une caméra à visée verticale, dite caméra ventrale.
3. Procédé de positionnement selon l’une des revendications 1 ou 2, dans lequel l’étape (600) de mesure de distances par la communication UWB est réalisée avec une technique Time Différence of Arrivai (TDoA), par calcul direct du temps de propagation du signal entre le module (24) et les antennes (200) avec synchronisation dudit module avec lesdites antennes.
4. Procédé de positionnement selon l'une quelconque des revendications précédentes, dans lequel l’étape (700) de fusion des données des capteurs avec les données de la communication UWB comprend : une étape (710) de calcul des variables cinématiques du drone à partir des mesures du capteur inertiel et d’un modèle dynamique implémenté dans le calculateur central ; une étape d’intégration des données des étapes (710) et (600) dans un filtre de Kalman (251 ) ; et une étape (800) d'estimation par le filtre de Kalman de l’état du drone.
5. Procédé de positionnement selon la revendication 4, dans lequel l'étape d'intégration des données dans le filtre de Kalman comprend principalement une étape (720) de prédiction et une étape (740) de mise à jour.
6. Procédé de positionnement selon la revendication 5, comprenant en outre au moins un test d’innovation (730) entre l’étape de prédiction et l'étape de mise à jour.
7. Procédé de positionnement selon l’une quelconque des revendications précédentes, dans lequel le capteur d’image (26) fournit des mesures de vitesse du drone, par une technique de flux optique, et de position et d'attitude du drone, par une technique de détection de cibles au sol.
8. Procédé de positionnement selon l’une quelconque des revendications précédentes, dans lequel chaque drone (10) est équipé d’au moins un module de diode électroluminescente (LED) (21a, 21b), dont l'intensité lumineuse est réglable.
9. Procédé de positionnement selon l’une quelconque des revendications précédentes, dans lequel chaque drone (10) comporte en outre un magnétomètre.
10. Système de positionnement automatique d’une pluralité de drones (10) évoluant en essaim (100), pour la mise en œuvre du procédé de positionnement selon l’une des revendications 1 à 9, caractérisé en ce qu’il comporte la pluralité de drones et des antennes UWB fixes (200), chacun desdits drones comportant un module de communication (24) ultra-large bande (UWB).
PCT/FR2020/051562 2019-09-12 2020-09-10 Procédé et système de positionnement automatique de drones en essaim WO2021048500A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR1910053 2019-09-12
FR1910053A FR3100895B1 (fr) 2019-09-12 2019-09-12 Procédé et système de positionnement automatique de drones en essaim

Publications (1)

Publication Number Publication Date
WO2021048500A1 true WO2021048500A1 (fr) 2021-03-18

Family

ID=69375433

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2020/051562 WO2021048500A1 (fr) 2019-09-12 2020-09-10 Procédé et système de positionnement automatique de drones en essaim

Country Status (2)

Country Link
FR (1) FR3100895B1 (fr)
WO (1) WO2021048500A1 (fr)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113124856A (zh) * 2021-05-21 2021-07-16 天津大学 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN114485639A (zh) * 2022-01-19 2022-05-13 浙江大学 一种用于室内导航的uwb定位漂移校正方法
CN114543810A (zh) * 2022-02-21 2022-05-27 中山大学 一种复杂环境下的无人机集群无源定位方法及装置
CN114623823A (zh) * 2022-05-16 2022-06-14 青岛慧拓智能机器有限公司 一种融合里程计的uwb多模态定位系统、方法及装置
RU2778829C1 (ru) * 2021-11-13 2022-08-25 Андрей Вадимович Лаврентьев Устройство разрешения составляющих плотного порядка групповой воздушной цели по дальности и азимуту
US20220375354A1 (en) * 2021-05-20 2022-11-24 RAON Convergence, Co. Ltd. Method of determining location for swarm flight using uwb
CN115617079A (zh) * 2022-12-14 2023-01-17 四川轻化工大学 一种可交互无人机系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113120713B (zh) * 2021-04-28 2023-09-08 上海有个机器人有限公司 电梯定位方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR1350054A (fr) 1962-12-11 1964-01-24 Dispositif de stockage pour éléments pesants de grande longueur
FR3000813A1 (fr) * 2013-01-04 2014-07-11 Parrot Drone a voilure tournante comprenant des moyens de determination autonome de position dans un repere absolu lie au sol.
US20180136646A1 (en) 2016-11-13 2018-05-17 Tobias Gurdan Aerial display morphing
CN108153327A (zh) 2017-12-07 2018-06-12 浙江大学 一种四旋翼飞行器室外编队灯光表演系统及控制方法
CN108170159A (zh) 2017-12-20 2018-06-15 江苏数字鹰科技股份有限公司 无人机空中显示图案及视频的方法
WO2018134284A1 (fr) 2017-01-20 2018-07-26 Ars Electronica Linz Gmbh & Co Kg Système permettant de fournir une présentation aérienne visuelle
US10114384B2 (en) 2016-09-13 2018-10-30 Arrowonics Technologies Ltd. Formation flight path coordination of unmanned aerial vehicles
US20190187241A1 (en) * 2018-12-27 2019-06-20 Intel Corporation Localization system, vehicle control system, and methods thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR1350054A (fr) 1962-12-11 1964-01-24 Dispositif de stockage pour éléments pesants de grande longueur
FR3000813A1 (fr) * 2013-01-04 2014-07-11 Parrot Drone a voilure tournante comprenant des moyens de determination autonome de position dans un repere absolu lie au sol.
US10114384B2 (en) 2016-09-13 2018-10-30 Arrowonics Technologies Ltd. Formation flight path coordination of unmanned aerial vehicles
US20180136646A1 (en) 2016-11-13 2018-05-17 Tobias Gurdan Aerial display morphing
WO2018134284A1 (fr) 2017-01-20 2018-07-26 Ars Electronica Linz Gmbh & Co Kg Système permettant de fournir une présentation aérienne visuelle
CN108153327A (zh) 2017-12-07 2018-06-12 浙江大学 一种四旋翼飞行器室外编队灯光表演系统及控制方法
CN108170159A (zh) 2017-12-20 2018-06-15 江苏数字鹰科技股份有限公司 无人机空中显示图案及视频的方法
US20190187241A1 (en) * 2018-12-27 2019-06-20 Intel Corporation Localization system, vehicle control system, and methods thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAUSMAN KAROL ET AL: "Self-calibrating multi-sensor fusion with probabilistic measurement validation for seamless sensor switching on a UAV", 2016 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), IEEE, 16 May 2016 (2016-05-16), pages 4289 - 4296, XP032908696, DOI: 10.1109/ICRA.2016.7487626 *
TIEMANN JANIS ET AL: "Scalable and precise multi-UAV indoor navigation using TDOA-based UWB localization", 2017 INTERNATIONAL CONFERENCE ON INDOOR POSITIONING AND INDOOR NAVIGATION (IPIN), IEEE, 18 September 2017 (2017-09-18), pages 1 - 7, XP033261529, DOI: 10.1109/IPIN.2017.8115937 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220375354A1 (en) * 2021-05-20 2022-11-24 RAON Convergence, Co. Ltd. Method of determining location for swarm flight using uwb
CN113124856A (zh) * 2021-05-21 2021-07-16 天津大学 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN113124856B (zh) * 2021-05-21 2023-03-14 天津大学 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
RU2778829C1 (ru) * 2021-11-13 2022-08-25 Андрей Вадимович Лаврентьев Устройство разрешения составляющих плотного порядка групповой воздушной цели по дальности и азимуту
CN114485639A (zh) * 2022-01-19 2022-05-13 浙江大学 一种用于室内导航的uwb定位漂移校正方法
CN114485639B (zh) * 2022-01-19 2023-10-20 浙江大学 一种用于室内导航的uwb定位漂移校正方法
CN114543810A (zh) * 2022-02-21 2022-05-27 中山大学 一种复杂环境下的无人机集群无源定位方法及装置
CN114543810B (zh) * 2022-02-21 2023-06-13 中山大学 一种复杂环境下的无人机集群无源定位方法及装置
CN114623823A (zh) * 2022-05-16 2022-06-14 青岛慧拓智能机器有限公司 一种融合里程计的uwb多模态定位系统、方法及装置
CN114623823B (zh) * 2022-05-16 2022-09-13 青岛慧拓智能机器有限公司 一种融合里程计的uwb多模态定位系统、方法及装置
CN115617079A (zh) * 2022-12-14 2023-01-17 四川轻化工大学 一种可交互无人机系统
CN115617079B (zh) * 2022-12-14 2023-02-28 四川轻化工大学 一种可交互无人机系统

Also Published As

Publication number Publication date
FR3100895A1 (fr) 2021-03-19
FR3100895B1 (fr) 2021-09-10

Similar Documents

Publication Publication Date Title
WO2021048500A1 (fr) Procédé et système de positionnement automatique de drones en essaim
US10914590B2 (en) Methods and systems for determining a state of an unmanned aerial vehicle
US10191486B2 (en) Unmanned surveyor
CN110274588B (zh) 基于无人机集群信息的双层嵌套因子图多源融合导航方法
EP3273318B1 (fr) Système autonome de prise de vues animées par un drone avec poursuite de cible et localisation améliorée de la cible
EP1407214B1 (fr) Dispositif, et procede associe, apte a determiner la direction d'une cible
FR2988868A1 (fr) Procede de pilotage d'un drone a voilure tournante a rotors multiples avec estimation et compensation du vent lateral
CN107615211A (zh) 使用惯性传感器和图像传感器的传感器融合
CN111077556A (zh) 融合北斗与多传感器的机场行李牵引车定位装置与方法
EP3388914A1 (fr) Procédé de suivi de cible par un drone, programme d'ordinateur, système électronique et drone associés
CN107850899A (zh) 使用惯性传感器和图像传感器的传感器融合
WO2018106311A2 (fr) Navigation inertielle assistée par signaux d'opportunité
US10836486B2 (en) Controlling a drone through user movement
EP3654549B1 (fr) Procede et dispositif pour conserver le pointage d'une antenne avec un satellite
EP4015993B1 (fr) Synchronisation d'un système de capteur d'aéronef
CN115542363B (zh) 一种适用于垂直下视航空吊舱的姿态测量方法
EP3677929A1 (fr) Dispositif d'estimation du vecteur vitesse d'un corps rigide mobile
US20230083021A1 (en) Surveying data processor, surveying data processing method, and surveying data processing program
Brommer et al. INSANE: Cross-domain UAV data sets with increased number of sensors for developing advanced and novel estimators
Steiner III A unified vision and inertial navigation system for planetary hoppers
KR20180089679A (ko) 비행 경로 생성 장치 및 방법
Adler System Design and Real-Time Guidance of an Unmanned Aerial Vehicle for Autonomous Exploration of Outdoor Environments
Gerhard III Pseudo Doppler Direction Finding System for Localizing Non-Cooperative VHF Transmitters with a Hybrid UAS
FR3045009A1 (fr) Procede et systeme permettant de maintenir un drone en position quasi stationnaire
Thalagala et al. MUN-FRL: A Visual-Inertial-LiDAR Dataset for Aerial Autonomous Navigation and Mapping

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20785799

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20785799

Country of ref document: EP

Kind code of ref document: A1