WO2023094347A1 - Système et procédé de navigation autonome base vision d'un satellite - Google Patents

Système et procédé de navigation autonome base vision d'un satellite Download PDF

Info

Publication number
WO2023094347A1
WO2023094347A1 PCT/EP2022/082716 EP2022082716W WO2023094347A1 WO 2023094347 A1 WO2023094347 A1 WO 2023094347A1 EP 2022082716 W EP2022082716 W EP 2022082716W WO 2023094347 A1 WO2023094347 A1 WO 2023094347A1
Authority
WO
WIPO (PCT)
Prior art keywords
satellite
target object
images
distance
host satellite
Prior art date
Application number
PCT/EP2022/082716
Other languages
English (en)
Inventor
Emmanuel KOUMANDAKIS
Marco NEDUNGADI
Akshay GULATI
Massimo Piazza
Adrian AGUINAGA
Original Assignee
Infinite Orbits
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infinite Orbits filed Critical Infinite Orbits
Priority to EP22821442.5A priority Critical patent/EP4436878A1/fr
Publication of WO2023094347A1 publication Critical patent/WO2023094347A1/fr

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1078Maintenance satellites
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • B64G1/247Advanced control concepts for autonomous, robotic spacecraft, e.g. by using artificial intelligence, neural networks or autonomous agents
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/36Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • B64G1/68Arrangements or adaptations of apparatus or instruments, not otherwise provided for of meteoroid or space debris detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the invention relates to the autonomous navigation of satellites.
  • the invention relates more particularly to a system and method for autonomous navigation of a satellite equipped with at least one image acquisition camera.
  • space debris designates a non-functional artificial object in orbit. It can be a bolt, a paint chip, a launcher stage, a “dead” satellite, the remains of a spacecraft explosion, etc.
  • space object designates any object in orbit such as space debris or a functional satellite.
  • space object or target designates any object in orbit such as space debris or a functional satellite.
  • space object or target covers both operational satellites and space debris.
  • celestial object designates any non-artificial object such as a star, a comet, a galaxy likely to be present in an acquired image.
  • object refers either to a “celestial object” or to a “space object”.
  • the inventors therefore sought to propose a new solution for the automatic piloting of satellites from images provided by monocular, monochromatic or polychromatic cameras.
  • the invention aims to provide an autonomous satellite navigation system and method.
  • the invention aims in particular to provide such a system and method which allow autonomous navigation of a satellite from a batch of images, for example monochromatic, acquired by at least one camera on board the satellite.
  • the invention also aims to provide, in at least one embodiment, such a system and method which contribute to the movement of the satellite towards a predetermined rendezvous point or towards a non-cooperative spatial target object.
  • the invention also aims to provide, in at least one embodiment, such a system and method, which allow an inspection of the environment of the satellite.
  • the invention also aims to provide, in at least one embodiment, such a system and method, which allow the determination of the attitude of the satellite.
  • the invention also aims to provide, in at least one embodiment, such a system and method, which allow inspection and tracking of a target object.
  • the invention also aims to provide, in at least one embodiment, such a system and method, which allow a determination of the pose (attitude and relative position) of a target object.
  • the invention also aims to provide, in at least one embodiment, such a system and method, which make it possible to detect space debris and to avoid collisions with surrounding space objects.
  • the invention also aims to provide, in at least one embodiment, such a system and method which does not require the embedding of complex sensors such as LiDARs, radars and equivalent equipment.
  • the invention also aims to provide, in at least one embodiment, such a system and method which limit the size and weight of the equipment necessary for its implementation.
  • the invention also aims to provide, in at least one embodiment, such a system and method which limit the energy necessary for its implementation.
  • the invention relates to a satellite equipped with a system according to the invention and implementing a method according to the invention.
  • the invention relates to a method for autonomous navigation of a satellite, called a host satellite, equipped with means for moving and orienting said satellite, a control unit for these means, and at least one on-board camera for acquiring images of the environment of said satellite.
  • the method according to the invention is characterized in that it comprises the following steps: a step of acquiring a plurality of images by said camera embarked,
  • long distance processing configured to detect and identify space objects within said images, calculate their relative orbits and distances from the host satellite, and determine the attitude of the host satellite
  • short distance processing configured to estimate the pose of at least one of said detected and identified spatial objects, called target object, during the long distance processing, said short distance step being implemented when said long distance step detects at least one space object located at an estimated distance less than a predetermined threshold distance
  • step - a step of developing and transmitting control instructions to said control unit of said means of moving and orienting said satellite according to at least one appointment determined in the previous step.
  • the method according to the invention therefore allows completely autonomous navigation of the satellite without human intervention from images of the environment of the satellite acquired by an on-board camera. All of the operations of image acquisition, image processing, calculation and determination of trajectories and flight parameters are carried out on board the host satellite without external intervention.
  • the method according to the invention makes it possible to confer on the host satellite a situational awareness in space, that is to say that it can obtain information from its environment and adapt its trajectory and/or orientation according to this information. .
  • This information comes exclusively from images acquired by at least one camera on board the satellite.
  • the process according to the invention uses no sensor other than image acquisition cameras to ensure the autonomous navigation of the satellite.
  • the method according to the invention implements two separate image processing steps according to the distance of the identified target objects, which allows fine navigation of the satellite according to the identified objects.
  • the threshold distance is fixed at 250 meters for the typical dimensions of geostationary satellites - of the order of 2 meters in diameter
  • the method switches from a long distance processing mode to a short-range processing which makes it possible to estimate the position, the orientation and the speed of the target object in order to maneuver the satellite accordingly (approach or avoidance).
  • said long-distance processing step further comprises:
  • the initial detection of space and/or celestial objects consists in recognizing groupings (better known under the English name of “clusters”) within the acquired images and in classifying and filtering them in order to remove in particular reflections and points. hot. These steps are implemented for example by a data partitioning algorithm such as that known by the English acronym DBSCAN for “Density-based spatial clustering of applications with noise”.
  • said long distance processing step further comprises: a comparison of said detected spatial and celestial objects with a predetermined catalog of celestial objects to identify at least one celestial object among the detected objects, - a determination of attitude of said host satellite from a position of at least one of the celestial objects identified.
  • the determination of the attitude of the host satellite is based on the detection and recognition of celestial objects within the acquired images. This is made possible by identifying stars within the images by comparing the detected objects to a reference catalog, for example the Hipparcos-2 catalog. We analyze the angles between the identified potential stars to recognize a configuration similar to a configuration of the aforementioned catalog. This technique based on the angles makes it possible to determine that such celestial object identified within the image corresponds to such celestial object of the reference catalog.
  • said attitude determination step comprises the implementation of an extended Kalman filter (EKF) from a first estimate of the angular velocity and attitude of the host satellite and the position of at least one identified celestial object (preferably three identified celestial objects).
  • EKF extended Kalman filter
  • the determination of the attitude of the host satellite consists in using an extended Kalman filter to which is presented, as input, the position of at least one star (preferably three stars) and a first estimate of the angular velocity of the host satellite, and which outputs an estimate of the attitude of the host satellite.
  • said long-distance processing step comprises:
  • target object a calculation of the position of at least one spatial object detected and identified within the image, called target object
  • the calculation of the relative orbit of each target object consists in using navigation filters based on the angles of the target object.
  • the target being located at a distance greater than the predetermined threshold distance and therefore too far from the camera to perceive the angles of the target object, the angles apparent within the field of vision of the camera are used. to determine the relative navigation of the host satellite.
  • said short distance processing step comprises:
  • the short distance processing step begins with the separation of the target object of interest (target satellite, debris, etc.) from its background.
  • a learning neural network model better known as “deep learning”
  • YOLO the algorithm known by the acronym YOLO for "You Only Look Once” which makes it possible to detect objects by dividing the image into a grid system in which each cell is processed for the detection of a object.
  • the first step thus makes it possible to recognize the region of interest and to provide a first estimate of the position of the target object.
  • a second step allows detect points of interest of 1 target object.
  • This is achieved by a second neural network trained to perform regressive landmark detection also referred to in the text by the acronym LRN for "Landmark Regressive Network”
  • This sub-step can for example implement the architecture known by the English acronym HRNet for “High Resolution Network”.
  • a third step makes it possible to estimate the pose of the target object from the points of interest detected in the previous step and by seeking the best possible pose estimate from, for example, a priori knowledge. of the 3D architecture of the target. This can be achieved by implementing the algorithm known by the English acronym EPnP for "Efficient Perspective-n-Point".
  • the short-range processing is performed only if a target object detected and identified during the long-range processing step is located at a distance from the target satellite less than a predetermined threshold distance.
  • This short distance processing step aims to determine the pose of the target object in order to be able to determine the navigation instructions of the host satellite.
  • said step of determining a possible appointment comprises:
  • the trajectory estimation is based on a linearized model of the dynamics of the host satellite based, for example, on the Clohessy-Wiltshire equations.
  • a collision probability calculation can also be performed in the case of debris to estimate a probability of collision between the host satellite and the debris.
  • said step of developing and transmitting control instructions intended for said control unit comprises:
  • the last step of the process consists in developing the commands for piloting the satellite to avoid collision in the case of debris or on the contrary to ensure the rendezvous in the case of a satellite to be joined.
  • This step is based on the trajectories determined in the previous step and implements a dynamic simulation of the flight of the host satellite and a control model.
  • the controls are optimized to minimize various parameters such as the distance to be covered, the consumption of propellant or the number of manoeuvres. This optimization may depend on function constraints of the target objects or the state of the host satellite (propellant reserves, battery state, enhanced safety, etc.).
  • this step of determining and transmitting the commands aims to meet the following three objectives: avoid a target object (avoidance maneuver), approach the target object (rendezvous maneuver) or maintain the satellite in the current configuration (no specific maneuver).
  • the invention also relates to an autonomous navigation system for a satellite, called a host satellite, equipped with means for moving and orienting said satellite, a control unit for these means, said system being characterized in that it comprises: at least one camera for acquiring a plurality of images of the environment of said host satellite, a default processing module for said acquired images, said long range module, configured to detect and identify space objects within said images, calculate their relative orbits and distances from the host satellite, and determine the attitude of said host satellite,
  • short distance module configured to estimate the attitude of at least one of said detected and identified spatial objects, called target object, by said long distance module, said short distance module being put into works when said long distance module has detected at least one space object located at an estimated distance less than a predetermined threshold distance
  • the autonomous navigation system according to the invention advantageously implements the autonomous navigation method according to the invention and the autonomous navigation method according to the invention is advantageously implemented by a system according to the invention.
  • module means a software element, a subset of a software program, which can be compiled separately, either for independent use, or to be assembled with other modules of a program, or a hardware element, or a combination of a hardware element and a software routine.
  • a hardware element may include an integrated circuit specific to an application (better known by the acronym ASIC for the English name Application-Specific Integrated Circuit) or a programmable logic circuit (better known by the acronym FPGA for the English name Field-Programmable Gate Array) or a specialized microprocessor circuit (better known by the acronym DSP for the English name Digital Signal Processor) or any equivalent material or any combination of the aforementioned materials.
  • ASIC application-Specific Integrated Circuit
  • FPGA field-Programmable Gate Array
  • DSP Digital Signal Processor
  • the modules of the system according to the invention are preferably implemented by software means, that is to say by a sequence of instructions of a computer program, this sequence of instructions being able to be stored on any type of medium partially or totally readable by a computer or by a microprocessor on board the satellite.
  • the system comprises an image acquisition camera intended to supply images to the long-distance processing module and an image acquisition camera intended to supply images to the short-distance processing module.
  • the system comprises two separate cameras dedicated respectively to providing images to the long-distance processing module and to the short-distance processing module.
  • This variant makes it possible to benefit from a specific camera adapted to the corresponding treatment.
  • the invention also relates to a method and system for autonomous navigation of a satellite, characterized in combination by all or some of the characteristics mentioned above or below.
  • FIG. 1 is a schematic view of the main steps of the navigation method according to the invention
  • FIG. 2 is a schematic view of the autonomous navigation system according to one embodiment of the invention
  • FIG. 3 is a functional schematic view of the long-distance image processing steps according to one embodiment of the invention.
  • FIG. 4 is a functional schematic view of the short distance image processing steps according to one embodiment of the invention.
  • FIG 1 schematically illustrates the main steps of the navigation method according to the invention.
  • the first step El of the navigation method according to the invention consists in acquiring a plurality of images of the environment of the host satellite from a camera on board the satellite.
  • the shooting characteristics (exposure time, etc.) can be adapted to the operating conditions.
  • the raw data is stored in a memory of the on-board computer to be then processed during the following steps.
  • the second step E2 of the navigation method according to the invention consists in performing a so-called long-distance processing of the acquired images.
  • the main function of this processing is to detect and identify space objects within said images, to calculate the relative orbits and distances of space objects with respect to the host satellite, and to determine the attitude of the host satellite.
  • the third step E3 of the navigation method according to the invention consists in carrying out a processing, called short distance, of the images acquired, when at least one target object located at a distance less than a predetermined distance (for example 250 meters) has been detected in the previous step.
  • the main function of this processing is to estimate the pose of this target object. This step will be described more precisely in connection with Figure 4.
  • the fourth step E4 of the navigation method according to the invention consists in determining a possible rendezvous between the target object and the host satellite, from the various information determined during the previous steps.
  • the fifth and last step E5 of the navigation method according to 1 invention is to develop and transmit control instructions to the control unit which controls the means of movement and orientation of the satellite. These commands depend on the appointments determined in the previous step.
  • Figure 2 is a schematic view of a navigation system according to one embodiment of the invention implementing the method according to the invention.
  • the system includes a 10 image acquisition camera.
  • This camera can be a monocular, monochromatic or polychromatic camera.
  • This camera is for example a camera capable of acquiring three images per second. It can for example have a field of vision of 11° vertically and 16° horizontally. Of course, other cameras can be used without this calling into question the principle of the invention.
  • the camera of the embodiment described makes it possible to detect target objects at a distance of 3000 km for objects 2 m in diameter. For example, a 5400x3600 pixel camera with a 16mm focal length can detect objects 2m in diameter up to 3000 km away. Of course, other types of camera can be used depending on the objectives targeted by the system without calling into question the principle of the invention.
  • the system also includes an on-board computer 20 which is equipped with a microprocessor, a storage memory and which houses data analysis and processing modules.
  • This on-board computer is, for example, equipped with a card marketed under the reference Q7S Xiphos®, dedicated to space applications.
  • modules are preferably implemented in the form of software elements embedded on the electronic card of the on-board computer.
  • the on-board computer 20 thus comprises a long-distance processing module 21 which is configured to implement step E2 of the method according to the invention and which will be described in more detail in connection with FIG. 2.
  • the on-board computer 20 also includes a short processing module distance 22 which is configured to implement 1 step E3 of the method according to the invention and which will be described in more detail in connection with figure 3.
  • the on-board computer 20 also includes a module 23 for determining a possible rendezvous between a target object and the host satellite.
  • the on-board computer 20 includes a module for generating commands 24 intended for a control unit which controls the means of displacement and orientation 30 of the host satellite.
  • the system according to the invention can also comprise a gyroscope 41, an accelerometer 42 and a flash memory 43.
  • the use of the gyroscope 41 makes it possible to reduce the number of variables necessary for the implementation of the Kalman filter (EKF) given that the angular velocity is then known.
  • the flash memory 43 makes it possible to store the data and to send them to the ground when a link is made.
  • the gyroscope 41 and the accelerometer 42 are intended for the navigation software and can be used to improve the accuracy of the estimates. It should be noted, however, that these sensors are not essential to the implementation of the invention. They nevertheless make it possible to improve the precision of the measurements and/or estimates.
  • FIG. 3 schematically illustrates the sub-steps implemented during the long-distance processing step E2 implemented by the long-distance processing module 21.
  • an image acquired by camera 10 is processed. This image undergoes thresholding, followed by partitioning of the image (detection of clusters) by an algorithm of the DBSCAN type at step 302 as indicated previously with a view to detecting potential target spatial objects (also designated by the acronym English RSO for “Resident Space Objects”), followed by a calculation in step 303 of the centers of the clusters formed in step 302.
  • thresholding followed by partitioning of the image (detection of clusters) by an algorithm of the DBSCAN type at step 302 as indicated previously with a view to detecting potential target spatial objects (also designated by the acronym English RSO for “Resident Space Objects”), followed by a calculation in step 303 of the centers of the clusters formed in step 302.
  • the method then comprises a step 304 of identifying the spatial objects present in the image.
  • This step 304 makes it possible on the one hand to detect celestial objects present in the image by comparison with a catalog of stars of the Hipparcos-2 type or catalog 305.
  • the apparent magnitude of the celestial objects detectable during this sub-step of stellar tracking is maximum 6, per example (of course, this value depends on the sensor, the exposure time, etc.).
  • This step 304 also makes it possible to detect potential target objects. These potential target objects are formed by space objects that have not found a match in the star catalog.
  • the method can determine the attitude of the host satellite in step 307. This attitude determination can for example and as indicated previously be carried out by the use of a Extended Kalman.
  • the method calculates the position of this target object at step 309 and calculates the orbital characteristics of this target object from the determination of the attitude of the host satellite and the position of the target object calculated in step 310.
  • the details of these calculations which are also implemented in the short distance processing step, are specified below -after in connection with the detailed description of the short distance processing step.
  • step E3 If the distance of the object is estimated to be less than the threshold distance, the processing of short-distance images is activated and the method switches to step E3.
  • FIG. 4 schematically illustrates the sub-steps implemented during the short-distance processing step E3 implemented by the short-distance processing module 22.
  • an image acquired by camera 10 is processed.
  • a detection of an area of interest is performed by implementing a first neural network trained to recognize predetermined target objects, as explained above.
  • the image is resized to present a format identical to that of the images used to train the neural network.
  • this step can implement the algorithm known by the acronym YOLO for “You Only Look Once” which makes it possible to detect objects by dividing the image into a grid system in which each cell is processed for detection. of an object.
  • the result of this the first sub-step is the detection of a region of interest comprising the target object.
  • the method performs backward landmark detection in the detected area of interest by executing a second neural network trained to perform backward landmark detection as explained above.
  • the input data of this second neural network is the image of the region of interest detected in the previous step.
  • the image can be resized to present a format identical to that of the images used to train the neural network.
  • This sub-step makes it possible to detect the points of interest of the target object present in the region of interest.
  • This sub-step can for example implement the architecture known by the English acronym HRNet for (High Resolution Network).
  • step 404 the method estimates the pose of the target object from the points of interest detected in the previous step and by seeking the best possible pose estimate from, for example, a priori knowledge of the 3D architecture of the target.
  • This can be achieved by implementing the algorithm known by the English acronym EPnP for “Efficient Perspective-n-Point”.
  • EPnP for “Efficient Perspective-n-Point”.
  • the goal of the algorithm is to find what orientation and distance makes it possible to make the detected points of interest coincide with the a priori knowledge of the 3D architecture of the target object.
  • the method can refine the determination of the pose.
  • the EPnP method is an explicit formula, solution of a linear problem, allowing a first estimation of the pose of the target.
  • This method is thus and preferably refined by iteratively applying a Levenbert-Marquardt method, known by the acronym LMM, which requires initialization with a first estimate.
  • LMM Levenbert-Marquardt method
  • It is an optimization method aiming to minimize the reprojection error, i.e. to reduce as much as possible the distance between the points of interest and their reprojection from the known or reconstructed architecture, for obtain a better pose estimate.
  • This succession of steps which forms the short distance processing step E2 makes it possible to estimate the pose (attitude and distance) of an object from a batch of monocular images, and from a priori knowledge of the 3D architecture of the target object. That being so and as indicated previously, it is possible according to another embodiment to determine the 3D architecture of the object from a photogrammetry technique, which then makes it possible to dispense with a priori knowledge of the 3D architecture. of the target object.
  • the method estimates the trajectory of the host satellite from a linearized model of the dynamics of the satellite and calculates a probability of collision with the target object (It should be noted that this step is also implemented during long distance processing as soon as a target object has been identified).
  • the trajectory estimation is based on a linearized model of the host satellite dynamics from, for example, the Clohessy-Wiltshire equations (in the simplest case of a Keplerian orbit, circular and without disturbance).
  • a collision probability calculation can also be performed in the case of debris to estimate a probability of collision between the host satellite and the debris.
  • the azimuth and the elevation of the target are determined from optical measurements. Then, we correct this determination by using a UKF filter:
  • the measure function takes into account the non-linear nature of the angle measure and transforms the elements into average elements
  • Prediction The transition function takes into account the relative dynamic elements of the two objects as well as other parameters such as solar pressure, gravitational differential, etc.
  • the probability of collision is calculated from the relative orbital dynamic elements of the two objects as well as covariances from a navigation filter and by applying Chan's method to determine analyzes the probability density of the collision function.
  • the filter can also be used in a decoupled way to refine the estimation of the rotational kinematic elements of the target object.
  • the last stage of the process consists in developing and transmitting control instructions to the control unit which controls the means of movement and orientation of the satellite (navigation computer, thrusters and reaction wheels). These commands depend on the appointments determined in the previous step.
  • the embodiment of this step is known to those skilled in the art and consists in controlling the satellite control units to achieve the targeted objective.
  • this step amounts to solving a problem of minimizing the separation with the target.
  • This technique is based on the inclination-eccentricity vector in the radial/Normal plane and the longitudinal separation in the tangential plane.
  • the system can comprise two (or more) distinct cameras dedicated respectively to providing images to the long-distance processing module and to the short-distance processing module. This variant makes it possible to benefit from a specific camera adapted to the corresponding treatment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Robotics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

L'invention vise un système et procédé de navigation autonome d'un satellite hôte équipé de moyens de déplacement et d'orientation, d'une unité de commande de ces moyens, et d'au moins une caméra embarquée d'acquisition d'image, ledit procédé comprenant les étapes suivantes : acquisition (E1) d'une pluralité d'images; traitement par défaut desdites images, dit traitement longue distance (E2), configuré pour détecter et identifier des objets spatiaux et pour calculer leurs orbites relatives; traitement conditionnel desdites images acquises, dit traitement courte distance (E3), configuré pour estimer l'attitude d'au moins un desdits objets spatiaux détectés, dit objet cible, lors du traitement longue distance, cette étape étant mise en œuvre lorsque ladite étape longue distance détecte au moins un objet spatial situé à une distance estimée inférieure à une distance seuil prédéterminée; détermination d'un possible rendez-vous (E4) entre au moins ledit objet cible, et le satellite hôte; élaboration et transmission d'instructions (E5) à ladite unité de commande desdits moyens de déplacement en fonction d'au moins un rendez-vous et/ou risque de collision déterminé à l'étape précédente.

Description

DESCRIPTION
TITRE DE L’INVENTION : SYSTEME ET PROCEDE DE NAVIGATION AUTONOME BASE VISION D’UN SATELLITE
Domaine technique de l’invention
L’invention concerne la navigation autonome de satellites. L’invention concerne plus particulièrement un système et procédé de navigation autonome d’un satellite équipé d’au moins une caméra d’acquisition d’images.
Arrière-plan technologique
On estime à ce jour à plus de 2 700 le nombre de satellites opérationnels en orbite autour de la terre et à plus de 900000 le nombre de débris spatiaux mesurant plus d’ 1 cm. L’ensemble de ces objets spatiaux (satellites et débris) se déplacent à très hautes vitesses (de l’ordre de 3 000 m/s en orbite géo stationnaire).
Dans tout le texte, on désigne par la terminologie de « débris spatial » un objet artificiel en orbite non fonctionnel. Il peut s’agir d’un boulon, d’un éclat de peinture, d’un étage de lanceur, d’un satellite « mort », d’un reste d’une explosion d’un engin spatial, etc.
Dans tout le texte, on désigne par la terminologie « objet spatial » ou « cible », tout objet en orbite tel qu’un débris spatial ou un satellite fonctionnel. En d’autres termes, la notion d’objet spatial ou de cible couvre à la fois les satellites opérationnels et les débris spatiaux.
Dans tout le texte, on désigne par la terminologie « objet céleste », tout objet non artificiel tel qu’une étoile, une comète, une galaxie susceptible d’être présent dans une image acquise.
Dans tout le texte, la terminologie « objet », sans précision, fait référence soit à un « objet céleste » soit à un « objet spatial ».
La grande quantité de ces objets spatiaux résidants en orbite ainsi que leur forte augmentation impose de disposer de solutions permettant un pilotage réactif des satellites opérationnels pour éviter notamment les collisions avec ces objets spatiaux.
De même, la diversification et massification des satellites en orbite génère 1 emergence d un marche de services en orbite, particulièrement de 1 extension de vie pour les satellites commercialement opérationnels en fin de cycle de vie.
Aussi, un système de navigation assurant le déplacement du satellite de service vers des éventuels points de rendez-vous ainsi que le maintien à poste du satellite hôte s’avère désormais nécessaire.
A ce jour, la plupart des satellites sont pilotés depuis des stations-sol par des opérateurs humains. Or, l’environnement encombré susmentionné rend aujourd’hui l’intervention humaine peu compatible avec l’exigence de très grande réactivité nécessaire à la conservation de l’intégrité des satellites.
H existe donc un besoin de disposer d’une solution totalement autonome permettant une navigation sans intervention humaine des satellites en orbite.
Il existe déjà des tentatives de proposer des solutions de navigation semi- autonome faisant intervenir plusieurs capteurs complexes tels que des LiDAR, mais la présence humaine reste souvent nécessaire, par exemple pour valider les trajectoires de navigation déterminées à partir des données issues des différents capteurs. En outre ces solutions équipées de LiDAR sont volumineuses, massives, consomment beaucoup d’énergie de telle sorte que les coûts correspondants sont élevés.
Les inventeurs ont donc cherché à proposer une nouvelle solution de pilotage automatique des satellites à partir d’images fournies par des caméras monoculaires, monochromatiques ou poly chromatiques.
Objectifs de l’invention
L’invention vise à fournir un système et procédé de navigation autonome de satellites.
L’invention vise en particulier à fournir un tel système et procédé qui permettent une navigation autonome d’un satellite à partir d’un lot d’images, par exemple monochromatiques, acquises par au moins une caméra embarquée à bord du satellite.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé qui concourent au déplacement du satellite vers un point de rendez- vous prédéterminé ou vers un objet cible spatial non-coopératif. L invention vise aussi a fournir, dans au moms un mode de realisation, un tel système et procédé, qui permettent une inspection de l’environnement du satellite.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé, qui permettent la détermination de l’attitude du satellite.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé, qui permettent une inspection et un suivi d’un objet cible.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé, qui permettent une détermination de pose (attitude et position relative) d’un objet cible.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé, qui permettent de détecter des débris spatiaux et d’éviter les collisions avec les objets spatiaux environnants.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé qui ne nécessitent pas d’embarquer des capteurs complexes tels que des LiDAR, des radars et équipements équivalents.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé qui limitent l’encombrement et poids des équipements nécessaires à sa mise en œuvre.
L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé qui limitent l’énergie nécessaire pour sa mise en œuvre.
Enfin, l’invention vise un satellite équipé d’un système selon l’invention et mettant en œuvre un procédé selon l’invention.
Exposé de l’invention
Pour ce faire, l’invention concerne un procédé de navigation autonome d’un satellite, dit satellite hôte, équipé de moyens de déplacement et d’orientation dudit satellite, d’une unité de commande de ces moyens, et d’au moins une caméra embarquée d’acquisition d’images de l’environnement dudit satellite.
Le procédé selon l’invention est caractérisé en ce qu’il comprend les étapes suivantes : une étape d’acquisition d’une pluralité d’images par ladite caméra embarquee,
- une étape de traitement par défaut desdites images acquises, dit traitement longue distance, configuré pour détecter et identifier des objets spatiaux au sein desdites images, calculer leurs orbites relatives et distances par rapport au satellite hôte, et déterminer l’attitude du satellite hôte,
- une étape de traitement conditionnel desdites images acquises, dit traitement courte distance, configuré pour estimer la pose d’au moins un desdits objets spatiaux détectés et identifiés, dit objet cible, lors du traitement longue distance, ladite étape courte distance étant mise en œuvre lorsque ladite étape longue distance détecte au moins un objet spatial situé à une distance estimée inférieure à une distance seuil prédéterminée,
- une étape de détermination d’un possible rendez-vous entre au moins ledit objet cible, et le satellite hôte à partir d’une estimation de trajectoire dudit objet cible et dudit satellite hôte,
- une étape d’élaboration et de transmission d’instructions de commande à destination de ladite unité de commande desdits moyens de déplacement et d’orientation dudit satellite en fonction d’au moins un rendez-vous déterminé à l’étape précédente.
Le procédé selon l’invention permet donc une navigation totalement autonome du satellite sans intervention humaine à partir d’images de l’environnement du satellite acquises par une caméra embarquée. L’ensemble des opérations d’acquisition des images, de traitement des images, de calcul et de détermination des trajectoires et paramètres de vol est fait à bord du satellite hôte sans intervention extérieure.
Le procédé selon l’invention permet de conférer au satellite hôte une conscience situationnelle dans l’espace, c’est-à-dire qu’il peut obtenir des informations de son environnement et adapter sa trajectoire et/ou orientation en fonction de ces informations. Ces informations sont exclusivement issues des images acquises par au moins une caméra embarquée sur le satellite. Le procédé selon 1 invention n utilise aucun capteur autre que des cameras d acquisition d’images pour assurer la navigation autonome du satellite.
Le procédé selon l’invention met en œuvre deux étapes de traitement d’images distinctes selon la distance des objets cibles identifiés, ce qui permet une navigation fine du satellite en fonction des objets identifiés. A proximité d’un objet cible (en pratique, la distance seuil est fixée à 250 mètres pour les dimensions typiques des satellites géostationnaires - de l’ordre de 2 mètres de diamètre), le procédé bascule d’un mode de traitement longue distance à un traitement courte distance qui permet d’estimer la position, l’orientation et la vitesse de l’objet cible afin de manœuvrer le satellite en conséquence (approche ou évitement).
Avantageusement et selon l’invention ladite étape de traitement longue distance comprend en outre :
- un seuillage des images,
- un regroupement de différents points des images seuillées,
- un calcul des centres des différents regroupements de l’image,
- un classement et filtrage des différents regroupements formant lesdits objets spatiaux et célestes détectés.
Selon cette variante avantageuse, la détection initiale des objets spatiaux et/ou célestes consiste à reconnaitre des regroupements (plus connus sous la dénomination anglais de « clusters ») au sein des images acquises et à les classer et filtrer pour supprimer notamment les reflets et points chauds. Ces étapes sont mises en œuvre par exemple par un algorithme de partitionnement des données tel que celui connu sous l’acronyme anglais DBSCAN pour « Density -based spatial clustering of applications with noise ».
Avantageusement et selon l’invention, ladite étape de traitement longue distance comprend en outre : une comparaison desdits objets spatiaux et célestes détectés avec un catalogue prédéterminé d’objets célestes pour identifier au moins un objet céleste parmi les objets détectés, - une determination d attitude dudit satellite hôte a partir d une position d’au moins un des objets célestes identifiés.
Selon cette variante avantageuse, la détermination de l’attitude du satellite hôte s’appuie sur la détection et la reconnaissance d’objets célestes au sein des images acquises. Cela est rendu possible en identifiant des étoiles au sein des images par comparaison des objets détectés à un catalogue de référence, par exemple le catalogue Hipparcos-2. On analyse les angles entre les étoiles potentielles identifiées pour reconnaitre une configuration similaire à une configuration du catalogue susmentionné. Cette technique fondée sur les angles permet de déterminer que tel objet céleste identifié au sein de l’image correspond à tel objet céleste du catalogue de référence.
Une fois les étoiles identifiées, on procède à une estimation de l’attitude.
Avantageusement et selon l’invention, ladite étape de détermination d’attitude comprend la mise en œuvre d’un filtre de Kalman étendue (EKF) à partir d’une première estimation de la vitesse angulaire et d’attitude du satellite hôte et de la position d’au moins un objet céleste identifié (de préférence de trois objets célestes identifiés).
En d’autres termes, selon cette variante, la détermination de l’attitude du satellite hôte consiste à utiliser un filtre de Kalman étendue à qui est présenté, en entrée, la position d’au moins une étoile (de préférence de trois étoiles) et une première estimation de la vitesse angulaire du satellite hôte, et qui fournit en sortie une estimation de l’attitude du satellite hôte.
Cette première estimation de la vitesse angulaire peut par exemple être obtenue par la mise en œuvre successive (deux fois au minimum) d’un scénario connu sous la dénomination anglaise de « Lost In Space » qui consiste à comparer la totalité d’un catalogue d’étoiles avec les étoiles détectées dans les images acquises. On peut ainsi déterminer la variation de position du satellite hôte entre les deux scénarios, ce qui permet de dériver une première estimation de la vitesse angulaire du satellite hôte. Avantageusement et selon 1 invention, ladite etape de traitement longue distance comprend :
- un calcul de la position d’ au moins un objet spatial détecté et identifié au sein de l’image, dit objet cible,
- un calcul de caractéristiques orbitales dudit objet cible à partir de la détermination de l’attitude du satellite hôte et de la position dudit objet cible calculé.
Selon cette variante avantageuse, le calcul de l’orbite relative de chaque objet cible consiste à utiliser des filtres de navigation basés sur les angles de l’objet cible. Lors du traitement longue distance, la cible étant située à une distance supérieure à la distance seuil prédéterminée et donc trop loin de la caméra pour percevoir les angles de l’objet cible, on utilise les angles apparents au sein du champ de vision de la caméra pour déterminer la navigation relative du satellite hôte.
Avantageusement et selon l’invention, ladite étape de traitement courte distance comprend :
- une détection d’une zone d’intérêt comprenant l’objet cible d’intérêt par exécution d’un premier réseau de neurones,
- une détection de points de repères régressive dans ladite zone d’intérêt détecté par exécution d’un deuxième réseau de neurones,
- une estimation de pose de l’objet cible à partir des points de repères détectés à l’étape précédente.
Selon cette variante avantageuse, l’étape de traitement courte distance commence par la séparation de l’objet cible d’intérêt (satellite cible, débris, etc.) de son arrière-plan. Cela est réalisé par un modèle de réseau neuronal par apprentissage (plus connu sous la dénomination anglaise de « deep learning »). Il peut par exemple mettre en œuvre l’algorithme connu sous l’acronyme YOLO pour « You Only Look Once » qui permet de détecter des objets en divisant l’image en un système de grille dont chaque cellule est traitée pour la détection d’un objet. La première étape permet ainsi de reconnaitre la région d’intérêt et de fournir une première estimation de la position de l’objet cible. Une deuxième étape permet de detecter des points d intérêt de 1 objet cible. Cela est obtenu par un deuxieme reseau neuronal entraîné pour réaliser une détection des points de repère régressive (aussi désigné dans le texte par l’acronyme anglais LRN pour « Landmark Regressive Network »). Cette sous-étape peut par exemple mettre en œuvre l’architecture connue sous l’acronyme anglais HRNet pour « High Resolution Network ».
Enfin, une troisième étape permet d’estimer la pose de l’objet cible à partir des points d’intérêts décelés à l’étape précédente et en cherchant la meilleure estimation de pose possible à partir, par exemple, d’une connaissance a priori de l’architecture 3D de la cible. Cela peut être obtenu par la mise en œuvre de l’algorithme connu sous l’acronyme anglais EPnP pour « Efficient Perspective-n- Point ».
Selon une autre variante, il est possible de déterminer l’architecture 3D de l’objet cible par des techniques de photogrammétrie, ce qui permet de se passer d’une connaissance a priori de l’architecture 3D de l’objet cible.
Le traitement courte distance est effectué uniquement si un objet cible détecté et identifié au cours de l’étape de traitement longue distance est situé à une distance du satellite cible inférieure à une distance seuil prédéterminée. Cette étape de traitement courte distance vise à déterminer la pose de l’objet cible pour pouvoir déterminer les consignes de navigation du satellite hôte.
Avantageusement et selon l’invention, ladite étape de détermination d’un possible rendez-vous comprend :
- une estimation de la trajectoire du satellite hôte à partir d’un modèle linéarisé de la dynamique du satellite,
- un calcul de probabilité de collision avec un objet spatial identifié.
Selon cette variante, l’estimation de trajectoire s’appuie sur un modèle linéarisé de la dynamique du satellite hôte à partir, par exemple, des équations de Clohessy-Wiltshire. Un calcul de probabilité de collision peut également être effectué dans le cas d’un débris pour estimer une probabilité de collision entre le satellite hôte et le débris. Avantageusement et selon 1 invention, ladite etape d elaboration et de transmission d’instructions de commande à destination de ladite unité de commande comprend :
- une simulation dynamique de vol dudit satellite hôte,
- une modélisation des commandes à partir de ladite simulation dynamique,
- une répétition des étapes précédentes jusqu’à atteindre ou éviter ledit objet cible.
Selon cette variante avantageuse, la dernière étape du procédé consiste à élaborer les commandes de pilotage du satellite pour éviter la collision dans le cas d’un débris ou au contraire pour assurer le rendez-vous dans le cas d’un satellite à rejoindre. Cette étape s’appuie sur les trajectoires déterminées à l’étape précédente et met en œuvre une simulation dynamique du vol du satellite hôte et un modèle de commande. Dans le cas d’un rendez-vous souhaité, les commandes sont optimisées pour minimiser différents paramètres tels que la distance à parcourir, la consommation d’ergols ou le nombre de manœuvres. Cette optimisation peut dépendre de contraintes fonctions des objets cibles ou d’état du satellite hôte (réserves d’ergols, état des batteries, sûreté renforcée, etc.).
Selon une variante de l’invention, cette étape de détermination et de transmission des commandes vise à répondre aux trois objectifs suivants : éviter un objet cible (manœuvre d’évitement), approcher l’objet cible (manœuvre de rendez- vous) ou maintenir le satellite dans la configuration actuelle (pas de manœuvre spécifique).
L’invention concerne aussi un système de navigation autonome d’un satellite, dit satellite hôte, équipé de moyens de déplacement et d’orientation dudit satellite, d’une unité de commande de ces moyens, ledit système étant caractérisé en ce qu’il comprend : au moins une caméra d’acquisitions d’une pluralité d’images de l’environnement dudit satellite hôte, un module de traitement par défaut desdites images acquises, dit module longue distance, configure pour detecter et identifier des objets spatiaux au sein desdites images, calculer leurs orbites relatives et distances par rapport au satellite hôte, et déterminer l’attitude dudit satellite hôte,
- un module de traitement conditionnel desdites images acquises, dit module courte distance, configuré pour estimer l’attitude d’au moins un desdits objets spatiaux détectés et identifiés, dit objet cible, par ledit module longue distance, ledit module courte distance étant mis en œuvre lorsque ledit module longue distance a détecté au moins un objet spatial situé à une distance estimée inférieure à une distance seuil prédéterminée,
- un module de détermination d’un possible rendez- vous entre au moins ledit objet cible, et le satellite hôte à partir d’une estimation de trajectoire dudit objet cible et dudit satellite hôte,
- un module d’élaboration et de transmission d’instructions de commande à destination de ladite unité de commande desdits moyens de déplacement et d’orientation dudit satellite en fonction desdits rendez-vous déterminés par ledit module de détermination des rendez-vous.
Le système de navigation autonome selon l’invention met avantageusement en œuvre le procédé de navigation autonome selon l’invention et le procédé de navigation autonome selon l’invention est avantageusement mis en œuvre par un système selon l’invention.
Les avantages et effets techniques du procédé selon l’invention s’appliquent mutatis mutandis au système selon l’invention.
Dans tout le texte, on désigne par module, un élément logiciel, un sous- ensemble d’un programme logiciel, pouvant être compilé séparément, soit pour une utilisation indépendante, soit pour être assemblé avec d’autres modules d’un programme, ou un élément matériel, ou une combinaison d’un élément matériel et d’un sous-programme logiciel. Un tel élément matériel peut comprendre un circuit intégré propre à une application (plus connue sous l’acronyme ASIC pour la denomination anglaise Application-Specific Integrated Circuit) ou un circuit logique programmable (plus connue sous F acronyme FPGA pour la dénomination anglaise Field-Programmable Gate Array) ou un circuit de microprocesseurs spécialisés (plus connue sous l’acronyme DSP pour la dénomination anglaise Digital Signal Processor) ou tout matériel équivalent ou toute combinaison des matériels précités. D’une manière générale, un module est donc un élément (logiciel et/ou matériel) qui permet d’assurer une fonction.
Dans le cas présent, les modules du système selon l’invention sont de préférence mis en œuvre par des moyens logiciels, c’est-à-dire par une séquence d’instructions d’un programme informatique, cette séquence d’instructions pouvant être stockée sur tout type de support lisible partiellement ou totalement par un ordinateur ou par un microprocesseur embarqué sur le satellite.
Avantageusement et selon l’invention, le système comprend une caméra d’acquisition d’images destinée à fournir des images au module de traitement longue distance et une caméra d’acquisitions d’images destinée à fournir des images au module de traitement courte distance.
Selon cette variante avantageuse, le système comprend deux caméras distinctes dédiées respectivement à fournir des images au module de traitement longue distance et au module de traitement courte distance. Cette variante permet de bénéficier d’une caméra spécifique adaptée au traitement correspondant.
L’invention concerne également un procédé et système de navigation autonome d’un satellite, caractérisés en combinaison par tout ou partie des caractéristiques mentionnées ci-dessus ou ci-après.
Liste des figures
D'autres buts, caractéristiques et avantages de l'invention apparaîtront à la lecture de la description suivante donnée à titre uniquement non limitatif et qui se réfère aux figures annexées dans lesquelles :
[Fig. 1] est une vue schématique des principales étapes du procédé de navigation selon l’invention, [Fig. 2] est une vue schématique du système de navigation autonome selon un mode de réalisation de l’invention,
[Fig. 3] est une vue schématique fonctionnelle des étapes de traitement longue distance des images selon un mode de réalisation de l’invention,
[Fig. 4] est une vue schématique fonctionnelle des étapes de traitement courte distance des images selon un mode de réalisation de l’invention.
Description détaillée d’un mode de réalisation de l’invention
La figure 1 illustre de manière schématique les principales étapes du procédé de navigation selon l’invention.
La première étape El du procédé de navigation selon l’invention consiste à faire l’acquisition d’une pluralité d’images de l’environnement du satellite hôte à partir d’une caméra embarquée sur le satellite. Les caractéristiques de la prise de vue (temps d’exposition, etc.) peuvent être adaptées aux conditions d’opération. Les données brutes sont stockées dans une mémoire de l’ordinateur de bord pour être ensuite traitées au cours des étapes suivantes.
La deuxième étape E2 du procédé de navigation selon l’invention consiste à effectuer un traitement, dit longue distance, des images acquises. Ce traitement a pour principale fonction de détecter et identifier des objets spatiaux au sein desdites images, de calculer les orbites relatives et distances des objets spatiaux par rapport au satellite hôte, et de déterminer l’attitude du satellite hôte. Ces étapes seront décrites plus précisément en lien avec la figure 3.
La troisième étape E3 du procédé de navigation selon l’invention consiste à effectuer un traitement, dit courte distance, des images acquises, lorsqu’au moins un objet cible situé à une distance inférieure à une distance prédéterminée (par exemple 250 mètres) a été détecté à l’étape précédente. Ce traitement a pour principale fonction d’estimer la pose de cet objet cible. Cette étape sera décrite plus précisément en lien avec la figure 4.
La quatrième étape E4 du procédé de navigation selon l’invention consiste à déterminer un possible rendez-vous entre l’objet cible et le satellite hôte, à partir des différentes informations déterminées au cours des étapes précédentes.
La cinquième et dernière étape E5 du procédé de navigation selon 1 invention consiste a elaborer et de transmettre des instructions de commande a destination de l’unité de commande qui pilote les moyens de déplacement et d’orientation du satellite. Ces commandes dépendent des rendez-vous déterminés à l’étape précédente.
La figure 2 est une vue schématique d’un système de navigation selon un mode de réalisation de l’invention mettant en œuvre le procédé selon l’invention.
Le système comprend une caméra d’acquisition d’images 10. Cette caméra peut être une caméra monoculaire, monochromatique ou poly chromatique. Cette caméra est par exemple une caméra capable de faire l’acquisition de trois images par seconde. Elle peut par exemple présenter un champ de vision de 11° en vertical et de 16° en horizontal. Bien entendu, d’autres caméras peuvent être utilisées sans que cela ne remette en cause le principe de l’invention. La caméra du mode de réalisation décrit permet de détecter des objets cibles à une distance de 3000 km pour des objets de 2m de diamètre. A titre d’exemple, une caméra de 5400x3600 pixels présentant une focale 16mm permet de détecter des objets de 2m de diamètre jusqu’à 3000 km de distance. Bien entendu, d’autres types de caméra peuvent être utilisées en fonction des objectifs visés par le système sans remettre en cause le principe de l’invention.
Le système comprend également un ordinateur de bord 20 qui est équipé d’un microprocesseur, d’une mémoire de stockage et qui héberge des modules d’analyse et de traitement des données. Cet ordinateur de bord est par exemple équipé d’une carte commercialisée sous la référence Q7S Xiphos®, dédiée aux applications spatiales.
Comme indiqué précédemment, ces modules sont de préférence mis en œuvre sous la forme d’éléments logiciels embarqués sur la carte électronique de l’ordinateur de bord.
L’ordinateur de bord 20 comprend ainsi un module de traitement longue distance 21 qui est configuré pour mettre en œuvre l’étape E2 du procédé selon l’invention et qui sera décrite plus en détail en lien avec la figure 2.
L’ordinateur de bord 20 comprend aussi un module de traitement courte distance 22 qui est configure pour mettre en œuvre 1 etape E3 du procédé selon l’invention et qui sera décrite plus en détail en lien avec la figure 3.
L’ordinateur de bord 20 comprend aussi un module 23 de détermination d’un possible rendez-vous entre un objet cible et le satellite hôte.
Enfin, l’ordinateur de bord 20 comprend un module d’élaboration de commandes 24 à destination d’une unité de commande qui pilote les moyens de déplacement et d’orientation 30 du satellite hôte.
Le système selon l’invention peut également comprendre un gyroscope 41, un accéléromètre 42 et une mémoire flash 43. L’utilisation du gyroscope 41 permet de réduire le nombre de variables nécessaires à la mise en œuvre du filtre de Kalman (EKF) étant donné que la vitesse angulaire est alors connue. La mémoire flash 43 permet de stocker les données et de les envoyer au sol lorsqu’un lien se fait. Le gyroscope 41 et F accéléromètre 42 sont destinés au logiciel de navigation et peuvent être utilisés pour améliorer les précisions des estimations. A noter néanmoins que ces capteurs ne sont pas indispensables à la mise en œuvre de l’invention. Ils permettent néanmoins d’améliorer la précision des mesures et/ou des estimations.
La figure 3 illustre de manière schématique les sous-étapes mises en œuvre lors de l’étape E2 de traitement longue distance mise en œuvre par le module 21 de traitement longue distance.
A l’étape 301, une image acquise par la caméra 10 est mise en traitement. Cette image subit un seuillage, suivi d’un partitionnement de l’image (détection des clusters) par un algorithme du type DBSCAN à l’étape 302 comme indiqué précédemment en vue de détecter des objets spatiaux cibles potentiels (aussi désignés par l’acronyme anglais RSO pour « Resident Space Objects »), suivi d’un calcul à l’étape 303 des centres des clusters formés à l’étape 302.
Le procédé comprend ensuite une étape 304 d’identification des objets spatiaux présents dans l’image. Cette étape 304 permet d’une part de détecter des objets célestes présents dans l’image par comparaison avec un catalogue d’étoiles du type Hipparcos-2 ou catalogue 305. La magnitude apparente des objets célestes détectables au cours de cette sous-étape de suivi stellaire est de maximum 6, par exemple (bien entendu, cette valeur depend du capteur, du temps d exposition, etc.). Cette étape 304 permet d’autre part de détecter des objets cibles potentiels. Ces objets cibles potentiels sont formés par les objets spatiaux qui n’ont pas trouvé de correspondance dans le catalogue d’étoiles.
Une fois les étoiles identifiées à l’étape 306, le procédé peut déterminer l’attitude du satellite hôte à l’étape 307. Cette détermination d’attitude peut par exemple et comme indiqué précédemment être effectuée par l’utilisation d’un filtre de Kalman étendu.
A l’étape 308, si un objet cible potentiel a été détecté à l’étape 304 de détection des objets spatiaux, le procédé calcule la position de cet objet cible à l’étape 309 et calcule les caractéristiques orbitales ce cet objet cible à partir de la détermination de l’attitude du satellite hôte et de la position de l’objet cible calculé à l’étape 310. Les détails de ces calculs, qui sont également mis en œuvre dans l’étape de traitement courte distance, sont précisés ci-après en lien avec la description détaillée de l’étape de traitement courte distance.
Si la distance de l’objet est estimée inférieure à la distance seuil, le traitement d’images courte distances est activé et le procédé bascule dans l’étape E3.
La figure 4 illustre de manière schématique les sous-étapes mises en œuvre lors de l’étape E3 de traitement courte distance mise en œuvre par le module 22 de traitement courte distance.
A l’étape 401, une image acquise par la caméra 10 est mise en traitement. A l’étape 402, une détection d’une zone d’intérêt est réalisée par la mise en œuvre d’un premier réseau de neurones entrainé pour reconnaitre des objets cibles prédéterminés, comme expliqué précédemment. Pour ce faire, l’image est redimensionnée pour présenter un format identique à celui des images utilisées pour entrainer le réseau de neurones. Comme indiqué précédemment, cette étape peut mettre en œuvre l’algorithme connu sous l’acronyme YOLO pour « You Only Look Once » qui permet de détecter des objets en divisant l’image en un système de grille dont chaque cellule est traitée pour la détection d’un objet. Le résultat de cette premiere sous-etape est la detection d une region d intérêt comprenant 1 objet cible.
A l’étape 403, le procédé réalise une détection de points de repères régressive dans la zone d’intérêt détectée par exécution d’un deuxième réseau de neurones entrainé pour réaliser une détection des points de repère régressive comme expliqué précédemment. Pour ce faire, la donnée d’entrée de ce deuxième réseau de neurones est l’image de la région d’intérêt détecté à l’étape précédente. A l’instar de l’étape précédente, l’image peut être redimensionnée pour présenter un format identique à celui des images utilisées pour entrainer le réseau de neurones. Cette sous-étape permet de détecter les points d’intérêts de l’objet cible présent dans la région d’intérêt. Cette sous-étape peut par exemple mettre en œuvre l’architecture connue sous l’acronyme anglais HRNet pour (High Resolution Network).
N l’étape 404, le procédé estime la pose de l’objet cible à partir des points d’intérêt décelés à l’étape précédente et en cherchant la meilleure estimation de pose possible à partir, par exemple, d’une connaissance a priori de l’architecture 3D de la cible. Cela peut être obtenu par la mise en œuvre de l’algorithme connu sous l’acronyme anglais EPnP pour « Efficient Perspective-n-Point ». Le but de l’algorithme est de chercher quelle orientation et distance permet de faire coïncider les points d’intérêts décelés avec la connaissance a priori de l’architecture 3D de l’objet cible.
A l’étape 404, le procédé peut affiner la détermination de la pose. En particulier, la méthode EPnP est une formule explicite, solution d’un problème linéaire, permettant une première estimation de la pose de la cible. Cependant, même si cela représente une bonne première estimation, elle n’est pas assez robuste à la présence d’aberrances dans les données. Cette méthode est ainsi et de préférence raffinée en appliquant de manière itérative une méthode Levenbert- Marquardt, connue sous l’acronyme LMM, qui nécessite une initialisation avec une première estimation. C’est une méthode d’optimisation visant à minimiser l’erreur de reprojection, c’est-à-dire de réduire au maximum la distance entre les points d’intérêt et leur reprojection à partir de l’architecture connue ou reconstruite, pour ainsi obtenir une meilleure estimation de pose. C’est une technique de moindre carrées non-lineaire utilisant une interpolation basee sur les methodes de gauss- newton et la méthode du gradient descendant.
Cette succession d’étapes, qui forme l’étape de traitement courte distance E2, permet d’estimer la pose (attitude et distance) d’un objet à partir d’un lot d’images monoculaires, et d’une connaissance a priori de l’architecture 3D de l’objet cible. Cela étant et comme indiqué précédemment, il est possible selon un autre mode de réalisation de déterminer l’architecture 3D de l’objet à partir de technique de photogrammétrie, ce qui permet alors de se passer de la connaissance a priori de l’architecture 3D de l’objet cible.
Une fois la pose de l’objet cible identifié, le procédé estime la trajectoire du satellite hôte à partir d’un modèle linéarisé de la dynamique du satellite et calcul une probabilité de collision avec l’objet cible (Il convient de noter que cette étape est également mise en œuvre lors du traitement longue distance dès qu’un objet cible a été identifié).
L’estimation de trajectoire s’appuie sur un modèle linéarisé de la dynamique du satellite hôte à partir, par exemple, des équations de Clohessy-Wiltshire (dans le cas le plus simple d’une orbite Képlérienne, circulaire et sans perturbation). Un calcul de probabilité de collision peut également être effectué dans le cas d’un débris pour estimer une probabilité de collision entre le satellite hôte et le débris.
Pour ce faire et selon un mode préférentiel de réalisation, on détermine l’azimut et l’élévation de la cible à partir de mesures optiques. Ensuite, on corrige cette détermination par l’utilisation d’un filtre UKF :
Mesure : La fonction de mesure prend en compte la nature non-linéaire de la mesure d’angles et transforme les éléments en éléments moyens, Prédiction : La fonction de transition prend en compte les éléments dynamiques relatifs des deux objets ainsi que d’autres paramètres comme la pression solaire, le différentiel gravitationnel, etc.
La probabilité de collision est calculée à partir des éléments dynamiques orbitaux relatifs des deux objets ainsi que des covariances issues d’un filtre de navigation et en appliquant la méthode de Chan pour déterminer de façon analytique la densite de probabilité de la fonction de collision. Le filtre peut aussi être utilisé de façon découplée pour raffiner l’estimation des éléments cinématiques rotationnels de l’objet cible.
La dernière étape du procédé consiste à élaborer et à transmettre des instructions de commande à destination de l’unité de commande qui pilote les moyens de déplacement et d’orientation du satellite (ordinateur de navigation, propulseurs et roues à réaction). Ces commandes dépendent des rendez-vous déterminés à l’étape précédente. Le mode de réalisation de cette étape est connu de l’homme du métier et consiste à piloter les organes de commande du satellite pour atteindre l’objectif visé.
Selon l’invention et grâce au calcul des caractéristiques orbitales relatives de l’objet à l’étape précédente, cette étape revient à résoudre un problème de minimisation de la séparation avec la cible. Cette technique se base sur le vecteur d’inclinaison-excentricité dans le plan radial/Normal et de séparation longitudinale dans le plan tangentiel.
L’invention ne se limite pas aux seuls modes de réalisation décrits et peut faire l’objet de variante sans sortir du périmètre de protection visé. En particulier, selon un mode de réalisation non décrit, le système peut comprendre deux caméras (ou plus) distinctes dédiées respectivement à fournir des images au module de traitement longue distance et au module de traitement courte distance. Cette variante permet de bénéficier d’une caméra spécifique adaptée au traitement correspondant.

Claims

REVENDICATIONS Procédé de navigation autonome d’un satellite, dit satellite hôte, équipé de moyens de déplacement et d’orientation dudit satellite, d’une unité de commande de ces moyens, et d’au moins une caméra embarquée d’acquisition d’images de l’environnement dudit satellite, ledit procédé étant caractérisé en ce qu’il comprend les étapes suivantes :
- une étape d’acquisition (El) d’une pluralité d’images par ladite caméra embarquée,
- une étape de traitement par défaut desdites images acquises, dit traitement longue distance (E2), configuré pour détecter et identifier des objets spatiaux au sein desdites images, calculer leurs orbites relatives et distances par rapport au satellite hôte, et déterminer l’attitude du satellite hôte,
- une étape de traitement conditionnel desdites images acquises, dit traitement courte distance (E3), configuré pour estimer l’attitude d’au moins un desdits objets spatiaux détectés et identifiés, dit objet cible, lors du traitement longue distance, ladite étape courte distance étant mise en œuvre lorsque ladite étape longue distance détecte au moins un objet spatial situé à une distance estimée inférieure à une distance seuil prédéterminée,
- une étape de détermination (E4) d’un possible rendez- vous entre au moins ledit objet cible, et le satellite hôte à partir d’une estimation de trajectoire dudit objet cible et dudit satellite hôte,
- une étape d’élaboration (E5) et de transmission d’instructions de commande à destination de ladite unité de commande desdits moyens de déplacement et d’orientation dudit satellite en fonction d’au moins un rendez- vous déterminé à l’étape précédente. Procédé de navigation selon la revendication 1 , caractérisé en ce que ladite étape de traitement longue distance (E2) comprend en outre : un seuillage des images, un regroupement (302) de différents points des images seuillées, - un calcul des centres (303) des differents regroupements de 1 image,
- un classement et filtrage des différents regroupements formant lesdits objets spatiaux et célestes détectés. Procédé de navigation selon la revendication 2, caractérisé en ce que ladite étape de traitement longue distance (E2) comprend en outre :
- une comparaison (304) desdits objets spatiaux et célestes détectés avec un catalogue (305) prédéterminé d’objets célestes pour identifier au moins un objet céleste parmi les objets détectés,
- une détermination d’attitude (307) dudit satellite hôte à partir d’une position d’au moins un des objets célestes identifiés. Procédé de navigation selon la revendication 3 , caractérisé en ce que ladite étape de traitement longue distance (E2) comprend en outre :
- un calcul de la position (309) d’au moins un objet spatial détecté et identifié au sein de l’image, dit objet cible (308),
- un calcul des caractéristiques orbitales (310) dudit objet cible à partir de la détermination de l’attitude du satellite hôte et de la position dudit objet cible calculé. Procédé de navigation selon l’une des revendications 3 ou 4, caractérisé en ce que ladite étape de détermination d’attitude (307) comprend :
- la mise en œuvre d’un filtre de Kalman étendue à partir d’une première estimation de la vitesse angulaire et d’attitude du satellite hôte et de la position d’au moins un objet céleste identifié. Procédé de navigation selon l’une des revendications 1 à 5, caractérisé en ce que ladite étape de traitement courte distance (E3) comprend :
- une détection d’une zone d’intérêt (402) comprenant l’objet cible d’intérêt par exécution d’un premier réseau de neurones,
- une détection de points de repères régressive (403) dans ladite zone d’intérêt détecté par exécution d’un deuxième réseau de neurones,
- une estimation de la pose (404) de l’objet cible à partir des points de repères détectés à l’étape précédente.
7. Procédé de navigation selon 1 une des revendications 1 a 6, caractérisé en ce que ladite étape de détermination (E4) d’un possible rendez-vous comprend :
- une estimation de la trajectoire du satellite hôte à partir d’un modèle linéarisé de la dynamique du satellite,
- un calcul de probabilité de collision avec un objet spatial identifié.
8. Procédé de navigation selon l’une des revendications 1 à 7, caractérisé en ce que ladite étape d’élaboration et de transmission d’instructions de commande (E5) à destination de ladite unité de commande comprend :
- une simulation dynamique de vol dudit satellite hôte,
- une modélisation des commandes à partir de ladite simulation dynamique,
- une répétition des étapes précédentes jusqu’à atteindre ou éviter ledit objet cible.
9. Système de navigation autonome d’un satellite, dit satellite hôte, équipé de moyens de déplacement et d’orientation dudit satellite, d’une unité de commande de ces moyens, ledit système étant caractérisé en ce qu’il comprend
- au moins une caméra (10) d’acquisitions d’une pluralité d’images de l’environnement dudit satellite hôte,
- un module de traitement par défaut desdites images acquises, dit module longue distance (21), configuré pour détecter et identifier des objets spatiaux au sein desdites images, calculer leurs orbites relatives et distances par rapport au satellite hôte, et déterminer l’attitude dudit satellite hôte,
- un module de traitement conditionnel desdites images acquises, dit module courte distance (22), configuré pour estimer l’attitude d’au moins un desdits objets spatiaux détectés et identifiés, dit objet cible, par ledit module longue distance, ledit module courte distance étant mis en œuvre lorsque ledit module longue distance a détecté au moins un objet spatial situé à une distance estimée inférieure à une distance seuil prédéterminée,
- un module de détermination (23) d’un possible rendez-vous entre au moins ledit objet cible, et le satellite hôte à partir d’une estimation de trajectoire dudit objet cible et dudit satellite hôte,
- un module d’élaboration et de transmission d’instructions de commande (24) à destination de ladite unité de commande desdits moyens de déplacement et d’orientation dudit satellite en fonction desdits rendez- vous déterminés par ledit module de détermination des rendez-vous. Système de navigation selon la revendication 9, caractérisé en ce qu’il comprend une caméra d’acquisitions d’images destinée à fournir des images au module de traitement longue distance et une caméra d’acquisitions d’images destinée à fournir des images au module de traitement courte distance.
PCT/EP2022/082716 2021-11-26 2022-11-22 Système et procédé de navigation autonome base vision d'un satellite WO2023094347A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP22821442.5A EP4436878A1 (fr) 2021-11-26 2022-11-22 Système et procédé de navigation autonome base vision d'un satellite

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR2112597 2021-11-26
FR2112597A FR3129737B1 (fr) 2021-11-26 2021-11-26 Systeme et procede de navigation autonome base vision d’un satellite

Publications (1)

Publication Number Publication Date
WO2023094347A1 true WO2023094347A1 (fr) 2023-06-01

Family

ID=80933599

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/082716 WO2023094347A1 (fr) 2021-11-26 2022-11-22 Système et procédé de navigation autonome base vision d'un satellite

Country Status (3)

Country Link
EP (1) EP4436878A1 (fr)
FR (1) FR3129737B1 (fr)
WO (1) WO2023094347A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117647243B (zh) * 2024-01-30 2024-04-16 山东星辰卫星技术有限公司 一种基于6u立方星的凝视监测方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995003215A1 (fr) * 1993-07-22 1995-02-02 Honeywell Inc. Methode de creation d'une base de donnees sur les etoiles
EP2360621A1 (fr) * 2010-01-14 2011-08-24 Astrium Sas Procédé de détection d'une cible dans une image acquise depuis un véhicule survolant un corps céleste
US20160363451A1 (en) * 2014-12-30 2016-12-15 Huazhong University Of Science And Technology Multi-sensor merging based super-close distance autonomous navigation apparatus and method
US9944412B2 (en) * 2013-10-04 2018-04-17 Busek Co., Inc. Spacecraft system for debris disposal and other operations and methods pertaining to the same
WO2021200055A1 (fr) * 2020-03-31 2021-10-07 川崎重工業株式会社 Dispositif de commande et programme d'ordinateur

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995003215A1 (fr) * 1993-07-22 1995-02-02 Honeywell Inc. Methode de creation d'une base de donnees sur les etoiles
EP2360621A1 (fr) * 2010-01-14 2011-08-24 Astrium Sas Procédé de détection d'une cible dans une image acquise depuis un véhicule survolant un corps céleste
US9944412B2 (en) * 2013-10-04 2018-04-17 Busek Co., Inc. Spacecraft system for debris disposal and other operations and methods pertaining to the same
US20160363451A1 (en) * 2014-12-30 2016-12-15 Huazhong University Of Science And Technology Multi-sensor merging based super-close distance autonomous navigation apparatus and method
WO2021200055A1 (fr) * 2020-03-31 2021-10-07 川崎重工業株式会社 Dispositif de commande et programme d'ordinateur

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
OPROMOLLA ROBERTO ET AL: "A review of cooperative and uncooperative spacecraft pose determination techniques for close-proximity operations", PROGRESS IN AEROSPACE SCIENCES, OXFORD, GB, vol. 93, 21 July 2017 (2017-07-21), pages 53 - 72, XP085191302, ISSN: 0376-0421, DOI: 10.1016/J.PAEROSCI.2017.07.001 *
POMARES JORGE ET AL: "Spacecraft visual servoing with adaptive zooming for non-cooperative rendezvous", 2018 IEEE AEROSPACE CONFERENCE, IEEE, 3 March 2018 (2018-03-03), pages 1 - 8, XP033365234, DOI: 10.1109/AERO.2018.8396472 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117647243B (zh) * 2024-01-30 2024-04-16 山东星辰卫星技术有限公司 一种基于6u立方星的凝视监测方法及系统

Also Published As

Publication number Publication date
FR3129737B1 (fr) 2023-11-24
EP4436878A1 (fr) 2024-10-02
FR3129737A1 (fr) 2023-06-02

Similar Documents

Publication Publication Date Title
US10671083B2 (en) Neural network architecture system for deep odometry assisted by static scene optical flow
US10552979B2 (en) Output of a neural network method for deep odometry assisted by static scene optical flow
US10436884B2 (en) Calibration of laser and vision sensors
EP3388914A1 (fr) Procédé de suivi de cible par un drone, programme d'ordinateur, système électronique et drone associés
US20190079536A1 (en) Training and testing of a neural network system for deep odometry assisted by static scene optical flow
US10268205B2 (en) Training and testing of a neural network method for deep odometry assisted by static scene optical flow
EP2724203B1 (fr) Génération de données de carte
US11036240B1 (en) Safe landing of aerial vehicles upon loss of navigation
US20190079533A1 (en) Neural network architecture method for deep odometry assisted by static scene optical flow
EP2428934A1 (fr) Procédé d'estimation du mouvement d'un porteur par rapport à un environnement et dispositif de calcul pour système de navigation
EP1982144B1 (fr) Procede de geo-localisation d'une ou plusieurs cibles
FR3070527A1 (fr) Procede et dispositif d'evitement d'un objet par detection de son rapprochement d'un aeronef
Hsu et al. Hong Kong UrbanNav: An open-source multisensory dataset for benchmarking urban navigation algorithms
US20190080167A1 (en) Data acquistion and input of neural network system for deep odometry assisted by static scene optical flow
EP3227860B1 (fr) Procédé d'estimation du mouvement d'un porteur par rapport à un environnement et dispositif de calcul pour système de navigation
Sabatini et al. Navigation and guidance system architectures for small unmanned aircraft applications
EP3555566A1 (fr) Localisation d'un vehicule
WO2023094347A1 (fr) Système et procédé de navigation autonome base vision d'un satellite
EP2517152B1 (fr) Procede de classification d'objets dans un systeme de veille par imagerie
EP3776471B1 (fr) Procédé pour la localisation d'une cible à partir d'un contour elliptique
FR3094081A1 (fr) Procédé d’estimation passive du temps avant collision pour un aéronef ou de tout objet volant pouvant être guidé, procédé de navigation associé
Katake et al. VisNAV 100: a robust, compact imaging sensor for enabling autonomous air-to-air refueling of aircraft and unmanned aerial vehicles
FR3145978A1 (fr) Procédé de navigation à Kalman étendu invariant et véhicule équipé pour sa mise en oeuvre.
WO2021089628A1 (fr) Procédé de guidage d'un véhicule, programme d'ordinateur, module électronique et véhicule associés
EP4006491A1 (fr) Système d'aide à la navigation d'un porteur à l'aide d'amers

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22821442

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022821442

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022821442

Country of ref document: EP

Effective date: 20240626