WO2003027599A1 - Procede de guidage d'une roquette - Google Patents

Procede de guidage d'une roquette Download PDF

Info

Publication number
WO2003027599A1
WO2003027599A1 PCT/FR2002/003240 FR0203240W WO03027599A1 WO 2003027599 A1 WO2003027599 A1 WO 2003027599A1 FR 0203240 W FR0203240 W FR 0203240W WO 03027599 A1 WO03027599 A1 WO 03027599A1
Authority
WO
WIPO (PCT)
Prior art keywords
rocket
images
imaging device
target
camera
Prior art date
Application number
PCT/FR2002/003240
Other languages
English (en)
Inventor
Michel Broekaert
Original Assignee
Sagem Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sagem Sa filed Critical Sagem Sa
Priority to EP02783193A priority Critical patent/EP1432958B1/fr
Priority to DE60214407T priority patent/DE60214407T2/de
Priority to US10/490,951 priority patent/US7083139B2/en
Publication of WO2003027599A1 publication Critical patent/WO2003027599A1/fr

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2206Homing guidance systems using a remote control station
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target

Definitions

  • the invention relates to rocket guidance.
  • a rocket is a small rocket, without guidance. It is often used in the fight against tanks and it can be launched from a land, sea or air vehicle, for example from an airplane or a helicopter.
  • the invention applies equally well to missiles and when we speak in the text of rockets, it will be necessary to take the term in its general sense and to consider that we also cover missiles.
  • an operator Before launching a rocket, an operator first acquires the target in its sight, it identifies it, it follows it, to know its angular speed, then it ranges it, to know its distance and finally to know the position of the target in its benchmark. With this data and a flight model of the device, the fire calculator develops a future goal materialized by a reticle in the viewfinder.
  • the present application aims to perfect the precision of rockets and, for this purpose, it relates to a method for guiding a rocket on a target in which, the rocket being equipped with self-guiding means with imaging device and trajectory correction means,
  • the target is acquired by an aiming device and its position is determined
  • the rocket is guided according to this law until it acquires the target itself.
  • the harmonization of the two aiming and imaging devices, of the launcher and of the rocket can be carried out in a completely simple manner, first by harmonizing the aiming and taking axes, respectively, then, by calculating the image of the launcher sight in the reference frame of the rocket imaging device.
  • the stabilization of the images of the rocket imaging device makes it possible at least to overcome the disadvantages of the launcher before launching and therefore to stabilize these images in the absolute landscape of the target.
  • an initial guidance law is developed and the rocket is guided until it acquires the target according to this initial law.
  • an initial guidance law is developed and, after launch, a continuously variable guidance and trajectory correction law is developed until the rocket acquires the target.
  • electronic harmonization is carried out according to which, in a terrestrial frame of reference, the images of the scene taken at the same times by the two devices are filtered in a low-pass filter, i:> to retain only the low spatial frequencies, and the equation of the optical flow between these pairs of respective images of the two devices is solved to determine the rotations and the variation of the ratio of the parameters respective zoom to subject these images to harmonize them on each other.
  • the images of the rocket imaging device are stabilized in a terrestrial frame of reference, on the landscape, even if stabilization by inertial unit is still possible.
  • FIG. 1 is a schematic axial sectional view of a rocket equipped with self-guiding means with imaging device and path correction means;
  • FIG. 2 is a block representation of the electrical, electronic and optical functional means of the rocket of Figure 1;
  • - Figure 3 illustrates the geometry of the movement of a camera
  • - Figure 4 is a block diagram of the rocket imaging device allowing the implementation of electronic stabilization of its images and harmonization with the aiming device;
  • - Figure 5 is a representation of the image of the rocket imaging device showing the various fields of view and - Figure 6 is a schematic view illustrating the method of guiding a rocket on a target from a helicopter.
  • the rocket comprises a body 1, of which only the front part has been shown, the rear part comprising the payload and the trajectory correction members, which may be control surfaces or small directional rockets, and a nose 2, covered of a cap 3.
  • the cap 3 carries a first lens which acts as an aerodynamic window and which focuses the image on the detector using the rest of the optics which are discussed below.
  • the cap 3 carries a first lens which acts as an aerodynamic window and which focuses the image on the detector using the rest of the optics which are discussed below.
  • the rocket is a self-directing spinnated rocket, partly in the nose, partly in the body, as will be seen below, but the nose 2 and the body 1 of which are decoupled in rotation, the nose 2 carrying, by means of a hollow shaft 4, a flywheel 5 disposed in the body 1 creating a differential spin between the nose 2 and the body 1, so that the nose 2 is only rotated very slowly if not at all.
  • the hollow shaft 4 therefore extends on either side of the joint plane 6 between the nose 2 and the body 1, in rolling bearings 7 and 8 respectively in one 2 and the other part 1 rocket.
  • the self-steering of the rocket comprises, in the nose 2, behind the cap 3 and a fixed optical system 9, an imaging device 10 and in the body 1, u 'n equipment 11 Trajectory correction controlled by the device 10.
  • the equipment 11 also ensures, after launch, the comparison of the image taken by the imaging device 10 with the stored large and small field images of the scene taken, before launch, with the wearer's aiming device, it will be discussed below.
  • the imaging device 10 comprises a camera 13, with its conventional proximity electronic circuits 14, an analog-digital converter 15 and an image transmission component 16.
  • the device 10 is supplied from the body of the rocket and through the hollow shaft 4, by a rechargeable battery 12.
  • the camera 13 can be a camera or video or infrared device.
  • the transmission component 16 can be a laser diode or an LED (light-emitting diode). This component 16 can be placed in the imaging device 10 and then, the transmission of images through the hollow shaft 4 and the flywheel 5 is effected by optical fiber 17 extending along the roll axis 30 of the machine.
  • the image transmission component 22 can be placed in the inertia flap 5, opposite a diode 24 receiving the transmitted images and then the signal transmission between the imaging device 10 and the component 22 s' made by wires through the hollow shaft 4.
  • the imaging device is cooled by Peltier effect, if necessary.
  • the flywheel 5 symbolized in FIG. 2 by the two vertical dashed lines, carries the secondary 19 of a transformer 18 for coupling the power supply to the nose 2 of the rocket connected to the battery 12, a wheel 20 of an optical encoder 21 and a laser diode 22, or an LED, as the case may be, for transmitting in the body 1 of the rocket images of the device 10.
  • the trajectory correction equipment 11 of the rocket body comprises the transceiver 23 of the optical encoder 21, the diode 24 receiving the transmitted images, the primary 25 of the transformer 18, with its source 26, and circuits 27 for processing the received images and for guiding and controlling the control surfaces 28 of the rocket, connected to the receiving diode 24 and to the transceiver 23 of the encoder 21.
  • the circuits 27 include a computer of edge.
  • the encoder 21 indicates the relative angular position between the imaging device 10 and the body 1 of the rocket.
  • the rocket is guided using the computer of circuits 27, as a function of this angular position and of the comparison between the images received from the imaging device and stabilized in circuits 27 and the stored images previously supplied by example by a viewfinder.
  • the guidance commands are applied in synchronism with the rocket's own rotation, also taking into account the location of the control surface.
  • the operator Before launching the rocket, the operator, using a sighting device, takes a wide field image 52 of the scene, which is memorized, and which will serve, in the case of low spatial frequencies, to be determined the approximate direction of the target ( Figure 5). It also takes a small field image 53 which is also stored.
  • the overall view is a view 50 of the navigation field, with, inside, a view 51 of the rocket's auto-director, then a view 52 of the wide field, then again more inside, a view 53 small field.
  • FIG. 6 shows a sighting device 62 and a firing computer 63 of the helicopter as well as the angle of field ⁇ of the seeker of the rocket from right, corresponding to view 51, and the angle of small field v of the sighting device 62 of the helicopter, corresponding to view 53, angles in which the tank 61 is located.
  • the fire control operator shooter of the helicopter 60
  • the fire control operator begins by acquiring the target 61 using his aiming device 62, that is to say that it proceeds to the determination of the position, the distance and the speed of the target 61 which will enable it subsequently, in combination with a flight model and with the aid of the fire calculator 63, to develop a law of guidance, or command, initial.
  • the pilot of the helicopter brings back at best the axis of the helicopter in the direction aimed by the shooter thanks to a repeater.
  • the on-board computer After acquisition of the target 61 and its designation by the operator, the on-board computer, proceeds to the harmonization of the aiming device 62 and of the imaging device 10 of the rocket then to the stabilization of the images of the device rocket imagery, before developing the optimal rocket guidance law.
  • the camera is in a three-dimensional Cartesian or Polar coordinate system with the origin placed on the front lens of the camera and the z axis directed along the viewing direction.
  • the position of the camera relative to the wearer's center of gravity is defined by three rotations (ab, vc, gc) and three translations (Txc, Tyc, Tzc).
  • the relationship between the 3D coordinates of the camera and those of the wearer is:
  • R is a 3 x 3 rotation matrix
  • T is a 1 x 3 translation matrix
  • x (t) F (t) .x (t) + u (t) + v (t)
  • H (t) is a matrix m x n function of t and w is a white Gaussian noise of dimension m, which one can assimilate to the angular and linear vibrations of the camera compared to the center of gravity of the carrier.
  • x k [k aP, aV k, bP k, k bV, gP k, gV k, k xP, xV k, k yP, yV k, zP k, k zV] ⁇ is the state vector at the instant k of the trajectory, composed of the angles and speeds yaw, pitch, roll and positions and speeds in x, y and z.
  • u k is the known input vector function of k; it is the flight or trajectory model of the wearer's center of gravity.
  • v k is the n-dimensional white Gaussian noise representing the acceleration noises in yaw, pitch, roll, positions x, y, z.
  • angles and translations to which the camera is subjected relative to the center of gravity are not constant during the trajectory, in a viewfinder for example, it suffices to describe their measured or controlled values (ac (t), bc (t ), gc (t), Txc (t), Tyc (t), Tzc (t) as a function of t or k.
  • the trajectory of the camera can be defined by a vector
  • the camera undergoes pure 3D rotations and three translations, the values of which are provided by the vector x ' k + ⁇ .
  • Figure 3 shows the geometry of the camera movement in 3D space in the real world.
  • the camera is in a three-dimensional Cartesian or Polar coordinate system with the origin placed on the front lens of the camera and the z axis directed along the viewing direction.
  • F1 (X, Y) is the focal length of the camera at time t.
  • aw, bw, gw, xw, yw, zw are the angular vibrations.
  • imagek + 1 (Ai, Aj) imagek (Ai, Aj) + Gradie ⁇ tX (Ai, Aj) .dAi .pasH + GradientY (Ai, Aj). dAj .pasH with Gradie ⁇ tX and Gradie ⁇ tY the derivatives according to X and Y of ima ⁇ ek (X.Y).
  • Low-pass filtering consists, in a conventional manner, of dragging a convolution kernel from pixel to pixel of the digital images of the camera, a kernel on which the origin of the kernel is replaced by the average of the gray levels of the pixels of the kernel .
  • the results obtained with a rectangular core of 7 pixels high (v) and 20 pixels wide (H) are very satisfactory on normally contrasted scenes.
  • v pixels high
  • H pixels wide
  • Wavelet functions can also be used as the averaging kernel.
  • the optical flow equation measures the total displacement of the camera. We saw above that we could distinguish more finely the movements of the camera deduced from those of the wearer and the real movements of the camera by saying that the wearer and the camera have the same trajectory, but that the camera undergoes in addition to the linear and angular vibrations.
  • the displacements due to the trajectory of the camera are contained in the state vector x ' k + ⁇ of the camera, or rather in the estimation that one can make it, by averaging it, or by having a Kalman filter which provides the best estimate.
  • the fourth axis (zoom) is not necessarily necessary but it may prove to be essential in the event of optical zoom but also in the case where the focal length is not known with sufficient precision or when the focal length varies with the temperature ( IR, Germanium optics, etc.) or pressure (air index).
  • image k + 1 (X, Y) image (X - dX k + ⁇ (X, Y), Y - dY k + 1 (X, Y))
  • a (,:, 2) DeriveeX (Ai, Aj). (1 + (Ai.pasH / F1 (X, Y)) ⁇ 2)
  • a (,:, 3) DeriveeY (Ai, Aj) .Ai. pasH / pasV - DeriveeX (Ai, Aj). .Aj .notV / pasH
  • a (:,:, 4) DeriveeX (Ai, Aj). Ai + Derivative Y (Ai, Aj). aj
  • the shooting camera 13 delivers its video signal from images to a filter
  • the filter 10 low-pass 42 as well as to a processing block 43 receiving on a second input the stabilization data and supplying as output the stabilized images. On its second input, the block 43 therefore receives the rotational speeds to be subjected to the images taken by the camera 13.
  • the two buffer memories 44, 45 are connected to two inputs of a computation component 46, which is either an ASIC or an FPGA (field programmable gate array).
  • the calculation component 46 is connected to a working memory 47 and, at the output, to the processing block 43. All the electronic components of the
  • the harmonization implemented in the guiding method of the invention is an extrapolation of the stabilization step, the sighting device and the rocket imaging device being, before launch, mounted on the same carrier.
  • the stabilization of the images of the rocket imaging device is a self-stabilization process, in which the image of time t is stabilized on the image of time t-1.
  • we harmonize each image of the imaging system on the previous one we can say that we harmonize each image of the imaging system on the previous one.
  • the two images of the two devices are taken and they are stabilized one on the other, that is to say that the two devices are harmonized.
  • Harmonizing is tantamount to confusing the optical axes of the two devices as well as matching the pixels of the two images two by two, and preferably also confusing these pixels.
  • the two devices to be harmonized according to this process must be of the same optical nature, that is to say operate in comparable wavelengths.
  • the two devices both taking images of the same scene, in a terrestrial frame of reference, the images of the scene taken at the same times by the two devices are filtered in a low-pass filter, for n ' retain only the low spatial frequencies, and the equation of the optical flow between these pairs of respective images of the two devices is solved, to determine the rotations and the variation of the ratio of the respective zoom parameters to be subjected to these images for the harmonize on each other.
  • the initial guidance law is developed by means of the position, distance and speed of the target, on the one hand, and a flight model on the other.
  • the operator of the firing control proceeds to launch it. Up to a certain distance from the target 61, until the rocket acquires the target, the image taken by the imaging device 10 of the rocket is compared with the stored wide field image 52 of the scene taken at the start with the aiming device 62, that is to say that the rocket guidance is permanently controlled.
  • the guidance of the rocket is continued until the terminal phase, by comparison of the image taken by the imaging device 10 of the rocket with the small field image 53 also stored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Telescopes (AREA)

Abstract

Procédé de guidage d'une roquette (1) sur une cible, dans lequel, la roquette (1) étant équipée de moyens d'auto-guidage à dispositif d'imagerie (10) et moyens de correction de trajectoire (11), - on acquiert la cible par un dispositif de visée et on détermine sa position, - on harmonise le dispositif de visée et le dispositif d'imagerie (10) de la roquette, - on stabilise les images du dispositif d'imagerie (10) de la roquette, - on élabore une loi de guidage, - on lance la roquette (1) et on guide la roquette selon celle loi jusqu'à ce qu'elle acquiert elle-même la cible.

Description

Procédé de guidage d'une roquette
L'invention concerne le guidage des roquettes.
Une roquette est une petite fusée, sans guidage. On l'utilise souvent dans la lutte anti-chars et elle peut être lancée d'un engin terrestre, maritime ou aérien, par exemple d'un avion ou d'un hélicoptère. Toutefois, l'invention s'applique tout aussi bien aux missiles et quand on parlera dans le texte de roquettes, il faudra prendre le terme dans son sens général et considérer qu'on couvre également des missiles.
La précision d'une roquette n'est pas très grande. Mais elle est en plus affectée, en cas de tir d'hélicoptère, par le vent des pales qui provoque une déviation de trajectoire .
Avant de lancer une roquette, un opérateur acquiert d'abord la cible dans son viseur, il l'identifie, il la suit, pour connaître sa vitesse angulaire, puis il la télémètre, pour connaître sa distance et finalement connaître la position de la cible dans son repère. Avec ces données et un modèle de vol de l'engin, le calculateur de tir élabore un but futur matérialisé par un réticule dans le viseur.
On rappellera que de nombreux missiles sont équipés de moyens d'auto- guidage, c'est-à-dire d'un système d'écartométrie destiné, en fonction du résultat de la comparaison entre les images de la cible de référence et les images capturées en vol par un dispositif d'imagerie, à actionner des gouvernes ou des fusées directionnelles de correction de trajectoire.
Et bien la présente demande vise à parfaire la précision des roquettes et, à cet effet, elle concerne un procédé de guidage d'une roquette sur une cible dans lequel, la roquette étant équipée de moyens d'auto-guidage à dispositif d'imagerie et moyens de correction de trajectoire,
- on acquiert la cible par un dispositif de visée et on détermine sa position,
- on harmonise le dispositif de visée et le dispositif d'imagerie de la roquette,
- on stabilise les images du dispositif d'imagerie de la roquette,
- on élabore une loi de guidage,
- on lance la roquette et
- on guide la roquette selon cette loi jusqu'à ce qu'elle acquiert elle-même la cible. On notera que l'harmonisation des deux dispositifs de visée et d'imagerie, du lanceur et de la roquette peut s'effectuer de façon tout-à-fait simple, d'abord par harmonisation des axes de visée et de prise de vues, respectivement, puis, par calcul de l'image du viseur du lanceur dans le repère du dispositif d'imagerie de la roquette.
On notera aussi que la stabilisation des images du dispositif d'imagerie de la roquette permet au moins de palier les inconvénients du lanceur avant le lancement et donc de stabiliser ces images dans le paysage absolu de la cible.
Dans une mise en œuvre particulière du procédé de l'invention, avant le lancement, on élabore une loi de guidage initiale et la roquette est guidée jusqu'à ce qu'elle acquiert la cible selon cette loi initiale.
Mais, de préférence, avant le lancement, on élabore une loi de guidage initiale et, après le lancement, on élabore une loi de guidage continûment variable et de correction de trajectoire jusqu'à ce que la roquette acquiert la cible.
20
De préférence encore, pour harmoniser le dispositif de visée et le dispositif d'imagerie de la roquette, on procède à une harmonisation électronique selon laquelle, dans un référentiel terrestre, on filtre les images de la scène prises aux mêmes instants par les deux dispositifs dans un filtre passe-bas, i:> pour n'en retenir que les basses fréquences spatiales, et on résoud l'équation du flot optique entre ces paires d'images respectives des deux dispositifs pour déterminer les rotations et la variation du rapport des paramères de zoom respectifs à faire subir à ces images pour les harmoniser les unes sur les autres.
De préférence toujours, on stabilise les images du dispositif d'imagerie de la roquette dans un référentiel terrestre, sur le paysage, même si une stabilisation par centrale inertielle reste toujours possible.
Dans ce cas, il est avantageux, dans ce référentiel terrestre, de filtrer les images de la scène prises par le dispositif d'imagerie, dans un filtre passe- bas, pour n'en retenir que les basses fréquences spatiales, et de résoudre l'équation du flot optique pour déterminer les rotations à faire subir aux images pour les stabiliser sur les images précédentes.
40 L'invention sera mieux comprise à l'aide de la description suivante, en référence au dessin annexé, sur lequel
- la figure 1 est une vue en coupe axiale schématique d'une roquette équipée de moyens d'auto-guidage à dispositif d'imagerie et moyens de correction de trajectoire ;
- la figure 2 est une représentation par blocs des moyens fonctionnels électriques, électroniques et optiques de la roquette de la figure 1 ;
- la figure 3 illustre la géométrie du mouvement d'une caméra de prise de vues ; - la figure 4 est un schéma fonctionnel du dispositif d'imagerie de la roquette permettant la mise en œuvre de la stabilisation électronique de ses images et rharmonisation avec le dispositif de visée ;
- la figure 5 est une représentation de l'image du dispositif d'imagerie de la roquette montrant les divers champs de prise de vues et - la figure 6 est une vue schématique illustrant le procédé de guidage de roquette sur une cible à partir d'un hélicoptère.
La roquette comporte un corps 1, dont on n'a représenté que la partie avant, la partie arrière comprenant la charge utile et les organes de correction de trajectoire, qui peuvent être des gouvernes ou des petites fusées directionnelles, et un nez 2, recouvert d'une coiffe 3. La coiffe 3 porte une première lentille qui fait office de hublot aérodynamique et qui focalise l'image sur le détecteur à l'aide du reste de l'optique dont il est question ci- après. La coiffe 3 porte une première lentille qui fait office de hublot aérodynamique et qui focalise l'image sur le détecteur à l'aide du reste de l'optique dont il est question ci-après. La roquette est une roquette spinnée à auto-directeur, en partie dans le nez, en partie dans le corps, comme on le verra ci-après, mais dont le nez 2 et le corps 1 sont découplés en rotation, le nez 2 portant, par l'intermédiaire d'un arbre creux 4, un volant d'inertie 5 disposé dans le corps 1 créant un spin différentiel entre le nez 2 et le corps 1, de sorte que le nez 2 n'est entraîné en rotation que très lentement si ce n'est pas du tout.
L'arbre creux 4 s'étend donc de part - et d'autre du plan de joint 6 entre le nez 2 et le corps 1, dans des paliers à roulements 7 et 8 respectivement dans l'une 2 et l'autre partie 1 de la roquette. L'auto-directeur de la roquette comporte, dans le nez 2, derrière la coiffe 3 et une optique fixe 9, un dispositif d'imagerie 10 et dans le corps 1, u ' n équipement 11 de correction de trajectoire commandé par le dispositif 10.
L'équipement 11 assure également, après lancement, la comparaison de l'image prise par le dispositif d'imagerie 10 avec les images grand champ et petit champ mémorisées de la scène prises, avant le lancement, avec le dispositif de visée du porteur dont il sera question ci-après.
Le dispositif d'imagerie 10 comprend un organe de prise de vues 13, avec ses circuits électroniques de proximité classiques 14, un convertisseur analogique - numérique 15 et un composant de transmission d'images 16. Le dispositif 10 est alimenté, depuis le corps de la roquette et à travers l'arbre creux 4, par une batterie rechargeable 12. L'organe de prise de vues 13 peut être une caméra ou appareil vidéo ou infra-rouge. Le composant de transmission 16 peut être une diode laser ou une LED (diode électroluminescente). Ce composant 16 peut être disposé dans le dispositif d'imagerie 10 et alors, la transmission d'images à travers l'arbre creux 4 et le volant d'inertie 5 s'effectue par fibre optique 17 s'étendant le long de l'axe de roulis 30 de l'engin. Mais le composant de transmission d'images 22 peut être disposé dans le volet d'inertie 5, en face d'une diode 24 réceptrice des images transmises et alors la transmission du signal entre le dispositif d'imagerie 10 et le composant 22 s'effectue par fils à travers l'arbre creux 4. Le dispositif d'imagerie est refroidi par effet Peltier, si nécessaire.
Le volant d'inertie 5, symbolisé sur la figure 2 par les deux traits en tirets verticaux, porte le secondaire 19 d'un transformateur 18 de couplage d'alimentation en énergie du nez 2 de la roquette relié à la batterie 12, une roue 20 d'un codeur optique 21 et une diode laser 22, ou une LED, selon le cas, de transmission dans le corps 1 de la roquette des images du dispositif 10.
L'équipement de correction de trajectoire 11 du corps de la roquette comporte l'émetteur-récepteur 23 du codeur optique 21, la diode 24 réceptrice des images transmises, le primaire 25 du transformateur 18, avec sa source 26, et des circuits 27 de traitement des images reçues et de guidage et de commande des gouvernes 28 de la roquette, reliés à la diode réceptrice 24 et à l'émetteur-récepteur 23 du codeur 21. Les circuits 27 incluent un calculateur de bord.
Le codeur 21 indique la position angulaire relative entre le dispositif d'imagerie 10 et le corps 1 de la roquette. Le guidage de la roquette s'effectue à l'aide du calculateur des circuits 27, en fonction de cette position angulaire et de la comparaison entre les images reçues du dispositif d'imagerie et stabilisées dans les circuits 27 et des images mémorisées préalablement fournies par exemple par un viseur.
Les commandes de guidage sont appliquées en synchronisme avec la rotation propre de la roquette compte-tenu aussi de l'endroit où est située la gouverne.
Avant le lancement de la roquette, l'opérateur, à l'aide d'un dispositif de visée, prend une image grand champ 52 de la scène, qui est mémorisée, et qui servira, s 'agissant de basses fréquences spatiales, à déterminer la direction approximative de la cible (figure 5). Il prend également une image petit champ 53 qui est aussi mémorisée.
En référence à la figure 5, la vue d'ensemble est une vue 50 champ de navigation, avec, à l'intérieur, une vue 51 champ de l' auto-directeur de la roquette, puis une vue 52 grand champ puis, encore plus à l'intérieur, une vue 53 petit champ.
En référence à la figure 6, on a illustré l'exemple d'un opérateur, qui se trouve dans un hélicoptère 60 équipé, sur chacun de ses deux flancs, d'une roquette 1, 2, à guider sur la cible à atteindre constituée en l'espèce d'un char 61. On a représenté, sur cette figure 6, un dispositif de visée 62 et un calculateur de tir 63 de l'hélicoptère ainsi que l'angle de champ θ de l' autodirecteur de la roquette de droite, correspondant à la vue 51, et l'angle de petit champ v du dispositif de visée 62 de l'hélicoptère, correspondant à la vue 53, angles dans lesquels se trouve le char 61.
Ainsi, l'opérateur de conduite de tir, tireur de l'hélicoptère 60, commence par acquérir la cible 61 à l'aide de son dispositif de visée 62, c'est-à-dire qu'il procède à la détermination de la position, de la distance et de la vitesse de la cible 61 qui lui permettront ultérieurement, en combinaison avec un modèle de vol et à l'aide du calculateur de tir 63, à élaborer une loi de guidage, ou de commande, initiale. Pendant ce temps, le pilote de l'hélicoptère ramène au mieux l'axe de l'hélicoptère dans la direction visée par le tireur grâce à un répétiteur.
Après acquisition de la cible 61 et de sa désignation par l'opérateur, le calculateur de bord, procède à l'harmonisation du dispositif de visée 62 et du dispositif d'imagerie 10 de la roquette puis à la stabilisation des images du dispositif d'imagerie de la roquette, avant d'élaborer la loi de guidage optimale de la roquette.
Pour des raisons qui apparaîtront clairement après, on procédera d'abord à la description de l'étape de stabilisation des images du dispositif d'imagerie de la roquette.
Considérons la caméra d'observation et de guidage 13 de la roquette de la figure 1. Ce peut être une caméra vidéo ou une caméra infra-rouge.
Si la scène est stationnaire, les points de la scène vus par la caméra entre deux images sont reliés par la trajectoire du porteur.
Les coordonnées cartésiennes de la scène dans le repère du porteur sont P = (x, y, z)', l'origine est le centre de gravité du porteur, avec l'axe z orienté selon l'axe de roulis principal, l'axe x correspond à l'axe de lacet et l'axe y à l'axe de tangage.
La caméra est dans un système de coordonnées Cartésien ou Polaire à trois dimensions avec l'origine placée sur la lentille frontale de la caméra et l'axe z dirigé le long de la direction de visée.
La position de la caméra par rapport au centre de gravité du porteur est définie par trois rotations (ab, vc, gc) et trois translations (Txc, Tyc, Tzc). Le rapport entre les coordonnées 3 D de la caméra et celles du porteur est :
(x', y', z')' = (ac,bc,gc) * (x, y, z)' + T(Txc, Tyc, Tzc) OU
• R est une matrice 3 x 3 de rotation,
• T est une matrice 1 x 3 de translation.
La trajectoire du centre de gravité est caractéristique de l'évolution de l'état du système et peut être décrite par le système d'équations différentielles
x(t)=F(t).x(t)+ u(t)+v(t)
x = vecteur d'état de dimension n F(t) = matrice fonction de t, de dimension n u = vecteur d'entrée fonction de t connu v = bruit blanc gaussien à n dimensions
L'état du système est lui même observé à l'aide de la caméra et la résolution de l'équation du flot optique, par m mesures z(t) liées à l'état x par l'équation d'observation :
z(t)=H(t).x(t)+w(t)
où H(t) est une matrice m x n fonction de t et w est un bruit blanc gaussien de dimension m, que l'on peut assimiler aux vibrations angulaires et linéaires de la caméra par rapport au centre de gravité du porteur.
Le modèle discret s'écrit : xk+1 = Fk * xk + uk + vk zk = Hk * xk + Wk
ou xk = [aPk, aVk, bPk, bVk, gPk, gVk, xPk, xVk, yPk, yVk, zPk, zVk]τ est le vecteur d'état à l'instant k de la trajectoire, composé des angles et vitesses lacet, tangage, roulis et positions et vitesses en x, y et z.
xk+I est le vecteur d'état à l'instant k+1 avec t +1 - t = Ti.
uk est le vecteur d'entrée fonction de k connu; c'est le modèle de vol ou de trajectoire du centre de gravité du porteur.
vk est le bruit blanc gaussien à n dimensions représentant les bruits d'accélérations en lacet, tangage, roulis, positions x, y, z.
Si les angles et translations auxquels est soumise la caméra par rapport au centre de gravité ne sont pas constants au cours de la trajectoire, dans un viseur par exemple, il suffit de décrire leurs valeurs mesurées ou commandées (ac(t), bc(t), gc(t), Txc(t), Tyc(t), Tzc(t) en fonction de t ou de k.
Comme la trajectoire du centre de gravité du porteur est définie par le vecteur xk+ι, la trajectoire de la caméra peut être définie par un vecteur
xck+1 = R(ac, bc, gc) * (Fk*xk + uk + vk) + Te
Entre les instants d'observation k et k+1, la caméra subit de pures rotations 3D et trois translations, dont les valeurs sont fournies par le vecteur x'k+ι.
Considérons la situation où les éléments de la scène sont projetés dans le plan image de la caméra et seules ces projections sont connues.
La figure 3 montre la géométrie du mouvement de la caméra dans l'espace 3D du monde réel.
La caméra est dans un système de coordonnées Cartésien ou Polaire à trois dimensions avec l'origine placée sur la lentille frontale de la caméra et l'axe z dirigé le long de la direction de visée. Deux cas de complexités différentes existent :
• La scène est stationnaire tandis que la caméra zoome et tourne dans l'espace 3D.
• La scène est stationnaire tandis que la caméra zoome, tourne et se translate dans l'espace 3D.
Soit P = (x, y, z)' = (d, a b)' les coordonnées cartésiennes ou polaires caméra d'un point stationnaire au temps t
• x = d.sin(a).cos(b)
• y = d.sin(b).cos(a) • z = d.cos(a).cos(b)
et P' = (x',y',z')' = (d', a', b')' les coordonnées caméra correspondantes au temps t' = t + Ti.
Les coordonnées caméra (x, y, z) = (d, a, b) d'un point dans l'espace et les coordonnées dans le plan image (X, Y) de son image sont liées par une transformation de perspective égale à :
X = Fl(X,Y).x/z = Fl(X,Y).tg(a)
Y = Fl(X,Y).y/z = Fl(X,Y)/tg(b)
où F1(X, Y) est la longueur focale de la caméra au temps t.
(x', y', z')' = R(da,db,dg)*(x,y3z)' + T(Tx, Ty, Tz)
• R=R γ R β R α est une matrice 3 x 3 de rotation et alpha = da, bêta = db, gamma = dg sont, respectivement, l'angle de lacet, l'angle de tangage et l'angle de roulis de la caméra entre le temps t et t' • T est une matrice 1 x 3 de translation avec Tx = x' - x, Ty = y' - y et Tz = z - z', les translations de la caméra entre le temps t et t'.
Les observations par la caméra se faisant à la fréquence trame (Ti = 20 ms) on peut noter que ces angles évoluent peu entre deux trames et qu'on pourra simplifier certains calculs en conséquence.
Quand la longueur focale de la caméra au temps t évolue, on a :
F2(X,Y) = s.Fl(X, Y)
où s est appelé paramètre de zoom, les coordonnées (X', Y') du plan image peuvent être exprimées par
• X' = F2(X, Y).x7z' = F2(X, Y), tg(a')
• Y = F2(X, Y), y'/z' = F2(X, Y).tg(b')
Si on veut distinguer plus finement les mouvements de la caméra déduits
-> o de ceux du porteur et les mouvements réels de la caméra, on dira que le porteur et la caméra ont la même trajectoire, mais que la caméra subit en plus des vibrations linéaires et angulaires.
(x'5 y*, z')' = R(da+aw,db+bw,dg+gw) * (x, y, z)' + 25 T(Tx+xw,Ty+yw,Tz+zw)
ou
aw, bw, gw, xw, yw, zw sont les vibrations angulaires.
30
Ces vibrations linéaires et angulaires peuvent être assimilées à des bruits à moyennes nulles, blanc ou non en fonction du spectre du porteur considéré
35 L'équation du flot optique s'écrit :
-, - .^ ^ a(image, rX, Y)) ,v „,. ,., . c(imagelc (X,Y)) A , , . image,., (X, Y) = image, X ) + - ^ H.d ^X H — .dYk_, ()
ou : imagek+1 (Ai, Aj)=imagek(Ai, Aj)+ GradieπtX(Ai, Aj).dAi .pasH + GradientY(Ai, Aj). dAj .pasH avec GradieπtX et GradieπtY les dérivées selon X et Y de imaςek(X.Y).
Pour estimer les gradients on se sert uniquement des points adjacents. Comme on ne cherche que le mouvement global de l'image du paysage, on ne va s'intéresser qu'aux très basses fréquences spatiales de l'image et donc filtrer l'image en conséquence. Ainsi, les gradients calculés sont significatifs.
Le filtrage passe-bas consiste, de façon classique, à faire glisser un noyau de convolution de pixel en pixel des images numérisées de la caméra, noyau sur lequel on remplace l'origine du noyau par la moyenne des niveaux de gris des pixels du noyau. Les résultats obtenus avec un noyau rectangulaire de 7 pixels de hauteur (v) et 20 pixels de large (H) sont très satisfaisants sur des scènes normalement contrastées. Par contre, si on veut que ralgorithme fonctionne aussi sur quelques points chauds isolés, il vaut mieux utiliser un noyau qui préserve les maxima locaux et ne crée pas de discontinuité dans les gradients. On peut également utiliser des fonctions ondelettes comme noyau de moyennage.
On a donc utilisé un noyau de moyennage en forme de pyramide (triangle selon X convolué par triange selon Y). La complexité du filtre n'est pas augmentée car on a utilisé deux fois un noyau rectangulaire de moyenne glissante de [V = 4; H = 10]. On peut également utiliser des fonctions ondelettes comme noyau de moyennage.
Seuls dX et dY sont inconnus, mais si on peut décomposer dX et dY en fonction des paramètres du vecteur d'état qui nous intéressent et de X et Y (ou Ai, Aj) de façon à n'avoir plus comme inconnues que les paramètres du vecteur d'état, on va pouvoir écrire l'équation sous une forme vectorielle B = A*Xtrans, avec A et B connus. Chaque point de l'image pouvant être l'objet de l'équation, on est en présence d'un système surdéterminé, A*Xtrans = B, que l'on va pouvoir résoudre par la méthode des moindres carrés.
L'équation du flot optique mesure la totalité des déplacements de la caméra. On a vu plus haut qu'on pouvait distinguer plus finement les mouvements de la caméra déduits de ceux du porteur et les mouvements réels de la caméra en disant que le porteur et la caméra ont la même trajectoire, mais que la caméra subit en plus des vibrations linéaires et angulaires.
(x', y' ,z')' = R(da+aw,db+bw,dg+g ) (x. y, z)' + T(Tx+xw,Ty+yw,Tz+z )
OU aw, bw, gw, xw, yw. zw sont les vibrations angulaires et linéaires
Or les déplacements dus à la trajectoire de la caméra (da, db, dg, Tx, Ty, Tz) sont contenus dans le vecteur d'état x'k+ι de la caméra, ou plutôt dans l'estimation que l'on peut en faire, en moyennant, ou en ayant un filtre de Kalman qui- en fournit la meilleure estimée.
Comme l'équation du flot optique mesure la totalité des déplacements, on va pouvoir en déduire les vibrations angulaires et linéaires aw, bw, gw, xw, zw, à des fins de stabilisation.
Il faut noter que sauf configurations extrêmement particulières, les vibrations linéaires ne pourront jamais être vues compte tenu de la distance d'observation, ou de leurs faibles amplitudes par rapport aux déplacements du porteur. On va donc observer : da + aw, db + bw, dg + gw, Tx, Ty, Tz.
Reprenons l'équation du flot optique :
£ J 5S≥ £y_idχk_l (X, Y) . g(ima e, ( Y)) dY^ (Xj y) ima 1gSec,!c.-,l (X-' ,' Y) J = i "m"a-g=>e-,'< ( VX,' Y ' )i + - - χ. α^-> ^ I ^ δγ
OU image,., (X 4- dXt., (X, Y), Y + dY,^, Y)) = im e, (X, Y) Si on réalise cette opération, on voit que l'on va stabiliser de manière absolue les images de la séquence. Contrairement à une stabilisation inertielle où la ligne de visée est entachée de biais, de dérives et d'erreurs de facteur d'échelle, on peut créer une représentation de la scène non entachée de biais et de dérives si on la stabilise selon trois axes et si les défauts de distorsion de l'optique ont été compensés. Le quatrième axe (zoom) n'est pas forcément nécessaire mais il peut s'avérer indispensable en cas de zoom optique mais aussi dans le cas où la focale n'est pas connue avec assez de précision ou quand la focale varie avec la température (optiques IR, Germanium, etc..) ou la pression (indice de l'air).
Cela peut intéresser des applications où l'on veut faire de l'accumulation de trames sans traînage, ou si l'on veut garder une référence en absolu du paysage (l'harmonisation dynamique d'un auto-directeur et d'un viseur par exemple).
Mais cela peut aussi concerner des applications où on va chercher à restaurer l'information de paysage de manière optimale en obtenant une image débarrassée des effets d'échantillonnage et de taille de détecteur.
On peut obtenir simultanément une amélioration de la résolution spatiale et une réduction des bruits temporels ou du brait spatial fixe.
On peut remarquer que la même équation peut aussi s'écrire :
imagek+1(X, Y) = image (X - dXk+ι(X, Y), Y - dYk+1(X, Y))
Les valeurs dXk+ι(X,Y), dYk+ι(X, Y) ne sont bien évidemment pas connues à l'instant k. Par contre, en utilisant les équations de mouvement de caméra on peut les estimer à l'instant k+1.
Cela procure une meilleure robustesse dans la mesure des vitesses et cela autorise de grandes dynamiques de mouvements. Comme le même point P du paysage, de coordonnées Xk, Y dans l'image k, va se trouver aux coordonnées Xk+ι Yk+i dans l'image k+1 à cause des trois rotations aVk+ι. Ti, bV +ι. TL, gVk+ι.Ti, et du changement de focale, il faut donc faire subir des rotations et des facteurs de zoom opposés pour stabiliser de façon absolue l'image k+1 sur l'image k.
Examinons maintenant le cas particulier d'une scène stationnaire et pas de translation caméra.
Quand la caméra subit de pures rotations 3D, le rapport entre les coordonnées cartésiennes 3D caméra avant et après le mouvement de caméra est :
(x', y', z')' = R*(x, y, z)'
où R est une matrice 3 x 3 de rotation et alpha = da, bêta = db, gamma = dg sont, respectivement, l'angle de lacet, l'angle de tangage et l'angle de roulis de la caméra entre le tramps t et t'.
En coordonnées polaires 3D caméra, le rapport avant et après le mouvement de caméra est :
(d', a', b')* = K(da, db, dg) *(d, a, b)'
La scène étant stationnaire, on a :
d' = d pour tous les points du paysage
X = F1(S, Y).x/z = F1(X, Y). tg(a)
Y = F1(X, Y), y/z ) F1(X, Y).tg(b)
Quand la longueur focale de la caméra au temps t évolue, on a :
F2(X,Y)= s . Fl(X,Y) où s est appelé paramètre de zoom, les coordonnées (X1, Y') du plan image peuvent être exprimées par
• X' = F2(X, Y) . x'/z' = F2(X, Y) . tg(a')
• Y = F2(X, Y) . y'/z* = F2(X, Y) . tg(b')
On a donc quatre paramètres qui peuvent varier.
Considérons le cas pratique, pour résoudre l'équation de flux optique, de l'estimation des vitesses de lacet, tangage et roulis et du changement de focale.
B( ,:,1 ) = imagek+1 (Ai, Aj)-imagek(Ai, Aj)
Si On pose : AA((::,:,1 ) = Dérivée Y(Ai, Aj).(1 +(Aj.pasV/F1 (X,Y))Λ2)
A( ,:,2) = DeriveeX (Ai, Aj).(1 +(Ai.pasH/F1(X,Y))Λ2)
A( ,:,3) = DeriveeY(Ai, Aj).Ai. pasH /pasV - DeriveeX(Ai, Aj). .Aj .pasV /pasH
A(:,:,4) = DeriveeX(Ai, Aj). Ai + Dérivée Y(Ai, Aj). Aj
Xtrans(1 ) = F1 (0,0). bVk+1.Ti /pasV
Xtraπs(2) = F1 (0,0).. aVk+1 i / pasH
Xtrans(3) = gVk+1.Ti
Xtrans(4) = (s-1 ).Ti
on va chercher à résoudre l'équation :
A * Xtrans - B = 0
On utilise la méthode des moindres carrés pour minimiser la norme.
On peut écrire l'équation pour tous les points de l'image. Mais pour améliorer la précision et limiter les calculs, on peut remarquer que dans l'équation A *Xtrans = B, le terme B est la différence de deux images successives et qu'on peut éliminer toutes les valeurs trop faibles ou proches du bruit. Dans les essais réalisés, on a conservé tous les points compris entre +/- 0.6Max(B) et +/-Max(B). Pour les séquences étudiées, le nombre de points évoluait de quelques dizaines à environ 1500. On peut aussi prendre un nombre fixe de l'ordre de 1000 parmi les séquences, proche du maximum.
En référence à la figure 4, on va maintenant décrire brièvement le système d'imagerie permettant la mise en œuvre de l'étape de stabilisation.
La caméra de prise de vues 13 délivre son signal vidéo d'images à un filtre
10 passe-bas 42 ainsi qu'à un bloc de traitement 43 recevant sur une deuxième entrée les données de stabilisation et fournissant en sortie les images stabilisées. Sur sa deuxième entrée, le bloc 43 reçoit donc les vitesses de rotation à faire subir aux images prises par la caméra 13. La sortie du filtre
42 est reliée à deux mémoires tampons 44, 45 stockant respectivement les
15 deux images filtrées de l'instant présent t et de l'instant passé t-1. Les deux mémoires tampons 44, 45 sont reliées à deux entrées d'un composant de calcul 46, qui est soit un ASIC soit un FPGA (field programmable gâte array). Le composant de calcul 46 est relié à une mémoire de travail 47 et, en sortie, au bloc de traitement 43. Tous les composants électroniques du
20 système sont contrôlés par un microcontrôleur de gestion 48.
Ayant maintenant décrit l'étape de stabilisation, on peut aborder l'étape d'harmonisation.
? L'harmonisation mise en œuvre dans le procédé de guidage de l'invention est une extrapolation de l'étape de stabilisation, le dispositif de visée et le dispositif d'imagerie de la roquette étant, avant le lancement, montés sur un même porteur.
30 La stabilisation des images du dispositif d'imagerie de la roquette est un procédé d'auto-stabilisation, dans lequel on stabilise l'image de l'instant t sur l'image de l'instant t-1. En d'autres termes encore, on peut dire qu'on harmonise chaque image du système d'imagerie sur la précédente. Pour harmoniser les deux dispositifs, au même instant t, on prend les deux images des deux dispositifs et on les stabilise l'une sur l'autre, c'est-à-dire qu'on harmonise les deux dispositifs.
Harmoniser revient à procéder à la confusion des axes optiques des deux dispositifs ainsi qu'à mettre en concordance deux à deux les pixels des deux images et, de préférence, à procéder aussi à la confusion de ces pixels.
Naturellement, les deux dispositifs à harmoniser selon ce procédé doivent être de même nature optique, c'est-à-dire fonctionner dans des longueurs d'onde comparables.
En l'espèce, les deux dispositifs prenant tous les deux des images d'une même scène, dans un référentiel terrestre, on filtre les images de la scène prises aux mêmes instants par les deux appareils dans un filtre passe-bas, pour n'en retenir que les basses fréquences spatiales, et on résoud l'équation du flot optique entre ces paires d'images respectives des deux dispositifs, pour déterminer les rotations et la variation du rapport des paramètres de zoom respectifs à faire subir à ces images pour les harmonier les unes sur les autres.
La loi de guidage initiale, comme rappelé ci-dessus, s'élabore au moyen de la position, la distance et la vitesse de la cible, d'une part, et d'un modèle de vol d'autre part.
Ayant élaboré la loi de guidage initale de la roquette, l'opérateur de conduite de tir procède à son lancement. Jusqu'à une certaine distance de la cible 61, jusqu'à ce que la roquette acquiert la cible, on compare l'image prise par le dispositif d'imagerie 10 de la roquette avec l'image grand champ 52 mémorisée de la scène prise au début avec le dispositif de visée 62, c'est-à-dire qu'on commande en permanence le guidage de la roquette.
Après acquisition de la cible 61 par la roquette, on poursuit le guidage de la roquette jusqu'en phase terminale, par comparaison de l'image prise par le dispositif d'imagerie 10 de la roquette avec l'image petit champ 53 aussi mémorisée.

Claims

REVENDICATIONS
L- Procédé de guidage d'une roquette (1) sur une cible, dans lequel, la roquette (1) étant équipée de moyens d'auto-guidage à dispositif d'imagerie (10) et moyens de correction de trajectoire (11),
- on acquiert la cible par un dispositif de visée et on détermine sa position,
- on harmonise le dispositif de visée et le dispositif d'imagerie (10) de la roquette,
- on stabilise les images du dispositif d'imagerie (10) de la roquette, - on élabore une loi de guidage,
- on lance la roquette (1) et
- on guide la roquette selon cette loi jusqu'à ce qu'elle acquiert elle-même la cible.
2.- Procédé de guidage selon la revendication 1, dans lequel, avant le lancement, on élabore une loi de guidage initiale et la roquette (1) est guidée jusqu'à ce qu'elle acquiert la cible selon cette loi initiale.
3.- Procédé de guidage selon la revendication 1, dans lequel, avant le lancement, on élabore une loi de guidage initiale et, après le lancement, on élabore une loi de guidage continûment variable et de correction de trajectoire jusqu'à ce que la roquette (1) acquiert la cible.
4.-Procédé selon l'une des revendication 1 à 3, dans lequel, pour harmoniser le dispositif de visée et le dispositif d'imagerie (10) de la roquette, on procède à une harmonisation électronique selon laquelle, dans un référentiel terrestre, on filtre les images de la scène prises aux mêmes instants par les deux dispositifs dans un filtre passe-bas (42), pour n'en retenir que les basses fréquences spatiales, et on résoud l'équation du flot optique entre ces paires d'images respectives des deux dispositifs pour déterminer les rotations et la variation du rapport des paramètres de zoom respectifs à faire subir à ces images pour les harmoniser les unes sur les autres.
- 5.- Procédé selon l'une des revendications 1 à 4, dans lequel on stabilise les images du dispositif d'imagerie (10) de la roquette dans un référentiel terrestre, sur le paysage.
6.- Procédé selon la revendication 5, dans lequel, dans le référentiel terrestre, on filtre les images de la scène prises par le dispositif d'imagerie (10) dans un filtre passe-bas (42), pour n'en retenir que les basses fréquences spatiales, et on résoud l'équation du flot optique pour déterminer les rotations à faire subir aux images pour les stabiliser sur les images précédentes.
PCT/FR2002/003240 2001-09-25 2002-09-23 Procede de guidage d'une roquette WO2003027599A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP02783193A EP1432958B1 (fr) 2001-09-25 2002-09-23 Procede de guidage d'une roquette
DE60214407T DE60214407T2 (de) 2001-09-25 2002-09-23 Lenkungsverfahren für flugkörperwaffensystem
US10/490,951 US7083139B2 (en) 2001-09-25 2002-09-23 Method for guiding a rocket

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR01/12330 2001-09-25
FR0112330A FR2830078B1 (fr) 2001-09-25 2001-09-25 Procede de guidage d'une roquette

Publications (1)

Publication Number Publication Date
WO2003027599A1 true WO2003027599A1 (fr) 2003-04-03

Family

ID=8867590

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2002/003240 WO2003027599A1 (fr) 2001-09-25 2002-09-23 Procede de guidage d'une roquette

Country Status (5)

Country Link
US (1) US7083139B2 (fr)
EP (1) EP1432958B1 (fr)
DE (1) DE60214407T2 (fr)
FR (1) FR2830078B1 (fr)
WO (1) WO2003027599A1 (fr)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008057141A2 (fr) * 2006-07-24 2008-05-15 The Boeing Company Systèmes et procédés autonomes pour bancs d'essai de développement rapide de véhicule
US7643893B2 (en) 2006-07-24 2010-01-05 The Boeing Company Closed-loop feedback control using motion capture systems
US7885732B2 (en) 2006-10-25 2011-02-08 The Boeing Company Systems and methods for haptics-enabled teleoperation of vehicles and other devices
US8068983B2 (en) 2008-06-11 2011-11-29 The Boeing Company Virtual environment systems and methods
WO2013011510A1 (fr) 2011-07-19 2013-01-24 Elbit Systems Ltd. Système de guidage de munitions et son procédé d'assemblage

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007054950B4 (de) * 2007-11-17 2013-05-02 Mbda Deutschland Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
US8686326B1 (en) * 2008-03-26 2014-04-01 Arete Associates Optical-flow techniques for improved terminal homing and control
US20120181376A1 (en) * 2009-01-16 2012-07-19 Flood Jr William M Munition and guidance navigation and control unit
IL227982B (en) 2013-08-15 2018-11-29 Rafael Advanced Defense Systems Ltd A missile system with navigation capability based on image processing
US9464876B2 (en) * 2014-05-30 2016-10-11 General Dynamics Ordnance and Tacital Systems, Inc. Trajectory modification of a spinning projectile by controlling the roll orientation of a decoupled portion of the projectile that has actuated aerodynamic surfaces
DE102015000873A1 (de) 2015-01-23 2016-07-28 Diehl Bgt Defence Gmbh & Co. Kg Suchkopf für einen Lenkflugkörper
CN107966156B (zh) * 2017-11-24 2020-09-18 北京宇航系统工程研究所 一种适用于运载火箭垂直回收段的制导律设计方法
RU2722903C1 (ru) * 2019-10-23 2020-06-04 Акционерное общество "Научно-производственное предприятие "Дельта" Способ идентификации цели с помощью радиовзрывателя ракеты с головкой самонаведения
RU2722904C1 (ru) * 2019-10-23 2020-06-04 Акционерное общество "Научно-производственное предприятие "Дельта" Способ обнаружения цели с помощью радиовзрывателя ракеты

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3986682A (en) * 1974-09-17 1976-10-19 The United States Of America As Represented By The Secretary Of The Navy Ibis guidance and control system
DE3334729A1 (de) * 1983-09-26 1985-04-11 Siemens AG, 1000 Berlin und 8000 München Verfahren zur ausrichtung eines zielsuchkopfes eines selbstgesteuerten flugkoerpers
EP0777100A2 (fr) * 1995-12-09 1997-06-04 Daimler-Benz Aerospace Aktiengesellschaft Système d'arme missile

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3459392A (en) * 1959-09-24 1969-08-05 Goodyear Aerospace Corp Passive homing guidance system
US3712563A (en) * 1963-12-04 1973-01-23 Us Navy Automatic path follower guidance system
US3794272A (en) * 1967-02-13 1974-02-26 Us Navy Electro-optical guidance system
US4881270A (en) * 1983-10-28 1989-11-14 The United States Of America As Represented By The Secretary Of The Navy Automatic classification of images
US6491253B1 (en) * 1985-04-15 2002-12-10 The United States Of America As Represented By The Secretary Of The Army Missile system and method for performing automatic fire control
GB8925196D0 (en) * 1989-11-08 1990-05-30 Smiths Industries Plc Navigation systems
US5785281A (en) * 1994-11-01 1998-07-28 Honeywell Inc. Learning autopilot
US5881969A (en) * 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US6347762B1 (en) * 2001-05-07 2002-02-19 The United States Of America As Represented By The Secretary Of The Army Multispectral-hyperspectral sensing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3986682A (en) * 1974-09-17 1976-10-19 The United States Of America As Represented By The Secretary Of The Navy Ibis guidance and control system
DE3334729A1 (de) * 1983-09-26 1985-04-11 Siemens AG, 1000 Berlin und 8000 München Verfahren zur ausrichtung eines zielsuchkopfes eines selbstgesteuerten flugkoerpers
EP0777100A2 (fr) * 1995-12-09 1997-06-04 Daimler-Benz Aerospace Aktiengesellschaft Système d'arme missile

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008057141A2 (fr) * 2006-07-24 2008-05-15 The Boeing Company Systèmes et procédés autonomes pour bancs d'essai de développement rapide de véhicule
WO2008057141A3 (fr) * 2006-07-24 2009-01-29 Boeing Co Systèmes et procédés autonomes pour bancs d'essai de développement rapide de véhicule
US7643893B2 (en) 2006-07-24 2010-01-05 The Boeing Company Closed-loop feedback control using motion capture systems
US7813888B2 (en) 2006-07-24 2010-10-12 The Boeing Company Autonomous vehicle rapid development testbed systems and methods
US7885732B2 (en) 2006-10-25 2011-02-08 The Boeing Company Systems and methods for haptics-enabled teleoperation of vehicles and other devices
US8068983B2 (en) 2008-06-11 2011-11-29 The Boeing Company Virtual environment systems and methods
WO2013011510A1 (fr) 2011-07-19 2013-01-24 Elbit Systems Ltd. Système de guidage de munitions et son procédé d'assemblage

Also Published As

Publication number Publication date
US7083139B2 (en) 2006-08-01
EP1432958A1 (fr) 2004-06-30
US20040245370A1 (en) 2004-12-09
FR2830078B1 (fr) 2004-01-30
EP1432958B1 (fr) 2006-08-30
DE60214407D1 (de) 2006-10-12
DE60214407T2 (de) 2007-05-10
FR2830078A1 (fr) 2003-03-28

Similar Documents

Publication Publication Date Title
EP1432958B1 (fr) Procede de guidage d&#39;une roquette
EP0432014B1 (fr) Système optoélectronique d&#39;aide aux missions aériennes d&#39;attaque et de navigation
EP3273318B1 (fr) Système autonome de prise de vues animées par un drone avec poursuite de cible et localisation améliorée de la cible
EP1298592B1 (fr) Stabilisation des images d&#39;une scène, correction des offsets de niveaux de gris, détection d&#39;objets mobiles et harmonisation de deux appareils de prise de vues fondés sur la stabilisation des images
EP2048475B1 (fr) Procédé de détermination de l&#39;attitude, de la position et de la vitesse d&#39;un engin mobile
EP3268691B1 (fr) Equipement aéroporté de détection de tirs et d&#39;aide au pilotage
EP1623567A1 (fr) Procede de transmission de donnees representant la position dans l espace d une camera video et systeme de mise en oeuvre du procede
EP0484202A1 (fr) Système pour l&#39;alignement de la centrale inertielle d&#39;un véhicule porté sur celle d&#39;un véhicule porteur
JP6529411B2 (ja) 移動体識別装置及び移動体識別方法
WO2005066024A1 (fr) Systeme optronique modulaire embarquable sur un porteur
Pajusalu et al. Characterization of asteroids using nanospacecraft flybys and simultaneous localization and mapping
EP1676444B1 (fr) Procede et dispositif de capture d&#39;une image grand champ et d&#39;une region d&#39;interet de celle-ci
FR2788845A1 (fr) Conduite de tir pour projectiles non guides
EP0985900A1 (fr) Procédé et dispositif de guidage d&#39;un engin volant, notamment un missile, sur une cible
EP0090713B1 (fr) Système de conduite de tir à lunette d&#39;observation asservie par un dispositif de poursuite automatique
EP3929692B1 (fr) Chercheur avec ouverture codée pour navigation
EP0013195B1 (fr) Dispositif de télémétrie radar air sol pour système de conduite de tir aéroporté et utilisation d&#39;un tel dispositif dans un système de conduite de tir
FR2828314A1 (fr) Procede de stabilisation electronique des images d&#39;une scene d&#39;un appareil de prise de vues d&#39;un systeme d&#39;imagerie et procede d&#39;harmonisation electronique de deux appareils de prise de vues de deux systemes d&#39;imagerie
JP7394724B2 (ja) 宇宙状況監視事業装置、宇宙状況監視システム、監視装置、および、地上設備
EP0176121B1 (fr) Procédé de détection et d&#39;élimination d&#39;images parasites créées par un IR dôme pyramidal
FR3079943A1 (fr) Dispositif electronique et procede de commande d&#39;un drone avec effet de travelling compense, programme d&#39;ordinateur associe
WO2020144418A1 (fr) Titre de l&#39;invention : fusil permettant une simulation précise d&#39;une séquence de tir avec calcul du point d&#39;impact du ou des projectiles
FR3082012A1 (fr) Dispositif electronique, et procede, de commande d&#39;un drone, programme d&#39;ordinateur associe
EP1785688A1 (fr) Procédé et dispositif de détermination de la vitesse de rotation d&#39;une droite projectile-cible et dispositif de guidage d&#39;un projectile, notamment d&#39;une munition
FR2731785A1 (fr) Tete chercheuse notamment pour missile

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FR GB GR IE IT LU MC NL PT SE SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2002783193

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2002783193

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10490951

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 2002783193

Country of ref document: EP