FR3117219A1 - Method for acquiring a sequence of image parts and associated acquisition system - Google Patents

Method for acquiring a sequence of image parts and associated acquisition system Download PDF

Info

Publication number
FR3117219A1
FR3117219A1 FR2012577A FR2012577A FR3117219A1 FR 3117219 A1 FR3117219 A1 FR 3117219A1 FR 2012577 A FR2012577 A FR 2012577A FR 2012577 A FR2012577 A FR 2012577A FR 3117219 A1 FR3117219 A1 FR 3117219A1
Authority
FR
France
Prior art keywords
designation
image
exposure time
images
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2012577A
Other languages
French (fr)
Inventor
Alexis MICHENAUD-RAGUE
Eric Carre
Patrick Robert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran Electronics and Defense SAS
Original Assignee
Safran Electronics and Defense SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran Electronics and Defense SAS filed Critical Safran Electronics and Defense SAS
Priority to FR2012577A priority Critical patent/FR3117219A1/en
Publication of FR3117219A1 publication Critical patent/FR3117219A1/en
Pending legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/226Semi-active homing systems, i.e. comprising a receiver and involving auxiliary illuminating means, e.g. using auxiliary guiding missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/145Indirect aiming means using a target illuminator
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • G01S3/784Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

L’invention concerne un procédé d’acquisition d’une séquence d’images permettant de visualiser le pointage d’une cible par un désignateur laser, le désignateur laser émettant des impulsions laser en direction de la cible et générant des tâches de désignation, le procédé comprenant les étapes suivantes : - acquisition (110) d’une image de désignation dans une première fenêtre temporelle d’exposition synchronisée avec un instant d’émission d’une impulsion laser, ladite première fenêtre temporelle d’exposition présentant une première durée ; - détermination (120) de la tâche de désignation à partir de l’image de désignation ; - acquisition (122) d’images de scène dans une deuxième fenêtre temporelle d’exposition se déroulant entre deux instants d’émission d’impulsions laser, ladite deuxième fenêtre temporelle d’exposition présentant une deuxième durée quatre fois supérieure à la première durée ;- superposition (128) de la tâche de désignation aux images de scène ;- répétition (130) des étapes précédentes. Figure à publier avec l’abrégé : Figure 6The invention relates to a method for acquiring a sequence of images making it possible to visualize the pointing of a target by a laser designator, the laser designator emitting laser pulses in the direction of the target and generating designation tasks, the method comprising the following steps: - acquiring (110) a designation image in a first exposure time window synchronized with an instant of emission of a laser pulse, said first exposure time window having a first duration; - determination (120) of the designation task from the designation image; - acquisition (122) of scene images in a second exposure time window taking place between two instants of laser pulse emission, said second exposure time window having a second duration four times greater than the first duration; - superimposition (128) of the designation task on the scene images; - repetition (130) of the previous steps. Figure to be published with abstract: Figure 6

Description

Procédé d’acquisition d’une séquence de parties d’images et système d’acquisition associéMethod for acquiring a sequence of image parts and associated acquisition system

Domaine technique de l’inventionTechnical field of the invention

La présente invention est relative un procédé amélioré d’acquisition d’une séquence d’images ou parties d’images permettant la visualisation du pointage laser d’une cible à l’aide d’un imageur bi-bande.The present invention relates to an improved method for acquiring a sequence of images or parts of images allowing the visualization of the laser pointing of a target using a dual-band imager.

Etat de la technique antérieureState of the prior art

Actuellement de nombreux armements sont guidés. Un des modes de guidage est réalisé à l’aide d’un désignateur laser (guidage Semi Actif Laser). Le désignateur laser émet un faisceau laser codé temporellement à une longueur d’onde donnée et à une fréquence particulière. Le faisceau laser est dirigé sur la cible. Le faisceau laser génère des tâches de désignation sur la cible. L’autodirecteur ou système de guidage de l’armement connait la fréquence particulière du désignateur laser. Il détecte les tâches de désignation générées par le désignateur laser. Un imageur bi-bande image la cible et les tâches de désignation générées par le faisceau laser pour vérifier que le désignateur laser pointe bien la cible. Un tel imageur est décrit, par exemple, dans le document FR 3054893. Cet imageur bi-bande permet de capter un signal optique qui comprend la longueur d’onde du désignateur laser et les longueurs d’onde infra-rouge. Si l’axe du désignateur se désaligne par rapport à la cible, l’opérateur s’en aperçoit immédiatement et repointe la cible avec le désignateur. Ainsi, il peut contrôler en permanence son pointage. Un désignateur laser utilise un laser en mode impulsionnel ce qui permet d'atteindre lors d’une désignation des niveaux de puissance photonique très élevés avec des quantités d'énergie assez faibles. La quantité d'énergie reçue par un imageur bi-bande placé à quelques kilomètres de la cible désignée est donc très faible comparée à l'énergie photonique infrarouge émise par la scène et intégrée par le capteur optique sur des durées de plusieurs millisecondes. Le signal de la désignation laser se retrouve alors noyé dans le bruit photonique généré par la scène. Les imageurs bi-bandes classiques ne permettent donc pas d’imager une scène en simultané d’une tache de désignation laser lorsque la cible de la désignation laser se trouve au-delà de quelques centaines de mètres de l’imageur.Currently many armaments are guided. One of the guidance modes is carried out using a laser designator (Semi Active Laser guidance). The laser designator emits a time-coded laser beam at a given wavelength and at a particular frequency. The laser beam is directed at the target. The laser beam generates designation spots on the target. The seeker or weapon guidance system knows the particular frequency of the laser designator. It detects designation tasks generated by the laser designator. A dual-band imager images the target and the designation spots generated by the laser beam to verify that the laser designator is pointing to the target. Such an imager is described, for example, in the document FR 3054893. This dual-band imager makes it possible to capture an optical signal which includes the wavelength of the laser designator and the infrared wavelengths. If the axis of the designator becomes misaligned with respect to the target, the operator notices this immediately and repoints the target with the designator. Thus, he can permanently control his score. A laser designator uses a laser in pulsed mode, which makes it possible to achieve very high photon power levels with fairly low amounts of energy when designating. The amount of energy received by a dual-band imager placed a few kilometers from the designated target is therefore very low compared to the infrared photon energy emitted by the scene and integrated by the optical sensor over periods of several milliseconds. The laser designation signal is then drowned in the photonic noise generated by the scene. Conventional dual-band imagers therefore do not make it possible to image a scene simultaneously with a laser designation spot when the laser designation target is located beyond a few hundred meters from the imager.

Présentation de l’inventionPresentation of the invention

Le but de la présente invention est de permettre d’imager avec un imageur bi-bande une scène ainsi que des taches de désignations lasers sans que le bruit photonique important lors de l’acquisition de la scène ne vienne compromettre la visibilité de la tache de désignation. Un but de la présente invention est de supprimer tout image ou résidu d'image qui aurait pu être détecté comme un point lumineux voire un leurre. Ces buts sont atteints avec une technique innovante qui entrelace simultanément deux modes d’intégration photonique : un mode à synchronisation interne pour l’acquisition de la scène et un mode à synchronisation externe pour la tache de désignation laser. Le mode d’acquisition de scène est optimisé pour maximiser le nombre d’acquisitions de la scène. Le mode d’acquisition de la tache de désignation laser est optimisé pour acquérir le plus grand nombre de taches de désignation laser.The object of the present invention is to make it possible to image with a dual-band imager a scene as well as spots of laser designations without the significant photonic noise during the acquisition of the scene compromising the visibility of the spot of designation. An object of the present invention is to eliminate any image or image residue which could have been detected as a point of light or even a decoy. These goals are achieved with an innovative technique that simultaneously interleaves two modes of photonic integration: an internally synchronized mode for scene acquisition and an externally synchronized mode for the laser designation spot. The scene acquisition mode is optimized to maximize the number of scene acquisitions. The laser designation spot acquisition mode is optimized to acquire the largest number of laser designation spots.

La présente invention a pour objet un procédé d’acquisition d’une séquence d’au moins des parties d’images permettant de visualiser le pointage d’une cible par un désignateur laser, le désignateur laser étant propre à émettre des impulsions laser en direction de la cible et à générer des tâches de désignation, les impulsions laser étant émises à une fréquence d’émission et dans une longueur d’onde appartenant à une première bande de longueurs d’onde, le procédé d’acquisition étant mis en œuvre par un système d’acquisition d’images comprenant un imageur bi-bande apte à capter un signal optique dans la première bande de longueurs d’onde d’émission et dans l’infra-rouge, et une unité de traitement adaptée pour traiter les images acquises par l’imageur bi-bande et pour paramétrer l’imageur bi-bande, le procédé comprenant au moins un cycle, ledit cycle comprenant les étapes suivantes :
a) acquisition d’au moins une partie d’une image de désignation, ladite au moins une partie d’image de désignation étant acquise dans une première fenêtre temporelle d’exposition synchronisée avec un instant d’émission d’une impulsion laser, ladite première fenêtre temporelle d’exposition présentant une première durée d’exposition ;
b) détermination de la tâche de désignation ou de la position de la tâche de désignation à partir de ladite au moins une partie d’image de désignation ;
c) acquisition d’au moins des parties d’images de scène, lesdites au moins des parties d’images de scène étant acquises dans une deuxième fenêtre temporelle d’exposition se déroulant entre deux instants d’émission d’impulsions laser, ladite deuxième fenêtre temporelle d’exposition présentant une deuxième durée d’exposition, la deuxième durée d’exposition étant au moins quatre fois supérieure à la première durée d’exposition ;
d) superposition de la tâche de désignation ou de la position de la tâche de désignation aux au moins des parties d’images de scène ;
e) répétition des étapes a), b), c) et d) pour obtenir une séquence d’au moins des parties d’images.
The subject of the present invention is a method for acquiring a sequence of at least parts of images making it possible to visualize the pointing of a target by a laser designator, the laser designator being capable of emitting laser pulses in the direction of the target and to generate designation tasks, the laser pulses being emitted at an emission frequency and in a wavelength belonging to a first band of wavelengths, the acquisition method being implemented by an image acquisition system comprising a dual-band imager able to pick up an optical signal in the first band of emission wavelengths and in the infrared, and a processing unit adapted to process the images acquired by the dual-band imager and to configure the dual-band imager, the method comprising at least one cycle, said cycle comprising the following steps:
a) acquisition of at least part of a designation image, said at least one part of designation image being acquired in a first exposure time window synchronized with a time of emission of a laser pulse, said first exposure time window having a first exposure duration;
b) determining the designation task or the position of the designation task from said at least one designation image portion;
c) acquisition of at least portions of scene images, said at least portions of scene images being acquired in a second exposure time window taking place between two instants of emission of laser pulses, said second exposure time window having a second exposure duration, the second exposure duration being at least four times greater than the first exposure duration;
d) superimposing the designation task or the position of the designation task on the at least parts of scene images;
e) repeating steps a), b), c) and d) to obtain a sequence of at least image parts.

Les caractéristiques exposées dans les paragraphes suivants peuvent, optionnellement, être mises en œuvre. Elles peuvent être mises en œuvre indépendamment les unes des autres ou en combinaison les unes avec les autres :
La première durée d’exposition est inférieure à 4 ms, de préférence inférieure à 1 ms.
La deuxième durée d’exposition est supérieure à 4 ms, de préférence comprise entre 8 et 40 ms.
Le procédé comporte une durée inférieure à 10 ms, de préférence 5 ms entre le début de l’étape d’acquisition de ladite au moins une partie d’image de désignation et le début de l’étape d’acquisition d’au moins des parties d’images de scène.
Le procédé comporte en outre une étape préalable de paramétrage de la caméra bi-bande par l’unité de traitement afin que les premières fenêtres temporelles d’exposition soient synchronisées avec les instants d’émissions des impulsions laser.
Le système d’acquisition comporte en outre un désignateur laser connecté à l’unité de traitement, et dans lequel ladite étape de paramétrage comporte les étapes suivantes :
- transmission des instants d’émission des impulsions laser du désignateur laser à l’unité de traitement ;
- détermination de la fréquence d’émission et des instants de génération de premières fenêtres temporelles d’exposition de manière que chaque première fenêtre temporelle d’exposition soit centrée temporellement autour d’un instant d’émission d’une impulsion laser,
- transmission des instants de génération de premières fenêtres temporelles d’exposition de l’unité de traitement à la caméra bi-bande.
Le procédé comporte en outre les étapes suivantes :
- acquisition d’au moins une partie d’une image de calibration, ladite au moins une partie d’une image de calibration étant acquise au cours d’une fenêtre temporelle de calibration subséquente à la première fenêtre temporelle d’exposition, la fenêtre temporelle de calibration présentant une durée sensiblement égale à la première durée d’exposition,
- soustraction de ladite au moins une partie d’une image de calibration à ladite au moins une partie d’une image de désignation pour obtenir au moins une partie d’image représentant uniquement la tâche de désignation, ladite au moins une partie d’image représentant uniquement la tâche de désignation étant utilisée en tant que au moins une partie d’image de désignation pour mettre en œuvre l’étape de détermination de la position de la tâche de désignation.
Le procédé comprend plusieurs cycles, et dans lequel la partie d’image représentant uniquement la tâche de désignation obtenue au cours de l’étape de soustraction du premier cycle est additionnée à la partie d’image représentant uniquement la tâche de désignation obtenue au cours de l’étape de soustraction du deuxième cycle.
La caméra bi-bande est apte à acquérir des images de désignation comprenant N lignes et M colonnes, N et M étant des entiers naturels, et dans lequel uniquement une partie de l’image de désignation est acquise, ladite partie de l’image de désignation acquise comprenant entre 50% et 10 % des N lignes et des M colonnes.
Avantageusement, ce fenêtrage permet de conserver une fréquence d’acquisition des images suffisamment importante pour permettre une visualisation fluide et non saccadée de la séquence d’images.
La caméra bi-bande est apte à acquérir des images de scène comprenant N lignes et M colonnes, N et M étant des entiers naturels, et dans lequel uniquement une partie de l’image de scène est acquise, ladite partie de l’image de scène acquise comprenant entre 100% et 30% des N lignes et des M colonnes.
The characteristics exposed in the following paragraphs can, optionally, be implemented. They can be implemented independently of each other or in combination with each other:
The first exposure time is less than 4 ms, preferably less than 1 ms.
The second exposure duration is greater than 4 ms, preferably between 8 and 40 ms.
The method includes a duration of less than 10 ms, preferably 5 ms between the start of the step of acquiring said at least one designation image part and the start of the step of acquiring at least parts of scene images.
The method further comprises a prior step of parameterizing the dual-band camera by the processing unit so that the first exposure time windows are synchronized with the instants of emission of the laser pulses.
The acquisition system further comprises a laser designator connected to the processing unit, and in which said parameter setting step comprises the following steps:
- transmission of the instants of emission of the laser pulses from the laser designator to the processing unit;
- determination of the emission frequency and of the times of generation of first exposure time windows so that each first exposure time window is temporally centered around a time of emission of a laser pulse,
- transmission of the instants of generation of first exposure time windows from the processing unit to the dual-band camera.
The method further comprises the following steps:
- acquisition of at least part of a calibration image, said at least part of a calibration image being acquired during a calibration time window subsequent to the first exposure time window, the time window calibration having a duration substantially equal to the first exposure duration,
- subtraction of said at least part of a calibration image from said at least part of a designation image to obtain at least one part of the image representing only the designation task, said at least one part of the image representing only the designation task being used as at least one designation image portion for implementing the step of determining the position of the designation task.
The method comprises several cycles, and in which the image part representing only the designation task obtained during the subtraction step of the first cycle is added to the image part representing only the designation task obtained during the subtraction step of the second cycle.
The dual-band camera is able to acquire designation images comprising N rows and M columns, N and M being natural numbers, and in which only part of the designation image is acquired, said part of the image of acquired designation comprising between 50% and 10% of the N rows and M columns.
Advantageously, this windowing makes it possible to maintain a sufficiently high image acquisition frequency to allow fluid and non-jerky viewing of the sequence of images.
The dual-band camera is able to acquire scene images comprising N rows and M columns, N and M being natural integers, and in which only part of the scene image is acquired, said part of the image of acquired scene comprising between 100% and 30% of the N rows and M columns.

L’invention a également pour objet un système d’acquisition d’une séquence d’au moins des parties d’images permettant de visualiser le pointage d’une cible par un désignateur laser, le désignateur laser étant propre à émettre des impulsions lasers en direction de la cible et à générer des tâches de désignation, les impulsions lasers étant émises à une fréquence d’émission et à une longueur d’onde appartenant à une première bande de longueurs d’onde, le système d’acquisition comprenant :
- un imageur bi-bande apte à capter un signal optique dans la première bande de longueurs d’onde et dans l’infra-rouge, l’imageur bi-bande étant propre à acquérir au moins une partie d’une image de désignation et au moins des parties d’images de scène, ladite au moins une partie d’une image de désignation étant acquise dans une première fenêtre temporelle d’exposition synchronisée avec une émission d’une impulsion laser, ladite première fenêtre temporelle d’exposition présentant une première durée d’exposition, lesdites au moins une partie des images de scène étant acquises dans une deuxième fenêtre temporelle d’exposition présentant une deuxième durée d’exposition, la deuxième durée d’exposition étant au moins quatre fois supérieure à la première durée d’exposition ; et
- une unité de traitement adaptée pour traiter les au moins une partie d’images de désignation et les au moins des parties d’images de scènes pour obtenir une séquence d’au moins des parties d’images, l’unité de traitement étant propre à déterminer la position de la tâche de désignation à partir de ladite au moins une partie d’image de désignation et à superposer la position de la tâche de désignation sur les au moins des parties d’images de scène.
The invention also relates to a system for acquiring a sequence of at least parts of images making it possible to visualize the pointing of a target by a laser designator, the laser designator being capable of emitting laser pulses in direction of the target and to generate designation tasks, the laser pulses being emitted at an emission frequency and at a wavelength belonging to a first band of wavelengths, the acquisition system comprising:
- a dual-band imager capable of capturing an optical signal in the first band of wavelengths and in the infrared, the dual-band imager being able to acquire at least part of a designation image and at least parts of scene images, said at least part of a designation image being acquired in a first exposure time window synchronized with an emission of a laser pulse, said first exposure time window having a first exposure duration, said at least part of the scene images being acquired in a second exposure time window having a second exposure duration, the second exposure duration being at least four times greater than the first duration d 'exposure ; And
- a processing unit suitable for processing the at least one part of designation images and the at least parts of scene images to obtain a sequence of at least parts of images, the processing unit being specific determining the position of the designation task from said at least one portion of designation image and superimposing the position of the designation task on the at least portions of scene images.

Brève description des figuresBrief description of figures

est une vue schématique du système d’acquisition de parties d’images selon la présente invention ; is a schematic view of the system for acquiring parts of images according to the present invention;

est un schéma représentant le champ de vision de la caméra bi-bande au cours d’une première fenêtre temporelle d’exposition ; is a diagram representing the field of view of the dual-band camera during a first exposure time window;

est un schéma représentant le champ de vision de la caméra bi-bande au cours d’une fenêtre temporelle de calibration ; is a diagram representing the field of view of the dual-band camera during a calibration time window;

est un schéma représentant le champ de vision de la caméra bi-bande au cours d’une deuxième fenêtre temporelle d’exposition; is a diagram representing the field of view of the dual-band camera during a second exposure time window;

est un schéma montrant trois chronogrammes superposés représentant respectivement les émissions des impulsions laser au cours du temps, les fenêtres temporelles d’exposition de la caméra bi-bande au cours du temps et les fenêtres temporelles d’enregistrement des images au cours du temps ; is a diagram showing three superimposed chronograms respectively representing the emissions of the laser pulses over time, the time windows of exposure of the dual-band camera over time and the time windows of recording of the images over time;

est un diagramme représentant les étapes du procédé d’acquisition d’une séquence de parties d’images selon la présente invention is a diagram representing the steps of the method for acquiring a sequence of image parts according to the present invention

est un diagramme représentant les sous-étapes d’un mode de réalisation de l’étape de synchronisation du procédé d’acquisition selon la présente invention. is a diagram representing the sub-steps of an embodiment of the synchronization step of the acquisition method according to the present invention.

Description détaillée de l’inventionDetailed description of the invention

En référence à la , le système 2 d’acquisition d’une séquence d’images selon la présente invention permet de visualiser et de surveiller le pointage d’une cible 4 à l’aide d’un désignateur laser 12.With reference to the , the system 2 for acquiring a sequence of images according to the present invention makes it possible to view and monitor the pointing of a target 4 using a laser designator 12.

Ce système d’acquisition 2 comporte une caméra bi-bande 6, une unité de traitement 8 connectée à la caméra bi-bande et un écran de visualisation 10 connecté à l’unité de traitement. L’écran de visualisation 10 permet de visualiser les images traitées par l’unité de traitement.This acquisition system 2 comprises a dual-band camera 6, a processing unit 8 connected to the dual-band camera and a display screen 10 connected to the processing unit. The display screen 10 makes it possible to display the images processed by the processing unit.

Dans le mode de réalisation représenté, le système d’acquisition 2 comporte également un désignateur laser 12 propre à générer des impulsions laser Ei, Ei+1 qui au contact d’une surface font apparaître des tâches de désignation Di, Di+1. Le désignateur laser 12 est connecté à l’unité de traitement. Les impulsions lasers Ei, Ei+1 présentent une fréquence d’émission connue de l’armement Cette fréquence d’émission peut varier d’un tir à l’autre dans une plage de fréquences connue. Le désignateur laser est pointé en direction de la cible 4 par un opérateur. Les impulsions lasers Ei, Ei+1 émises par celui-ci génèrent des tâches de désignation Di sur la surface pointée. Ces tâches de désignation Di, Di+1 apparaissent à une fréquence correspondant à la fréquence d’émission des impulsions laser Ei, Ei+1. La longueur d’onde des impulsions laser émises appartient à une première bande de longueur d’onde λ1 captée par la caméra bi-bande. Ces tâches de désignation Di sont captées par l’imageur bi-bande.In the embodiment represented, the acquisition system 2 also comprises a laser designator 12 capable of generating laser pulses Ei, Ei+1 which, in contact with a surface, cause designation spots Di, Di+1 to appear. The laser designator 12 is connected to the processing unit. The laser pulses Ei, Ei+1 have an emission frequency known to the weapons. This emission frequency may vary from one shot to another within a known frequency range. The laser designator is pointed in the direction of the target 4 by an operator. The laser pulses Ei, Ei+1 emitted by the latter generate designation spots Di on the pointed surface. These designation spots Di, Di+1 appear at a frequency corresponding to the emission frequency of the laser pulses Ei, Ei+1. The wavelength of the emitted laser pulses belongs to a first wavelength band λ1 captured by the dual-band camera. These Di designation tasks are captured by the dual-band imager.

Dans le mode de réalisation représenté, le désignateur laser 12 est connecté par une liaison filaire à l’unité de traitement 8. Le désignateur laser est propre à transmettre à l’unité de traitement 8 les instants d’émission ti, ti+1 des impulsions laser par l’intermédiaire de cette liaison filaire. Il peut également transmettre la fréquence d’émission des impulsions laser.In the embodiment represented, the laser designator 12 is connected by a wired connection to the processing unit 8. The laser designator is capable of transmitting to the processing unit 8 the instants of emission ti, ti+1 of the laser pulses via this wired connection. It can also transmit the emission frequency of laser pulses.

Selon une variante non représentée, le désignateur laser 12 est un désignateur laser externe. Il n’est pas connecté à l’unité de traitement. Il ne fait pas partie du système d’acquisition. Dans ce cas, un système de détection est utilisé pour déterminer les instants d’émission et la fréquence d’émission du désignateur laserAccording to a variant not shown, the laser designator 12 is an external laser designator. It is not connected to the processing unit. It is not part of the acquisition system. In this case, a detection system is used to determine the instants of emission and the emission frequency of the laser designator

La caméra bi-bande 6 comporte une matrice de photo-détecteurs aptes à capter un signal optique dans une première bande de longueurs d’onde λ1 comprenant la longueur d’onde d’émission du désignateur laser et dans une deuxième bande de longueurs d’onde λ2 comprise dans le domaine infrarouge. La première bande de longueurs d’onde λ1 est une bande étroite centrée autour de 1064 nm ou de 1550 nm, en fonction du type de désignateur utilisé. Dans la présente demande de brevet, une bande de longueur d’onde est considérée comme étroite lorsqu’elle est inférieure à 50 nm. La deuxième bande de longueurs d’onde λ2 est comprise entre 3 µm et 5 µm de sorte à pouvoir imager les rayonnements thermiques émis par les différents objets et corps présents dans le champ de vision de la caméra bi-bande et en particulier les rayonnements émis par la cible. Une autre bande utilisable est la bande LWIR de 8 à 12 µm.The dual-band camera 6 comprises a matrix of photo-detectors able to pick up an optical signal in a first band of wavelengths λ1 comprising the emission wavelength of the laser designator and in a second band of wavelengths of wave λ2 included in the infrared range. The first band of wavelengths λ1 is a narrow band centered around 1064 nm or 1550 nm, depending on the type of designator used. In the present patent application, a wavelength band is considered narrow when it is less than 50 nm. The second band of wavelengths λ2 is between 3 µm and 5 µm so as to be able to image the thermal radiation emitted by the various objects and bodies present in the field of view of the dual-band camera and in particular the radiation emitted by the target. Another usable band is the 8-12 µm LWIR band.

La caméra bi-bande 6 est dirigée vers la cible 4.Dual-band camera 6 is aimed at target 4.

La caméra bi-bande 6 est configurée pour acquérir différents types d’images dénommées différemment en fonction de leurs caractéristiques d’acquisition. Ainsi, la caméra bi-bande 6 est adaptée pour acquérir des images de désignation, des images de calibration et des images de scène.The dual-band camera 6 is configured to acquire different types of images named differently according to their acquisition characteristics. Thus, the dual-band camera 6 is suitable for acquiring designation images, calibration images and scene images.

Les images de désignation 18 sont acquises au cours de premières fenêtres temporelles d’exposition I1 représentées sur la . Les premières fenêtres temporelles d’exposition I1 sont synchronisées temporellement avec les instants d’émission ti, ti+1 des impulsions laser Ei, Ei+1. Les images de désignation 18 représentent la tâche de désignation Di, Di+1 et au moins une partie de la cible 4, comme visible sur la .The images designated 18 are acquired during first exposure time windows I1 represented on the . The first exposure time windows I1 are temporally synchronized with the instants of emission ti, ti+1 of the laser pulses Ei, Ei+1. The designation images 18 represent the designation task Di, Di+1 and at least part of the target 4, as visible on the .

Les premières fenêtres temporelles d’exposition I1 se déroulent pendant une première durée d’exposition T1 inférieure à 1 ms. De préférence, la première durée d’exposition T1 est inférieure à 4 ms. Avantageusement, la première durée d’exposition T1 est inférieure à 1 ms.The first exposure time windows I1 take place during a first exposure time T1 of less than 1 ms. Preferably, the first exposure time T1 is less than 4 ms. Advantageously, the first exposure time T1 is less than 1 ms.

Les images de calibration 20 sont acquises au cours de fenêtres de calibration Ic représentées sur la . Les fenêtres de calibration Ic se déroulent entre deux instants d’émissions d’impulsions laser. En particulier, les fenêtres de calibration Ic sont subséquentes aux premières fenêtres temporelles d’exposition I1. Les fenêtres de calibration Ic présentent la même durée que premières fenêtres temporelles d’exposition I1. Les images de calibration 20 représentent uniquement la cible 4, comme visible sur la .The calibration images 20 are acquired during calibration windows Ic represented on the . The calibration windows Ic take place between two instants of laser pulse emissions. In particular, the calibration windows Ic are subsequent to the first exposure time windows I1. The calibration windows Ic have the same duration as the first exposure time windows I1. Calibration images 20 represent only target 4, as seen on the .

Les images de scène 22 sont acquises au cours de deuxièmes fenêtres temporelles d’exposition I2. Les images de scène 22 représentent uniquement la cible 4 comme visible sur la . Les deuxièmes fenêtres temporelles d’exposition I2 se déroulent entre deux instants d’émission d’impulsions laser. En particulier, les deuxièmes fenêtres temporelles d’exposition I2 sont subséquentes aux fenêtres de calibration Ic. Les deuxièmes fenêtres temporelles d’exposition I2 présentent chacune une deuxième durée d’exposition T2.The scene images 22 are acquired during second exposure time windows I2. Scene 22 images represent only target 4 as seen on the . The second exposure time windows I2 take place between two instants of laser pulse emission. In particular, the second exposure time windows I2 are subsequent to the calibration windows Ic. The second exposure time windows I2 each have a second exposure time T2.

La deuxième durée d’exposition T2 est supérieure à la première durée d’exposition. La deuxième durée d’exposition T2 est comprise entre 4 ms et 40 ms. La deuxième durée d’exposition T2 est celle du mode Imagerie normale.The second exposure time T2 is longer than the first exposure time. The second exposure time T2 is between 4 ms and 40 ms. The second exposure time T2 is for normal imaging mode.

La deuxième durée d’exposition T2 est plus longue que la première durée d’exposition T1 de manière à ce que la matrice de photo-détecteurs intègre la lumière dans la deuxième bande λ2 de longueurs d’onde. Le temps d’intégration de la lumière dans la première bande de longueurs d’onde est inférieur au temps d’intégration dans la deuxième bande de longueurs d’onde car la puissance lumineuse des impulsions lasers réfléchies est supérieure à celle des rayonnements infrarouges émis par la scène et par la cible 4.The second exposure time T2 is longer than the first exposure time T1 so that the matrix of photo-detectors integrates the light in the second band λ2 of wavelengths. The integration time of light in the first band of wavelengths is less than the integration time in the second band of wavelengths because the light power of the reflected laser pulses is greater than that of the infrared radiation emitted by the scene and by the target 4.

La première durée d’exposition T1 est préenregistrées et la deuxième durée d’exposition T2 est voisine de celle du mode Imagerie normale dans la caméra bi-bande 6. Les instants de génération des premières fenêtres temporelles sont paramétrables.The first exposure time T1 is pre-recorded and the second exposure time T2 is close to that of the normal imaging mode in the dual-band camera 6. The instants of generation of the first time windows are configurable.

La caméra bi-bande 6 est apte à acquérir des images 18, 20, 22 comprenant N lignes et M colonnes. Ces images 18, 20, 22 correspondent au champ de vision de la caméra bi-bande.The dual-band camera 6 is able to acquire images 18, 20, 22 comprising N rows and M columns. These images 18, 20, 22 correspond to the field of view of the dual-band camera.

La caméra bi-bande 6 peut également fenêtrer les images acquises. Ainsi, la caméra bi-bande 6 peut acquérir et enregistrer des parties d’images de taille réduite par rapport au champ de vison de la caméra bi-bande. En Particulier, la caméra bi-bande 6 peut acquérir des parties 24 d’images de désignation comprenant environ moins de 25 % des lignes et des colonnes des images de désignation complètes. Avantageusement, ces parties d’images sont enregistrées plus rapidement dans la mémoire 14 que des images complètes. De préférence, une partie 24 d’image de désignation comprend entre 50 % et 10 % des lignes et des colonnes d’une image complète. Un exemple d’une partie 24 d’image de désignation est représenté sur la .The dual-band camera 6 can also window the acquired images. Thus, the dual-band camera 6 can acquire and record portions of images of reduced size compared to the field of view of the dual-band camera. In particular, the dual-band camera 6 can acquire portions 24 of designation images comprising approximately less than 25% of the rows and columns of the complete designation images. Advantageously, these parts of images are recorded more quickly in the memory 14 than complete images. Preferably, a designation image portion 24 comprises between 50% and 10% of the rows and columns of a complete image. An example of a designation image portion 24 is shown in .

De même, la caméra bi-bande 6 peut acquérir des parties 26 d’images de calibration. Les parties 26 d’images de calibration présentent la même taille que les parties d’images de désignation. Un exemple d’une partie 26 d’image de calibration est représenté sur la .Similarly, dual-band camera 6 can acquire portions 26 of calibration images. The parts 26 of calibration images have the same size as the parts of designation images. An example of a part 26 of a calibration image is represented on the .

Enfin, la caméra bi-bande peut acquérir des parties d’images de scène 28 comprenant moins de 60 % des lignes et des colonnes d’une image complète. De préférence, les parties 28 d’images de scène comprennent entre 80 % et 40 % des lignes et des colonnes d’une image complète. Un exemple d’une partie 28 d’image de scène est représenté sur la .Finally, the dual-band camera can acquire portions of scene images 28 comprising less than 60% of the rows and columns of a complete image. Preferably, the scene image portions 28 comprise between 80% and 40% of the rows and columns of a complete image. An example of a scene image portion 28 is shown in .

L’unité de traitement 8 comporte un processeur et une mémoire 14 contenant des instructions pour mettre en œuvre le procédé d’acquisition de partie d’images décrit ci-après.The processing unit 8 comprises a processor and a memory 14 containing instructions for implementing the method for acquiring part of images described below.

L’unité de traitement 8 est apte à paramétrer la caméra bi-bande afin que celle-ci génère les premières fenêtres d’exposition I1 synchronisées avec les instants d’émissions ti, ti+1 des impulsions laser Ei, Ei+1.The processing unit 8 is able to configure the dual-band camera so that it generates the first exposure windows I1 synchronized with the instants of emission ti, ti+1 of the laser pulses Ei, Ei+1.

L’unité de traitement 8 est propre à recevoir les parties 24 d’images de désignation, les parties 26 d’images de calibration et les parties 22 d’images de scène acquises par la caméra bi-bande, à traiter ces parties d’images et à transmettre les parties d’images traitées à l’écran de visualisation.The processing unit 8 is able to receive the parts 24 of designation images, the parts 26 of calibration images and the parts 22 of scene images acquired by the dual-band camera, to process these parts of images and transmitting the processed image parts to the display screen.

En particulier, l’unité de traitement 8 est adaptée pour localiser la position de la tâche de désignation Di, Di+1 dans une image de désignation. L’unité de traitement est apte à superposer la position de la tâche de désignation sur les images de scène pour faire apparaitre la position du pointage du désignateur laser sur les images de scène. A cet effet, la tâche de désignation Di ou un motif représentant la tâche de désignation est superposé aux images de scène. Ce motif peut par exemple être un réticule 16.In particular, the processing unit 8 is suitable for locating the position of the designation task Di, Di+1 in a designation image. The processing unit is capable of superimposing the position of the designation task on the scene images to make the position of the pointing of the laser designator appear on the scene images. For this purpose, the designation task Di or a pattern representing the designation task is superimposed on the scene images. This pattern can for example be a reticle 16.

En référence à la figure aux figures 6 et 7, le procédé d’acquisition d’une séquence d’images selon la présente invention, débute par une étape préalable 100 de paramétrage de la caméra bi-bande par l’unité de traitement 8 afin que les premières fenêtres temporelles d’exposition I1 soient synchronisées avec les instants d’émission ti, ti+1 des impulsions laser Ei, Ei+1.With reference to the figure in FIGS. 6 and 7, the method for acquiring an image sequence according to the present invention begins with a preliminary step 100 of setting the dual-band camera by the processing unit 8 in order to that the first exposure time windows I1 are synchronized with the instants of emission ti, ti+1 of the laser pulses Ei, Ei+1.

Dans le mode de réalisation représenté sur la dans lequel la caméra bi-bande est connectée à l’unité de traitement 8, cette étape préalable comporte trois sous étapes représentées sur la .In the embodiment shown in the in which the dual-band camera is connected to the processing unit 8, this preliminary step comprises three sub-steps represented on the .

Au cours d’une étape 102, le désignateur laser 12 transmet les instants d’émission ti, ti+1 (ou tops) des impulsions laser à l’unité de traitement, par la liaison filaire.During a step 102, the laser designator 12 transmits the instants of emission ti, ti+1 (or tops) of the laser pulses to the processing unit, via the wired link.

Au cours d’une étape 104, l’unité de traitement 8 détermine la fréquence d’émission des impulsions laser Ei, Ei+1.During a step 104, the processing unit 8 determines the emission frequency of the laser pulses Ei, Ei+1.

Au cours d’une étape 106, l’unité de traitement 8 détermine les instants de génération de premières fenêtres temporelles d’exposition I1 de manière que chaque première fenêtre temporelle d’exposition I1 soit temporellement centrée autour d’un instant ti d’émission d’une impulsion laser Ei, comme représenté sur le chronogramme de la .During a step 106, the processing unit 8 determines the instants of generation of first exposure time windows I1 so that each first exposure time window I1 is temporally centered around an emission instant ti of a laser pulse Ei, as represented on the chronogram of the .

Au cours d’une étape 108, l’unité de traitement 8 paramètre la caméra bi-bande 6 en lui transmettant les instants de génération de premières fenêtres temporelles d’exposition I1.During a step 108, the processing unit 8 parameters the dual-band camera 6 by transmitting to it the instants of generation of the first exposure time windows I1.

Ensuite, le désignateur laser 12 est pointé sur la cible 4. Il émet des impulsions laser Ei, Ei+1 qui génèrent des tâches de désignation Di, Di+1 sur la surface pointée. L’imageur bi-bande 6 est dirigé sur la cible 4 de sorte que la cible 4 et les tâches de désignation soient dans son champ de vision.Then, the laser designator 12 is pointed at the target 4. It emits laser pulses Ei, Ei+1 which generate designation spots Di, Di+1 on the pointed surface. The dual band imager 6 is aimed at the target 4 so that the target 4 and the designation tasks are in its field of view.

Au cours d’une étape 110, l’imageur bi-bande 6 capte un signal optique au cours d’une première fenêtre temporelle d’exposition T1 synchronisée avec un instant d’émission ti d’une impulsion laser Ei.During a step 110, the dual-band imager 6 picks up an optical signal during a first exposure time window T1 synchronized with an emission instant ti of a laser pulse Ei.

Comme la caméra bi-bande connait les futurs instants d’émission des impulsions laser Ei, Ei+1, la capture d’image peut être réalisée au cours d’une fenêtre temporelle T1 ayant une durée courte. Ainsi, la première fenêtre temporelle d’exposition T1 présente une durée inférieure à 1 ms. Comme la durée de cette fenêtre est courte, le bruit photométrique de l’imageur bi-bande est réduit.As the dual-band camera knows the future instants of emission of the laser pulses Ei, Ei+1, the image capture can be performed during a time window T1 having a short duration. Thus, the first exposure time window T1 has a duration of less than 1 ms. As the duration of this window is short, the photometric noise of the dual-band imager is reduced.

Le signal optique capté représente une partie 24 d’une image de désignation. Cette partie 24 d’image de désignation représente la tâche de désignation Di et au moins une partie de la cible, comme visible sur la .The optical signal picked up represents a part 24 of a designation image. This designation image part 24 represents the designation task Di and at least part of the target, as visible on the .

Au cours d’une étape 112, le signal optique représentant la partie 24 d’image de désignation est enregistré dans la mémoire 14 de l’unité de traitement au cours d’une première fenêtre temporelle d’enregistrement R1. Avantageusement, la première fenêtre temporelle d’enregistrement R1 est courte car une seule partie de l’image de désignation a été enregistrée. Ainsi, par exemple pour une partie d’image captée comprenant 25% des lignes et des colonnes de l’image complète, la durée de la première fenêtre temporelle d’enregistrement R1 est réduite d’environ 75 %. La durée de la première fenêtre temporelle d’enregistrement R1 est par exemple inférieure à 0.4 ms.During a step 112, the optical signal representing the designation image part 24 is recorded in the memory 14 of the processing unit during a first recording time window R1. Advantageously, the first recording time window R1 is short because only one part of the designation image has been recorded. Thus, for example for a captured image portion comprising 25% of the rows and columns of the complete image, the duration of the first recording time window R1 is reduced by approximately 75%. The duration of the first recording time window R1 is for example less than 0.4 ms.

Dans le mode de réalisation représenté sur la , la caméra bi-bande 6 fonctionne selon un mode de fonctionnement « intégrer puis lire » (de l’anglais « Integrate Then Read »). L’étape d’enregistrement se déroule après l’étape d’acquisition. En variante, la caméra bi-bande 6 fonctionne selon un mode de fonctionnement « intégrer en lisant » (de l’anglais « Integrate While Read »).In the embodiment shown in the , the dual-band camera 6 operates according to an “integrate then read” mode of operation. The recording step takes place after the acquisition step. As a variant, the dual-band camera 6 operates according to an “integrate while reading” mode of operation.

Avantageusement la partie 24 d’image de désignation est centrée au centre de l’image de désignation 18.Advantageously the designation image part 24 is centered in the center of the designation image 18.

En variante, l’unité de traitement 8 est propre à déterminer une position prédite de la cible 4 à partir des images acquises, et la partie de l’image de désignation est centrée autour de la position prédite de la cible.As a variant, the processing unit 8 is able to determine a predicted position of the target 4 from the acquired images, and the part of the designation image is centered around the predicted position of the target.

Au cours d’une étape 114, l’imageur bi-bande 6 acquiert une partie 26 d’image de calibration au cours d’une fenêtre temporelle de calibration Ic directement subséquente à la fenêtre temporelle d’enregistrement R1. La fenêtre temporelle de calibration Ic présente la même durée T1 que la première fenêtre temporelle d’exposition I1. La partie 26 d’image de calibration présente la même dimension que la partie 24 d’image de désignation.During a step 114, the dual-band imager 6 acquires a portion 26 of the calibration image during a calibration time window Ic directly subsequent to the recording time window R1. The calibration time window Ic has the same duration T1 as the first exposure time window I1. The calibration image part 26 has the same dimension as the designation image part 24.

Au cours d’une étape 116, le signal électrooptique représentant la partie 26 d’image de calibration est enregistré dans la mémoire 14 de l’unité de traitement au cours d’une fenêtre temporelle d’enregistrement Rc. Avantageusement, la durée de la fenêtre temporelle d’enregistrement Rc est courte car une seule partie de l’image de calibration est enregistrée.During a step 116, the electro-optical signal representing the part 26 of the calibration image is recorded in the memory 14 of the processing unit during a recording time window Rc. Advantageously, the duration of the recording time window Rc is short because only one part of the calibration image is recorded.

Au cours d’une étape 118, l’unité de traitement 8 soustrait la partie 26 de l’image de calibration à la partie 24 de l’image de désignation pour obtenir au moins une partie d’image représentant uniquement la tâche de désignation.During a step 118, the processing unit 8 subtracts the part 26 of the calibration image from the part 24 of the designation image to obtain at least one part of the image representing only the designation task.

Avantageusement, cette soustraction de parties d’images permet d’éliminer le bruit fixe généré par la matrice de photodétecteurs. Cette soustraction permet aussi de réduire considérablement toute image résiduelle qui serait détectée malgré le temps d'intégration très court.Advantageously, this subtraction of parts of images makes it possible to eliminate the fixed noise generated by the matrix of photodetectors. This subtraction also makes it possible to considerably reduce any residual image which would be detected despite the very short integration time.

Au cours d’une étape 120, l’unité de traitement 8 détermine la position de la tâche de désignation Di sur la partie d’image obtenue au cours de l’étape 118. La position de la tâche de désignation est enregistrée dans la mémoire 14.During a step 120, the processing unit 8 determines the position of the designation task Di on the image part obtained during the step 118. The position of the designation task is recorded in the memory 14.

Au cours d’une étape 122, la caméra bi-bande 6 acquiert des parties 28 d’images de scène au cours d’une deuxième fenêtre temporelle I2. La deuxième fenêtre temporelle I2 présente une deuxième durée d’exposition T2. La deuxième durée d’exposition T2 est au moins quatre fois supérieure à la première durée d’exposition. La deuxième durée d’exposition T2 est comprise entre 5 ms et 40 ms.During a step 122, the dual-band camera 6 acquires parts 28 of scene images during a second time window I2. The second time window I2 has a second exposure time T2. The second exposure time T2 is at least four times longer than the first exposure time. The second exposure time T2 is between 5 ms and 40 ms.

Avantageusement, la durée D entre le début de l’étape d’acquisition de la partie 24 d’image de désignation et le début de l’étape d’acquisition des parties 28 d’images de scène est inférieure à 2,4 ms.Advantageously, the duration D between the start of the step of acquiring the part 24 of designation image and the start of the step of acquiring the parts 28 of scene images is less than 2.4 ms.

Au cours d’une étape 124, les parties 28 d’images de scène sont enregistrées dans la mémoire 14 au cours d’une deuxième fenêtre temporelle d’enregistrement R2. La caméra bi-bande 6 peut éventuellement acquérir d’autres parties d’images de scène au cours d’une nouvelle deuxième fenêtre temporelle I2 et les enregistrer au cours d’une nouvelle fenêtre temporelle d’enregistrement R2, comme visible sur la . Ainsi, les étapes 122 et 124 peuvent éventuellement être répétées une ou plusieurs fois.During a step 124, the parts 28 of scene images are recorded in the memory 14 during a second recording time window R2. The dual-band camera 6 can optionally acquire other parts of scene images during a new second time window I2 and record them during a new recording time window R2, as can be seen in the . Thus, steps 122 and 124 may optionally be repeated one or more times.

Au cours d’une étape 126, les parties 28 d’images de scène sont affichées sur l’écran de visualisation 10.During a step 126, the parts 28 of scene images are displayed on the display screen 10.

Au cours d’une étape 128, la position de la tâche de désignation Di, Di+1 déterminée au cours de l’étape 120, est superposée aux parties 28 d’images de scène. A cet effet, soit la tâche de désignation est superposée aux parties 28 d’images de scène soit un réticule est superposé sur les images de scène à la position de la tâche de désignation.During a step 128, the position of the designation task Di, Di+1 determined during step 120, is superimposed on the parts 28 of scene images. For this purpose, either the designation task is superimposed on the parts 28 of scene images or a reticle is superimposed on the scene images at the position of the designation task.

La caméra bi-bande 6 peut éventuellement acquérir d’autres parties d’images de scène au cours d’une nouvelle deuxième fenêtre temporelle I2 et les enregistrer au cours d’une nouvelle fenêtre temporelle d’enregistrement R2, comme visible sur la .The dual-band camera 6 can optionally acquire other parts of scene images during a new second time window I2 and record them during a new recording time window R2, as can be seen in the .

Au cours d’une étape 130, les étapes 110 à 128 sont répétées au cours d’un deuxième cycle.During a step 130, steps 110 to 128 are repeated during a second cycle.

En variante, au cours de l’étape 120, la partie d’image obtenue au cours de la première fenêtre temporelle I1 (étape 118) est directement superposées aux parties d’images de scène obtenues au cours de la deuxième fenêtre temporelle (étape 122)Alternatively, during step 120, the image portion obtained during the first time window I1 (step 118) is directly superimposed on the scene image portions obtained during the second time window (step 122 )

Quand cette variante est utilisée, l’image représentant la tâche de désignation déterminée au cours du deuxième cycle est ajoutée à l’image représentant la tâche de désignation acquise au cours du premier cycle. Un nombre prédéfini d’image représentant la tâche de désignation peuvent ainsi être ajouté les unes aux autres. Puis, lorsque ce nombre est atteint, les images représentant la tâche de désignation sont supprimées de la mémoire. La position de la tâche de désignation est rafraichie.When this variant is used, the image representing the designation task determined during the second cycle is added to the image representing the designation task acquired during the first cycle. A predefined number of images representing the designation task can thus be added to each other. Then, when this number is reached, the images representing the designation task are deleted from the memory. The position of the designation task is refreshed.

En variante, le procédé ne comporte pas d’étape d’acquisition 114 d’une partie 26 d’une image de calibration, ni d’étape de soustraction 118 de la partie 26 d’une image de calibration à une partie 24 d’une image de désignation. Dans ce cas, la position de la tâche de désignation est directement déterminée sur la partie d’image de désignation.As a variant, the method does not include a step 114 for acquiring a part 26 of a calibration image, nor a step 118 for subtracting part 26 of a calibration image from a part 24 of a designation image. In this case, the position of the designation task is directly determined on the designation image part.

En variante, une image de désignation complète est acquise au cours de l’étape 110.Alternatively, a complete designation image is acquired during step 110.

En variante, une image de calibration complète, est acquise au cours de l’étape 114.As a variant, a complete calibration image is acquired during step 114.

En variante, Au cours d’une étape 118, l’unité de traitement 8 soustrait l’image de calibration complète à l’image de désignation complète.As a variant, during a step 118, the processing unit 8 subtracts the complete calibration image from the complete designation image.

En variante, des images de scène complètes, sont acquises au cours de l’étape 122.Alternatively, complete scene images are acquired during step 122.

En variante, comme la fréquence laser est connue du système, le déclenchement est réalisé à partir de l'impulsion n pour voir l'impulsion n+1. Le déclenchement est réalisé par le désignateur laser en autonome ou, en désignation externe, un dispositif de détection ponctuel qui détecte l'illumination laser et fournit un signal synchronisé.Alternatively, as the laser frequency is known to the system, triggering is performed from pulse n to see pulse n+1. Triggering is achieved by the laser designator as standalone or, in external designation, a point detection device which detects the laser illumination and provides a synchronized signal.

Selon un mode de réalisation, les étapes 110, 120, 122, et 128 sont successives.According to one embodiment, steps 110, 120, 122, and 128 are successive.

Claims (11)

Procédé d’acquisition d’une séquence d’au moins des parties d’images permettant de visualiser le pointage d’une cible (4) par un désignateur laser (12), le désignateur laser (12) étant propre à émettre des impulsions laser (Ei, Ei+1) en direction de la cible et à générer des tâches de désignation (Di, Di+1), les impulsions laser étant émises à une fréquence d’émission et dans une longueur d’onde appartenant à une première bande (λ1) de longueurs d’onde, le procédé d’acquisition étant mis en œuvre par un système d’acquisition d’images (2) comprenant un imageur bi-bande (6) apte à capter un signal optique dans la première bande (λ1) de longueurs d’onde d’émission et dans l’infra-rouge, et une unité de traitement (8) adaptée pour traiter les images acquises par l’imageur bi-bande et pour paramétrer l’imageur bi-bande, le procédé comprenant au moins un cycle, ledit cycle comprenant les étapes suivantes :
a) acquisition (110) d’au moins une partie (24) d’une image de désignation, ladite au moins une partie (24) d’image de désignation étant acquise dans une première fenêtre temporelle d’exposition (I1) synchronisée avec un instant (ti) d’émission d’une impulsion laser, ladite première fenêtre temporelle d’exposition (I1) présentant une première durée d’exposition (T1);
b) détermination (120) de la tâche de désignation (Di, Di+1) ou de la position de la tâche de désignation (Di, Di+1) à partir de ladite au moins une partie (24) d’image de désignation ;
c) acquisition (122) d’au moins des parties (28) d’images de scène, lesdites au moins des parties d’images de scène étant acquises dans une deuxième fenêtre temporelle d’exposition (I2) se déroulant entre deux instants (ti, ti+1) d’émission d’impulsions laser, ladite deuxième fenêtre temporelle d’exposition (I2) présentant une deuxième durée d’exposition (T2), la deuxième durée d’exposition (T2) étant au moins quatre fois supérieure à la première durée d’exposition (T1) ;
d) superposition (128) de la tâche de désignation (Di, Di+1) ou de la position de la tâche de désignation aux au moins des parties (28) d’images de scène ;
e) répétition (130) des étapes a), b), c) et d) pour obtenir une séquence d’au moins des parties d’images.
Method for acquiring a sequence of at least parts of images making it possible to view the pointing of a target (4) by a laser designator (12), the laser designator (12) being capable of emitting laser pulses (Ei, Ei+1) in the direction of the target and to generate designation tasks (Di, Di+1), the laser pulses being emitted at an emission frequency and in a wavelength belonging to a first band (λ1) of wavelengths, the acquisition method being implemented by an image acquisition system (2) comprising a dual-band imager (6) able to pick up an optical signal in the first band ( λ1) of emission and infrared wavelengths, and a processing unit (8) adapted to process the images acquired by the dual-band imager and to configure the dual-band imager, the method comprising at least one cycle, said cycle comprising the following steps:
a) acquisition (110) of at least one part (24) of a designation image, said at least one part (24) of designation image being acquired in a first exposure time window (I1) synchronized with an instant (ti) of emission of a laser pulse, said first exposure time window (I1) having a first exposure duration (T1);
b) determining (120) the designation task (Di, Di+1) or the position of the designation task (Di, Di+1) from said at least one portion (24) of designation image ;
c) acquisition (122) of at least parts (28) of scene images, said at least parts of scene images being acquired in a second exposure time window (I2) taking place between two instants ( ti, ti+1) for emitting laser pulses, said second exposure time window (I2) having a second exposure duration (T2), the second exposure duration (T2) being at least four times longer at the first exposure time (T1);
d) superposition (128) of the designation task (Di, Di+1) or of the position of the designation task on the at least parts (28) of scene images;
e) repeating (130) steps a), b), c) and d) to obtain a sequence of at least image parts.
Procédé d’acquisition selon la revendication 1, dans lequel la première durée d’exposition (T1) est inférieure à 4 ms, de préférence inférieure à 1 ms.Acquisition method according to claim 1, in which the first exposure time (T1) is less than 4 ms, preferably less than 1 ms. Procédé d’acquisition selon la revendication 1, dans lequel la deuxième durée d’exposition (T2) est supérieure à 4 ms, de préférence comprise entre 8 et 40 ms.Acquisition method according to claim 1, in which the second exposure time (T2) is greater than 4 ms, preferably between 8 and 40 ms. Procédé d’acquisition selon l’une quelconque des revendications 1 à 3, qui comporte une durée inférieure à 10 ms, de préférence 5 ms entre le début de l’étape d’acquisition de ladite au moins une partie (24) d’image de désignation et le début de l’étape d’acquisition d’au moins des parties (28) d’images de scène.Acquisition method according to any one of claims 1 to 3, which includes a duration of less than 10 ms, preferably 5 ms between the start of the step of acquiring said at least one part (24) of image designation and the start of the step of acquiring at least parts (28) of scene images. Procédé d’acquisition selon l’une quelconque des revendications 1 à 4, dans lequel le procédé comporte en outre une étape préalable (100) de paramétrage de la caméra bi-bande (6) par l’unité de traitement (8) afin que les premières fenêtres temporelles d’exposition (I1) soient synchronisées avec les instants d’émissions (ti, ti+1) des impulsions laser (Ei, Ei+1).Acquisition method according to any one of Claims 1 to 4, in which the method also comprises a prior step (100) of parameterizing the dual-band camera (6) by the processing unit (8) so that the first exposure time windows (I1) are synchronized with the instants of emission (ti, ti+1) of the laser pulses (Ei, Ei+1). Procédé d’acquisition selon la revendication 5, dans lequel le système d’acquisition comporte en outre un désignateur laser (12) connecté à l’unité de traitement (8), et dans lequel ladite étape de paramétrage (100) comporte les étapes suivantes :
- transmission (102) des instants d’émission (ti, ti+1) des impulsions laser du désignateur laser (12) à l’unité de traitement (8);
- détermination (104, 106) de la fréquence d’émission et des instants de génération de premières fenêtres temporelles d’exposition (I1) de manière que chaque première fenêtre temporelle d’exposition soit centrée temporellement autour d’un instant d’émission (ti, ti+1) d’une impulsion laser,
- transmission (108) des instants de génération de premières fenêtres temporelles d’exposition (I1) de l’unité de traitement (8) à la caméra bi-bande (6).
Acquisition method according to claim 5, in which the acquisition system further comprises a laser designator (12) connected to the processing unit (8), and in which the said setting step (100) comprises the following steps :
- transmission (102) of the instants of emission (ti, ti+1) of the laser pulses from the laser designator (12) to the processing unit (8);
- determination (104, 106) of the emission frequency and of the instants of generation of first exposure time windows (I1) so that each first exposure time window is temporally centered around an emission instant ( ti, ti+1) of a laser pulse,
- transmission (108) of the instants of generation of first exposure time windows (I1) from the processing unit (8) to the dual-band camera (6).
Procédé d’acquisition selon l’une quelconque des revendications 1 à 6, qui comporte en outre les étapes suivantes :
- acquisition (114) d’au moins une partie (26) d’une image de calibration, ladite au moins une partie (26) d’une image de calibration étant acquise au cours d’une fenêtre temporelle de calibration (Ic) subséquente à la première fenêtre temporelle d’exposition (T1), la fenêtre temporelle de calibration (Ic) présentant une durée sensiblement égale à la première durée d’exposition (T1),
- soustraction (118) de ladite au moins une partie (26) d’une image de calibration à ladite au moins une partie (24) d’une image de désignation pour obtenir au moins une partie d’image représentant uniquement la tâche de désignation, ladite au moins une partie d’image représentant uniquement la tâche de désignation étant utilisée en tant que au moins une partie (24) d’image de désignation pour mettre en œuvre l’étape de détermination de la position de la tâche de désignation.
Acquisition method according to any one of Claims 1 to 6, which also comprises the following steps:
- acquisition (114) of at least a part (26) of a calibration image, said at least a part (26) of a calibration image being acquired during a subsequent calibration time window (Ic) to the first exposure time window (T1), the calibration time window (Ic) having a duration substantially equal to the first exposure time (T1),
- subtraction (118) of said at least one part (26) of a calibration image from said at least one part (24) of a designation image to obtain at least one part of an image representing only the designation task , said at least one image portion representing only the designation task being used as the at least one designation image portion (24) for implementing the step of determining the position of the designation task.
Procédé d’acquisition selon la revendication 7, dans lequel le procédé comprend plusieurs cycles, et dans lequel la partie d’image représentant uniquement la tâche de désignation obtenue au cours de l’étape de soustraction du premier cycle est additionnée à la partie d’image représentant uniquement la tâche de désignation obtenue au cours de l’étape de soustraction du deuxième cycle.Acquisition method according to claim 7, in which the method comprises several cycles, and in which the part of the image representing only the designation task obtained during the subtraction step of the first cycle is added to the part of image representing only the designation task obtained during the subtraction step of the second cycle. Procédé d’acquisition selon l’une quelconque des revendications 1 à 7, dans lequel la caméra bi-bande (6) est apte à acquérir des images de désignation (18) comprenant N lignes et M colonnes, N et M étant des entiers naturels, et dans lequel uniquement une partie (24) de l’image de désignation est acquise, ladite partie (24) de l’image de désignation acquise comprenant entre 50% et 10 % des N lignes et des M colonnes.
Avantageusement, ce fenêtrage permet de conserver une fréquence d’acquisition des images suffisamment importante pour permettre une visualisation fluide et non saccadée de la séquence d’images.
Acquisition method according to any one of Claims 1 to 7, in which the dual-band camera (6) is able to acquire designation images (18) comprising N rows and M columns, N and M being natural integers , and wherein only a portion (24) of the designation image is acquired, said portion (24) of the acquired designation image comprising between 50% and 10% of the N rows and M columns.
Advantageously, this windowing makes it possible to maintain a sufficiently high image acquisition frequency to allow fluid and non-jerky viewing of the sequence of images.
Procédé d’acquisition selon l’une quelconque des revendications 1 à 7, dans lequel la caméra bi-bande (6) est apte à acquérir des images de scène (22) comprenant N lignes et M colonnes, N et M étant des entiers naturels, et dans lequel uniquement une partie (28) de l’image de scène est acquise, ladite partie (28) de l’image de scène acquise comprenant entre 100% et 30% des N lignes et des M colonnes.Acquisition method according to any one of Claims 1 to 7, in which the dual-band camera (6) is capable of acquiring scene images (22) comprising N rows and M columns, N and M being natural integers , and wherein only a portion (28) of the scene image is acquired, said portion (28) of the scene image acquired comprising between 100% and 30% of the N rows and M columns. Système d’acquisition (2) d’une séquence d’au moins des parties d’images permettant de visualiser le pointage d’une cible (4) par un désignateur laser (12) , le désignateur laser (12) étant propre à émettre des impulsions lasers (Ei, Ei+1) en direction de la cible (4) et à générer des tâches de désignation (Di, Di+1), les impulsions lasers étant émises à une fréquence d’émission et à une longueur d’onde appartenant à une première bande de longueurs d’onde (λ1), le système d’acquisition (2) comprenant :
- un imageur bi-bande (6) apte à capter un signal optique dans la première bande de longueurs d’onde (λ1) et dans l’infra-rouge, l’imageur bi-bande (6) étant propre à acquérir au moins une partie (18) d’une image de désignation et au moins des parties (28) d’images de scène, ladite au moins une partie (18) d’une image de désignation étant acquise dans une première fenêtre temporelle d’exposition (I1) synchronisée avec une émission (ti, ti+1) d’une impulsion laser, ladite première fenêtre temporelle d’exposition (I1) présentant une première durée d’exposition (T1), lesdites au moins une partie (28) des images de scène étant acquises dans une deuxième fenêtre temporelle d’exposition (I2) présentant une deuxième durée d’exposition (T2), la deuxième durée d’exposition (T2)étant au moins quatre fois supérieure à la première durée d’exposition (T1) ; et
- une unité de traitement (8) adaptée pour traiter les au moins une partie (24) d’images de désignation et les au moins des parties (28) d’images de scènes pour obtenir une séquence d’au moins des parties d’images, l’unité de traitement (8) étant propre à déterminer la position de la tâche de désignation (Di, Di+1) à partir de ladite au moins une partie (24) d’image de désignation et à superposer la position de la tâche de désignation sur les au moins des parties (28) d’images de scène.
Acquisition system (2) of a sequence of at least parts of images making it possible to visualize the pointing of a target (4) by a laser designator (12), the laser designator (12) being able to emit laser pulses (Ei, Ei+1) in the direction of the target (4) and to generate designation tasks (Di, Di+1), the laser pulses being emitted at an emission frequency and at a length of wave belonging to a first band of wavelengths (λ1), the acquisition system (2) comprising:
- a dual-band imager (6) able to pick up an optical signal in the first band of wavelengths (λ1) and in the infrared, the dual-band imager (6) being able to acquire at least a portion (18) of a designation image and at least portions (28) of scene images, said at least a portion (18) of a designation image being acquired in a first exposure time window ( I1) synchronized with an emission (ti, ti+1) of a laser pulse, said first exposure time window (I1) having a first exposure duration (T1), said at least part (28) of the images scene being acquired in a second exposure time window (I2) having a second exposure duration (T2), the second exposure duration (T2) being at least four times longer than the first exposure duration (T1 ); And
- a processing unit (8) adapted to process the at least one part (24) of designation images and the at least parts (28) of scene images to obtain a sequence of at least parts of images, the processing unit (8) being suitable for determining the position of the designation task (Di, Di+1) from said at least one designation image part (24) and for superimposing the position of the designation task on the at least parts (28) of scene images.
FR2012577A 2020-12-03 2020-12-03 Method for acquiring a sequence of image parts and associated acquisition system Pending FR3117219A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2012577A FR3117219A1 (en) 2020-12-03 2020-12-03 Method for acquiring a sequence of image parts and associated acquisition system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2012577A FR3117219A1 (en) 2020-12-03 2020-12-03 Method for acquiring a sequence of image parts and associated acquisition system
FR2012577 2020-12-03

Publications (1)

Publication Number Publication Date
FR3117219A1 true FR3117219A1 (en) 2022-06-10

Family

ID=75108443

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2012577A Pending FR3117219A1 (en) 2020-12-03 2020-12-03 Method for acquiring a sequence of image parts and associated acquisition system

Country Status (1)

Country Link
FR (1) FR3117219A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3054893A1 (en) 2016-08-03 2018-02-09 Safran Electronics & Defense FILTERING DEVICE FOR DETECTING, IN AN OPTICAL SIGNAL, AT LEAST ONE WAVELENGTH EMITTED BY A LASER AND A BAND OF INFRARED WAVE LENGTHS
US9897688B2 (en) * 2013-11-30 2018-02-20 Bae Systems Information And Electronic Systems Integration Inc. Laser detection and image fusion system and method
FR3088790A1 (en) * 2018-11-20 2020-05-22 Safran Electronics & Defense Apparatus and method for observing a scene comprising a target

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9897688B2 (en) * 2013-11-30 2018-02-20 Bae Systems Information And Electronic Systems Integration Inc. Laser detection and image fusion system and method
FR3054893A1 (en) 2016-08-03 2018-02-09 Safran Electronics & Defense FILTERING DEVICE FOR DETECTING, IN AN OPTICAL SIGNAL, AT LEAST ONE WAVELENGTH EMITTED BY A LASER AND A BAND OF INFRARED WAVE LENGTHS
FR3088790A1 (en) * 2018-11-20 2020-05-22 Safran Electronics & Defense Apparatus and method for observing a scene comprising a target

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SPIE, PO BOX 10 BELLINGHAM WA 98227-0010 USA, 20 May 2005 (2005-05-20), XP040211393 *

Similar Documents

Publication Publication Date Title
EP0425333B1 (en) Device for localizing the radiation source in real time
CA1256967A (en) System for locating a mobile
US7139067B2 (en) Three-dimensional imaging with multiframe blind deconvolution
US20190166355A1 (en) System and method of reducing ambient background light in a pulse-illuminated image
WO1999032876A1 (en) Analysing device non-destructive of plants and vehicle comprising such device on board
EP3720115B1 (en) Method for imaging with pulsed light
EP0920677B1 (en) Method and device for air-ground recognition for optoelectronic equipment
EP3627210A1 (en) System for viewing in virtual or augmented reality with eye image sensor, and associated method
FR2891924A1 (en) LUMINESCENCE IMAGING DEVICE AND METHOD
EP0770884A1 (en) Detection method by means of laser designation and corresponding off-boresight apparatus with an array sensor
WO2012007692A1 (en) Multifunctional bispectral imaging method and device
Langof et al. Advanced multi-function infrared detector with on-chip processing
FR3117219A1 (en) Method for acquiring a sequence of image parts and associated acquisition system
EP2420052B1 (en) Method and system for active imaging with a large field
US20050253927A1 (en) Near infrared illuminated tripwire detector
CA3046174C (en) System for detecting electromagnetic radiation
EP0907284A1 (en) Charge coupled photosensitive device with charge accumulation and Lidar incorporating such a device
EP3884656B1 (en) Device and method for observing a scene comprising a target
WO2023094409A1 (en) Method and device for visualising impacts of laser pulses on a target
FR3061849A1 (en) METHOD AND DEVICE FOR MEASURING FLUORESCENCE EMITTED TO THE SURFACE OF A BIOLOGICAL TISSUE
FR3148092A1 (en) Scan Engine Telemetry Failure Management
EP0902301B1 (en) Optoelectronic observation apparatus improved to detect laser shots
Muller et al. Laser in-band IR countermeasures and assessment of laser dazzling effects on FPA sensor arrays
FR3148093A1 (en) Scan Engine Telemetry Failure Management
FR3140678A1 (en) Apparatus for tracking a designation of at least one target and corresponding designation system

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220610

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4