FR3040848A1 - METHOD AND SYSTEM FOR BISTATIC IMAGING - Google Patents

METHOD AND SYSTEM FOR BISTATIC IMAGING Download PDF

Info

Publication number
FR3040848A1
FR3040848A1 FR1501858A FR1501858A FR3040848A1 FR 3040848 A1 FR3040848 A1 FR 3040848A1 FR 1501858 A FR1501858 A FR 1501858A FR 1501858 A FR1501858 A FR 1501858A FR 3040848 A1 FR3040848 A1 FR 3040848A1
Authority
FR
France
Prior art keywords
detection unit
laser beam
monitoring field
illumination unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1501858A
Other languages
French (fr)
Other versions
FR3040848B1 (en
Inventor
Mathieu Renaudat
Christophe Guettier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran Electronics and Defense SAS
Original Assignee
Sagem Defense Securite SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sagem Defense Securite SA filed Critical Sagem Defense Securite SA
Priority to FR1501858A priority Critical patent/FR3040848B1/en
Publication of FR3040848A1 publication Critical patent/FR3040848A1/en
Application granted granted Critical
Publication of FR3040848B1 publication Critical patent/FR3040848B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/003Bistatic lidar systems; Multistatic lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Abstract

Un procédé d'imagerie bistatique met en œuvre une unité d'éclairement (1) à faisceau laser et au moins une unité de détection (2) qui sont distantes l'une de l'autre. L'unité d'éclairement est pilotée par des instructions de pointage et de contrôle dynamique qui sont produites à partir d'une analyse d'images saisies par l'unité de détection. Le procédé est compatible avec l'utilisation d'une source laser (10) à émission continue, et avec l'utilisation d'un détecteur qui n'est pas nécessairement synchronisé sur la source d'émission laser. Le procédé permet de combiner des images saisies avec différents pointage et paramètres de contrôle de dynamique, afin d'améliorer un contraste local de l'image reconstruite en utilisant le principe HDR, pour «High Dynamic Range» en anglais.A bistatic imaging method uses a laser beam illumination unit (1) and at least one detection unit (2) which are spaced apart from each other. The illumination unit is driven by pointing and dynamic control instructions that are produced from an image analysis captured by the detection unit. The method is compatible with the use of a continuous emission laser source (10), and with the use of a detector which is not necessarily synchronized to the laser emission source. The method makes it possible to combine images captured with different pointing and dynamic control parameters, in order to improve a local contrast of the reconstructed image by using the HDR principle, for "High Dynamic Range" in English.

Description

PROCEDE ET SYSTEME D’IMAGERIE BISTATIQUEMETHOD AND SYSTEM FOR BISTATIC IMAGING

La présente invention concerne un procédé d’imagerie bistatique et un système pour mettre en œuvre un tel procédé.The present invention relates to a bistatic imaging method and a system for implementing such a method.

Certaines applications d’imagerie nécessitent d’éclairer efficacement une scène à grande distance, par exemple de l’ordre de plusieurs kilomètres entre l’endroit auquel est placée la source d’éclairement et la scène à observer. Pour cela, il est connu d’utiliser des unités d’éclairement de type laser, pour lesquelles la faible divergence du faisceau d’éclairement garantit qu’une partie importante de la puissance d’éclairage qui est produite participe effectivement à éclairer les éléments voulus de la scène éloignée. Mais des éléments parasites de premier plan qui sont situés en avant de la scène dont l’observation présente un intérêt, produisent une rétrodiffusion du faisceau d’éclairement. Une telle rétrodiffusion peut provoquer une saturation d’un détecteur qui est utilisé pour saisir l’image de la scène éloignée lorsque le système d’imagerie est monostatique, c’est-à-dire lorsque l’unité de détection d’image qui est utilisée est située au même endroit que l’unité d’éclairement.Certain imaging applications require effective illumination of a scene at a great distance, for example of the order of several kilometers between the place where the illumination source is placed and the scene to be observed. For this, it is known to use laser-type illumination units, for which the small divergence of the illumination beam ensures that a large part of the lighting power that is produced effectively contributes to illuminating the desired elements. from the distant scene. But foreground interfering elements which are located in front of the scene whose observation is of interest, produce a backscattering of the illumination beam. Such backscattering may cause saturation of a detector that is used to capture the image of the distant scene when the imaging system is monostatic, i.e., when the image sensing unit that is used is located in the same place as the illuminating unit.

Il est alors connu d’utiliser une source laser à impulsions dans de tels systèmes d’imagerie monostatiques, pour éclairer la scène à imager. L’unité de détection d’image est alors activée d’une façon synchronisée avec l’émission des impulsions du faisceau laser d’éclairage, en tenant compte du retard de propagation du rayonnement entre le système monostatique et la scène à imager, pour les trajets aller et retour du rayonnement. La zone ainsi imagée correspond à une plage de distance qui a été sélectionnée par le déclenchement synchronisé de l’unité de détection par rapport aux impulsions laser. Mais de telles sources laser à impulsions sont onéreuses, de même que les unités de détection d’image qui sont capables d’être activées sélectivement dans fenêtres temporelles synchronisées avec les impulsions d’éclairage.It is then known to use a pulsed laser source in such monostatic imaging systems, to illuminate the scene to be imaged. The image detection unit is then activated in a manner synchronized with the emission of the pulses of the illumination laser beam, taking into account the propagation delay of the radiation between the monostatic system and the scene to be imaged, for outward and return paths of radiation. The area thus imaged corresponds to a range of distance which has been selected by the synchronized triggering of the detection unit with respect to the laser pulses. But such pulsed laser sources are expensive, as are the image sensing units that are capable of being selectively activated in time windows synchronized with the illumination pulses.

Les procédés d’imagerie bistatiques évitent ces inconvénients. Ils consistent à éclairer la scène et à saisir une image de cette scène à partir de deux endroits séparés : un premier endroit à partir duquel le faisceau d’éclairement est émis en direction de la scène, et un second endroit auquel est détectée une partie du rayonnement d’éclairage qui est réfléchie par des éléments de la scène. La scène qui est imagée est alors définie par l’intersection des champs optiques d’éclairage et de détection. Ce procédé permet donc de sélectionner une plage de distance en ajustant angulairement les lignes de visée respectives de l’unité d’éclairement et de l’unité de détection. Les images qui sont saisies de cette façon présentent en général un contraste qui est amélioré par rapport à un système monostatique à laser continu, car le rayonnement qui a été rétrodiffusé par des éléments parasites de premier plan, situés en avant de la scène dont l’observation présente un intérêt, n’est pas recueilli par l’unité de détection. L’énergie qui est détectée en provenance d’un objet éclairé, notamment d’un objet résolu et lambertien, est inversement proportionnelle à la distance d’éloignement de l’objet, élevée à la puissance quatre. Cette énergie décroît donc très rapidement en fonction de la distance d’éloignement. En effet, à cause de cette décroissance, la dynamique d’un détecteur d’image ne permet pas de saisir des éléments de scène qui sont présents à plusieurs distances distinctes, au sein d’une seule image saisie. Mais en sélectionnant une plage de distance qui est limitée, soit en utilisant un laser impulsionnel avec une unité de détection synchronisée, soit en utilisant un système bistatique, il est possible d’obtenir des niveaux d’énergie qui soient suffisamment homogènes dans l’image saisie. A partir de cette situation, un but de la présente invention consiste à fournir un nouveau procédé d’imagerie bistatique, qui ne présente pas les inconvénients précités. Plus particulièrement, l’invention a pour but de résoudre ou d’améliorer certaines au moins des difficultés suivantes : - l’éclairage est efficace même pour des éléments de scène qui sont situés à grande distance, notamment à plusieurs kilomètres de l’unité d’éclairement ; - des éléments qui peuvent être présents en avant de la scène, et qui rétrodiffusent une partie du faisceau d’éclairement, ne réduisent pas significativement le contraste d’éléments de scène qui sont éloignés, dans les images qui sont saisies ; - le procédé ne nécessite pas que l’unité de détection possède une dynamique de fonctionnement qui soit particulièrement importante, ni que l’unité de détection soit déclenchée d’une façon synchronisée avec l’unité d’éclairement ; et - le système d’imagerie qui est nécessaire est peu onéreux.The bistatic imaging methods avoid these disadvantages. They consist of illuminating the scene and capturing an image of that scene from two separate locations: a first place from which the light beam is emitted to the scene, and a second location at which a portion of the scene is detected. lighting radiation that is reflected by elements of the scene. The scene that is imaged is then defined by the intersection of the optical fields of illumination and detection. This method therefore makes it possible to select a range of distance by angularly adjusting the respective lines of sight of the illumination unit and the detection unit. Images that are captured in this way generally exhibit a contrast that is improved over a continuous laser monostatic system because the radiation that has been backscattered by foreground noise elements located in front of the scene whose observation is of interest, is not collected by the detection unit. The energy that is detected from an illuminated object, in particular from a solved and lambertian object, is inversely proportional to the distance of distance from the object, raised to the power of four. This energy decreases very quickly depending on the distance away. Indeed, because of this decrease, the dynamics of an image sensor does not capture scene elements that are present at several distinct distances, within a single image captured. But by selecting a range of distance that is limited, either by using a pulsed laser with a synchronized detection unit, or by using a bistatic system, it is possible to obtain energy levels that are sufficiently homogeneous in the image capture. From this situation, an object of the present invention is to provide a new bistatic imaging method, which does not have the aforementioned drawbacks. More particularly, the object of the invention is to solve or improve at least some of the following difficulties: the lighting is effective even for scene elements that are located at a great distance, especially several kilometers from the illumination; elements which may be present in front of the scene, and which retransmit a part of the illumination beam, do not significantly reduce the contrast of distant scene elements in the images which are captured; the method does not require that the detection unit has a particularly important operating dynamics, nor that the detection unit is triggered in a manner synchronized with the illumination unit; and the imaging system that is needed is inexpensive.

Pour cela, la présente invention propose de combiner le principe d’imagerie bistatique, suivant lequel une unité d’éclairement et au moins une unité de détection sont distantes l’une de l’autre, avec l’utilisation d’un éclairage par laser.For this, the present invention proposes to combine the principle of bistatic imaging, in which an illumination unit and at least one detection unit are distant from each other, with the use of laser illumination .

Plus particulièrement, un premier aspect de l’invention propose un procédé d’imagerie bistatique, suivant lequel l’unité d’éclairement dirige un faisceau laser successivement vers des zones différentes d’un champ de surveillance à imager, et l’unité de détection mesure au moins une intensité d’un rayonnement qui est réfléchi par chaque zone du champ de surveillance lorsque le faisceau laser est dirigé vers cette zone, puis l’image du champ de surveillance est construite à partir des intensités du rayonnement réfléchi qui ont été mesurées pour toutes les zones du champ de surveillance. Selon l’invention, l’unité de détection transmet des instructions de pointage à l’unité d’éclairement pour désigner une direction de pointage qui correspond à chaque zone à l’intérieur du champ de surveillance vers laquelle diriger le faisceau laser pendant une durée déterminée, et pour l’une au moins des zones ainsi éclairées, l’unité de détection transmet en outre des instructions de contrôle dynamique à l’unité d’éclairement pour ajuster, pour la durée déterminée, au moins une caractéristique du faisceau laser lorsqu’il est dirigé vers cette zone. Les instructions de contrôle dynamique sont déterminées à partir d’une mesure antérieure de l’intensité du rayonnement qui est réfléchi par la même zone ou par une autre zone du champ de surveillance. De plus, la caractéristique du faisceau laser qui est ajustée au moyen des instructions de contrôle dynamique est distincte de la direction de pointage.More particularly, a first aspect of the invention provides a bistatic imaging method, in which the illumination unit directs a laser beam successively to different areas of a monitoring field to be imaged, and the detection unit measures at least one intensity of radiation that is reflected by each area of the monitoring field as the laser beam is directed to that area, then the image of the monitoring field is constructed from the reflected intensities of radiation that have been measured for all areas of the surveillance field. According to the invention, the detection unit transmits pointing instructions to the illumination unit to designate a pointing direction corresponding to each zone within the surveillance field to which the laser beam is directed for a period of time. determined, and for at least one of the areas thus illuminated, the detection unit further transmits dynamic control instructions to the illumination unit to adjust, for the determined duration, at least one characteristic of the laser beam when it is directed to this area. The dynamic control instructions are determined from an earlier measurement of the intensity of the radiation that is reflected by the same area or another area of the monitoring field. In addition, the characteristic of the laser beam that is adjusted by means of the dynamic control instructions is distinct from the pointing direction.

Ainsi, l’unité de détection pilote l’unité d’éclairement pour acquérir les données de l’image du champ surveillance. Ce pilotage concerne les directions de pointage qui doivent être adoptées successivement par l’unité d’éclairement pour balayer le champ de surveillance, mais aussi une valeur à adopter pour au moins une autre caractéristique du faisceau laser. Cette autre caractéristique du faisceau laser qui est ajustée au moyen des instructions de contrôle dynamique, peut comprendre un angle de divergence du faisceau laser, et optionnellement une valeur de puissance du faisceau laser. Lorsqu’un laser impulsionnel est utilisé dans l’unité d’éclairement, les instructions de contrôle dynamique peuvent comprendre une fréquence d’impulsions du laser et/ou une durée d’impulsions.Thus, the detection unit controls the illumination unit to acquire the image data of the monitoring field. This control relates to the pointing directions that must be adopted successively by the illumination unit to scan the monitoring field, but also a value to be adopted for at least one other characteristic of the laser beam. This other characteristic of the laser beam which is adjusted by means of the dynamic control instructions may include a divergence angle of the laser beam, and optionally a power value of the laser beam. When a pulse laser is used in the illumination unit, the dynamic control instructions may include a laser pulse frequency and / or a pulse duration.

En donné que l’éclairage de la scène est réalisé à l’aide d’un laser, il est efficace même pour des éléments de scène qui sont situés à grande distance, notamment à plusieurs kilomètres de l’unité d’éclairement.Given that the lighting of the scene is achieved using a laser, it is effective even for scene elements that are located at a great distance, especially several kilometers from the unit of illumination.

Grâce à la configuration d’imagerie bistatique, des éléments tels que des aérosols ou des poussières qui sont présents en avant de la scène d’intérêt et qui pourraient rétrodiffuser une partie du faisceau d’éclairement, ne réduisent pas significativement le contraste des éléments de scène qui sont plus éloignés, dans les images qui sont saisies.Thanks to the bistatic imaging configuration, elements such as aerosols or dust that are present in front of the scene of interest and that could backscatter part of the illumination beam, do not significantly reduce the contrast of the elements of the scene that are further away, in the images that are captured.

Grâce aux instructions de contrôle dynamique, les conditions d’éclairement de chaque zone du champ à surveiller peuvent être ajustées pour que les éléments qui sont contenus dans cette zone apparaissent dans l’image avec une luminosité et un contraste suffisants, sans atteindre la limite de saturation de l’unité de détection. Ainsi, le procédé de l’invention ne nécessite pas que l’unité de détection possède une dynamique de fonctionnement qui soit particulièrement grande.Thanks to the dynamic control instructions, the lighting conditions of each zone of the field to be monitored can be adjusted so that the elements that are contained in this zone appear in the image with sufficient brightness and contrast, without reaching the limit of saturation of the detection unit. Thus, the method of the invention does not require that the detection unit has an operating dynamics that is particularly large.

Pour ces raisons notamment, le système d’imagerie qui est nécessaire pour mettre en oeuvre le procédé de l’invention, peut être peu onéreux.For these reasons in particular, the imaging system that is necessary to implement the method of the invention can be inexpensive.

Avantageusement, l’unité d’éclairement peut être du type laser à émission continue. Elle est alors elle-même moins onéreuse qu’une unité laser à impulsions. De plus, la technologie des lasers continus permet que la puissance moyenne d’éclairage qui est reçue par chaque élément du champ de surveillance soit supérieure à celle qui résulte de l’utilisation d’une unité d’éclairement de type laser à impulsions.Advantageously, the illumination unit may be of the continuous emission laser type. It is then itself less expensive than a pulsed laser unit. In addition, continuous laser technology allows the average lighting power received by each element of the monitoring field to be greater than that resulting from the use of a pulse laser type illumination unit.

En particulier, les perfectionnements suivants pourront être utilisés avantageusement dans des modes de mise en œuvre préférés de l’invention, séparément ou en combinaison de plusieurs quelconques d’entre eux : - une analyse de l’image du champ de surveillance peut-être exécutée, et les instructions de contrôle dynamique peuvent être déterminées à partir de résultats de cette analyse d’image, selon une séquence automatisée consécutive à la construction de l’image du champ de surveillance. L’une au moins des étapes parmi la construction de l’image, l’analyse de l’image et la détermination des instructions de contrôle dynamique peut être exécutée par l’unité de détection. En particulier, l’analyse d’image peut comprendre une détection de la taille du faisceau laser dans la scène ; - l’unité d’éclairement et l’unité de détection peuvent communiquer l’une avec l’autre par un mode de communication bidirectionnelle sans fil, afin de transmettre entre elles au moins les instructions de pointage, les instructions de contrôle dynamique et des messages d’accusé de réception ; - l’unité d’éclairement peut être adaptée pour produire le faisceau laser dans un intervalle de longueur d’onde qui est compris entre 0,8 pm (micromètre) et 2,0 pm. L’invention est alors efficace pour saisir des images en conditions nocturnes, ou pour révéler des éléments camouflés dans la scène qui fait l’objet de la surveillance ; - l’un au moins parmi une brillance moyenne locale et un contraste local peut être ajusté différemment dans au moins deux portions séparées de l’image du champ de surveillance, en utilisant des instructions de contrôle dynamique qui sont différentes pour des zones à l’intérieur du champ de surveillance qui correspondent respectivement aux portions de l’image ; et - les instructions de pointage peuvent être adaptées pour produire une fréquence de répétition de mesure qui varie entre au moins deux régions séparées du champ de surveillance, et des portions de l’image du champ de surveillance qui correspondent respectivement à ces régions sont mises à jour chacune selon la fréquence de répétition pour la région correspondante.In particular, the following improvements may advantageously be used in preferred embodiments of the invention, separately or in combination of any number of them: an analysis of the image of the surveillance field may be executed , and the dynamic control instructions can be determined from the results of this image analysis, according to an automated sequence following the construction of the image of the monitoring field. At least one of the steps of image construction, image analysis and determination of dynamic control instructions may be performed by the detection unit. In particular, the image analysis may include a detection of the size of the laser beam in the scene; the illumination unit and the detection unit can communicate with one another by a two-way wireless communication mode, in order to transmit at least one of the pointing instructions, the dynamic control instructions and acknowledgment messages; the illumination unit may be adapted to produce the laser beam in a wavelength range which is between 0.8 μm (micrometer) and 2.0 μm. The invention is then effective for capturing images in nocturnal conditions, or for revealing camouflaged elements in the scene being monitored; at least one of a local mean brightness and a local contrast can be adjusted differently in at least two separate portions of the image of the monitoring field, using dynamic control instructions which are different for zones at the inside the surveillance field which correspond respectively to the portions of the image; and - the pointing instructions may be adapted to produce a measurement repetition frequency which varies between at least two separate regions of the surveillance field, and portions of the surveillance field image corresponding to these regions respectively are set to each day according to the repetition rate for the corresponding region.

Dans des premiers modes de mise en œuvre de l’invention, le procédé peut comprendre les quatre phases suivantes : /1/ une phase de ralliement, lors de laquelle des coordonnées d’une direction à l’intérieur du champ de surveillance sont transmises entre l’unité d’éclairement et l’unité de détection, ces coordonnées comprenant au moins une valeur d’azimut et éventuellement aussi une valeur de site ; /2/ une phase d’acquisition, lors de laquelle l’unité d’éclairement dirige le faisceau laser selon une direction de pointage qui est conforme aux coordonnées transmises à l’étape /1/, et simultanément l’unité de détection, à partir d’une direction d’observation qui est établie initialement conformément aux coordonnées transmises à l’étape /1/, recherche et identifie un rayonnement qui provient du champ de surveillance et qui correspond à une réflexion du faisceau laser ; et /3/ une phase de poursuite, lors de laquelle l’unité de détection guide un déplacement du faisceau laser par les instructions de pointage, et guide un ajustement du faisceau laser par les instructions de contrôle dynamique, et lors de laquelle les intensités du rayonnement réfléchi sont mesurées pour toutes les zones du champ de surveillance, et les intensités qui ont été mesurées pour le rayonnement réfléchi sont associées à des coordonnées à l’intérieur d’une matrice d’image pour composer l’image du champ de surveillance.In first embodiments of the invention, the method may comprise the following four phases: / 1 / a rallying phase, during which coordinates of a direction within the surveillance field are transmitted between the illumination unit and the detection unit, these coordinates comprising at least one azimuth value and possibly also a site value; / 2 / an acquisition phase, in which the illumination unit directs the laser beam in a pointing direction which is in accordance with the coordinates transmitted in step / 1 /, and simultaneously the detection unit, at from an observation direction which is initially established in accordance with the coordinates transmitted in step / 1 /, searches for and identifies a radiation which comes from the monitoring field and which corresponds to a reflection of the laser beam; and / 3 / a tracking phase, in which the detection unit guides a displacement of the laser beam by the pointing instructions, and guides an adjustment of the laser beam by the dynamic control instructions, and in which the intensities of the Reflected radiation is measured for all areas of the monitoring field, and the intensities that have been measured for the reflected radiation are associated with coordinates within an image matrix to compose the image of the monitoring field.

Dans des seconds modes de mise en oeuvre de l’invention, l’unité d’éclairement et l’unité de détection sont couplées respectivement à deux caméras à larges champs optiques, et la direction de pointage de l’unité d’éclairement est coordonnée avec la direction d’observation de l’unité de détection en maintenant une coïncidence au moins partielle entre les champs optiques des deux caméras. Lorsqu’une phase de ralliement et une phase d’acquisition sont mises en œuvre, la phase de ralliement peut être exécutée en partageant une valeur d’azimut entre l’unité d’éclairement et l’unité de détection, et la phase d’acquisition peut être exécutée en maintenant la coïncidence entre les champs optiques des deux caméras à larges champs optiques.In second embodiments of the invention, the illumination unit and the detection unit are respectively coupled to two wide-field optical cameras, and the pointing direction of the illumination unit is coordinated. with the observation direction of the detection unit while maintaining at least a partial coincidence between the optical fields of the two cameras. When a rallying phase and an acquisition phase are implemented, the rallying phase can be executed by sharing an azimuth value between the illumination unit and the detection unit, and the phase of Acquisition can be performed by maintaining the coincidence between the optical fields of the two wide-field optical cameras.

Un second aspect de l’invention propose un système d’imagerie bistatique comprenant une unité d’éclairement et au moins une unité de détection qui sont séparées l’une de l’autre, et qui sont adaptées pour communiquer entre elles. Ce système est alors adapté pour mettre en œuvre un procédé d’imagerie bistatique qui est conforme au premier aspect de l’invention. D'autres particularités et avantages de la présente invention apparaîtront dans la description ci-après d'exemples de réalisation non limitatifs, en référence aux dessins annexés, dans lesquels : - la figure 1 illustre schématiquement un système d’imagerie bistatique qui est adapté pour mettre en œuvre la présente invention ; - la figure 2 est un diagramme synoptique des étapes d’un procédé d’imagerie bistatique qui est conforme à l’invention, et qui peut être mis en œuvre avec le système de la figure 1 ; et - la figure 3 correspond à la figure 1 pour un autre système d’imagerie bistatique aussi adapté pour mettre en œuvre l’invention.A second aspect of the invention provides a bistatic imaging system comprising an illumination unit and at least one detection unit which are separated from one another, and which are adapted to communicate with one another. This system is then adapted to implement a bistatic imaging method which is in accordance with the first aspect of the invention. Other features and advantages of the present invention will appear in the following description of nonlimiting exemplary embodiments, with reference to the appended drawings, in which: FIG. 1 schematically illustrates a bistatic imaging system which is adapted for implement the present invention; FIG. 2 is a block diagram of the steps of a bistatic imaging method which is in accordance with the invention and which can be implemented with the system of FIG. 1; and FIG. 3 corresponds to FIG. 1 for another bistatic imaging system also adapted to implement the invention.

Pour raison de clarté, les dimensions des éléments qui sont représentés dans les figures 1 et 3 ne correspondent ni à des dimensions réelles ni à des rapports de dimensions réels. En outre, des références identiques qui sont indiquées dans des figures différentes désignent des éléments identiques ou qui ont des fonctions identiques. A titre illustratif, l’invention est maintenant décrite en détail pour une application de surveillance d’un secteur de paysage contre une intrusion adverse. Précédemment, un tel secteur de paysage a été appelé champ de surveillance, et est noté CS.For the sake of clarity, the dimensions of the elements shown in FIGS. 1 and 3 do not correspond to real dimensions or to actual dimension ratios. In addition, identical references which are indicated in different figures designate identical elements or which have identical functions. As an illustration, the invention is now described in detail for a surveillance application of a landscape sector against an adverse intrusion. Previously, such a landscape sector has been called a monitoring field, and is noted CS.

Dans la figure 1, les références 1 et 2 désignent respectivement une unité d’éclairement à faisceau laser et une unité de détection. Par exemple, l’unité d’éclairement 1 peut être agencée dans une tourelle ou une tête à orientation variable d’un engin porteur terrestre, maritime ou aéroporté. L’unité de détection 2 peut être comprise dans un équipement individuel portatif de visualisation qui est destiné à un opérateur, tel que des jumelles. L’unité d’éclairement 1 comprend une source laser 10, de préférence à émission continue, dont la longueur d’onde d’émission peut être 1,5 pm, par exemple. La source laser 10 est équipée d’un dispositif à orientation variable 11 au sein de l’unité d’éclairement 1, avec un système de commande d’orientation 12 approprié et noté CTRL. Une direction de sortie du faisceau laser, appelée direction de pointage et notée P, peut ainsi décrire un parcours de balayage à l’intérieur du champ de surveillance CS. Les paramètres d’un tel balayage comprennent au moins une valeur d’azimut de la direction de pointage P, et possiblement aussi une valeur de site. Le système de commande d’orientation 12 est piloté par l’intermédiaire d’instructions de pointage qui lui sont transmises.In FIG. 1, the references 1 and 2 respectively denote a laser beam illumination unit and a detection unit. For example, the illumination unit 1 can be arranged in a turret or a head with a variable orientation of a land, sea or airborne carrier vehicle. The detection unit 2 may be included in a portable personal viewing equipment that is intended for an operator, such as binoculars. The illumination unit 1 comprises a laser source 10, preferably continuous emission, whose emission wavelength may be 1.5 pm, for example. The laser source 10 is equipped with a variable orientation device 11 within the illumination unit 1, with an appropriate orientation control system 12 and noted CTRL. A direction of exit of the laser beam, called direction of pointing and noted P, can thus describe a scan path inside the monitoring field CS. The parameters of such a scan include at least one azimuth value of the pointing direction P, and possibly also a site value. The orientation control system 12 is controlled by means of pointing instructions which are transmitted to it.

La source laser 10 est en outre équipée d’un système 13 de variation de la divergence du faisceau laser qui est émis en direction du champ de surveillance CS. En variant la divergence du faisceau laser, il est possible de modifier l’intensité d’éclairage qui est reçue par un élément ou une zone particulière du champ de surveillance CS. Eventuellement, la puissance d’émission de la source laser 10 peut aussi être variée elle-même. Le système 13 de variation de la divergence du faisceau laser, et éventuellement aussi un système de variation de la puissance d’émission, est (sont) piloté(s) par l’intermédiaire d’instructions de contrôle dynamique qui lui (leur) sont transmises. L’unité de détection 2 comprend un détecteur d’image 20 qui peut être de type matriciel, et qui est sensible pour la longueur d’onde de la source laser 10. Ce détecteur 20 est situé dans le plan focal d’une optique de formation d’image 21, de sorte qu’une portion du champ de surveillance CS vers laquelle est orientée l’optique de formation d’image 21, soit imagée sur le détecteur 20 avec un grandissement déterminé. La direction d’orientation de l’optique 21 est appelée direction d’observation et notée V. Elle peut être variée manuellement par l’opérateur pour décrire le balayage à l’intérieur du champ de surveillance CS, mais un balayage automatique peut aussi être utilisé alternativement dans d’autres systèmes qui sont aussi conformes à l’invention. Pour chaque position de la direction d’observation V, l’unité de détection 2 saisit et enregistre l’image d’une portion du champ de surveillance CS qui est située autour de la direction d’observation V. Cette portion est restreinte transversalement, et fixée par les dimensions du détecteur 20 et la valeur du grandissement de l’optique 21. Chaque capteur de point d’image du détecteur 20 saisit ainsi une intensité lumineuse qui correspond à une portion de surface d’un élément du paysage. Cette intensité lumineuse peut être comparée à la dynamique de fonctionnement du détecteur 20, notamment à sa valeur de saturation. Une instruction de contrôle dynamique peut alors être déduite des intensités qui sont mesurées pour la portion du champ de surveillance qui est imagée, pour modifier son intensité d’éclairage et améliorer son contraste dans une nouvelle image à saisir de la même portion, mais avec l’intensité d’éclairage modifiée.The laser source 10 is further equipped with a system 13 for varying the divergence of the laser beam which is emitted towards the monitoring field CS. By varying the divergence of the laser beam, it is possible to change the illumination intensity that is received by a particular element or zone of the monitoring field CS. Optionally, the transmission power of the laser source 10 can also be varied itself. The system 13 for varying the divergence of the laser beam, and possibly also a system for varying the transmission power, is (are) controlled (s) by means of dynamic control instructions which it (they) are transmitted. The detection unit 2 comprises an image detector 20 which may be of matrix type, and which is sensitive for the wavelength of the laser source 10. This detector 20 is located in the focal plane of a light source. image forming 21, so that a portion of the CS monitoring field to which the imaging optics 21 is oriented is imaged on the detector 20 with a determined magnification. The orientation direction of the optics 21 is called the observation direction and noted V. It can be varied manually by the operator to describe the scanning inside the CS monitoring field, but an automatic scan can also be alternatively used in other systems which are also in accordance with the invention. For each position of the observation direction V, the detection unit 2 captures and records the image of a portion of the monitoring field CS which is situated around the observation direction V. This portion is transversely restricted, and fixed by the dimensions of the detector 20 and the magnification value of the optic 21. Each image point sensor of the detector 20 thus captures a light intensity corresponding to a surface portion of a landscape element. This luminous intensity can be compared to the operating dynamics of the detector 20, in particular to its saturation value. A dynamic control instruction can then be deduced from the intensities that are measured for the portion of the surveillance field that is imaged, to modify its illumination intensity and to improve its contrast in a new image to capture the same portion, but with modified lighting intensity.

Un dispositif 22, qui est incorporé dans l’unité de détection 2, identifie en temps réel la direction d’observation V, par sa valeur d’azimut et site. De tels systèmes automatiques d’identification de la direction d’observation V sont connus de l’Homme du métier, si bien qu’il n’est pas nécessaire de les décrire ici. Par exemple, ils peuvent être basés sur le système GPS et sur une détection du champ magnétique terrestre, et aussi possiblement sur une détection de la direction de la gravité, notamment en utilisant un accéléromètre. L’identification de la direction d’observation V, avec éventuellement une valeur, même approximative, de la distance d’éloignement d’un élément qui est visé à l’intérieur du champ de surveillance CS, est incluse dans une instruction de pointage qui est produite par l’unité de détection 2.A device 22, which is incorporated in the detection unit 2, identifies in real time the observation direction V, by its azimuth value and site. Such automatic systems for identifying the viewing direction V are known to those skilled in the art, so that it is not necessary to describe them here. For example, they may be based on the GPS system and a detection of the Earth's magnetic field, and possibly also on a detection of the direction of gravity, including using an accelerometer. The identification of the observation direction V, possibly with a value, even approximate, of the distance of distance of an element which is referred to within the CS monitoring field, is included in a pointing instruction which is produced by the detection unit 2.

Enfin, l’unité d’éclairement 1 et l’unité de détection 2 sont munies d’un système de communication bidirectionnelle 23, de préférence sans fil, pour transmettre des commandes et des messages qui sont nécessaires pour mettre en œuvre un procédé d’imagerie bistatique conforme à l’invention. Les commandes et messages qui sont ainsi transmis entre les unités 1 et 2 comprennent notamment les instructions de pointage, les instructions de contrôle dynamique, des messages d’accusé de réception aussi appelés acquittements. Un mode de communication point-à-point, aussi appelé «unicast» peut être utilisé. La mise en œuvre de dispositifs d’émission-réception qui sont nécessaires pour une telle communication, un protocole approprié de communication ainsi que des circuits de liaison entre ces dispositifs d’émission-réception et les autres composants des unités 1 et 2 sont à la portée de l’Homme du métier, si bien qu’il n’est pas nécessaire de les décrire. Eventuellement, une telle communication bidirectionnelle entre les unités 1 et 2 peut être complétée par des informations ou des messages qui sont transmis par l’unité d’éclairement 1 à l’unité de détection 2 sous forme de modulations de l’intensité du faisceau laser. Pour cela l’unité de détection 2 peut incorporer un détecteur rapide d’intensité lumineuse, qui est séparé du détecteur d’image 20.Finally, the illumination unit 1 and the detection unit 2 are provided with a bidirectional communication system 23, preferably wirelessly, for transmitting commands and messages that are necessary to implement a method of communication. bistatic imaging according to the invention. The commands and messages that are thus transmitted between the units 1 and 2 include pointing instructions, dynamic control instructions, acknowledgment messages also called acknowledgments. A point-to-point communication mode, also called "unicast" can be used. The implementation of transmission-reception devices which are necessary for such a communication, an appropriate communication protocol as well as connection circuits between these transceiver devices and the other components of the units 1 and 2 are at the range of the skilled person, so that it is not necessary to describe them. Optionally, such bidirectional communication between the units 1 and 2 can be completed by information or messages that are transmitted by the illumination unit 1 to the detection unit 2 in the form of modulations of the intensity of the laser beam. . For this, the detection unit 2 can incorporate a fast light intensity detector, which is separate from the image detector 20.

Un exemple de mise en œuvre du système de la figure 1 est maintenant décrit en référence à la figure 2.An exemplary implementation of the system of Figure 1 is now described with reference to Figure 2.

Une phase initiale, appelée ralliement et référencée 100, peut consister à partager une consigne d’orientation initiale entre les deux unités 1 et 2, et éventuellement une indication de la localisation où se situe une cible à surveiller plus spécifiquement à l’intérieur du champ de surveillance CS. Une telle consigne d’orientation initiale, appelée consigne de ralliement, comprend une valeur d’azimut, par exemple donnée par rapport à la direction du nord, et éventuellement aussi une valeur de site. Un tel partage de consigne de ralliement peut être initié par l’opérateur de l’unité de détection 2, mais aussi au niveau de l’unité d’éclairement 1. L’unité 1 dirige alors sa direction de pointage P conformément à la consigne de ralliement, de même que l’unité de détection 2 pour sa direction d’observation V. A l’issue de la phase de ralliement, la zone du champ de surveillance CS qui est éclairée par la source laser 10 et la zone du champ de surveillance CS qui est imagée sur le détecteur 20 sont voisines, sans nécessairement être superposées à cause d’incertitudes et de décalages qui peuvent exister dans les dispositifs 11 et 22. A partir de cette situation, une seconde phase du procédé, qui est appelée acquisition et référencée 200, a alors pour but de repérer au moyen du détecteur 20 de l’unité 2, la trace de la direction de pointage P dans le champ de surveillance CS. Les deux directions, de pointage P et d’observation V, sont alors calées l’une sur l’autre de sorte qu’elles convergent ensuite précisément et continuellement sur des éléments de scène qui sont contenus dans le champ de surveillance CS. Pour cela, la trace d’éclairage du faisceau laser de l’unité 1 est recherchée par l’unité 2, dans une région du champ de surveillance CS proche de celle indiquée par la consigne de ralliement. Cette recherche peut être exécutée en ajustant la fenêtre spectrale de sensibilité de l’unité de détection 2 à un intervalle qui est très restreint autour de la longueur d’onde de la source laser 10, pour distinguer le rayonnement d’éclairage d’un rayonnement ambiant. Toutefois, la recherche et l’identification par l’unité de détection 2, de la trace d’éclairage du faisceau laser peuvent être facilitées en utilisant l’un au moins des deux perfectionnements suivants, qui peuvent aussi être combinés pour réduire la durée de la phase d’acquisition.An initial phase, called homing and referenced 100, may consist of sharing an initial orientation setpoint between the two units 1 and 2, and possibly an indication of the location where a target to be monitored is located more specifically within the field. CS monitoring. Such an initial orientation instruction, called the rallying instruction, comprises an azimuth value, for example given with respect to the north direction, and possibly also a site value. Such rallying set sharing can be initiated by the operator of the detection unit 2, but also at the level of the illumination unit 1. The unit 1 then directs its pointing direction P in accordance with the instruction as the detection unit 2 for its observation direction V. At the end of the rallying phase, the area of the surveillance field CS which is illuminated by the laser source 10 and the field area CS surveillance which is imaged on the detector 20 are adjacent, without necessarily being superimposed because of uncertainties and offsets that may exist in the devices 11 and 22. From this situation, a second phase of the process, which is called acquisition and referenced 200, then aims to identify by means of the detector 20 of the unit 2, the trace of the pointing direction P in the monitoring field CS. The two directions, pointing P and observation V, are then wedged one on the other so that they then converge precisely and continuously on scene elements that are contained in the monitoring field CS. For this, the illumination trace of the laser beam of the unit 1 is sought by the unit 2, in a region of the monitoring field CS close to that indicated by the rallying instruction. This search can be performed by adjusting the spectral window of sensitivity of the detection unit 2 to an interval which is very restricted around the wavelength of the laser source 10, to distinguish the illumination radiation from a radiation ambient. However, the search and identification by the detection unit 2 of the illumination trace of the laser beam can be facilitated by using at least one of the following two improvements, which can also be combined to reduce the duration of the acquisition phase.

Selon le premier perfectionnement, l’unité d’éclairement 1 peut appliquer une modulation temporelle d’intensité au faisceau laser pendant la phase d’acquisition, de sorte que l’unité de détection 2 puisse identifier le rayonnement qui correspond à la réflexion du faisceau laser d’après cette modulation temporelle d’intensité. Lorsque l’identification est positive, l’unité de détection 2 transmet un message de fin d’acquisition à l’unité d’éclairement 1 par le système de communication 23.According to the first improvement, the illumination unit 1 can apply a temporal intensity modulation to the laser beam during the acquisition phase, so that the detection unit 2 can identify the radiation corresponding to the reflection of the beam laser according to this temporal modulation of intensity. When the identification is positive, the detection unit 2 transmits an end of acquisition message to the illumination unit 1 by the communication system 23.

Selon le second perfectionnement, le faisceau laser peut être d’abord produit par l’unité d’éclairement 1 pendant la phase d’acquisition avec une valeur initiale de divergence (étape 201). Puis la valeur de divergence est réduite après que l’unité de détection 2 a recherché le rayonnement laser réfléchi dans le champ de surveillance CS pour la valeur initiale de la divergence, et a confirmé une identification positive du rayonnement laser réfléchi (étapes 202 et 203). Par simplicité, on appelle ici rayonnement laser réfléchi le rayonnement qui provient du champ de surveillance CS et qui correspond à la réflexion du faisceau laser par des éléments de la zone éclairée. L’unité de détection 2 exécute alors de nouveau une recherche et une identification du rayonnement laser réfléchi dans le champ de surveillance CS pour la valeur réduite de la divergence (étape 204). Eventuellement, une telle réduction de la divergence peut être effectuée progressivement en plusieurs étapes successives, afin que la direction de pointage P de l’unité d’éclairement 1 puisse être déterminée avec précision par l’unité de détection 2, selon un processus convergent.According to the second improvement, the laser beam can first be produced by the illumination unit 1 during the acquisition phase with an initial value of divergence (step 201). Then the divergence value is reduced after the detection unit 2 has searched for the reflected laser radiation in the monitoring field CS for the initial value of the divergence, and has confirmed a positive identification of the reflected laser radiation (steps 202 and 203 ). For the sake of simplicity, the term "reflected laser radiation" is used to refer to the radiation coming from the monitoring field CS and corresponding to the reflection of the laser beam by elements of the illuminated area. The detection unit 2 then again performs a search and identification of the reflected laser radiation in the monitoring field CS for the reduced value of the divergence (step 204). Optionally, such a reduction of the divergence can be carried out progressively in several successive steps, so that the pointing direction P of the illumination unit 1 can be determined accurately by the detection unit 2, according to a convergent process.

La direction d’observation V et la direction de pointage P sont alors «calées» ou «fixées» l’une sur l’autre, et la phase de poursuite 300 est exécutée. Cette phase de poursuite consiste à acquérir des valeurs d’intensité pour le rayonnement laser qui est réfléchi par les éléments du champ de surveillance CS, pour chaque position des directions de pointage P et d’observation V. Pour cela, l’unité de détection 2 guide le déplacement du faisceau laser par les instructions de pointage, et guide aussi l’ajustement du faisceau laser par les instructions de contrôle dynamique. De préférence, des modes de guidage et d’ajustement avec rétroaction peuvent être utilisés. En particulier, une telle rétroaction peut être basée pour le pointage sur une vérification de la position de la direction d’observation V par rapport à la zone du champ de surveillance CS qui est éclairée à un instant donné. En effet, la correspondance de la direction d’observation V avec la zone éclairée peut être altérée notamment par des variations dans la distance d’éloignement des éléments du paysage qui sont éclairés. Une instruction de pointage corrigée peut alors être transmise à l’unité d’éclairement 1 par l’unité de détection 2, pour ramener la zone éclairée sur la direction d’observation V à l’endroit des éléments de la scène qui sont imagés sur le détecteur 20.The observation direction V and the pointing direction P are then "set" or "fixed" on one another, and the tracking phase 300 is executed. This tracking step consists in acquiring intensity values for the laser radiation reflected by the elements of the monitoring field CS, for each position of the pointing directions P and observation V. For this, the detection unit 2 guides the displacement of the laser beam by the pointing instructions, and also guides the adjustment of the laser beam by the dynamic control instructions. Preferably, feedback guiding and adjusting modes may be used. In particular, such feedback may be based for pointing on a verification of the position of the viewing direction V with respect to the area of the monitoring field CS which is illuminated at a given time. Indeed, the correspondence of the observation direction V with the illuminated area can be altered in particular by variations in the distance of distance of landscape elements that are illuminated. A corrected pointing instruction can then be transmitted to the illumination unit 1 by the detection unit 2, to return the illuminated area to the observation direction V at the location of the elements of the scene which are imaged on the detector 20.

Pour le contrôle dynamique, l’unité de détection 2 peut envoyer à l’unité d’éclairement 1, successivement plusieurs instructions de contrôle dynamique qui sont modifiées chaque fois en fonction des intensités qui ont été mesurées pour les instructions précédentes, selon une progression convergente, afin d’obtenir une image de la zone éclairée qui présente un contraste optimisé. Possiblement, les instructions de contrôle dynamique qui sont utilisées pour saisir en image une zone du champ de surveillance CS pour la première fois, peuvent être déduites de celles qui ont été utilisées antérieurement pour une zone adjacente, ou être identiques à celles-ci. L’unité de détection 2 peut transmettre un message d’acquittement à l’unité d’éclairement 1 lorsqu’une image de la zone a été saisie avec un contraste satisfaisant, pour valider les paramètres et indiquer le déplacement suivant vers une autre zone du champ de surveillance CS. De cette façon, des éléments du paysage qui sont rapprochés de l’unité de détection 2, et d’autres éléments qui en sont éloignés, peuvent être reproduits dans une même image sans que les premiers soient surexposés et les seconds trop sombres.For the dynamic control, the detection unit 2 can send to the illumination unit 1 successively several dynamic control instructions which are modified each time according to the intensities which have been measured for the preceding instructions, according to a convergent progression. , in order to obtain an image of the illuminated zone which presents an optimized contrast. Possibly, the dynamic control instructions that are used to image an area of the CS monitoring field for the first time, can be inferred from, or be identical to, those previously used for an adjacent area. The detection unit 2 can transmit an acknowledgment message to the illumination unit 1 when an image of the area has been captured with a satisfactory contrast, to validate the parameters and indicate the following movement to another area of the CS monitoring field. In this way, elements of the landscape that are close to the detection unit 2, and other elements that are remote, can be reproduced in the same image without the first being overexposed and the second too dark.

Les instructions de pointage peuvent être déterminées pendant le phase de poursuite à partir de positions du faisceau laser dans le champ de surveillance CS qui ont déjà été produites, d’après des données déjà obtenues pour l’image du champ de surveillance en cours de construction. Ainsi l’image du champ de surveillance CS est progressivement complétée directement à partir des portions de l’image déjà acquises. Lorsque l’unité 2 fait partie d’un équipement individuel portatif de visualisation, c’est l’opérateur de l’unité 2 qui peut déplacer progressivement la direction d’observation V dans le champ de surveillance CS.The pointing instructions can be determined during the tracking phase from positions of the laser beam in the CS monitoring field that have already been produced, based on data already obtained for the image of the monitoring field being built. . Thus the image of the monitoring field CS is gradually completed directly from the portions of the image already acquired. When the unit 2 is part of a portable personal viewing equipment, it is the operator of the unit 2 which can progressively move the observation direction V in the monitoring field CS.

De façon générale, le champ de surveillance CS peut être balayé de multiples façons différentes, parmi lesquelles les deux suivantes présentent des intérêts particuliers : - lorsqu’une zone du champ de surveillance CS apparaît trop sombre ou trop claire dans l’image qui est saisie, la saisie de la portion d’image qui correspond à cette zone peut être répétée en réajustant les conditions d’éclairage par l’unité 1, au moyen d’instructions de contrôle dynamique qui sont modifiées. Elles sont avantageusement modifiées à partir des instructions qui ont été utilisées pour la première saisie de cette portion d’image, et en fonction des valeurs d’intensité qui ont été alors mesurées par le détecteur 20. De cette façon, une brillance moyenne locale et/ou un contraste local peut être ajusté différemment dans au moins deux portions séparées à l’intérieur de l’image du champ de surveillance CS grâce au contrôle dynamique. Dans le jargon de l’Homme du métier, un tel procédé d’amélioration du contraste local est désigné par HDR, pour «High Dynamic Range» en anglais. - une zone particulière du champ de surveillance CS peut présenter un intérêt supérieur, par exemple parce que des objets se déplacent dans cette zone. Dans ce cas, cette zone peut être balayée à plusieurs reprises par la direction d’observation V pendant la phase de poursuite 300, sans que d’autres zones ou sans que toutes les autres zones du champ de surveillance CS soient balayées de nouveau entre temps. Ainsi, l’image qui est obtenue peut être mise à jour dans la zone qui présente un intérêt supérieur, à une fréquence plus élevée que le reste de l’image. De cette façon, la surveillance peut être plus intense dans des zones sélectionnées, par exemple où un risque d’intrusion adverse qui est plus important a été identifié.In general, the CS monitoring field can be scanned in many different ways, of which the following two are of particular interest: - When an area of the CS monitoring field appears too dark or too light in the image that is entered , capturing the image portion that corresponds to this area can be repeated by readjusting the lighting conditions by the unit 1, by means of dynamic control instructions that are modified. They are advantageously modified from the instructions which were used for the first capture of this image portion, and as a function of the intensity values which were then measured by the detector 20. In this way, a local average brightness and / or a local contrast can be adjusted differently in at least two separate portions within the image of the CS monitoring field by the dynamic control. In the jargon of those skilled in the art, such a local contrast enhancement method is designated by HDR, for "High Dynamic Range" in English. - A particular area of the CS monitoring field may be of greater interest, for example because objects move in this area. In this case, this zone can be scanned several times by the observation direction V during the tracking phase 300, without any other zones or without all the other zones of the monitoring field CS being scanned again in the meantime . Thus, the image that is obtained can be updated in the area of higher interest, at a higher frequency than the rest of the image. In this way, surveillance may be more intense in selected areas, for example where a greater risk of adverse intrusion has been identified.

Enfin, la phase 400 est la construction de l’image complète du champ de surveillance CS, à partir des images de zones qui ont été saisies pendant la phase de poursuite 300. Bien que les phases 300 et 400 apparaissent comme étant successives dans la figure 2, elles sont de préférence exécutées simultanément. Autrement dit, l’image complète du champ de surveillance CS est construite, complétée et mise à jour progressivement au fur et à mesure de l’avancement de la phase de poursuite 300.Finally, the phase 400 is the construction of the complete image of the monitoring field CS, from the images of areas that were captured during the tracking phase 300. Although the phases 300 and 400 appear as being successive in the figure 2, they are preferably executed simultaneously. In other words, the complete image of the monitoring field CS is built, completed and updated progressively as the progress of the tracking phase 300 progresses.

Une alternative de mise en œuvre de l’invention peut être utilisée lorsque les unités 1 et 2 sont pourvues chacune d’une caméra à large champ optique (figure 3). Ainsi, l’unité d’éclairement 1 peut être couplée en orientation avec une première caméra 14, de sorte que la direction de pointage P soit constamment commune à la caméra 14 et à l’unité d’éclairement 1. En outre, le faisceau laser est contenu dans le champ optique Ci de la caméra 14.An alternative embodiment of the invention can be used when the units 1 and 2 are each provided with a wide-field optical camera (Figure 3). Thus, the illumination unit 1 can be coupled in orientation with a first camera 14, so that the pointing direction P is constantly common to the camera 14 and to the illumination unit 1. In addition, the beam laser is contained in the optical field Ci of the camera 14.

Simultanément, l’unité de détection 2 est couplée en orientation avec une seconde caméra 24, de sorte que la direction d’observation V soit constamment commune à la caméra 24 et à l’unité de détection 2. En outre, le champ optique de l’unité de détection 2 est contenu dans celui de la caméra 24, noté C2.Simultaneously, the detection unit 2 is coupled in orientation with a second camera 24, so that the observation direction V is constantly common to the camera 24 and to the detection unit 2. In addition, the optical field of FIG. the detection unit 2 is contained in that of the camera 24, denoted C2.

Alors les phases d’acquisition et de poursuite peuvent être basées sur une superposition des champs optiques respectifs Ci et C2 des caméras 14 et 24.Then the acquisition and tracking phases may be based on a superposition of the respective optical fields Ci and C2 of the cameras 14 and 24.

Pour cela, la phase d’acquisition peut comprendre une mise en coïncidence des champs optiques Ci et C2, pour une partie au moins de chacun de ces deux champs optiques. Une telle mise en coïncidence peut être basée sur une analyse de forme des contenus d’images qui sont saisis simultanément par les deux caméras 14 et 24. Puis les deux caméras 14 et 24 sont maintenues solidaires en orientation de sorte que les contenus d’images qui sont saisis en même temps et respectivement par chacune d’elles, au centre des images, restent communs aux deux caméras.For this, the acquisition phase may comprise a coincidence of the optical fields Ci and C2, for at least part of each of these two optical fields. Such a coincidence can be based on a shape analysis of the image contents that are simultaneously captured by the two cameras 14 and 24. Then the two cameras 14 and 24 are held together in orientation so that the image contents which are captured at the same time and by each of them, at the center of the images, remain common to both cameras.

La phase de poursuite comprend alors un balayage du champ de surveillance CS par l’unité de détection 2 par et l’unité d’éclairement 1, qui est commandé par les variations de la direction d’observation V qui sont appliquées à la caméra 24. Le balayage est synchronisé entre les deux unités 1 et 2 en maintenant constante la position relative des champs optiques respectifs Ci et C2 des caméras 14 et 24.The tracking phase then comprises a scanning of the monitoring field CS by the detection unit 2 by and the illumination unit 1, which is controlled by the variations of the observation direction V which are applied to the camera 24. The scanning is synchronized between the two units 1 and 2 by maintaining constant the relative position of the respective optical fields Ci and C2 of the cameras 14 and 24.

Lorsque la caméra 24 fournit à l’opérateur une visualisation en temps réel de la scène qui est contenue dans son champ optique C2, elle procure à l’opérateur un confort de mise en œuvre du procédé de l’invention, qui augmente l’efficacité de la surveillance du champ CS. En effet, la caméra 24 permet à l’opérateur de se repérer visuellement dans le champ de surveillance CS. Lorsque l’unité de détection 2 est intégrée à des jumelles, la caméra 24 peut être constituée par le système de visualisation des jumelles. La caméra 24 peut fonctionner en lumière visible, proche infrarouge ou infrarouge thermique. Pour que les contenus des images qui sont saisies respectivement par les deux caméras 14 et 24 puissent être comparés de façon fiable, les deux caméras 14 et 24 fonctionnent de préférence dans le même domaine spectral de rayonnement.When the camera 24 provides the operator with a real-time visualization of the scene that is contained in its optical field C2, it provides the operator with a comfort in implementing the method of the invention, which increases the efficiency CS field monitoring. Indeed, the camera 24 allows the operator to identify himself visually in the monitoring field CS. When the detection unit 2 is integrated with binoculars, the camera 24 can be constituted by the binoculars display system. The camera 24 can operate in visible light, near infrared or thermal infrared. In order that the contents of the images which are respectively captured by the two cameras 14 and 24 can be compared reliably, the two cameras 14 and 24 preferably operate in the same radiation spectral range.

De nombreuses adaptations et modifications peuvent être introduites dans les deux modes de mise en œuvre de l’invention qui viennent d’être décrits en détail, parmi lesquelles les suivantes sont citées de façon non limitative : - l’unité d’éclairement 1 peut produire le faisceau laser avec une longueur d’onde quelconque, tant que cette longueur d’onde est dans le domaine spectral de sensibilité de l’unité de détection 2 ; et - des éléments et étapes utilisés dans l’un des deux modes de mise en œuvre qui ont été décrits séparément en référence aux figures 1 et 3, peuvent être combinés pour constituer un nouveau mode de mise en œuvre qui est encore conforme à l’invention. Par exemple, seule l’unité de détection 2 peut être couplée à une caméra à large champ optique, afin que l’opérateur guide le balayage du champ de surveillance CS en visualisant directement la position de la direction d’observation V dans une image qui est fournie par la caméra. La direction de pointage P de l’unité d’éclairement 1 peut alors être asservie à la direction d’observation V comme cela a été décrit en relation avec les figures 1 et 2.Numerous adaptations and modifications can be introduced in the two embodiments of the invention which have just been described in detail, among which the following are cited in a nonlimiting manner: the illumination unit 1 can produce the laser beam with any wavelength, as long as this wavelength is in the spectral range of sensitivity of the detection unit 2; and elements and steps used in one of the two modes of implementation which have been described separately with reference to FIGS. 1 and 3, can be combined to constitute a new mode of implementation which is still in conformity with FIG. invention. For example, only the detection unit 2 can be coupled to a wide-field optical camera, so that the operator guides the scanning of the monitoring field CS by directly viewing the position of the observation direction V in an image that is provided by the camera. The pointing direction P of the illumination unit 1 can then be slaved to the observation direction V as has been described with reference to FIGS. 1 and 2.

Enfin, un autre perfectionnement de l’invention peut consister à associer plusieurs unités de détection à une même unité d’éclairement. Les unités de détection sont de préférence distantes les unes des autres et mesurent simultanément des intensités du rayonnement qui est réfléchi par chaque zone du champ de surveillance lorsque le faisceau laser est dirigé vers cette zone. L’intensité qui est mesurée par chaque unité de détection correspond donc à la partie du rayonnement qui est réfléchie en direction de cette unité de détection. Eventuellement, dans une telle configuration à plusieurs unités de détection, l’une de celles-ci peut être située au même endroit que l’unité d’éclairement. L’une des unités de détection, dite unité maître, produit alors les instructions de pointage et les instructions de contrôle dynamique. Les instructions de pointage sont aussi transmises aux autres unités de détection, en plus d’être transmises à l’unité d’éclairement, de sorte que toutes les unités de détection soient orientées simultanément vers chaque zone du champ de surveillance lorsque le faisceau laser est dirigé vers cette zone. Plusieurs images du champ de surveillance peuvent alors construites, une par unité de détection, reproduisant le contenu du champ de surveillance selon des angles de vue qui sont différents. L’identification de ce contenu par un opérateur de la surveillance peut ainsi être facilitée.Finally, another improvement of the invention may consist in associating several detection units to one and the same illumination unit. The detection units are preferably spaced from one another and simultaneously measure intensities of the radiation reflected by each area of the monitoring field as the laser beam is directed to that area. The intensity that is measured by each detection unit therefore corresponds to the part of the radiation that is reflected towards this detection unit. Optionally, in such a configuration with several detection units, one of these can be located at the same place as the illumination unit. One of the detection units, called the master unit, then produces the pointing instructions and the dynamic control instructions. The pointing instructions are also transmitted to the other detection units, in addition to being transmitted to the illumination unit, so that all the detection units are oriented simultaneously to each zone of the monitoring field when the laser beam is directed to this area. Several images of the surveillance field can then be constructed, one per detection unit, reproducing the content of the surveillance field according to different viewing angles. The identification of this content by a surveillance operator can thus be facilitated.

Pour des conditions d’éclairement qui ont été utilisées pour une des zones à l’intérieur du champ de surveillance, chacune des unités de détection peut produire une évaluation de qualité d’une image de cette zone qui a été saisie par cette unité de détection. De nouvelles conditions d’éclairement sont alors sélectionnées pour la même zone en fonction des évaluations de qualité d’image qui ont été produites par plusieurs au moins des unités de détection. Ces nouvelles conditions d’éclairement sont ensuite transmises à l’unité d’éclairement au moyen des instructions de contrôle dynamique, et chaque unité de détection saisit une nouvelle image de la même zone alors que l’unité d’éclairement dirige de nouveau le faisceau laser vers la zone mais en appliquant les nouvelles conditions d’éclairement. L’évaluation de la qualité d’image qui est produite par chaque unité de détection, pour la zone éclairée, peut prendre en compte la brillance de l’image saisie par cette unité de détection et/ou son contraste. Possiblement, les nouvelles conditions d’éclairement peuvent résulter d’un compromis qui est sélectionné, entre des améliorations séparées des images qui sont saisies respectivement par toutes les unités de détection.For illumination conditions that have been used for one of the areas within the surveillance field, each of the detection units can produce a quality evaluation of an image of that area that has been captured by this detection unit. . New illumination conditions are then selected for the same area based on the image quality estimates that have been produced by at least several of the detection units. These new illumination conditions are then transmitted to the illumination unit by means of the dynamic control instructions, and each detection unit captures a new image of the same area while the illumination unit again directs the beam. laser to the area but applying the new lighting conditions. The evaluation of the image quality that is produced by each detection unit, for the illuminated area, can take into account the brightness of the image captured by this detection unit and / or its contrast. Possibly, the new illumination conditions may result from a compromise that is selected between separate enhancements of the images that are captured by all the detection units respectively.

Claims (17)

REVENDICATIONS 1. Procédé d’imagerie bistatique, suivant lequel une unité d’éclairement (1) et au moins une unité de détection (2) sont distantes l’une de l’autre, suivant lequel l’unité d’éclairement (1) dirige un faisceau laser successivement vers des zones différentes d’un champ de surveillance (CS) à imager, et l’unité de détection (2) mesure au moins une intensité d’un rayonnement qui est réfléchi par chaque zone du champ de surveillance lorsque le faisceau laser est dirigé vers ladite zone, puis l’image du champ de surveillance est construite à partir des intensités du rayonnement réfléchi qui ont été mesurées pour toutes les zones du champ de surveillance, et suivant lequel l’unité de détection (2) transmet des instructions de pointage à l’unité d’éclairement (1) pour désigner une direction de pointage (P) qui correspond à chaque zone à l’intérieur du champ de surveillance (CS) vers laquelle diriger le faisceau laser pendant une durée déterminée, et pour l’une au moins des zones ainsi éclairées, l’unité de détection transmet en outre des instructions de contrôle dynamique à l’unité d’éclairement pour ajuster, pour ladite durée déterminée, au moins une caractéristique du faisceau laser lorsque ledit faisceau laser est dirigé vers ladite zone, les instructions de contrôle dynamique étant déterminées à partir d’une mesure antérieure de l’intensité du rayonnement réfléchi par ladite zone ou par une autre zone du champ de surveillance, et la caractéristique du faisceau laser qui est ajustée au moyen des instructions de contrôle dynamique étant distincte de la direction de pointage.A bistatic imaging method, in which an illumination unit (1) and at least one detection unit (2) are spaced apart from each other, in which the illumination unit (1) directs a laser beam successively to different areas of a monitoring field (CS) to be imaged, and the detection unit (2) measures at least one intensity of a radiation which is reflected by each zone of the monitoring field when the laser beam is directed to said area, then the image of the monitoring field is constructed from the reflected radiation intensities that have been measured for all areas of the monitoring field, and according to which the detection unit (2) transmits pointing instructions to the illumination unit (1) to designate a pointing direction (P) which corresponds to each zone within the monitoring field (CS) to which the laser beam is directed for a period of time e determined, and for at least one of the areas thus illuminated, the detection unit further transmits dynamic control instructions to the illumination unit to adjust, for said determined duration, at least one characteristic of the laser beam when said laser beam is directed to said area, the dynamic control instructions being determined from an earlier measurement of the intensity of the radiation reflected by said area or other area of the monitoring field, and the characteristic of the laser beam which is adjusted by means of dynamic control instructions being distinct from the pointing direction. 2. Procédé selon la revendication 1, suivant lequel une analyse de l’image du champ de surveillance est exécutée, et les instructions de contrôle dynamique sont déterminées à partir de résultats de l’analyse d’image, selon une séquence automatisée consécutive à la construction de ladite image du champ de surveillance.The method according to claim 1, wherein an analysis of the image of the monitoring field is executed, and the dynamic control instructions are determined from the results of the image analysis, according to an automated sequence consecutive to the constructing said image of the monitoring field. 3. Procédé selon la revendication 1 ou 2, suivant lequel ladite au moins une caractéristique du faisceau laser qui est ajustée au moyen des instructions de contrôle dynamique, comprend un angle de divergence du faisceau laser, et optionnellement une valeur de puissance du faisceau laser.The method of claim 1 or 2, wherein said at least one characteristic of the laser beam which is adjusted by means of the dynamic control instructions comprises a divergence angle of the laser beam, and optionally a power value of the laser beam. 4. Procédé selon l’une quelconque des revendications 1 à 3, suivant lequel l’unité d’éclairement (1) et l’unité de détection (2) communiquent l’une avec l’autre par un mode de communication bidirectionnelle sans fil, afin de transmettre entre elles au moins les instructions de pointage, les instructions de contrôle dynamique et des messages d’accusé de réception.4. Method according to any one of claims 1 to 3, wherein the illumination unit (1) and the detection unit (2) communicate with each other by a bidirectional wireless communication mode. , in order to transmit to each other at least the pointing instructions, the dynamic control instructions and the acknowledgment messages. 5. Procédé selon l’une quelconque des revendications précédentes, suivant lequel l’unité d’éclairement (1) est du type laser à émission continue.5. Method according to any one of the preceding claims, wherein the illumination unit (1) is of the continuous emission laser type. 6. Procédé selon l’une quelconque des revendications précédentes, suivant lequel l’unité d’éclairement (1) est adaptée pour produire le faisceau laser dans un intervalle de longueur d’onde compris entre 0,8 pm et 2,0 pm.The method of any one of the preceding claims, wherein the illumination unit (1) is adapted to produce the laser beam in a wavelength range of between 0.8 μm and 2.0 μm. 7. Procédé selon l’une quelconque des revendications précédentes, suivant lequel l’un au moins parmi une brillance moyenne locale et un contraste local est ajusté différemment dans aux moins deux portions séparées de l’image du champ de surveillance (CS), en utilisant des instructions de contrôle dynamique différentes pour des zones à l’intérieur du champ de surveillance qui correspondent respectivement aux dites portions de l’image.A method according to any one of the preceding claims, wherein at least one of a local mean brightness and a local contrast is adjusted differently in at least two separate portions of the image of the monitoring field (CS), in using different dynamic control instructions for areas within the monitoring field that correspond respectively to said portions of the image. 8. Procédé selon l’une quelconque des revendications précédentes, suivant lequel les instructions de pointage sont adaptées pour produire une fréquence de répétition de mesure qui varie entre au moins deux régions séparées du champ de surveillance (CS), et des portions de l’image du champ de surveillance qui correspondent respectivement aux dites régions sont mises à jour chacune selon la fréquence de répétition pour la région correspondante.A method according to any one of the preceding claims, wherein the pointing instructions are adapted to produce a measurement repetition frequency which varies between at least two separate regions of the monitoring field (CS), and portions of the image of the monitoring field corresponding respectively to said regions are updated each according to the repetition rate for the corresponding region. 9. Procédé selon l’une quelconque des revendications précédentes, comprenant les quatre phases suivantes : /1/ une phase de ralliement (100), lors de laquelle des coordonnées d’une direction à l’intérieur du champ de surveillance (CS) sont transmises entre l’unité d’éclairement (1) et l’unité de détection (2), lesdites coordonnées comprenant au moins une valeur d’azimut ; /2/ une phase d’acquisition (200), lors de laquelle l’unité d’éclairement (1) dirige le faisceau laser selon une direction de pointage (P) qui est conforme aux coordonnées transmises à l’étape /1/, et simultanément l’unité de détection (2), à partir d’une direction d’observation (V) qui est établie initialement conformément aux dites coordonnées transmises à l’étape /1/, recherche et identifie un rayonnement qui provient du champ de surveillance (CS) et qui correspond à une réflexion du faisceau laser ; et /3/ une phase de poursuite (300), lors de laquelle l’unité de détection (2) guide un déplacement du faisceau laser par les instructions de pointage, et guide un ajustement dudit faisceau laser par les instructions de contrôle dynamique, et lors de laquelle les intensités du rayonnement réfléchi sont mesurées pour toutes les zones du champ de surveillance (CS), et les intensités mesurées pour le rayonnement réfléchi sont associées à des coordonnées à l’intérieur d’une matrice d’image pour composer l’image du champ de surveillance (CS).A method according to any one of the preceding claims, comprising the following four phases: / 1 / a rallying phase (100), in which coordinates of a direction within the monitoring field (CS) are transmitted between the illumination unit (1) and the detection unit (2), said coordinates comprising at least one azimuth value; / 2 / an acquisition phase (200), during which the illumination unit (1) directs the laser beam in a pointing direction (P) which is in accordance with the coordinates transmitted in step / 1 /, and simultaneously the detection unit (2), from an observation direction (V) which is initially established according to said coordinates transmitted in step / 1 /, searches for and identifies a radiation which comes from the field of view. monitoring (CS) and corresponding to a reflection of the laser beam; and / 3 / a tracking phase (300), in which the detection unit (2) guides a movement of the laser beam by the pointing instructions, and guides an adjustment of said laser beam by the dynamic control instructions, and wherein the reflected radiation intensities are measured for all areas of the monitoring field (CS), and the intensities measured for the reflected radiation are associated with coordinates within an image array to compose the image of the surveillance field (CS). 10. Procédé selon la revendication 9 suivant lequel, pendant la phase d’acquisition (200), l’unité d’éclairement (1) applique une modulation temporelle d’intensité au faisceau laser, et l’unité de détection (2) identifie le rayonnement qui correspond à la réflexion du faisceau laser d’après la modulation temporelle d’intensité, et lorsque l’identification est positive, l’unité de détection transmet un message de fin d’acquisition à l’unité d’éclairement.The method of claim 9 wherein, during the acquisition phase (200), the illumination unit (1) applies temporal intensity modulation to the laser beam, and the detection unit (2) identifies the radiation which corresponds to the reflection of the laser beam according to the temporal modulation of intensity, and when the identification is positive, the detection unit transmits an end of acquisition message to the illumination unit. 11. Procédé selon la revendication 9 ou 10 suivant lequel, pendant la phase d’acquisition (200), le faisceau laser est d’abord produit par l’unité d’éclairement (1) avec une valeur initiale de divergence, puis la valeur de divergence est réduite après que l’unité de détection (2) a recherché le rayonnement laser réfléchi dans le champ de surveillance (CS) pour la valeur initiale de la divergence et a confirmé une identification positive du rayonnement laser réfléchi, et l’unité de détection exécute de nouveau une recherche et une identification du rayonnement laser réfléchi dans le champ de surveillance pour la valeur réduite de la divergence.The method of claim 9 or 10 wherein, during the acquisition phase (200), the laser beam is first produced by the illumination unit (1) with an initial value of divergence, and then the value divergence is reduced after the detection unit (2) has searched for reflected laser radiation in the monitoring field (CS) for the initial value of the divergence and has confirmed a positive identification of the reflected laser radiation, and the unit Detection performs a search and identification of reflected laser radiation in the monitoring field for the reduced value of the divergence. 12. Procédé selon l’une quelconque des revendications 9 à 11 suivant lequel, pendant la phase de poursuite (300), l’unité de détection (2) guide le déplacement du faisceau laser par les instructions de pointage, et guide l’ajustement dudit faisceau laser par les instructions de contrôle dynamique, en utilisant des modes de guidage et d’ajustement avec rétroaction.A method according to any one of claims 9 to 11, wherein during the tracking phase (300), the detection unit (2) guides the movement of the laser beam by the pointing instructions, and guides the adjustment. said laser beam by the dynamic control instructions, using feedback guidance and adjustment modes. 13. Procédé selon l’une quelconque des revendications 9 à 12 suivant lequel, pendant la phase de poursuite (300), les instructions de pointage sont déterminées à partir de positions du faisceau laser dans le champ de surveillance (CS) qui ont déjà été produites, d’après des données déjà obtenues pour l’image du champ de surveillance en cours de construction.A method according to any one of claims 9 to 12 wherein during the tracking phase (300) the pointing instructions are determined from positions of the laser beam in the monitoring field (CS) which have already been produced, based on data already obtained for the image of the monitoring field under construction. 14. Procédé selon l’une quelconque des revendications 1 à 8, suivant lequel l’unité d’éclairement (1) est couplée en orientation avec une première caméra (14) de sorte que la direction de pointage (P) soit constamment commune à ladite première caméra et à l’unité d’éclairement, le faisceau laser étant contenu dans un champ optique (Ci) de la première caméra, et l’unité de détection (2) est couplée en orientation avec une seconde caméra (24) de sorte qu’une direction d’observation (V) soit constamment commune à ladite seconde caméra et à l’unité de détection, un champ optique de l’unité de détection étant contenu dans un champ optique (C2) de la seconde caméra, suivant lequel une phase d’acquisition comprend une mise en coïncidence des champs optiques (Ci, C2) respectifs des première (14) et seconde (24) caméras, pour une partie au moins de chacun desdits champs optiques des caméras, et une phase de poursuite comprend un balayage du champ de surveillance (CS) par l’unité détection (2) et par l’unité d’éclairement (1), ledit balayage étant commandé par des variations de la direction d’observation (V) appliquées à la seconde caméra (24), et étant synchronisé entre l’unité détection et l’unité d’éclairement en maintenant constante une position relative des champs optiques (Ci, C2) respectifs des première (14) et seconde (24) caméras.The method according to any one of claims 1 to 8, wherein the illumination unit (1) is coupled in orientation with a first camera (14) so that the pointing direction (P) is constantly common to said first camera and the illumination unit, the laser beam being contained in an optical field (Ci) of the first camera, and the detection unit (2) is coupled in orientation with a second camera (24). so that an observation direction (V) is constantly common to said second camera and to the detection unit, an optical field of the detection unit being contained in an optical field (C2) of the second camera, following which an acquisition phase comprises a coincidence of the respective optical fields (Ci, C2) of the first (14) and second (24) cameras, for at least part of each of said optical fields of the cameras, and a tracking phase includes a swipe a monitoring field (CS) by the detection unit (2) and by the illumination unit (1), said scanning being controlled by variations of the observation direction (V) applied to the second camera (24); ), and being synchronized between the detection unit and the illumination unit by maintaining constant a relative position of the respective optical fields (Ci, C2) of the first (14) and second (24) cameras. 15. Procédé selon l’une quelconque des revendications précédentes, suivant lequel plusieurs unités de détection distantes les unes des autres mesurent simultanément des intensités du rayonnement réfléchi par chaque zone du champ de surveillance (CS) lorsque le faisceau laser est dirigé vers ladite zone, les instructions de pointage étant transmises par l’une des unités de détection à l’unité d’éclairement et aussi à chaque autre unité de détection, et suivant lequel, pour des conditions d’éclairement utilisées pour une des zones à l’intérieur du champ de surveillance (CS), chacune des unités de détection produit une évaluation de qualité d’une image de ladite zone saisie par ladite unité de détection, et de nouvelles conditions d’éclairement sont sélectionnées pour ladite zone en fonction des évaluations de qualité d’image produites par plusieurs au moins des unités de détection, puis transmises à l’unité d’éclairement au moyen des instructions de contrôle dynamique, et chaque unité de détection saisit une nouvelle image de ladite zone alors que l’unité d’éclairement dirige de nouveau le faisceau laser vers la même zone mais en appliquant les nouvelles conditions d’éclairement.The method according to any one of the preceding claims, wherein a plurality of detecting units spaced apart from each other simultaneously measure intensities of radiation reflected by each area of the monitoring field (CS) as the laser beam is directed to said area. the pointing instructions being transmitted by one of the detection units to the illumination unit and also to each other detection unit, and according to which, for illumination conditions used for one of the zones within the illumination unit, monitoring field (CS), each of the detection units produces a quality evaluation of an image of said area captured by said detection unit, and new illumination conditions are selected for said area based on the quality evaluations of said area. image produced by at least one of the detection units, then transmitted to the illumination unit at least once yen dynamic control instructions, and each detection unit captures a new image of said area while the illumination unit again directs the laser beam to the same area but applying the new illumination conditions. 16. Système d’imagerie bistatique, comprenant une unité d’éclairement (1) et au moins une unité de détection (2) séparées l’une de l’autre et adaptées pour communiquer entre ladite unité d’éclairement et ladite unité de détection, le système étant adapté pour mettre en œuvre un procédé d’imagerie bistatique conforme à l’une quelconque des revendications précédentes.16. A bistatic imaging system, comprising an illumination unit (1) and at least one detection unit (2) separated from each other and adapted to communicate between said illumination unit and said detection unit. , the system being adapted to implement a bistatic imaging method according to any one of the preceding claims. 17. Système selon la revendication 16, dans lequel l’unité d’éclairement (1) est agencée dans une tourelle ou une tête à orientation variable d’un engin porteur terrestre, maritime ou aéroporté, et l’unité de détection (2) est comprise dans un équipement individuel portatif de visualisation destiné à un opérateur.17. System according to claim 16, wherein the illumination unit (1) is arranged in a turret or a head of variable orientation of a land-based, maritime or air -borne vehicle, and the detection unit (2). is included in a portable personal display equipment for an operator.
FR1501858A 2015-09-08 2015-09-08 METHOD AND SYSTEM FOR BISTATIC IMAGING Active FR3040848B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1501858A FR3040848B1 (en) 2015-09-08 2015-09-08 METHOD AND SYSTEM FOR BISTATIC IMAGING

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1501858A FR3040848B1 (en) 2015-09-08 2015-09-08 METHOD AND SYSTEM FOR BISTATIC IMAGING
FR1501858 2015-09-08

Publications (2)

Publication Number Publication Date
FR3040848A1 true FR3040848A1 (en) 2017-03-10
FR3040848B1 FR3040848B1 (en) 2018-02-23

Family

ID=54608584

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1501858A Active FR3040848B1 (en) 2015-09-08 2015-09-08 METHOD AND SYSTEM FOR BISTATIC IMAGING

Country Status (1)

Country Link
FR (1) FR3040848B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4091412A (en) * 1967-12-01 1978-05-23 The United States Of America As Represented By The Secretary Of The Army Target designation system
FR2944363A1 (en) * 2009-04-14 2010-10-15 Onera (Off Nat Aerospatiale) METHOD AND SYSTEM FOR WIDE FIELD IMAGING
EP2284814A1 (en) * 2005-01-03 2011-02-16 Vumii, Inc. Systems and methods for night time surveillance
EP2333564A1 (en) * 2009-12-11 2011-06-15 Thales Power-assisted bistatic pressure sensor
US20140160458A1 (en) * 2012-12-06 2014-06-12 Raytheon Company Bistatic synthetic aperture ladar system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4091412A (en) * 1967-12-01 1978-05-23 The United States Of America As Represented By The Secretary Of The Army Target designation system
EP2284814A1 (en) * 2005-01-03 2011-02-16 Vumii, Inc. Systems and methods for night time surveillance
FR2944363A1 (en) * 2009-04-14 2010-10-15 Onera (Off Nat Aerospatiale) METHOD AND SYSTEM FOR WIDE FIELD IMAGING
EP2333564A1 (en) * 2009-12-11 2011-06-15 Thales Power-assisted bistatic pressure sensor
US20140160458A1 (en) * 2012-12-06 2014-06-12 Raytheon Company Bistatic synthetic aperture ladar system

Also Published As

Publication number Publication date
FR3040848B1 (en) 2018-02-23

Similar Documents

Publication Publication Date Title
EP3103062B1 (en) Method for detecting and classifying events of a scene
BE1023788B1 (en) System and method for determining the distance to an object
EP3195042B1 (en) Linear mode computational sensing ladar
KR101296780B1 (en) Obstacle Detecting system using of laser, and method thereof
FR2641871A1 (en) SYSTEM FOR DETERMINING THE POSITION OF AT LEAST ONE TARGET TARGET
US8731240B1 (en) System and method for optics detection
KR102135177B1 (en) Method and apparatus for implemeting active imaging system
US8547531B2 (en) Imaging device
WO2020124318A1 (en) Method for adjusting movement speed of scanning element, ranging device and movable platform
EP3415949B1 (en) On-board observation system comprising a lidar for obtaining high-resolution three-dimensional images
EP2711732B1 (en) Deviation indicator with infrared imaging and system for sighting and automatic tracking of a target
FR2962827A1 (en) METHOD AND DEVICE FOR BI-SPECTRAL MULTIFUNCTION IMAGING
WO2014096686A1 (en) Method for acquiring the coordinates of a projectile firing point and fire-control system using such a method
EP2689403A1 (en) Monitoring system
FR3040848A1 (en) METHOD AND SYSTEM FOR BISTATIC IMAGING
EP2420052B1 (en) Method and system for active imaging with a large field
FR2969305A1 (en) METHOD AND SYSTEM FOR DETECTING AN ELECTROMAGNETIC PULSE TRAIN, DEVICE FOR ELECTROMAGNETICALLY GUIDING A MUNITION TO A TARGET COMPRISING SUCH A DETECTION SYSTEM
EP2364455B1 (en) Rangefinder
FR3073280A1 (en) METHOD FOR OBSERVING THE GROUND SURFACE AND DEVICE FOR IMPLEMENTING IT
EP1584079B1 (en) Device for detecting an incident or the like on a traffic lane portion
FR2736731A1 (en) Detecting optical telemetry signals arriving from monitoring enemy on target surface
von der Fecht et al. Comparison of imaging laser radars based on range gating under different weather conditions
FR2942062A1 (en) System for detecting or video monitoring presence and displacement of e.g. human, has scanning module oriented with respect to imager such that ray source and monitoring device are pointed in direction corresponding to part of image
WO2023037062A1 (en) Device for detecting and tracking objects in a zone of interest
EP2735886B1 (en) 3D imaging method

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170310

PLFP Fee payment

Year of fee payment: 3

CD Change of name or company name

Owner name: SAFRAN ELECTRONICS & DEFENSE, FR

Effective date: 20170912

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9