WO2021009221A1 - Dispositif de classification d'une source lumineuse - Google Patents

Dispositif de classification d'une source lumineuse Download PDF

Info

Publication number
WO2021009221A1
WO2021009221A1 PCT/EP2020/069993 EP2020069993W WO2021009221A1 WO 2021009221 A1 WO2021009221 A1 WO 2021009221A1 EP 2020069993 W EP2020069993 W EP 2020069993W WO 2021009221 A1 WO2021009221 A1 WO 2021009221A1
Authority
WO
WIPO (PCT)
Prior art keywords
spectral band
pixel
filter
pixels
sensor
Prior art date
Application number
PCT/EP2020/069993
Other languages
English (en)
Inventor
Paul Thibout
Thierry Midavaine
Guillaume BLOOM
Yves Courcol
Olivier Verdy
Original Assignee
Thales
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales filed Critical Thales
Priority to EP20737494.3A priority Critical patent/EP3999869A1/fr
Priority to CA3143971A priority patent/CA3143971A1/fr
Priority to US17/627,573 priority patent/US11940322B2/en
Publication of WO2021009221A1 publication Critical patent/WO2021009221A1/fr
Priority to SA522431371A priority patent/SA522431371B1/ar
Priority to ZA2022/00728A priority patent/ZA202200728B/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • G01S3/784Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4257Photometry, e.g. photographic exposure meter using electric radiation detectors applied to monitoring the characteristics of a beam, e.g. laser beam, headlamp beam
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0433Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using notch filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/021Auxiliary means for detecting or identifying radar signals or the like, e.g. radar jamming signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers

Definitions

  • TITLE Device for classifying a light source
  • the present invention relates to a device for classifying a light source.
  • the invention also relates to an optronic system comprising such a classification device.
  • Optronic systems are conventionally equipped with light flux detection functions, in particular laser flux.
  • active optronic systems using laser emission are of three types: mono-static, bi-static and so-called “point-to-point” systems.
  • Mono-static systems are optronic systems comprising a transmitter and a receiver integrated in the same system or on the same platform.
  • Mono static systems are, for example, laser range finders.
  • Bi-static systems are optronic systems comprising two sub-assemblies: on the one hand, a transmitter and, on the other hand, a receiver integrated respectively into separate systems or platforms.
  • Bi-static systems are, for example, laser task detectors, laser pointers detectors or even laser pointers or designators operating in bi-static mode.
  • So-called “point-to-point” systems are optronic systems for which a laser directly illuminates the receiver.
  • the laser can illuminate the receiver at the periphery of its emission lobe with limited illumination.
  • So-called "point-to-point” systems are, for example, laser warning detectors (abbreviated as DAL) or missile guidance systems (in English “beamriders”).
  • one of the problems for laser alert detectors is to reduce the false alarm rate while allowing precise angular localization of the emission source.
  • One of the causes of false alarms is solar reflections (for example, the reflections of the sun on leaves or urban structures). Indeed, from the point of view of the laser warning detector, certain solar reflections can have a temporal behavior close to the signal supplied by the laser emitters. Laser emissions are therefore difficult to identify by algorithms with respect to solar reflections.
  • Such laser detectors do not provide a precise angular location of the emission source, unlike a laser alert detector using a matrix sensor, but which generates a higher rate of false alarms.
  • a laser alert detector with a matrix sensor does not make it possible to give precisely the temporal form of the signal received by its more limited bandwidth, which means that rapid solar reflections are likely to be classified as being a laser signal.
  • the invention relates to a device for classifying a light source comprising:
  • a sensor suitable for receiving a luminous flux emitted by at least one light source, the luminous flux being received on the sensor in the form of a task comprising a plurality of pixels grouped into sets, each set comprising at least one first pixel and a second pixel, adjacent to the first pixel, each first pixel being able to generate a first signal relating to a first portion of light flux in a first spectral band received by said first pixel, each second pixel being able to generate a second signal relating to a second portion of luminous flux in a second spectral band received by said second pixel, the second spectral band being different from the first spectral band,
  • the classification device comprises one or more of the following characteristics, taken in isolation or in any technically possible combination:
  • the computer is configured to determine the direction of the emission light source relative to the device depending on the shape and position of the task on the sensor;
  • each set comprises at least a third pixel among the plurality of pixels of the sensor, each third pixel being able to generate a third signal relating to a third portion of luminous flux in a third spectral band received by said third pixel, the third spectral band being different from the first spectral band and the second spectral band, the computer being configured to compare the first, the second and the third signal to classify the emission light source;
  • the first spectral band is a spectral band of interest and the second spectral band is a reference spectral band, each spectral band of interest being centered on a wavelength of interest, each reference spectral band being chosen in the group made up of:
  • the first pixel comprising a filter suitable for transmitting only the first spectral band
  • the second pixel comprising a filter suitable for transmitting only the second spectral band
  • the third spectral band is a spectral band of interest centered on a wavelength of interest different from the first spectral band, or a reference spectral band different from the second spectral band, the third pixel comprising a filter specific to transmit only the third spectral band;
  • the first pixel comprises a red filter of a Bayer matrix or a green filter of a Bayer matrix, the second pixel comprising a blue filter of a Bayer matrix;
  • the device comprises, upstream of the sensor, a pupillary filter, the first spectral band being the product of the spectrum of the pupil filter and of the spectrum of the filter of the first pixel, the second spectral band being the product of the spectrum of the pupil filter and of the spectrum the filter of the second pixel, the pupil filter preferably being a notch filter in a range of wavelengths between 380 nanometers and 850 nanometers;
  • the first spectral band and the second spectral band are disjoint and have wavelengths between 800 nanometers and 900 nanometers.
  • the invention also relates to an optronic system comprising a classification device as described above.
  • Figure 1 is a schematic representation of a light source and an optronic system comprising a classification device
  • Figure 2 is a graph illustrating the spectral profiles of three filters
  • Figure 3 is a schematic representation of a sensor receiving a light flux in the form of a task
  • Figure 4 is a schematic representation of the response of different pixels receiving a solar flux
  • Figure 5 is a schematic representation of the response of different pixels receiving a light flux in a first spectral band
  • Figure 6 is a schematic representation of the response of different pixels receiving a luminous flux in a first spectral band, as well as a solar flux,
  • Figure 7 is a graph illustrating the spectral profiles of the filters of a Bayer matrix
  • Figure 8 is a graph illustrating the spectral profile of a pupil filter
  • Figure 9 is a schematic representation of a set of pixels
  • Figure 10 is a schematic representation of another set of pixels.
  • the light source 1 1 is able to emit a light flux in different directions and in particular in the direction of the optronic system 12.
  • the light flux emitted by the light source 1 1 has a spectral band of emission Bl.
  • the light source 11 is, for example, a monochromatic emitter such as a laser or a light-emitting diode (abbreviated as LED, from the English: Light-Emitting Diode, or LED in French).
  • the light source 11 is an electric discharge bulb in a low pressure gas.
  • the light source 11 is a broadband spectrum source, such as a flash lamp, the sun, the sky or the scene lit by the sky and the sun.
  • the light source 11 comprises artificial lighting using incandescent lamps, fluorescence, electric discharge bulbs in high pressure gases or even LEDs associated with fluorescent compounds.
  • the optronic system 12 is, for example, an active optronic system, such as a mono-static system, a bi-static system or a so-called "point-to-point" system.
  • Mono-static systems are optronic systems comprising a transmitter and a receiver integrated in the same system or on the same platform.
  • Mono-static systems are, for example, laser range finders.
  • Bi-static systems are optronic systems comprising two sub-assemblies: on the one hand, a transmitter and, on the other hand, a receiver integrated respectively into separate systems or platforms.
  • the subsets of bi-static systems are, for example, laser spot detectors, laser pointer detectors or else laser pointers or laser designators operating in bi-static mode.
  • point-to-point systems are optronic systems that can be broken down into two sub-assemblies: a transmitter and a receiver in intervisibility or even on a line of sight or close to a line of sight, for which for example a laser directly illuminates the receiver. However, the laser can illuminate the receiver on the periphery of its emission lobe by delivering limited illumination.
  • the sub-assemblies entering into the so-called “point-to-point” systems are, for example, laser warning detectors (abbreviated as DAL) or missile guidance systems (in English "beamriders”) or optical telecommunication devices in free space.
  • DAL laser warning detectors
  • missile guidance systems in English "beamriders”
  • optical telecommunication devices in free space.
  • the optronic system 12 and the light source 11 operate in an outdoor environment on the same scene.
  • a scene designates a theater of operations, that is, the place where an action takes place.
  • the stage is therefore an extended space with sufficient dimensions to allow an action to unfold.
  • the optronic system 12 is, for example, intended to be integrated into a platform, such as an aircraft, a land vehicle or a ship.
  • the classification device 14 is configured to classify a light source emitting a light flux in the direction of the optronic system 12, such as the light source 11.
  • a light source By classifying a light source, it is understood to identify the nature of the light source 1 1, which at least consists of identifying whether the light source 1 1 is a laser or not (discrimination of a laser threat from the rest of the scene) and, if this is the case, to give if possible the main characteristics of this laser such as its pulse duration and its repetition rate in order to try to classify it in a category of threat (for example: rangefinder, pointer, designator or missile guidance system).
  • the classification device 14 comprises a sensor 20, a control unit 22 and a computer 24.
  • the sensor 20 is a matrix sensor, that is to say a sensor formed of a matrix of pixels.
  • the sensor 20 is suitable for receiving a light flux emitted by the light source 1 1.
  • the light flux is received on the sensor in the form of a T task.
  • the sensor 20 comprises a plurality of pixels. Each pixel of the sensor 20 which receives a luminous flux is configured to detect either the luminous flux directly, or a variation in luminous flux, or a pulse or an energy.
  • the sensor pixels are grouped into sets. Each set preferably comprises the same number of pixels.
  • Each set includes at least a first pixel P1 and a second pixel P2.
  • the second pixel P2 is adjacent to the first pixel P1.
  • Each first pixel P1 is able to generate a first signal S1 relating to a first portion of light flux received by the first pixel P1 in a first spectral band B1.
  • Each second pixel P2 is able to generate a second signal S2 relating to a second portion of light flux received by said second pixel P2 in a second spectral band B2.
  • the second spectral band B2 is different from the first spectral band B1.
  • the signal generated by each pixel is a signal representative of the number of photons per second (also called flux) or even preferably a variation in the number of photons per second or variation of the flux arriving at the pixel.
  • Each signal has at least one characteristic.
  • the characteristic is, for example, the amplitude of the signal.
  • each set comprises at least a third pixel P3 among the plurality of pixels of the sensor 20.
  • the third pixel P3 is adjacent to at least one of the first or of the second pixel P2 of the set.
  • Each third pixel P3 is able to generate a third signal S3 relating to a third portion of light flux received by said third pixel P3 in a third spectral band B3.
  • the third spectral band B3 is different from the first spectral band B1 and from the second spectral band B2.
  • each set comprises a plurality of pixels, such as several first pixels P1 and / or several second pixels P2 and / or several third pixels P3 and / or different pixels from the first, second and third pixels P1, P2, P3.
  • each pixel includes a filter which determines the spectral band corresponding to the pixel.
  • the pixel layout of each set is predefined.
  • the arrangement of the pixels of each set is identical from one set to another.
  • the position of the different types of pixels on the sensor 20 is chosen so as to form a periodic pattern.
  • the different types of pixels are arranged relative to each other in an interlaced tiling.
  • the arrangement of the different pixels is pseudo-random.
  • the positions of the first pixels on the sensor 20 are chosen so as to form a predefined pattern (for example, a staggered pattern) and the position of the other pixels, in particular of the second pixels, are the positions not occupied by the first pixels (in the example, the voids of the staggered pattern).
  • a predefined pattern for example, a staggered pattern
  • the position of the other pixels, in particular of the second pixels are the positions not occupied by the first pixels (in the example, the voids of the staggered pattern).
  • the task 20 size and shape control unit 22 is configured to control the size and shape of the task 20 forming on the sensor 20 from the light flux emitted by the light source 11 so that the task 20 extends over at least one set of pixels of the sensor 20.
  • the control unit 22 is, for example, an optical device configured to distribute over several pixels (for example defocus) the light flux received by the sensor 20.
  • the unit control 22 comprises, for example, an optical lens, a mechanical element for adjusting the defocusing or else an optical diffuser upstream of the sensor 20.
  • the computer 24 is, for example, a processor.
  • the computer 24 comprises, for example, a data processing unit, memories, an information medium reader and a man / machine interface, such as a keyboard or a display.
  • the computer 24 is carried by the optronic system 12.
  • the computer 24 is deported from the optronic system 12 and is installed in an entity which is, for example, on the ground. This makes it possible to deport the processing carried out by the computer 24 outside the optronic system 12.
  • the computer 24 interacts with a computer program product which includes an information carrier.
  • the information medium is a medium that can be read by the computer 24, usually by the data processing unit of the computer 24.
  • the readable information medium is a medium suitable for storing electronic instructions and capable of being coupled to a device. bus of a computer system.
  • the readable information medium is a floppy disk or flexible disk (the English name floppy disk), an optical disk, a CD-ROM, a magneto-optical disk, a ROM memory, a RAM memory, an EPROM memory, an EEPROM memory, a magnetic card or an optical card.
  • the information carrier stores the computer program product including program instructions.
  • the computer program is loadable on the data processing unit and is adapted to cause the implementation of a classification method when the computer program is implemented on the processing unit of the computer 24.
  • the interactions between the light source 11 and the optronic system 12 are described, as well as the general operation of the classification device 14.
  • the specific operation of the classification device 14 will be described in more detail below. the description in the first, second and third embodiments.
  • the sensor 20 receives a light flux in the form of a spot T spread over at least one set of pixels of the sensor 20 as shown in FIG. 3.
  • the spot T extends over a set of four pixels: a first pixel P1, two second pixels P2 and a third pixel P3.
  • each pixel in the array receiving the light flux generates a signal.
  • the computer 24 compares the signals generated by the pixels of the assembly, and in particular the characteristics of such signals, such as the amplitude. More specifically, the computer 24 compares the characteristics of the first and second signal S1 and S2 and classifies the emission light source 11 as a function of the result of the comparison.
  • each set includes a third pixel P3
  • the computer 24 is also able to compare the characteristics of the first, second and third signals S1, S2, S3 to classify the light source 11.
  • the computer 24 compares the characteristics of the signals S1, S2, S3 generated by the adjacent pixels P1, P2 and P3 of each set to classify the light source 1 1 of emission.
  • the results obtained from the comparison are compared to a database of results obtained for known light sources, which allows the classification of each light source detected.
  • the comparisons are, for example, carried out detection by detection, that is to say each time a flow is detected on the sensor 20.
  • the detection is carried out when on the continuous components of the flow received by each.
  • pixel P1, P2, P3 of a set at least one of the pixels measures a positive variation of its absolute flux or of its relative flux greater than a threshold in a short period of time.
  • short period of time it is understood a period of time less than ten milliseconds.
  • the comparisons are made after several detections, for example after a duration greater than the duration of a laser shot (of the order of 1 second at most). This facilitates the classification of the light source 1 1.
  • the computer 24 also determines the direction of the light source 1 1 of emission relative to the device 14 (angular location) according to the shape and the position of the task T formed on the sensor 20.
  • the computer 24 estimates, for example, the position of the center of the task T formed by the light flux on the sensor 20.
  • the point event signatures will have the shape of a disc (or of a small surface area. square if a square pupil is used) because laser sources are considered to be far away.
  • the computer 24 correlates the shape of the task T to predetermined task shapes associated with a direction.
  • the direction of the emitting light source 11 is the direction of the predetermined task shape for which the best correlation is obtained.
  • a first embodiment of the classification device 14 described in the general description will now be described with reference to FIGS. 2 to 6.
  • the classification device 14 is particularly suitable for detecting predetermined laser emissions having, as laser emissions, narrow spectral bands centered on wavelengths of interest.
  • a narrow spectral band is defined as being a spectral band less than 100 nanometers (nm) wide.
  • the wavelength of interest is typically the central wavelength of the emission spectral band of the predetermined laser that one seeks to detect.
  • the wavelength of interest belongs to the infrared band 1, also called infrared SWIR (from the English Short Wave Infra-Red, translated into French by Infrarouge court), that is to say to the range of wavelengths between 0.9 micrometers (pm) and 1.7 pm. More specifically, the wavelength of interest for a first laser family is between 1.06 pm and 1.07 pm and is advantageously equal to 1.064 pm. In another example, for a second family of lasers, the wavelength of interest is between 1.50 pm and 1.70 pm, preferably between 1. pm and 1.65 pm.
  • SWIR from the English Short Wave Infra-Red, translated into French by Infrarouge court
  • the first spectral band B1 is a laser spectral band of interest and the second spectral band B2 is a reference spectral band.
  • Each laser spectral band of interest is centered on a wavelength of interest.
  • each spectral band of interest is a narrow spectral band.
  • Each reference spectral band (like B2) makes it possible to define an illumination reference for each set of pixels P1, P2, P3 by considering a respective illumination threshold beyond which a detection will be made.
  • Each reference spectral band (like B2) is chosen from the group consisting of:
  • the reference spectral band is a wide spectral band.
  • a wide spectral band is defined as being a spectral band with a width greater than or equal to 100 nm or even greater than or equal to twice the or a spectral band of interest corresponding to a pixel of the same set.
  • the reference spectral band is of type (i) or (ii)
  • the reference spectral band is a wide spectral band or a narrow spectral band.
  • the first pixel P1 comprises a filter suitable for transmitting only the first spectral band B1.
  • the second pixel P2 comprises a filter suitable for transmitting only the second spectral band B2.
  • the filter of the second pixel P2 is, for example, a high pass filter.
  • the third spectral band B3 is a spectral band of interest centered on a wavelength of interest different from the first spectral band B1 (spectral band of interest) or is a spectral band reference different from the second spectral band B2 (spectral reference band).
  • the third pixel P3 includes a filter capable of transmitting only the third spectral band of interest B3.
  • the filter of the third pixel P3 is a narrow band filter.
  • the spectral bands of the filters of said pixels P1, P2, P3 are spectral bands of interest or reference spectral bands.
  • FIG. 3 An example of the arrangement of the first, second and third pixels P1, P2, P3 is illustrated by FIG. 3.
  • the second pixels P2 reference pixels
  • the first pixels P1 pixel of interest
  • third pixels P3 pixels of interest or reference
  • the first spectral band B1 is a spectral band centered on the wavelength 1.064 ⁇ m.
  • the second spectral band B2 is a broadband spectral band comprising all wavelengths from 1.020 ⁇ m to 1.7 ⁇ m (type (iii) spectral reference band).
  • the third spectral band B3 is a spectral band of interest centered on the wavelength 1.55 ⁇ m.
  • each set comprises four pixels, including at least a first pixel P1, at least a second pixel P2 and at least a third pixel P3.
  • the sensor 20 receives a luminous flux in the form of a spot T spread over at least one set of pixels of the sensor 20.
  • each pixel of each assembly receiving the luminous flux detects either the luminous flux directly, or a variation in luminous flux, or a pulse, or an energy, and then generates a signal.
  • the computer 24 compares the signals generated by each pixel of each set, in particular the characteristics of such signals, to classify the light source 11. To do this, the computer 24 calculates ratios between the characteristics of the signals generated by the pixels of each set or by related pixels. The characteristics of the signals considered are, for example, the amplitudes of the signals. The calculator 24 then compares the ratios obtained with at least one predetermined value to classify the light source 1 1 of emission.
  • the computer 24 compares the characteristics of the first, second and third signals S1, S2, S3.
  • the computer 24 firstly calculates an adaptive threshold from the continuous flow, its fluctuation and the noise level of the sensor 20.
  • the adaptive threshold is calculated on the basis of the signals generated by the pixels of the sensor. sensor 20 over a spatially and temporally sliding calculation zone of N times N pixels of sensor 20 (N being an integer strictly greater than 1).
  • the calculation area includes five times five, seven times seven, or nine times nine pixels.
  • the computer 24 identifies the pixels of the sensor 20 corresponding to a spectral band of interest (here the first and third pixels P1, P3) receiving a luminous flux greater than or equal to the adaptive threshold.
  • the fluxes of the pixels identified and corresponding to the same spectral band of interest are then correlated by group of M times M pixels (M being an integer strictly greater than 1). For example, M is equal to two or three.
  • M is equal to two or three.
  • the size of the task T received on the sensor 20 encompasses in this case at least M times M collocated pixels.
  • the computer 24 compares the characteristics of the signals generated by each pixel or the values averages of such characteristics (in the case where several pixels are detected by normalizing with respect to the illuminated surface).
  • the computer 24 calculates the ratios between the amplitudes of the signals generated by the first, second and third pixels P1, P2, P3, which amounts to calculating the ratios between the first, second and third spectral bands B1, B2, B3.
  • the calculated ratios are, on the one hand, the ratio B1 / B2 between the first spectral band B1 (of interest) and the second spectral band B2 (reference) and, on the other hand, the ratio B3 / B2 between the third spectral band B3 (of interest) and the second spectral band B2 (reference).
  • the estimate of the equivalent temperature of the light source 1 1 enables the source to be classified more precisely. For example, equivalent temperatures on the order of 5,800 Kelvins (K) will reject a solar reflection. Temperatures below 2000 K will allow classification of muzzle fires or rocket or missile propulsion.
  • FIGS. 4 to 6 illustrate the responses of the pixels of the sensor 20 for different types of light flux received.
  • the response of the pixels is illustrated in FIG. 4.
  • the first pixel P1 receives an illumination corresponding to the portion of solar flux in the first spectral band B1.
  • the second pixel P2 receives an illumination corresponding to the portion of solar flux in the second spectral band B2.
  • the second spectral band B2 being a wide band, the second pixel P2 therefore receives greater illumination than the first pixel P1.
  • the third pixel P3 receives an illumination corresponding to the portion of solar flux in the third spectral band B3.
  • the third spectral band B3 being a narrow band, the third pixel P3 therefore receives less illumination than the second pixel P2.
  • the ratios B1 / B2 and B3 / B2 are known because this amounts to performing the ratios of the spectral bands of the pixels. Typically, for a defocus on three pixels, the ratio B1 / B2 is approximately equal to 1/9 and the ratio B3 / B2 is approximately equal to 3/9.
  • the response of the pixels is illustrated by FIG. 5.
  • the first pixel P1 and the second pixel P2 receive the same illumination and therefore have an identical response.
  • the third pixel P3 receives almost zero illumination (at measurement noise close) insofar as the first and third spectral bands B3 are disjoint.
  • the ratio B1 / B2 is substantially equal to 1 and the ratio B3 / B2 decreases compared to configuration 1.
  • the response of pixels is illustrated by FIG. 6.
  • the first pixel P1 receives an illumination corresponding to the laser flux in the first spectral band B1 and to the portion of solar reflections in the first spectral band B1.
  • the second pixel P2 receives an illumination corresponding to the laser flux in the first spectral band B1 and to the portion of solar reflections in the second spectral band B2.
  • the second spectral band B2 being a wide band, the second pixel P2 therefore receives greater illumination than the first pixel P1.
  • the third pixel P3 receives an illumination corresponding to the portion of solar reflections in the third spectral band B3.
  • the third spectral band B3 being a narrow band, the third pixel P3 therefore receives less illumination than the first pixel P1.
  • the B1 / B2 ratio increases compared to configuration 1 and the B3 / B2 ratio remains substantially identical to that of configuration 1.
  • the third spectral band B3 is a narrow band separate from the first and second bands and the compared ratios are modified accordingly.
  • the classification device 14 makes it possible, by comparing ratios, to distinguish laser emissions (in particular in band 1 or SWIR) from solar reflections, which makes it possible to reduce the rate of false alarms.
  • the false alarm rate is reduced for the detection of laser flux emitted, for example, by multi-pulse range finders, laser designators, imager illuminators. active or others.
  • the sensor 20 of the classification device 14 being a matrix sensor, a precise angular location of the emission source is also possible.
  • a matrix sensor can perform two functions: a detection function (to classify the source of emission) and an imaging function.
  • the pixels corresponding to the reference spectral bands make it possible to define a local lighting reference for the scene.
  • the average solar flux reflected by the scene is taken into account.
  • the use of the fluxes collected by adjacent pixels allows, beyond the classification of monospectral sources such as the lasers sought (with the B1 and B3 bands), to make measurements relating to the fluxes collected in each spectral band. to estimate their equivalent temperature and thus classify reflections of solar origin and sources of pyrotechnic origin (mouth fires, rocket or missile propulsions, pyrotechnic decoys) or lamps, headlights or beacons.
  • the classification device 14 makes it possible to reduce the false alarm rate while allowing precise angular localization of the emission source.
  • the classification device 14 is particularly suitable for differentiating a laser pointer emitting in the band of wavelengths between 800 nm and 900 nm, from another light source of the urban lighting type emitting at least. in the visible (380 nm to 780 nm) and possibly in the near infrared.
  • the first pixel P1 comprises a red filter of a Bayer matrix or a green filter of a Bayer matrix
  • the second pixel P2 comprising a blue filter of a Bayer matrix.
  • a Bayer matrix also called a Bayer filter or Bayer mosaic
  • the spectrum of the filters of a Bayer matrix is illustrated in figure 7.
  • the curve R is the spectrum of the red filter of the Bayer matrix
  • the curve V is the spectrum of the green filter of the Bayer matrix
  • curve B is the spectrum of the blue filter of the Bayer matrix.
  • the device 14 comprises, upstream of the sensor 20, a pupillary filter.
  • the pupil filter is preferably a notch filter in a wavelength range between 380 nanometers and 850 nanometers.
  • An example of a pupillary filter spectrum is illustrated in figure 8.
  • the first spectral band B1 is the product of the spectrum of the pupillary filter (if any) and the spectrum of the filter of the first pixel P1.
  • the second spectral band B2 is the product of the spectrum of the pupil filter (if any) and the spectrum of the filter of the second pixel P2.
  • the third pixel P3 is the other of the red or green filter of the Bayer matrix or a second green filter.
  • the third spectral band B3 is the product of the spectrum of the pupillary filter (if any) and the spectrum of the filter of the second pixel P2.
  • the fourth pixel P4 is the remaining pixel of the Bayer matrix.
  • a set can comprise a number greater than four of pixels of the Bayer matrix.
  • the spectral band of each pixel is the product of the spectrum of the pupil filter (if any) and the spectrum of the filter of the pixel.
  • each set includes a first pixel P1 with a red filter, a second pixel P2 with a blue filter, a third pixel P3 with a green filter and fourth pixel P4 with a green filter.
  • the sensor 20 receives a luminous flux in the form of a spot T spread over at least one set of pixels of the sensor 20.
  • each pixel of each set receiving the light flux generates a signal.
  • the computer 24 then compares the characteristics of the signals generated by the pixels of each set to classify the light source 11.
  • a laser pointer emitting in the wavelength band between 800 nm and 900 nm will have an equivalent amplitude for each of the signals generated by the four pixels of the Bayer matrix.
  • the signal generated by the blue pixel will have a higher amplitude than the other pixels. This difference therefore makes it possible to distinguish a laser pointer from a broadband street lamp generally emitting first in the visible and being able to extend in the near infrared at least in the wavelength band 800nm-900nm (street lamp "white -blue ”), and thus to classify the emission light source.
  • the pupillary filter helps to improve the distinction between a lamppost and a laser pointer. Indeed, without a pupillary filter, a white lamppost will have an almost equivalent level on the pixels like a laser pointer.
  • the classification device 14 makes it possible to better distinguish a flow emitted by a laser pointer compared to a flow emitted for example by a street lamp. This helps reduce the rate of false alarms.
  • the sensor 20 of the classification device 14 being a matrix sensor, precise angular localization of the emission source is also possible.
  • a matrix sensor makes it possible to perform two functions: a detection function (making it possible to classify the emission source) and an imaging function.
  • the classification device 14 according to the second embodiment makes it possible to reduce the false alarm rate while allowing precise angular localization of the emission source.
  • a third embodiment of the classification device 14 described in the general description will now be described with reference to FIG. 10.
  • the classification device 14 is particularly suitable for differentiating a laser pointer emitting in the wavelength band between 800 nm and 900 nm from a broadband lamppost generally emitting first in the visible and capable of emitting in the near infrared at least in the 800 nm - 900 nm band.
  • the first spectral band B1 and the second spectral band B2 are disjoint and have wavelengths between 800 nanometers and 900 nanometers.
  • the first pixel P1 comprises a filter suitable for transmitting only the first spectral band B1.
  • the second pixel P2 comprises a filter suitable for transmitting only the second spectral band B2.
  • the third spectral band B3 is separate from the first and second spectral bands B1, B2 and has wavelengths between 800 nanometers and 900 nanometers.
  • the third pixel P3 comprises a filter suitable for transmitting only the third spectral band B3.
  • the spectral band of each pixel is separate from the first, second and third spectral bands B1, B2, B3 and has wavelengths between 800 nanometers and 900 nanometers.
  • Each pixel includes a filter suitable for transmitting only the spectral band of the pixel.
  • each set comprises four distinct pixels: a first pixel P1 corresponding to the range of wavelengths comprised between 800 nm and 825 nm, a second pixel P2 corresponding to the range of lengths of wave between 825 nm and 850 nm, a third pixel P3 corresponding to the range of wavelengths between 850 nm and 875 nm and a fourth pixel P4 corresponding to the range of wavelengths between 875 nm and 900 nm.
  • the sensor 20 receives a luminous flux in the form of a spot T spread over at least one set of pixels of the sensor 20.
  • each pixel of each set receiving the light flux generates a signal.
  • the computer 24 then compares the signals generated by the pixels of the assembly, in particular the characteristics of such signals, to classify the light source 1 1.
  • a laser pointer emitting in the band of wavelengths between 800 nm and 900 nm will have a higher amplitude for the signal generated by one of the pixels because the pointer is a laser emitting in a narrow band.
  • a lamppost will have an equivalent amplitude for each of the signals generated by the pixels of the assembly because such a lamppost emits over a wide band including the 800 nm-900 nm band. This difference therefore makes it possible to distinguish a laser pointer from a street lamp, and thus to classify the light source of emission.
  • the classification device 14 makes it possible to better distinguish a flow emitted by a laser pointer from the flow emitted by a street lamp. This helps reduce the rate of false alarms.
  • the sensor 20 of the classification device 14 being a matrix sensor, a precise angular location of the emission source is also possible.
  • a matrix sensor can perform two functions: a detection function (to classify the source of emission) and an imaging function.
  • the classification device 14 makes it possible to reduce the rate of false alarms while allowing precise angular location of the emission source. It also makes it possible to classify the broadband sources detected by their spectral classification.
  • a pupil filter could be added upstream of the sensors of the first and third embodiments.
  • the senor could comprise, for each set, an interlacing of pixels according to the first, and / or the second and / or the third embodiment.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

La présente invention concerne un dispositif de classification (14) d'une source lumineuse (11) comprenant: - un capteur (20) propre à recevoir un flux lumineux émis par une source lumineuse (11), le capteur (20) comprenant une pluralité de pixels regroupés en ensembles, chaque ensemble comprenant un premier pixel et un deuxième pixel, adjacent au premier pixel, chaque premier pixel étant propre à générer un premier signal relatif à une première portion de flux lumineux dans une première bande spectrale reçue par ledit premier pixel, chaque deuxième pixel étant propre à générer un deuxième signal relatif à une deuxième portion de flux lumineux dans une deuxième bande spectrale reçue par ledit deuxième pixel, - un calculateur (24) configuré pour comparer le premier et le deuxième signal et pour classifier la source lumineuse d'émission (11) en fonction du résultat de la comparaison.

Description

DESCRIPTION
TITRE : Dispositif de classification d’une source lumineuse
La présente invention concerne un dispositif de classification d’une source lumineuse. L’invention concerne, également, un système optronique comprenant un tel dispositif de classification.
Les systèmes optroniques sont classiquement équipés de fonctions de détection de flux lumineux, notamment de flux laser.
En particulier, les systèmes optroniques actifs exploitant une émission laser sont de trois types : mono-statiques, bi-statiques et les systèmes dits « de point à point ». Les systèmes mono-statiques sont des systèmes optroniques comprenant un émetteur et un récepteur intégrés dans le même système ou sur la même plateforme. Les systèmes mono statiques sont, par exemple, des télémètres laser. Les systèmes bi-statiques sont des systèmes optroniques comprenant deux sous-ensembles : d’une part, un émetteur et, d’autre part, un récepteur intégrés respectivement dans des systèmes ou des plateformes séparées. Les systèmes bi-statiques sont, par exemple, des détecteurs de tâche laser, des détecteurs de pointeurs laser ou encore des pointeurs ou désignateurs laser fonctionnant en mode bi-statique. Les systèmes dits « de point à point » sont des systèmes optroniques pour lesquels un laser illumine directement le récepteur. Toutefois, le laser peut illuminer le récepteur sur la périphérie de son lobe d’émission en délivrant un éclairement limité. Les systèmes dits « de point à point » sont, par exemple, des détecteurs d’alerte laser (abrégé en DAL) ou des systèmes de guidage de missiles (en anglais « beamriders »).
La détection de flux laser à partir de tels systèmes optroniques est soumise à de nombreuses problématiques.
En particulier, l’une des problématiques pour les détecteurs d’alerte laser, consiste à diminuer le taux de fausses alarmes tout en permettant une localisation angulaire précise de la source d’émission. Les réflexions solaires (par exemple, les reflets du soleil sur des feuilles ou des structures urbaines) sont l’une des causes des fausses alarmes. En effet, du point de vue du détecteur d’alerte laser, certains reflets solaires peuvent avoir un comportement temporel proche du signal fourni par les émetteurs laser. Les émissions laser sont donc difficilement identifiables par des algorithmes vis-à-vis des reflets solaires.
Pour diminuer le taux de fausses alarmes, il convient donc de mieux distinguer les signaux d’origine solaire des signaux d’origine laser à détecter. Il est classiquement connu d’utiliser des détecteurs d’alerte laser sous la forme de mono-détecteurs ou sous la forme de quatre détecteurs, dits quatre quadrants, ou encore sous la forme de barrettes de plusieurs détecteurs non multiplexés, ayant la faculté de mesurer la forme temporelle du signal reçu avec une grande bande passante. Les formes temporelles des émissions laser et du flux solaire étant différentes, de tels détecteurs permettent de classifier plus facilement l’information d’éclairement due à un flux solaire classique ou due à l’émission laser d’un télémètre. En effet, la durée d’impulsion et la fréquence de répétition des émetteurs laser est très déterministe, tandis que les réflexions solaires sont très aléatoires en durée, souvent bien plus lentes, sans cadence de répétition. Ainsi, un algorithme adapté permet de les différencier.
Néanmoins, de tels détecteurs laser ne permettent pas de fournir une localisation angulaire précise de la source d’émission, contrairement à un détecteur d’alerte laser utilisant un capteur matriciel, mais qui lui génère un taux plus important de fausses alarmes. En effet, un tel détecteur d’alerte laser à capteur matriciel ne permet pas de donner précisément la forme temporelle du signal reçu de par sa bande passante plus limitée, ce qui fait que des reflets solaires rapides sont susceptibles d’être classifiés comme étant un signal laser.
Il existe donc un besoin pour un dispositif de classification d’une source lumineuse présentant un taux de fausses alarmes réduit tout en permettant une localisation angulaire précise de la source d’émission.
A cet effet, l’invention a pour objet un dispositif de classification d’une source lumineuse comprenant :
- un capteur propre à recevoir un flux lumineux émis par au moins une source lumineuse, le flux lumineux étant reçu sur le capteur sous la forme d’une tâche, le capteur comprenant une pluralité de pixels regroupés en ensembles, chaque ensemble comprenant au moins un premier pixel et un deuxième pixel, adjacent au premier pixel, chaque premier pixel étant propre à générer un premier signal relatif à une première portion de flux lumineux dans une première bande spectrale reçue par ledit premier pixel, chaque deuxième pixel étant propre à générer un deuxième signal relatif à une deuxième portion de flux lumineux dans une deuxième bande spectrale reçue par ledit deuxième pixel, la deuxième bande spectrale étant différente de la première bande spectrale ,
- une unité de contrôle de la taille et de la forme de la tâche de sorte que la tâche s’étende sur au moins un ensemble de pixels du capteur, et
- un calculateur configuré pour comparer le premier et le deuxième signal et pour classifier la source lumineuse d’émission en fonction du résultat de la comparaison. Selon d’autres aspects avantageux de l’invention, le dispositif de classification comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :
- le calculateur est configuré pour déterminer la direction de la source lumineuse d’émission par rapport au dispositif en fonction de la forme et de la position de la tâche sur le capteur ;
- chaque ensemble comprend au moins un troisième pixel parmi la pluralité de pixels du capteur, chaque troisième pixel étant propre à générer un troisième signal relatif à une troisième portion de flux lumineux dans une troisième bande spectrale reçue par ledit troisième pixel, la troisième bande spectrale étant différente de la première bande spectrale et de la deuxième bande spectrale, le calculateur étant configuré pour comparer le premier, le deuxième et le troisième signal pour classifier la source lumineuse d’émission ;
- la disposition des pixels de chaque ensemble est prédéfinie et est avantageusement identique d’un ensemble à un autre ;
- la première bande spectrale est une bande spectrale d’intérêt et la deuxième bande spectrale est une bande spectrale de référence, chaque bande spectrale d’intérêt étant centrée sur une longueur d’onde d’intérêt, chaque bande spectrale de référence étant choisie dans le groupe constitué de :
• une bande spectrale centrée sur une longueur d’onde différente de la ou chaque longueur d’onde d’intérêt,
• une bande spectrale disjointe de la ou chaque bande spectrale d’intérêt, et
• une bande spectrale dans laquelle au moins une bande spectrale d’intérêt est strictement inclue,
le premier pixel comprenant un filtre propre à transmettre seulement la première bande spectrale, le deuxième pixel comprenant un filtre propre à transmettre seulement la deuxième bande spectrale ;
- la troisième bande spectrale est une bande spectrale d’intérêt centrée sur une longueur d’onde d’intérêt différente de la première bande spectrale, ou une bande spectrale de référence différente de la deuxième bande spectrale, le troisième pixel comprenant un filtre propre à transmettre seulement la troisième bande spectrale ;
- au moins une longueur d’onde d’intérêt est comprise entre 1 ,05 micromètres et 1 ,07 micromètres ou entre 1 ,50 micromètres et 1 ,70 micromètres, de préférence entre 1 ,55 micromètres et 1 ,65 micromètres ; - le premier pixel comprend un filtre rouge d’une matrice de Bayer ou un filtre vert d’une matrice de Bayer, le deuxième pixel comprenant un filtre bleu d’une matrice de Bayer ;
- le dispositif comprend, en amont du capteur, un filtre pupillaire, la première bande spectrale étant le produit du spectre du filtre pupillaire et du spectre du filtre du premier pixel, la deuxième bande spectrale étant le produit du spectre du filtre pupillaire et du spectre du filtre du deuxième pixel, le filtre pupillaire étant, de préférence, un filtre coupe- bande dans une gamme de longueurs d’onde comprise entre 380 nanomètres et 850 nanomètres ;
- la première bande spectrale et la deuxième bande spectrale sont disjointes et comportent des longueurs d’onde comprises entre 800 nanomètres et 900 nanomètres.
L’invention concerne, également, un système optronique comprenant un dispositif de classification tel que décrit précédemment.
D’autres caractéristiques et avantages de l’invention apparaîtront à la lecture de la description qui suit des modes de réalisation de l’invention, donnés à titre d’exemple uniquement et en référence aux dessins qui sont :
- [Fig 1], la figure 1 est une représentation schématique d’une source lumineuse et d’un système optronique comprenant un dispositif de classification,
- [Fig 2], la figure 2 est un graphique illustrant les profils spectraux de trois filtres,
- [Fig 3], la figure 3 est une représentation schématique d’un capteur recevant un flux lumineux sous la forme d’une tâche,
- [Fig 4], la figure 4 est une représentation schématique de la réponse de différents pixels recevant un flux solaire,
- [Fig 5], la figure 5 est une représentation schématique de la réponse de différents pixels recevant un flux lumineux dans une première bande spectrale,
- [Fig 6], la figure 6 est une représentation schématique de la réponse de différents pixels recevant un flux lumineux dans une première bande spectrale, ainsi qu’un flux solaire,
- [Fig 7], la figure 7 est un graphique illustrant les profils spectraux des filtres d’une matrice de Bayer,
- [Fig 8], la figure 8 est un graphique illustrant le profil spectral d’un filtre pupillaire,
- [Fig 9], la figure 9 est une représentation schématique d’un ensemble de pixels, et
- [Fig 10], la figure 10 est une représentation schématique d’un autre ensemble de pixels. Mode de réalisation général
Dans ce qui suit, il est décrit, en référence à la figure 1 , la structure générale d’une source lumineuse 1 1 et d’un système optronique 12 comprenant un dispositif de classification 14. Le dispositif de classification 14 sera ensuite décrit plus en détails dans la suite de la description dans des exemples de premier, deuxième et troisième modes de réalisation.
La source lumineuse 1 1 est propre à émettre un flux lumineux dans différentes directions et notamment dans la direction du système optronique 12. Le flux lumineux émis par la source lumineuse 1 1 présente une bande spectrale d’émission Bl.
La source lumineuse 1 1 est, par exemple, un émetteur monochromatique tel qu’un laser ou une diode électroluminescente (abrégé en LED, de l’anglais : Light-Emitting Diode, ou DEL en français). Dans un autre exemple, la source lumineuse 1 1 est une ampoule à décharge électrique dans un gaz basse pression. Dans encore un autre exemple, la source lumineuse 1 1 est une source à spectre large bande, telle qu’une lampe flash, le soleil, le ciel ou la scène éclairée par le ciel et le soleil. Dans encore un autre exemple, la source lumineuse 1 1 comprend des éclairages artificiels utilisant des lampes à incandescence, à fluorescence, des ampoules à décharges électriques dans des gaz à haute pression ou encore des LED associées à des composés fluorescents.
Le système optronique 12 est, par exemple, un système optronique actif, tel qu’un système mono-statique, un système bi-statique ou un système dit « de point à point ».
Les systèmes mono-statiques sont des systèmes optroniques comprenant un émetteur et un récepteur intégrés dans le même système ou sur la même plateforme. Les systèmes mono-statiques sont, par exemple, des télémètres laser.
Les systèmes bi-statiques sont des systèmes optroniques comprenant deux sous- ensembles : d’une part, un émetteur et, d’autre part, un récepteur intégrés respectivement dans des systèmes ou des plateformes séparées. Les sous-ensembles de systèmes bi- statiques sont, par exemple, des détecteurs de tâche laser, des détecteurs de pointeurs laser ou encore des pointeurs laser ou des désignateurs laser fonctionnant en mode bi- statique.
Les systèmes dits « de point à point » sont des systèmes optroniques se décomposant en deux sous-ensembles : un émetteur et un récepteur en intervisibilité ou encore sur une ligne de visée ou proche d’une ligne de visée, pour lesquels par exemple un laser illumine directement le récepteur. Toutefois, le laser peut illuminer le récepteur sur la périphérie de son lobe d’émission en délivrant un éclairement limité. Les sous-ensembles entrant dans les systèmes dits « de point à point » sont, par exemple, des détecteurs d’alerte laser (abrégé en DAL) ou des systèmes de guidage de missiles (en anglais « beamriders ») ou encore des dispositifs de télécommunication optique en espace libre.
Avantageusement, le système optronique 12 et la source lumineuse 1 1 évoluent en milieu extérieur sur une même scène. Une scène désigne un théâtre d’opérations, c’est-à- dire le lieu où se déroule une action. La scène est donc un espace étendu avec des dimensions suffisantes pour permettre le déroulement d’une action.
Le système optronique 12 est, par exemple, destiné à être intégré dans une plateforme, telle qu’un aéronef, un véhicule terrestre ou un navire.
Le dispositif de classification 14 est configuré pour classifier une source lumineuse émettant un flux lumineux en direction du système optronique 12, telle que la source lumineuse 1 1 . Par classifier une source lumineuse, il est entendu identifier la nature de la source lumineuse 1 1 , ce qui consiste au moins à identifier si la source lumineuse 1 1 est un laser ou pas (discrimination d’une menace laser du reste de la scène) et, si c’est le cas, à donner si possible les caractéristiques principales de ce laser telles que sa durée d’impulsion et sa cadence de répétition pour tenter de le ranger dans une catégorie de menace (par exemple : télémètre, pointeur, désignateur ou système de guidage de missiles).
Le dispositif de classification 14 comprend un capteur 20, une unité de contrôle 22 et un calculateur 24.
Le capteur 20 est un capteur matriciel, c’est-à-dire un capteur formé d’une matrice de pixels.
Le capteur 20 est propre à recevoir un flux lumineux émis par la source lumineuse 1 1 . Le flux lumineux est reçu sur le capteur sous la forme d’une tâche T.
Le capteur 20 comprend une pluralité de pixels. Chaque pixel du capteur 20 qui reçoit un flux lumineux est configuré pour détecter soit directement le flux lumineux, soit une variation de flux lumineux, soit une impulsion, soit une énergie.
Les pixels du capteur sont regroupés en ensembles. Chaque ensemble comprend, de préférence, un même nombre de pixels.
Chaque ensemble comprend au moins un premier pixel P1 et un deuxième pixel P2. Le deuxième pixel P2 est adjacent au premier pixel P1 .
Chaque premier pixel P1 est propre à générer un premier signal S1 relatif à une première portion de flux lumineux reçue par le premier pixel P1 dans une première bande spectrale B1 .
Chaque deuxième pixel P2 est propre à générer un deuxième signal S2 relatif à une deuxième portion de flux lumineux reçue par ledit deuxième pixel P2 dans une deuxième bande spectrale B2. La deuxième bande spectrale B2 est différente de la première bande spectrale B1 .
Le signal généré par chaque pixel est un signal représentatif du nombre de photons par seconde (aussi appelé flux) ou encore de manière préférée une variation du nombre de photons par seconde ou variation du flux arrivant sur le pixel.
Chaque signal présente au moins une caractéristique. La caractéristique est, par exemple, l’amplitude du signal.
Avantageusement, chaque ensemble comprend au moins un troisième pixel P3 parmi la pluralité de pixels du capteur 20. Le troisième pixel P3 est adjacent à au moins l’un du premier ou du deuxième pixel P2 de l’ensemble.
Chaque troisième pixel P3 est propre à générer un troisième signal S3 relatif à une troisième portion de flux lumineux reçue par ledit troisième pixel P3 dans une troisième bande spectrale B3. La troisième bande spectrale B3 est différente de la première bande spectrale B1 et de la deuxième bande spectrale B2.
Avantageusement, chaque ensemble comprend une pluralité de pixels, tels que plusieurs premiers pixels P1 et/ou plusieurs deuxièmes pixels P2 et/ou plusieurs troisièmes pixels P3 et/ou des pixels différents des premier, deuxième et troisième pixels P1 , P2, P3. Dans ce cas, chaque pixel comprend un filtre qui détermine la bande spectrale correspondant au pixel.
La disposition des pixels de chaque ensemble est prédéfinie. Avantageusement, la disposition des pixels de chaque ensemble est identique d’un ensemble à un autre. Par exemple, la position des différents types de pixels sur le capteur 20 est choisie de sorte à former un motif périodique. Avantageusement, les différents types de pixels sont disposés les uns par rapport aux autres selon un dallage entrelacé. En variante, la disposition des différents pixels est pseudo-aléatoire.
Par exemple, les positions des premiers pixels sur le capteur 20 sont choisies de sorte à former un motif prédéfini (par exemple, un motif en quinconce) et la position des autres pixels, notamment des deuxièmes pixels, sont les positions non occupées par les premiers pixels (dans l’exemple, les vides du motif en quinconce).
L’unité 22 de contrôle de la taille et de la forme de la tâche 20 est configurée pour contrôler la taille et la forme de la tâche 20 se formant sur le capteur 20 à partir du flux lumineux émis par la source lumineuse 1 1 de sorte que la tâche 20 s’étende sur au moins un ensemble de pixels du capteur 20.
L’unité de contrôle 22 est, par exemple, un dispositif optique configuré pour répartir sur plusieurs pixels (par exemple défocaliser) le flux lumineux reçu par le capteur 20. L’unité de contrôle 22 comprend, par exemple, une lentille optique, un élément mécanique de réglage de la défocalisation ou encore un diffuseur optique en amont du capteur 20.
Le calculateur 24 est, par exemple, un processeur. Le calculateur 24 comprend, par exemple, une unité de traitement de données, des mémoires, un lecteur de support d’informations et une interface homme/machine, telle qu’un clavier ou un afficheur.
Dans l’exemple illustré par la figure 1 , le calculateur 24 est porté par le système optronique 12. En variante, le calculateur 24 est déporté du système optronique 12 et est installé dans une entité qui est, par exemple, au sol. Cela permet de déporter les traitements effectués par le calculateur 24 en dehors du système optronique 12.
Le calculateur 24 est en interaction avec un produit-programme d’ordinateur qui comporte un support d’informations. Le support d’informations est un support lisible par le calculateur 24, usuellement par l’unité de traitement de données du calculateur 24. Le support lisible d’informations est un médium adapté à mémoriser des instructions électroniques et capable d’être couplé à un bus d’un système informatique. A titre d’exemple, le support lisible d’informations est une disquette ou disque souple (de la dénomination anglaise floppy disk), un disque optique, un CD-ROM, un disque magnéto- optique, une mémoire ROM, une mémoire RAM, une mémoire EPROM, une mémoire EEPROM, une carte magnétique ou une carte optique. Sur le support d’informations est mémorisé le produit-programme d’ordinateur comprenant des instructions de programme.
Le programme d’ordinateur est chargeable sur l’unité de traitement de données et est adapté pour entraîner la mise en oeuvre d’un procédé de classification lorsque le programme d’ordinateur est mis en oeuvre sur l’unité de traitement du calculateur 24.
Dans ce qui suit, il est décrit les interactions entre la source lumineuse 1 1 et le système optronique 12, ainsi que le fonctionnement général du dispositif de classification 14. Le fonctionnement spécifique du dispositif de classification 14 sera décrit plus en détails dans la suite de la description dans les premier, deuxième et troisième modes de réalisation.
Initialement, le capteur 20 reçoit un flux lumineux sous la forme d’une tâche T s’étalant sur au moins un ensemble de pixels du capteur 20 comme cela est illustré en figure 3. Sur la figure 3, la tâche T s’étend sur un ensemble de quatre pixels : un premier pixel P1 , deux deuxièmes pixels P2 et un troisième pixel P3.
En réponse, chaque pixel de l’ensemble recevant le flux lumineux génère un signal.
Le calculateur 24 compare ensuite les signaux générés par les pixels de l’ensemble, et notamment les caractéristiques de tels signaux, telles que l’amplitude. Plus précisément, le calculateur 24 compare les caractéristiques du premier et du deuxième signal S1 et S2 et classifie la source lumineuse 1 1 d’émission en fonction du résultat de la comparaison.
Lorsque chaque ensemble comprend un troisième pixel P3, le calculateur 24 est également propre à comparer les caractéristiques du premier, du deuxième et du troisième signal S1 , S2, S3 pour classifier la source lumineuse 1 1 .
De manière plus générale, le calculateur 24 compare les caractéristiques des signaux S1 , S2, S3 générés par les pixels adjacents P1 , P2 et P3 de chaque ensemble pour classifier la source lumineuse 1 1 d’émission.
Par exemple, les résultats obtenus à l’issue de la comparaison sont comparés à une base de données de résultats obtenus pour des sources lumineuses connues, ce qui permet la classification de chaque source lumineuse détectée.
Les comparaisons sont, par exemple, effectuées détection par détection, c’est-à- dire à chaque fois qu’un flux est détecté sur le capteur 20. Par exemple, la détection est réalisée lorsque sur les composantes continues du flux reçu par chaque pixel P1 , P2, P3 d’un ensemble, au moins l’un des pixels mesure une variation positive de son flux absolu ou de son flux relatif supérieure à un seuil dans une période de temps brève. Par période de temps brève, il est entendu une période de temps inférieure à la dizaine de millisecondes.
En variante, les comparaisons sont effectuées après plusieurs détections, par exemple après une durée supérieure à la durée d’un tir laser (de l’ordre de 1 seconde au maximum). Cela permet de faciliter la classification de la source lumineuse 1 1 .
Des exemples de comparaison seront décrits plus en détails dans la suite de la description (premier, deuxième et troisième modes de réalisation).
Le calculateur 24 détermine, également, la direction de la source lumineuse 1 1 d’émission par rapport au dispositif 14 (localisation angulaire) en fonction de la forme et de la position de la tâche T formée sur le capteur 20.
Pour cela, le calculateur 24 estime, par exemple, la position du centre de la tâche T formée par le flux lumineux sur le capteur 20. En effet, les signatures d’événements ponctuels auront une forme de disque (ou d’une petite surface carrée si une pupille carrée est utilisée) car les sources laser sont considérées comme étant lointaines.
Par exemple, connaissant la position du centre de la tâche T, le calculateur 24 corréle la forme de la tâche T à des formes de tâches prédéterminées associées à une direction. La direction de la source lumineuse 1 1 d’émission est la direction de la forme de tâche prédéterminée pour laquelle la meilleure corrélation est obtenue. Ainsi, du fait de sa double fonctionnalité (détection et localisation), le dispositif de classification permet de réduire le taux de fausses alarmes tout en permettant une localisation angulaire précise de la source d’émission.
Premier mode de réalisation
Un premier mode de réalisation du dispositif de classification 14 décrit dans la description générale va maintenant être décrit en référence aux figures 2 à 6.
Dans ce premier mode de réalisation, le dispositif de classification 14 est particulièrement adapté pour détecter des émissions laser prédéterminées ayant, en tant qu’émissions laser, des bandes spectrales étroites centrées sur des longueurs d’ondes d’intérêt. Une bande spectrale étroite est définie comme étant une bande spectrale de largeur inférieure à 100 nanomètres (nm). La longueur d’onde d’intérêt est typiquement la longueur d’onde centrale de la bande spectrale d’émission du laser prédéterminé que l’on cherche à détecter.
Par exemple, la longueur d’onde d’intérêt appartient à l’infrarouge bande 1 , aussi appelée infrarouge SWIR (de l’anglais Short Wave Infra-Red, traduit en français par Infrarouge court), c’est-à-dire à la gamme de longueurs d’ondes comprises entre 0,9 micromètres (pm) et 1 ,7 pm. Plus précisément, la longueur d’onde d’intérêt pour une première famille de laser est comprise entre 1 ,06 pm et 1 ,07 pm et est avantageusement égale à 1 ,064 pm. Dans un autre exemple, pour une deuxième famille de laser, la longueur d’onde d’intérêt est comprise entre 1 ,50 pm et 1 ,70 pm, de préférence entre 1 ,pm et 1 ,65 pm.
Dans ce premier mode de réalisation, la première bande spectrale B1 est une bande spectrale laser d’intérêt et la deuxième bande spectrale B2 est une bande spectrale de référence.
Chaque bande spectrale laser d’intérêt est centrée sur une longueur d’onde d’intérêt. Avantageusement, chaque bande spectrale d’intérêt est une bande spectrale étroite.
Chaque bande spectrale de référence (comme B2) permet de définir une référence d’éclairement pour chaque ensemble de pixels P1 , P2, P3 en considérant un seuil d’éclairement respectif au-delà duquel une détection sera faite.
Chaque bande spectrale de référence (comme B2) est choisie dans le groupe constitué de :
- (i) : une bande spectrale centrée sur une longueur d’onde différente de la ou chaque longueur d’onde d’intérêt, - (ii) : une bande spectrale disjointe de la bande ou de chaque bande spectrale d’intérêt, et
- (iii) : une bande spectrale dans laquelle au moins une bande spectrale d’intérêt est strictement incluse.
De préférence, lorsque la bande spectrale de référence est du type (iii), la bande spectrale de référence est une bande spectrale large. Une bande spectrale large est définie comme étant une bande spectrale de largeur supérieure ou égale à 100 nm ou encore supérieure ou égale au double de la ou d’une bande spectrale d’intérêt correspondant à un pixel du même ensemble. Lorsque la bande spectrale de référence est du type (i) ou (ii), la bande spectrale de référence est une bande spectrale large ou une bande spectrale étroite.
Le premier pixel P1 comprend un filtre propre à transmettre seulement la première bande spectrale B1 .
Le deuxième pixel P2 comprend un filtre propre à transmettre seulement la deuxième bande spectrale B2. Le filtre du deuxième pixel P2 est, par exemple, un filtre passe-haut.
Lorsque chaque ensemble comprend un troisième pixel P3, la troisième bande spectrale B3 est une bande spectrale d’intérêt centrée sur une longueur d’onde d’intérêt différente de la première bande spectrale B1 (bande spectrale d’intérêt) ou est une bande spectrale de référence différente de la deuxième bande spectrale B2 (bande spectrale de référence). Le troisième pixel P3 comprend un filtre propre à transmettre seulement la troisième bande spectrale d’intérêt B3. Avantageusement, lorsque la troisième bande spectrale B3 est une bande spectrale d’intérêt, le filtre du troisième pixel P3 est un filtre à bande étroite.
Lorsque chaque ensemble comprend des pixels avec des filtres différents des premier, deuxième et troisième pixels P1 , P2, P3, les bandes spectrales des filtres desdits pixels P1 , P2, P3 sont des bandes spectrales d’intérêt ou des bandes spectrales de référence.
Un exemple de disposition des premier, deuxième et troisième pixels P1 , P2, P3 est illustré par la figure 3. Dans cet exemple, les deuxièmes pixels P2 (pixels de référence) sont disposés selon un motif périodique sur le capteur 20 et les premiers pixels P1 (pixel d’intérêt) et troisième pixels P3 (pixels d’intérêt ou de référence) sont disposés périodiquement dans les espaces non occupés par les deuxièmes pixels.
Le fonctionnement spécifique au premier mode de réalisation du dispositif de classification 14 va maintenant être décrit.
Dans l’exemple illustré par les figures 2 à 6, la première bande spectrale B1 est une bande spectrale centrée sur la longueur d’onde 1 ,064 pm. La deuxième bande spectrale B2 est une bande spectrale large bande comprenant toutes les longueurs d’ondes à partir de 1 ,020 pm jusque 1 ,7 pm (bande spectrale de référence de type (iii)). La troisième bande spectrale B3 est une bande spectrale d’intérêt centrée sur la longueur d’onde 1 ,55 pm. En outre, dans cet exemple, chaque ensemble comprend quatre pixels, dont au moins un premier pixel P1 , au moins un deuxième pixel P2 et au moins un troisième pixel P3.
Le capteur 20 reçoit un flux lumineux sous la forme d’une tâche T s’étalant sur au moins un ensemble de pixels du capteur 20.
En réponse, chaque pixel de chaque ensemble recevant le flux lumineux détecte soit directement le flux lumineux, soit une variation de flux lumineux, soit une impulsion, soit une énergie, et génère alors un signal.
Le calculateur 24 compare ensuite les signaux générés par chaque pixel de chaque ensemble, notamment les caractéristiques de tels signaux, pour classifier la source lumineuse 1 1 . Pour cela, le calculateur 24 calcule des ratios entre les caractéristiques des signaux générés par les pixels de chaque ensemble ou par pixels connexes. Les caractéristiques des signaux considérées sont, par exemple, les amplitudes des signaux. Le calculateur 24 compare, ensuite, les ratios obtenus à au moins une valeur prédéterminée pour classifier la source lumineuse 1 1 d’émission.
Dans l’exemple considéré, le calculateur 24 compare les caractéristiques des premier, deuxième et troisième signaux S1 , S2, S3.
Pour cela, dans cet exemple, le calculateur 24 calcule d’abord un seuil adaptatif à partir du flux continu, de sa fluctuation et du niveau de bruit du capteur 20. Le seuil adaptatif est calculé sur la base des signaux générés par les pixels du capteur 20 sur une zone de calcul glissante spatialement et temporellement de N fois N pixels du capteur 20 (N étant un entier strictement supérieur à 1 ). Par exemple, la zone de calcul comprend cinq fois cinq, sept fois sept ou neuf fois neuf pixels. Le flux continu et sa fluctuation permettent de caractériser le bruit de fond de scène (de jour) et le bruit du détecteur (la nuit).
Dans ce même exemple, le calculateur 24 identifie ensuite les pixels du capteur 20 correspondant à une bande spectrale d’intérêt (ici les premier et troisième pixels P1 , P3) recevant un flux lumineux supérieur ou égal au seuil adaptatif. Les flux des pixels identifiés et correspondants à une même bande spectrale d’intérêt sont alors corrélés par groupe de M fois M pixels (M étant un entier strictement supérieur à 1 ). Par exemple, M est égal à deux ou trois. La taille de la tâche T reçue sur le capteur 20 englobe dans ce cas au moins M fois M pixels colocalisés.
Dans la zone de M fois M pixels colocalisés et recevant un flux, le calculateur 24 compare les caractéristiques des signaux générés par chaque pixel ou les valeurs moyennes de telles caractéristiques (dans le cas où plusieurs pixels font l’objet d’une détection en normalisant par rapport à la surface éclairée).
Par exemple, lorsque la caractéristique est une amplitude, le calculateur 24 calcule les ratios entre les amplitudes des signaux générés par les premier, deuxième et troisième pixels P1 , P2, P3, ce qui revient à calculer les ratios entre les première, deuxième et troisième bandes spectrales B1 , B2, B3. Dans l’exemple illustré par les figures 2 à 6, les ratios calculés sont, d’une part, le ratio B1/B2 entre la première bande spectrale B1 (d’intérêt) et la deuxième bande spectrale B2 (de référence) et, d’autre part, le ratio B3/B2 entre la troisième bande spectrale B3 (d’intérêt) et la deuxième bande spectrale B2 (de référence).
Ces ratios sont ensuite comparés à des valeurs prédéterminées, ce qui permet de déterminer si la source d’émission est ou non une source laser centrée sur la longueur d’onde d’intérêt. Avantageusement, l’estimation de la température équivalente de la source lumineuse 1 1 permet de classifier plus précisément la source. Par exemple, des températures équivalentes de l’ordre de 5800 Kelvins (K) permettront de rejeter un reflet solaire. Des températures inférieures à 2000 K permettront de classifier des feux de bouche ou des propulsions de roquettes ou de missiles.
A titre d’illustration, les figures 4 à 6 illustrent les réponses des pixels du capteur 20 pour différents types de flux lumineux reçus.
Lorsque le flux lumineux reçu par le capteur 20 est un flux solaire (configuration 1 ), la réponse des pixels est illustrée par la figure 4. Le premier pixel P1 reçoit un éclairement correspondant à la portion de flux solaire dans la première bande spectrale B1 . Le deuxième pixel P2 reçoit un éclairement correspondant à la portion de flux solaire dans la deuxième bande spectrale B2. La deuxième bande spectrale B2 étant une bande large, le deuxième pixel P2 reçoit donc un éclairement plus important que le premier pixel P1 . Le troisième pixel P3 reçoit un éclairement correspondant à la portion de flux solaire dans la troisième bande spectrale B3. La troisième bande spectrale B3 étant une bande étroite, le troisième pixel P3 reçoit donc un éclairement moins important que le deuxième pixel P2. Les ratios B1/B2 et B3/B2 sont connus car cela revient à effectuer les ratios des bandes spectrales des pixels. Typiquement, pour une défocalisation sur trois pixels, le ratio B1/B2 est sensiblement égal à 1/9 et le ratio B3/B2 est sensiblement égal à 3/9.
Lorsque le flux lumineux reçu par le capteur 20 est uniquement un flux laser correspondant à la longueur d’onde d’intérêt de la première bande spectrale B1 , donc sans reflets solaires parasites (configuration 2), la réponse des pixels est illustrée par la figure 5. Le premier pixel P1 et le deuxième pixel P2 reçoivent le même éclairement et ont donc une réponse identique. Le troisième pixel P3 reçoit un éclairement quasi-nul (au bruit de mesure près) dans la mesure où la première et la troisième bande spectrale B3 sont disjointes. Ainsi, le ratio B1 /B2 est sensiblement égal à 1 et le ratio B3/B2 diminue par rapport à la configuration 1 .
Lorsque le flux lumineux reçu par le capteur 20 est un flux laser correspondant à la longueur d’onde d’intérêt de la première bande spectrale B1 et qu’un flux solaire est également reçu sur le capteur 20 (configuration 3), la réponse des pixels est illustrée par la figure 6. Le premier pixel P1 reçoit un éclairement correspondant au flux laser dans la première bande spectrale B1 et à la portion de reflets solaires dans la première bande spectrale B1 . Le deuxième pixel P2 reçoit un éclairement correspondant au flux laser dans la première bande spectrale B1 et à la portion de reflets solaires dans la deuxième bande spectrale B2. La deuxième bande spectrale B2 étant une bande large, le deuxième pixel P2 reçoit donc un éclairement plus important que le premier pixel P1 . Le troisième pixel P3 reçoit un éclairement correspondant à la portion de reflets solaires dans la troisième bande spectrale B3. La troisième bande spectrale B3 étant une bande étroite, le troisième pixel P3 reçoit donc un éclairement moins important que le premier pixel P1 . Ainsi, le ratio B1 /B2 augmente par rapport à la configuration 1 et le ratio B3/B2 reste sensiblement identique à celui de la configuration 1 .
Dans un autre exemple, la troisième bande spectrale B3 est une bande étroite disjointe des première et deuxième bandes et les ratios comparés sont modifiés en conséquence.
Ainsi, le dispositif de classification 14 selon le premier mode de réalisation permet par la comparaison de ratios de distinguer des émissions lasers (notamment dans la bande 1 ou SWIR) de reflets solaires, ce qui permet de réduire le taux de fausses alarmes. En particulier, dans le cas d’un détecteur d’alerte laser matriciel, le taux de fausses alarmes est réduit pour la détection de flux laser émis, par exemple, par des télémètres multi- impulsionnels, des désignateurs laser, des illuminateurs d’imageurs actifs ou autres.
Le capteur 20 du dispositif de classification 14 étant un capteur matriciel, une localisation angulaire précise de la source d’émission est également possible. En outre, un tel capteur matriciel permet de réaliser deux fonctions : une fonction de détection (permettant de classifier la source d’émission) et une fonction d’imagerie.
De plus, les pixels correspondants aux bandes spectrales de référence permettent de définir une référence locale d’éclairement de la scène. En particulier, de jour, le flux solaire moyen réfléchi par la scène est pris en compte.
De plus, l’exploitation des flux collectés par des pixels adjacents permet au-delà de la classification des sources monospectrales tels que les lasers recherchés (avec les bande B1 et B3), de faire des mesures relatives à des flux collectés dans chaque bande spectrale pour estimer leur température équivalente et ainsi classifier les reflets d’origine solaire et les sources d’origine pyrotechnique (feux de bouches, propulsions de rockets ou missiles, leurres pyrotechniques) ou encore les lampes, phares ou balises.
Ainsi, le dispositif de classification 14 selon le premier mode de réalisation permet de réduire le taux de fausses alarmes tout en permettant une localisation angulaire précise de la source d’émission.
Deuxième mode de réalisation
Un deuxième mode de réalisation du dispositif de classification 14 décrit dans la description générale va maintenant être décrit en référence aux figures 7 à 9.
Dans le deuxième mode de réalisation, le dispositif de classification 14 est particulièrement adapté pour différencier un pointeur laser émettant dans la bande de longueurs d’onde comprise entre 800 nm et 900 nm, d’une autre source lumineuse de type éclairage urbain émettant à minima dans le visible (380 nm à 780 nm) et éventuellement dans le proche infra-rouge.
Dans le deuxième mode de réalisation, le premier pixel P1 comprend un filtre rouge d’une matrice de Bayer ou un filtre vert d’une matrice de Bayer, le deuxième pixel P2 comprenant un filtre bleu d’une matrice de Bayer. Une matrice de Bayer (également appelé filtre de Bayer ou mosaïque de Bayer) est composée à 50 % de filtres verts, à 25 % de filtres rouges et à 25 % de filtres bleus, de sorte à imiter la physiologie de l'œil humain. Le spectre des filtres d’une matrice de Bayer est illustré en figure 7. Sur cette figure, la courbe R est le spectre du filtre rouge de la matrice de Bayer, la courbe V est le spectre du filtre vert de la matrice de Bayer et la courbe B est le spectre du filtre bleu de la matrice de Bayer.
Avantageusement, le dispositif 14 comprend, en amont du capteur 20, un filtre pupillaire. Le filtre pupillaire est, de préférence, un filtre coupe-bande dans une gamme de longueurs d’onde comprise entre 380 nanomètres et 850 nanomètres. Un exemple de spectre de filtre pupillaire est illustré en figure 8.
La première bande spectrale B1 est le produit du spectre du filtre pupillaire (le cas échéant) et du spectre du filtre du premier pixel P1 . La deuxième bande spectrale B2 est le produit du spectre du filtre pupillaire (le cas échéant) et du spectre du filtre du deuxième pixel P2.
Lorsque l’ensemble comprend un troisième pixel P3, le troisième pixel P3 est l’autre du filtre rouge ou vert de la matrice de Bayer ou un deuxième filtre vert. La troisième bande spectrale B3 est le produit du spectre du filtre pupillaire (le cas échéant) et du spectre du filtre du deuxième pixel P2. Lorsque l’ensemble comprend un quatrième pixel P4, le quatrième pixel P4 est le pixel restant de la matrice de Bayer. Avantageusement, un ensemble peut comprendre un nombre supérieur à quatre de pixels de la matrice de Bayer. Dans ce cas, la bande spectrale de chaque pixel est le produit du spectre du filtre pupillaire (le cas échéant) et du spectre du filtre du pixel.
Dans l’exemple illustré sur la figure 9, chaque ensemble comprend un premier pixel P1 avec un filtre rouge, un deuxième pixel P2 avec un filtre bleu, un troisième pixel P3 avec un filtre vert et quatrième pixel P4 avec un filtre vert.
Le fonctionnement spécifique au deuxième mode de réalisation du dispositif de classification 14 va maintenant être décrit.
Le capteur 20 reçoit un flux lumineux sous la forme d’une tâche T s’étalant sur au moins un ensemble de pixels du capteur 20.
En réponse, chaque pixel de chaque ensemble recevant le flux lumineux génère un signal.
Le calculateur 24 compare ensuite les caractéristiques des signaux générés par les pixels de chaque ensemble pour classifier la source lumineuse 1 1 .
Par exemple, lorsque la caractéristique considérée est l’amplitude, un pointeur laser émettant dans la bande de longueurs d’onde comprise entre 800 nm et 900 nm aura une amplitude équivalente pour chacun des signaux générés par les quatre pixels de la matrice de Bayer. Par contre, pour un lampadaire « blanc-bleuté » le signal généré par le pixel bleu aura une amplitude plus élevée que les autres pixels. Cette différence permet donc de distinguer un pointeur laser d’un lampadaire large bande émettant en général d’abord dans le visible et pouvant s’étendre dans le proche infrarouge à minima dans la bande de longueurs d’onde 800nm-900nm (lampadaire « blanc-bleuté »), et ainsi de classifier la source lumineuse d’émission.
Le filtre pupillaire permet d’améliorer la distinction entre un lampadaire et un pointeur laser. En effet, sans filtre pupillaire un lampadaire blanc aura un niveau quasi équivalent sur les pixels comme un pointeur laser.
Ainsi, le dispositif de classification 14 selon le deuxième mode de réalisation permet de mieux distinguer un flux émis par un pointeur laser par rapport à un flux émis par exemple par un lampadaire. Cela permet de réduire le taux de fausses alarmes.
Le capteur 20 du dispositif de classification 14 étant un capteur matriciel, une localisation angulaire précise de la source d’émission est également possible. En outre, un tel capteur matriciel permet de réaliser deux fonctions : une fonction de détection (permettant de classifier la source d’émission) et une fonction d’imagerie. Ainsi, le dispositif de classification 14 selon le deuxième mode de réalisation permet de réduire le taux de fausses alarmes tout en permettant une localisation angulaire précise de la source d’émission.
Troisième mode de réalisation
Un troisième mode de réalisation du dispositif de classification 14 décrit dans la description générale va maintenant être décrit en référence à la figure 10.
Dans le troisième mode de réalisation, le dispositif de classification 14 est particulièrement adapté pour différencier un pointeur laser émettant dans la bande de longueurs d’onde comprise entre 800 nm et 900 nm d’un lampadaire large bande émettant en général d’abord dans le visible et pouvant émettre dans le proche infrarouge à minima dans la bande 800 nm - 900 nm.
Dans le troisième mode de réalisation, la première bande spectrale B1 et la deuxième bande spectrale B2 sont disjointes et comportent des longueurs d’onde comprises entre 800 nanomètres et 900 nanomètres.
Le premier pixel P1 comprend un filtre propre à transmettre seulement la première bande spectrale B1 . Le deuxième pixel P2 comprend un filtre propre à transmettre seulement la deuxième bande spectrale B2.
Lorsque chaque ensemble comprend un troisième pixel P3, la troisième bande spectrale B3 est disjointe des première et deuxième bandes spectrales B1 , B2 et comporte des longueurs d’onde comprises entre 800 nanomètres et 900 nanomètres. Le troisième pixel P3 comprend un filtre propre à transmettre seulement la troisième bande spectrale B3.
Lorsque chaque ensemble comprend plus de trois pixels, la bande spectrale de chaque pixel est disjointe des première, deuxième et troisième bandes spectrales B1 , B2, B3 et comporte des longueurs d’onde comprises entre 800 nanomètres et 900 nanomètres. Chaque pixel comprend un filtre propre à transmettre seulement la bande spectrale du pixel.
Dans l’exemple illustré par la figure 10, chaque ensemble comprend quatre pixels distincts : un premier pixel P1 correspondant à la gamme de longueurs d’onde comprise entre 800 nm et 825 nm, un deuxième pixel P2 correspondant à la gamme de longueurs d’onde comprise entre 825 nm et 850 nm, un troisième pixel P3 correspondant à la gamme de longueurs d’onde comprise entre 850nm et 875 nm et un quatrième pixel P4 correspondant à la gamme de longueurs d’onde comprise entre 875 nm et 900 nm.
Le fonctionnement spécifique au troisième mode de réalisation du dispositif de classification 14 va maintenant être décrit. Le capteur 20 reçoit un flux lumineux sous la forme d’une tâche T s’étalant sur au moins un ensemble de pixels du capteur 20.
En réponse, chaque pixel de chaque ensemble recevant le flux lumineux génère un signal.
Le calculateur 24 compare ensuite les signaux générés par les pixels de l’ensemble, notamment les caractéristiques de tels signaux, pour classifier la source lumineuse 1 1 .
Par exemple, lorsque la caractéristique considérée est l’amplitude, un pointeur laser émettant dans la bande de longueurs d’onde comprise entre 800 nm et 900 nm aura une amplitude plus élevée pour le signal généré par l’un des pixels car le pointeur est un laser émettant dans une bande étroite. Par contre, un lampadaire aura une amplitude équivalente pour chacun des signaux générés par les pixels de l’ensemble car un tel lampadaire émet sur une large bande incluant la bande 800 nm-900 nm. Cette différence permet donc de distinguer un pointeur laser d’un lampadaire, et ainsi de classifier la source lumineuse d’émission.
Ainsi, le dispositif de classification 14 selon le troisième mode de réalisation permet de mieux distinguer un flux émis par un pointeur laser par rapport au flux émis par un lampadaire. Cela permet de réduire le taux de fausses alarmes.
Le capteur 20 du dispositif de classification 14 étant un capteur matriciel, une localisation angulaire précise de la source d’émission est également possible. En outre, un tel capteur matriciel permet de réaliser deux fonctions : une fonction de détection (permettant de classifier la source d’émission) et une fonction d’imagerie.
Ainsi, le dispositif de classification 14 selon le troisième mode de réalisation permet de réduire le taux de fausses alarmes tout en permettant une localisation angulaire précise de la source d’émission. Il permet, en outre, de classifier les sources larges bandes détectées par leur classification spectrale.
L’homme du métier comprendra que les modes de réalisation précédemment décrits peuvent être combinés pour former de nouveaux modes de réalisation pourvu qu’ils soient compatibles techniquement.
Par exemple, de manière similaire au deuxième mode de réalisation, un filtre pupillaire pourrait être ajouté en amont des capteurs des premier et troisième modes de réalisation.
Dans un autre exemple de réalisation, le capteur pourrait comprendre, pour chaque ensemble, un entrelacement de pixels selon le premier, et/ou le deuxième et/ou le troisième mode de réalisation.

Claims

REVENDICATIONS
1. Dispositif de classification (14) d’une source lumineuse (1 1 ) comprenant :
- un capteur (20) propre à recevoir un flux lumineux émis par au moins une source lumineuse (1 1 ), le flux lumineux étant reçu sur le capteur (20) sous la forme d’une tâche (T), le capteur (20) comprenant une pluralité de pixels (P1 , P2, P3, P4) regroupés en ensembles, chaque ensemble comprenant au moins un premier pixel (P1 ) et un deuxième pixel (P2), adjacent au premier pixel (P1 ),
chaque premier pixel (P1 ) étant propre à générer un premier signal (S1 ) relatif à une première portion de flux lumineux dans une première bande spectrale (B1 ) reçue par ledit premier pixel (P1 ),
chaque deuxième pixel (P2) étant propre à générer un deuxième signal (S2) relatif à une deuxième portion de flux lumineux dans une deuxième bande spectrale (B2) reçue par ledit deuxième pixel (P2), la deuxième bande spectrale (B2) étant différente de la première bande spectrale (B1 ),
- une unité (22) de contrôle de la taille et de la forme de la tâche (T) de sorte que la tâche (T) s’étende sur au moins un ensemble de pixels (P1 , P2, P3, P4) du capteur (20), et
- un calculateur (24) configuré pour comparer le premier et le deuxième signal (S1 , S2) et pour classifier la source lumineuse d’émission (1 1 ) en fonction du résultat de la comparaison.
2. Dispositif (14) selon la revendication 1 , dans lequel le calculateur (24) est configuré pour déterminer la direction de la source lumineuse (1 1 ) d’émission par rapport au dispositif (14) en fonction de la forme et de la position de la tâche (T) sur le capteur (20).
3. Dispositif (14) selon la revendication 1 ou 2, dans lequel chaque ensemble comprend au moins un troisième pixel (P3) parmi la pluralité de pixels (P1 , P2, P3, P4) du capteur (20), chaque troisième pixel (P3) étant propre à générer un troisième signal (S3) relatif à une troisième portion de flux lumineux dans une troisième bande spectrale (B3) reçue par ledit troisième pixel (P3), la troisième bande spectrale (B3) étant différente de la première bande spectrale (B1 ) et de la deuxième bande spectrale (B2), le calculateur (24) étant configuré pour comparer le premier, le deuxième et le troisième signal (S1 , S2, S3) pour classifier la source lumineuse (1 1 ) d’émission.
4. Dispositif (14) selon la revendication 3, dans lequel la disposition des pixels (P1 , P2, P3, P4) de chaque ensemble est prédéfinie et est avantageusement identique d’un ensemble à un autre.
5. Dispositif (14) selon l’une quelconque des revendications 1 à 4, dans lequel la première bande spectrale (B1 ) est une bande spectrale d’intérêt et la deuxième bande spectrale (B2) est une bande spectrale de référence, chaque bande spectrale d’intérêt étant centrée sur une longueur d’onde d’intérêt, chaque bande spectrale de référence étant choisie dans le groupe constitué de :
- une bande spectrale centrée sur une longueur d’onde différente de la ou chaque longueur d’onde d’intérêt,
- une bande spectrale disjointe de la ou chaque bande spectrale d’intérêt, et
- une bande spectrale dans laquelle au moins une bande spectrale d’intérêt est strictement inclue,
le premier pixel (P1 ) comprenant un filtre propre à transmettre seulement la première bande spectrale (B1 ), le deuxième pixel (P2) comprenant un filtre propre à transmettre seulement la deuxième bande spectrale (B2).
6. Dispositif (14) selon la revendication 5 dans sa dépendance avec la revendication 3 ou 4, dans lequel la troisième bande spectrale (B3) est une bande spectrale d’intérêt centrée sur une longueur d’onde d’intérêt différente de la première bande spectrale (B1 ), ou une bande spectrale de référence différente de la deuxième bande spectrale (B2), le troisième pixel (P3) comprenant un filtre propre à transmettre seulement la troisième bande spectrale (B3).
7. Dispositif (14) selon la revendication 5 ou 6, dans lequel au moins une longueur d’onde d’intérêt est comprise entre 1 ,05 micromètres et 1 ,07 micromètres ou entre 1 ,50 micromètres et 1 ,70 micromètres, de préférence entre 1 ,55 micromètres et 1 ,65 micromètres.
8. Dispositif (14) selon l’une quelconque des revendications 1 à 4, dans lequel le premier pixel (P1 ) comprend un filtre rouge d’une matrice de Bayer ou un filtre vert d’une matrice de Bayer, le deuxième pixel (P2) comprenant un filtre bleu d’une matrice de Bayer.
9. Dispositif (14) selon la revendication 8, dans lequel le dispositif (14) comprend, en amont du capteur (20), un filtre pupillaire, la première bande spectrale (B1 ) étant le produit du spectre du filtre pupillaire et du spectre du filtre du premier pixel (P1 ), la deuxième bande spectrale (B2) étant le produit du spectre du filtre pupillaire et du spectre du filtre du deuxième pixel (P2), le filtre pupillaire étant, de préférence, un filtre coupe-bande dans une gamme de longueurs d’onde comprise entre 380 nanomètres et 850 nanomètres.
10. Dispositif (14) selon l’une quelconque des revendications 1 à 4, dans lequel la première bande spectrale (B1 ) et la deuxième bande spectrale (B2) sont disjointes et comportent des longueurs d’onde comprises entre 800 nanomètres et 900 nanomètres.
11. Système optronique (12) comprenant un dispositif de classification (14) selon l’une quelconque des revendications 1 à 10.
PCT/EP2020/069993 2019-07-15 2020-07-15 Dispositif de classification d'une source lumineuse WO2021009221A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP20737494.3A EP3999869A1 (fr) 2019-07-15 2020-07-15 Dispositif de classification d'une source lumineuse
CA3143971A CA3143971A1 (fr) 2019-07-15 2020-07-15 Dispositif de classification d'une source lumineuse
US17/627,573 US11940322B2 (en) 2019-07-15 2020-07-15 Device for classifying a light source
SA522431371A SA522431371B1 (ar) 2019-07-15 2022-01-13 جهاز لتصنيف مصدر للضوء
ZA2022/00728A ZA202200728B (en) 2019-07-15 2022-01-14 Device for classifying a light source

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1907907A FR3098928B1 (fr) 2019-07-15 2019-07-15 Dispositif de classification d'une source lumineuse
FRFR1907907 2019-07-15

Publications (1)

Publication Number Publication Date
WO2021009221A1 true WO2021009221A1 (fr) 2021-01-21

Family

ID=68806908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/069993 WO2021009221A1 (fr) 2019-07-15 2020-07-15 Dispositif de classification d'une source lumineuse

Country Status (7)

Country Link
US (1) US11940322B2 (fr)
EP (1) EP3999869A1 (fr)
CA (1) CA3143971A1 (fr)
FR (1) FR3098928B1 (fr)
SA (1) SA522431371B1 (fr)
WO (1) WO2021009221A1 (fr)
ZA (1) ZA202200728B (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024030331A1 (fr) * 2022-08-02 2024-02-08 Teledyne Scientific & Imaging, Llc Systèmes et procédés de réception d'évaluation de signal lumineux

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5914661A (en) * 1996-01-22 1999-06-22 Raytheon Company Helmet mounted, laser detection system
US20110188031A1 (en) * 2006-04-10 2011-08-04 Elta Systems Ltd. Distributed jammer system
WO2018065146A1 (fr) * 2016-10-05 2018-04-12 Hensoldt Sensors Gmbh Unité de détection et procédé de détection d'un signal de détection optique

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5914661A (en) * 1996-01-22 1999-06-22 Raytheon Company Helmet mounted, laser detection system
US20110188031A1 (en) * 2006-04-10 2011-08-04 Elta Systems Ltd. Distributed jammer system
WO2018065146A1 (fr) * 2016-10-05 2018-04-12 Hensoldt Sensors Gmbh Unité de détection et procédé de détection d'un signal de détection optique

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024030331A1 (fr) * 2022-08-02 2024-02-08 Teledyne Scientific & Imaging, Llc Systèmes et procédés de réception d'évaluation de signal lumineux

Also Published As

Publication number Publication date
SA522431371B1 (ar) 2024-03-28
CA3143971A1 (fr) 2021-01-21
ZA202200728B (en) 2022-08-31
FR3098928A1 (fr) 2021-01-22
US20220260415A1 (en) 2022-08-18
FR3098928B1 (fr) 2021-06-18
EP3999869A1 (fr) 2022-05-25
US11940322B2 (en) 2024-03-26

Similar Documents

Publication Publication Date Title
CN109100702A (zh) 用于测量到对象的距离的光电传感器和方法
US9995685B2 (en) Method for optical detection of surveillance and sniper personnel
WO2010076407A1 (fr) Systeme de securite perimetrique par l'analyse active des images reflechies par un jeu de miroirs sur une camera video
FR2970096A1 (fr) Dispositif et procede optoelectronique de determination de position bidimensionnelle
WO2015118075A1 (fr) Procede de detection et de classification d'evenements d'une scene
FR2970095A1 (fr) Dispositif de detection d'une direction angulaire dans laquelle se trouve un objet
EP3999869A1 (fr) Dispositif de classification d'une source lumineuse
FR3091356A1 (fr) Capteur actif, système d’identification d’objet, véhicule et feu de véhicule
US7253895B2 (en) Image detection and identification device
EP2278381A1 (fr) Dispositif optique de détection de position de casque utilisable dans une grande gamme d'éclairement ambiant
EP2593904A1 (fr) Procédé et dispositif d'imagerie bi-spectral multifonctions
EP1380811B2 (fr) Dispositif optique de mesure de distances
EP3999820B1 (fr) Dispositif de détection d'impulsions optiques
FR2885224A1 (fr) Procede et systeme de veille aeroportee par analyse d'images infrarouges
EP0604252A1 (fr) Procédé d'aide au pilotage d'un aéronef volant à basse altitude
EP1882204B1 (fr) Tete optique pour detecteur de depart de missiles ou autre equipement de veille
FR3136558A1 (fr) Capteur temps de vol et procédé de mesure de distances
FR3115888A1 (fr) Procédé de détection d’une présence d’un objet dans un champ de vision d’un capteur temps de vol
FR3124253A1 (fr) Procédé de détection d'un objet sur une surface de route, procédé de conduite autonome et dispositif d'éclairage automobile
FR3102597A1 (fr) Méthode de détermination d’une caractéristique d’une cible par un véhicule, véhicule automobile et cible
FR3104234A1 (fr) Procédé de commande d'un motif lumineux et dispositif d'éclairage automobile
WO2020260783A1 (fr) Procédé et dispositif de télémetrie passive par traitement d'image
FR3124254A1 (fr) Procédé de détection d'un objet sur une surface de route, procédé de conduite autonome et dispositif d'éclairage automobile
FR3120213A3 (fr) Procédé de commande d'un dispositif d'éclairage automobile et dispositif d'éclairage automobile
FR2747790A1 (fr) Radar permettant la detection de cibles immobiles

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20737494

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3143971

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020737494

Country of ref document: EP

Effective date: 20220215

WWE Wipo information: entry into national phase

Ref document number: 522431371

Country of ref document: SA