WO2017009565A1 - Système de détection par sources d'impulsions lumineuses de la distance entre un véhicule automobile et une cible - Google Patents

Système de détection par sources d'impulsions lumineuses de la distance entre un véhicule automobile et une cible Download PDF

Info

Publication number
WO2017009565A1
WO2017009565A1 PCT/FR2016/051773 FR2016051773W WO2017009565A1 WO 2017009565 A1 WO2017009565 A1 WO 2017009565A1 FR 2016051773 W FR2016051773 W FR 2016051773W WO 2017009565 A1 WO2017009565 A1 WO 2017009565A1
Authority
WO
WIPO (PCT)
Prior art keywords
pulse
interval
integration
target
image
Prior art date
Application number
PCT/FR2016/051773
Other languages
English (en)
Inventor
Christophe Lavergne
Shuxian LU
Jean-Louis Meyzonnette
Pierre Chavel
Original Assignee
Renault S.A.S
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault S.A.S filed Critical Renault S.A.S
Publication of WO2017009565A1 publication Critical patent/WO2017009565A1/fr

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle

Definitions

  • the invention relates to a system and method for detecting the distance between a motor vehicle and a target.
  • prior art vehicles equipped with radars are known for measuring the speed and positioning of a target by Doppler effect.
  • these radars only allow measurements to be made at scan points corresponding to a field of about 1 ° x 1 °.
  • the radars currently in use do not allow sufficiently precise measurements to significantly improve the safety of the driver.
  • the radars are unable to detect objects in stop, such as vehicles stopped on the roadway or stationary pedestrians.
  • lidars for scanning the scene point by point and detecting the reception of a signal. In doing so, the lidar is able to estimate the position, velocity and acceleration of a target.
  • the signal used is generally an infrared light signal, so that the generalization of such vehicles could pose eye safety problems for road users, and in particular for pedestrians and cyclists.
  • Document FR 2 961 141 discloses a system comprising a source of light pulses, placed on the target, and an imaging sensor, arranged on the motor vehicle.
  • the imaging sensor is programmed to detect the light pulses emitted by the target.
  • a disadvantage of this solution is that the imaging rate of the imaging sensor must be modeled on the light pulse emission by the light device. Moreover, the light pulses are not always detected, given the large amount of information contained in the images integrated by the photosensitive sensor.
  • the object of the invention is to enable the reliable and robust detection of the distance between a vehicle and a target by means of an inexpensive and reliable device, without it being necessary to implement on the target a complementary device.
  • a system for detecting the distance between a motor vehicle and a target comprising an imaging sensor and a programmer.
  • the motor vehicle comprises at least one source of light pulses capable of emitting periodic pulses of light at a pulse frequency intended to be reflected by at least one reflex reflector of the target, each pulse being emitted during a transmission interval, the programmer being programmed so that the imaging sensor integrates, for each pulse:
  • the imaging sensor is a stereovision camera and the vehicle comprises a computer capable of determining the distance between the motor vehicle and the target.
  • the target is another motor vehicle.
  • a visual pollution detector can be provided by a parasitic source emitting periodic pulses of light during an integration interval.
  • the visual pollution detector advantageously comprises a unit for detecting a saturation of the imaging sensor and a control module for an offset of the emission intervals.
  • a method of communication between a motor vehicle and a target by means of a detection system comprising at least one source of light pulses emitting light pulses at a pulse frequency to be reflected. by at least one reflex reflector of the target, wherein, for each pulse, a first image is integrated during a first integration interval, a second image is integrated during a second integration interval distinct from the first interval; integration, the pulse being transmitted during a transmission interval included in the first integration interval, and determining the position of the reflex reflectors of the target by comparing the first image and the second image.
  • the duration of the first integration interval is equal to that of the second integration interval, and the integration intervals are periodically linked to a frequency of. acquisition equals twice the pulse frequency.
  • the first integration interval is substantially coincident with the transmission interval, the second integration interval being of duration equal to that of the interval of. program.
  • the duration between the end of the first integration interval and the beginning of the second integration interval of said pulse is a constant less than half of the time between the end of the second integration interval of the said pulse and the beginning of the first integration interval of the next pulse.
  • a third image is integrated during a third integration interval distinct from the first and second integration intervals, said third integration interval being longer than 5 times. that of the pulse interval.
  • FIG. 1 schematically illustrates a system for detecting the distance between a motor vehicle and a target
  • FIG. 2 is a timing diagram illustrating a first embodiment of detection method implementation by means of the system of FIG. 1
  • FIG. 3 is a timing diagram illustrating a second exemplary implementation of a detection method using the system of FIG. 1
  • FIG. 2 is a timing diagram illustrating a first embodiment of detection method implementation by means of the system of FIG. 1
  • FIG. 3 is a timing diagram illustrating a second exemplary implementation of a detection method using the system of FIG. 1
  • FIG. 4 is a timing diagram illustrating a third exemplary implementation of a detection method using the system of FIG. 1.
  • FIG. 1 shows a detection system 2 for the distance between a follower motor vehicle 4 and a target 6.
  • the target 6 is another motor vehicle but can quite be a cyclist, a pedestrian or other object, such as a road sign, an obstacle, a danger, a turn, an entry in a built-up area a road toll, a tunnel, etc.
  • the follower vehicle 4 and the target vehicle 6 are each schematically represented in FIG. 1 by a trapezium, the short side 8 of which represents the front of the vehicle, and the long side 10 represents the rear of the vehicle.
  • the follower vehicle 4 is provided with at least one source 12 of light pulses, placed on its front face 8 so as to emit forward light pulses or, in other words, towards the rear face 10 of the vehicle 6.
  • the source 12 comprises a light emitter such as a light bulb or a light-emitting diode controlled by a programmer 14.
  • the programmer 14 controls the source 12 so that it emits a plurality of light pulses periodically. at a transmission frequency Fi.
  • Fi if the emission frequency Fi is 25 Hz, a light pulse is emitted every 40 ms, during a constant transmission interval ⁇ .
  • the follower vehicle 4 also includes an imaging sensor 16.
  • the imaging sensor 16 is a stereovision camera consisting of a first camera 18 placed on the left of the vehicle, and a second camera 20 placed on the right of the vehicle.
  • the cameras 18 and 20 are arranged at the same position along the longitudinal axis and along the vertical axis. They are spaced apart relative to each other along the transverse axis, from a base distance B.
  • the cameras 1 8 and 20 are designed to acquire a plurality of images at a predefined acquisition frequency. Each acquisition period is divided into an acquisition window, during which the camera can integrate an image and a period of blindness during which the camera can not integrate an image.
  • the embedded images are integrated during an integration interval included in an acquisition window.
  • the cameras 1 8 and 20 are controlled by the programmer 14, so that it can only integrate images simultaneously.
  • the programmer 14 transmits to the imaging sensor 16 the start time and the end time of the integration interval. such that each of the cameras 18 and 20 acquires an image, each on their own, for the duration of the integration interval.
  • an integration interval or image acquisition interval of much greater than 1 ⁇ which corresponds to the time taken by light to travel a distance of about 300 m, will be carefully selected. In this way, the travel time by the light pulses of the distance between the follower vehicle and the target does not need to be taken into consideration.
  • the two images are sent to a light pixel detection module 22.
  • the detection module 22 has the task of detecting on each of the collected images coordinates of remarkable pixels and transmits these coordinates to a calculator 24.
  • the calculator 24 has for function, from these coordinates, to calculate the distance separating the vehicles 4 and 6.
  • the target vehicle 6 has on its rear face 10 a reflector 26. However, it would not be outside the scope of the invention by adding several retro-reflectors on the rear face 1 0 of the target vehicle 6. In practice, these reflex reflectors can be integrated in one of the rear lights of the vehicle 6. They may also correspond to the regulatory reflective surfaces on all vehicles, in certain countries.
  • the target vehicle 6 comprises two retro-reflectors, distributed on each side of its rear face 10. These reflex reflectors are the reflex reflectors in a certain number of countries, so that the impelementation of this detection system does not even require adapt the follower vehicle 6.
  • the detection module 22 is specially designed to detect the light pixel corresponding to the reflection of a light pulse emitted by the source 12 reflected by the reflex reflector 26.
  • the detection module 22 determines the coordinates of the light pixel corresponding to the position of the reflector 26 relative to the camera 1 8 -respectively the camera 20 .
  • the cameras 1 8 and 20 being offset relative to each other on the transverse axis of the vehicle 4, the coordinates of the light pixel are not the same on the two images acquired simultaneously.
  • the light pixel will appear on the right of an image acquired by the camera 1 8 and on the left of an image acquired by the camera 20.
  • the computer 24 Knowing the coordinates of the light pixel on the 1 and on the other images respectively acquired by the cameras 1 8 and 20, the computer 24 can calculate the offset between these two coordinates. It is said that the calculator determines the "disparity". Knowing the basic distance B, the model of the optics of the cameras 26 and 28 and their focal lengths, the computer 34 deduces from the disparity the distance of the vehicle 6 from the vehicle 4, by triangulation.
  • the integration intervals, during which an image is integrated by the camera 18 and by the camera 20, are represented on the chronogram by rectangles 30 and 31.
  • the camera 18 or 20 integrates a image for the duration of the associated acquisition window.
  • the time of the timing diagram of FIG. 2 nine pairs of images are integrated by the imaging sensor 16, each pair of images comprising an image integrated by the camera 18 and an image integrated by the camera 20.
  • a light pulse 28 is emitted at the same time as a first integration interval 30 begins.
  • Two images NG1 and ND1 respectively integrated by one and the other of the cameras 18 and 20 are transmitted to the detection module 22 and stored by the latter.
  • a second integration interval 31 starts again, without this time that a light pulse is emitted during the duration of this integration.
  • the integration interval 31 is completed and two new images NG2 and ND2 respectively integrated by one and the other of the cameras 18 and 20 are transmitted to the detection module 22.
  • the images NG 1 and NG 2 are almost identical, except that the image NG 1 comprises a light pixel relative to the corresponding pixels of the image NG2.
  • This pixel is due to the reflection of the light pulse in each of the retro-reflectors 26, during the first integration interval 30.
  • the coordinates of this pixel inform the position of the reflector 26, with respect to the camera 1 8.
  • the detection module determines, in the same way, the coordinates of the light pixel on the ND 1 image by subtracting said ND 1 image by the ND 2 image. . These coordinates are transmitted to the detection module 22.
  • the cameras 1 8 and 20 being offset relative to each other on the transverse axis of the vehicle 4, the coordinates of the light pixel are different. Knowing the coordinates of the light pixel detected by one and the other of the cameras 1 8 and 20, the computer 24 can calculate the offset between the position of the pixel on one and the position of the pixel on the other. In other words, the calculator determines the "disparity", which corresponds to the distance between the position of the catadiopter 26 seen by the camera 1 8 and the position of the catadiopter 26 seen by the camera 20. Knowing the base distance B, the model of the optics of the cameras 1 8 and 20 and their fcal distances /, the calculator 24 easily deduces from the disparity ⁇ the distance D of the vehicle 6 with respect to the vehicle 4. In practice, the
  • the calculator assigns them a reflex reflector and determines the distance of the vehicle by compared to the reflex reflector. By averaging the calculated distances, taking into account the law of large numbers, it determines the distance D more precisely than with a single reflector. It is also advantageous to have several retro-reflectors in order to be able to determine the distance D even when one of the reflex reflectors does not reflect light, for example if sludge has been projected onto it.
  • the programmer 14 is programmed such that, during each transmission period, at least two distinct integration intervals take place. In other words, each time a light pulse is emitted, at least two images are integrated by each of the cameras 1 8 and 20. In this way, each of the cameras 1 8 and 20 sees the bright pixels "flash". This greatly facilitates the detection of the luminous pixels by the detection module 22.
  • FIG. 3 shows a timing diagram illustrating a second detection method that can be implemented using the system of FIG. 1. This mode of implementation differs in particular from that shown in FIG. 2, in that the integration intervals are no longer periodic.
  • FIG. 3 shows in dashed lines the acquisition windows of the imaging sensor used for the embodiment of FIG. 2.
  • the imaging sensor used can integrate images at a frequency of acquisition of 60 Hz, so that the duration of the acquisition window is 16 ms and the blind period between two acquisition windows is about 0.67 ms.
  • the light pulse emission intervals are represented on the timing diagram of FIG. 3 by rectangles 32 filled with hatching.
  • the integration intervals, during which an image is integrated by the camera 18 and by the camera 20, are represented on the chronogram by rectangles 34 and 35.
  • each of the cameras 18 and 20 realizes two image integrations included in two different acquisition windows.
  • the first integrated image is integrated during a first integration interval 34 coincides with the transmission interval 32 of the corresponding light pulse.
  • the transmission interval 32 is located either at the beginning or at the end of an acquisition window. In this example, the transmission interval is located at the end of an acquisition window.
  • the second integrated image is integrated during a second integration interval 35 of the same duration as the first integration interval, and included in an acquisition window adjacent to the acquisition window of the first integration interval.
  • the second integration interval takes place at the end of the acquisition window which precedes the acquisition window of the first integration interval, if the latter takes place at the beginning of an acquisition window.
  • the first integration interval takes place at the end of an acquisition window, as is the case in the example of the timing diagram of FIG. 3, the second integration interval takes place at the beginning of the window following acquisition.
  • the duration of the integration intervals 34 and 35 is constant and always equal to the duration of the transmission intervals Ai.
  • the origin of the chronogram times of FIG. 3 corresponds to the beginning of an acquisition window.
  • the imaging sensor then transmits two images NG1 and ND1 to the detection module 22.
  • the steps of the method of FIG. 2 are subsequently applied successively to detect the coordinates of the light pixel (s) corresponding to the (x) reflectors of the follower vehicle, to calculate the disparity and to deduce therefrom the distance separating the two vehicles, by triangulation.
  • the detection of the light pulses is made very easy and very robust, by the fact that one visualizes twice the scene seen by one and the other of the cameras 18 and 20, once with the light pulse and another time without light pulse.
  • the image processing is simplified by assuming that between two successive images, the relative position of the objects in the scene has changed very little. Indeed, in the example of Figure 3, a fraction of a millisecond has elapsed between the two image integrations 34 and 35. This reinforces the robustness and ease of detection of the light pixels.
  • the duration of the integration intervals 34 and 35 is reduced compared to the duration of the acquisition window of the imaging sensor.
  • the duration of the transmission interval 32 has also been reduced compared with the first embodiment. If we consider that several detection systems implement such a detection method on the road, the reduction of the integration and emission interval times greatly reduces the risk that one of the systems will be affected by the light pulses from another parasitic detection system, while guaranteeing a stable acquisition frequency.
  • visual pollution by a parasitic system is meant that the image processing is not made possible because of the light pulses emitted by an equivalent detection system implemented on another motor vehicle. Pollution by an equivalent system can also be avoided by the impelementation of a detector 36 within the follower vehicle 4 (with reference to FIG. 1).
  • the function of the detector 36 is to detect the emission of parasitic light pulses by an equivalent system on another vehicle.
  • the light pulses are interfering if the light pulse sources of the equivalent system emit at the same transmission frequency as the follower vehicle 4, and if the transmissions are synchronized with one of the first and second integration intervals of the light sensor. In these two cases, the detection system 2 can no longer reliably and simply detect the reflections of the light pulses that it has generated itself.
  • the detection of stray light pulses is based on the fact that the spurious pulses arrive directly at the detector, unlike the reflected pulses emitted by the source of pulses 12 which can not arrive without being reflected by the reflector 26. the intensity of the spurious pulses and much more important than the intensity of the reflected pulses.
  • the cameras 1 8 and 20 are designed such that the presence of spurious pulses causes their saturation.
  • the detector 36 comprises a unit 38 capable of detecting this saturation. When the unit 38 detects the saturation, it transmits a signal to a control module 40, in connection with the programmer 14.
  • the control module 40 then generates a temporal offset at random so as to shift the transmission interval of random way for the system to become fully operational again.
  • the control module 40 generates a random number K, between 0 and 1599. This number is transmitted to the programmer 14, which calculates, as a function of K:
  • FIG. 4 shows a timing diagram illustrating a third detection method that can be implemented using the system of FIG. 1.
  • the imaging sensor 16 is configured at the same 60 Hz acquisition frequency as in the method illustrated in FIG. 3.
  • the light pulses are emitted periodically, at a frequency of 20 Hz. In other words, a pulse is emitted every three acquisition windows. Thus only three light pulses are emitted on the timing diagram of FIG.
  • the light pulse emission intervals are shown in the timing diagram of FIG. 4 by rectangles 42 filled with hatching.
  • the integration intervals are represented on the timing diagram by rectangles 44, 45 and 46.
  • N can take the value 1, 4 or 7.
  • the first image is integrated during a first integration interval 44 coincides with the transmission interval 42 of the corresponding light pulse.
  • the second image is integrated during a second integration interval 45 of the same duration as the first integration interval 44, and included in the acquisition window N + 1, that is to say in the second, the fifth and the eighth integration windows with reference to FIG. 4.
  • the first and second integration intervals 44 and 45 thus correspond to the first and second integration intervals 34 and 35. of the timing diagram of Figure 3.
  • a third image is integrated during a third integration interval referenced 46 in FIG. 4.
  • the interval 46 is distinct from the first and second integration intervals 44 and 45, and included in the integration window N +2, i.e., in the third, sixth and ninth integration windows with reference to FIG. 4.
  • the origin of the chronogram times of FIG. 4 corresponds to the beginning of an acquisition window. Up to the instant t ⁇ 33.33 ms with respect to the origin of the times, the timing diagram is identical to that of FIG. 3.
  • Four images NG1, ND1, NG2 and ND2 have already been transmitted to the detection module which, using the computer 24, has determined the distance between the vehicle 4 and the vehicle 6.
  • a third acquisition window begins, which ends at t ⁇ 49.33 ms. During the entire duration of this third window, no light pulse is emitted.
  • an image integration begins, during a third integration interval 46 of duration 1 5 ms.
  • the image integration is completed and two new images NG3 and ND3 respectively acquired by one and the other of the cameras 1 8 and 20 are transmitted to the detection module 22 or to the computer 24, or to another component of the vehicle 's on - board computer 4.
  • the invention provides a means for easily and robustly determining the distance between a motor vehicle and a target, the target only having one or more retro-reflectors. In some countries where reflex reflectors are mandatory, all vehicles in good standing are therefore suitable as targets of this system.
  • the detection system and the detection method have been detailed with respect to a target corresponding to a motor vehicle. However, it is not beyond the scope of the invention to envisage a different target, such as a cyclist or a pedestrian, or of any other nature such as a warning sign of a danger, a bend, a speed limitation or an entry in agglomeration.
  • a different target such as a cyclist or a pedestrian
  • the reliability of the system is improved and the computational power needed to operate it, and thus the cost of such a system, is reduced.
  • the cost of the system is limited and the number of compatible targets is increased.

Abstract

Ce système (2) de détection de la distance entre un véhicule automobile (4) et une cible (6) comprend un capteur d'imagerie (16) et un programmateur (14). Le véhicule automobile (4) comporte au moins une source d'impulsions lumineuses (12) apte à émettre des impulsions lumineuses périodiques à une fréquence d'impulsion (F1) destinées à être réfléchies par au moins un catadioptre (26) de la cible (6), chaque impulsion étant émise pendant un intervalle d'émission, le programmateur étant programmé pour que le capteur d'imagerie intègre, pour chaque impulsion : -une première image pendant un premier intervalle d'intégration dans lequel l'intervalle d'émission est inclus, et -une seconde image pendant un second intervalle d'intégration distinct de l'intervalle d'émission.

Description

Système de détection par sources d'impulsions lumineuses de la distance entre un véhicule automobile et une cible
L 'invention concerne un système et un procédé de détection de la distance entre un véhicule automobile et une cible.
Étant donnée l ' évo lution actuelle du contexte routier, qui assiste à une multiplication des réseaux autoroutiers et à une augmentation du trafic de véhicules automobiles, la nécessité d' améliorer la sécurité du conducteur d'un véhicule automobile en réduisant l ' impact de ses propres erreurs d' appréciation sur l ' état de la circulation se fait ressentir. En particulier, les erreurs d' appréciation concernant la position, la vitesse et l ' accélération des autres véhicules peuvent aisément être corrigées en détectant les distances entre les véhicules automobiles .
À cette fin, on connaît des véhicules de l ' art antérieur équipés de radars permettant de mesurer la vitesse et le positionnement d' une cible par effet Doppler. Toutefois, ces radars ne permettent d ' effectuer des mesures que sur des points de balayage correspondant à un champ d' environ l °x l ° . Il en résulte que les radars actuellement utilisés ne permettent pas des mesures assez précises pour améliorer significativement la sécurité du conducteur. En outre, les radars sont incapables de détecter les obj ets en arrêt, tels que des véhicules arrêtés sur la chaussée ou des piétons immobiles .
D ' autres véhicules sont équipés de lidars permettant de scanner la scène point par point et de détecter la réception d'un signal. C e faisant, le lidar est capable d' estimer la position, la vitesse et l ' accélération d'une cible. Toutefois, le signal utilisé est généralement un signal lumineux infrarouge, de sorte que la généralisation de tels véhicules pourrait poser des problèmes de sécurité oculaire pour les usagers de la route, et en particulier pour les piétons et les cyclistes.
De manière générale, on constate que les radars et les lidars sont mal adaptés pour identifier des obj ets à cause de leur résolution angulaire qui est trop faible . En outre, ces dispositifs sont trop onéreux pour être incorporés sur la plupart des véhicules automobiles .
On connaît, par le document FR 2 961 141 , un système comprenant une source d' impulsions lumineuses, disposée sur la cible, et un capteur d' imagerie, disposé sur le véhicule automobile. Le capteur d' imagerie est programmé pour détecter les impulsions lumineuses émises par la cible. Un inconvénient de cette so lution est que la cadence d' imagerie du capteur d' imagerie doit être calquée sur les émissions d' impulsions lumineuses par le dispositif lumineux. Par ailleurs, les impulsions lumineuses ne sont pas toujours détectées, compte tenu du grand nombre d' informations contenues dans les images intégrées par le capteur photosensible.
En outre, de tels systèmes de détection ne fonctionnent que pour des cibles compatibles, c ' est à dire équipées de sources d' impulsions lumineuses dont la fréquence d' émission est synchronisée avec la fréquence d'intégration d' images par le capteur d' imagerie.
Au vu de ce qui précède, l' invention a pour but de permettre la détection fiable et robuste de la distance entre un véhicule et une cible au moyen d'un dispositif peu onéreux et fiable, sans qu' il soit nécessaire d' implémenter sur la cible un dispositif complémentaire.
À cet effet, il est proposé un système de détection de la distance entre un véhicule automobile et une cible, comprenant un capteur d' imagerie et un programmateur. Le véhicule automobile comporte au moins une source d' impulsions lumineuses apte à émettre des impulsions lumineuses périodiques à une fréquence d' impulsion destinées à être réfléchies par au moins un catadioptre de la cible, chaque impulsion étant émise pendant un intervalle d' émission, le programmateur étant programmé pour que le capteur d' imagerie intègre, pour chaque impulsion :
une première image pendant un premier intervalle d'intégration dans lequel l ' intervalle d' émission est inclus, et
une seconde image pendant un second intervalle d'intégration distinct de l 'intervalle d ' émission. En équipant le même véhicule automobile avec la source d' impulsions lumineuses et le capteur d' imagerie, on peut adapter le signal au détecteur de ce signal, ce qui augmente la robustesse de la détection des impulsions lumineuses. En intégrant deux images pour chaque impulsion, on rend la détection des impulsions lumineuses plus facile. L 'utilisation de catadioptres permet d' éviter l 'imp lémentation d'un dispositif complexe sur la cible, et augmente le nombre de cibles compatibles avec ce système de détection.
Selon un mode de réalisation, le capteur d' imagerie est une caméra à stéréovision et le véhicule comprend un calculateur apte à déterminer la distance entre le véhicule automobile et la cible.
On peut prévoir que la cible soit un autre véhicule automobile.
On peut en outre prévoir un détecteur de pollution visuelle par une source parasite émettant des impulsions lumineuses périodiques pendant un intervalle d' intégration.
Dans ce cas, le détecteur de pollution visuelle comprend avantageusement une unité de détection d'une saturation du capteur d' imagerie et un module de commande d'un décalage des intervalles d' émission.
Selon un autre aspect, il est proposé un procédé de communication entre un véhicule automobile et une cible au moyen d'un système de détection comportant au moins une source d' impulsions lumineuses émettant des impulsions lumineuses à une fréquence d' impulsion destinées à être réfléchies par au moins un catadioptre de la cible, dans lequel, pour chaque impulsion, on intègre une première image au cours d 'un premier intervalle d'intégration, on intègre une seconde image pendant un second intervalle d'intégration distinct du premier intervalle d'intégration, l' impulsion étant émise pendant un intervalle d' émission inclus dans le premier intervalle d'intégration, puis on détermine la position des catadioptres de la cible par comparaison de la première image et de la deuxième image.
Plusieurs modes de mise en œuvre en variante sont possibles pour optimiser la reconnaissance des impulsions lumineuses par le capteur d' imagerie ou pour rendre le système compatible à d' autres applications.
Selon un premier mode de mise en œuvre en variante, pour chaque impulsion, la durée du premier intervalle d' intégration est égale à celle du second intervalle d' intégration, et les intervalles d'intégration s ' enchaînent de manière périodique à une fréquence d' acquisition égale au double de la fréquence d 'impulsion.
Selon un deuxième mode de mise en œuvre en variante, pour chaque impulsion, le premier intervalle d' intégration est sensiblement confondu avec l' intervalle d' émission, le second intervalle d'intégration étant de durée égale à celle de l ' intervalle d' émission.
Dans ce deuxième mode de mise en œuvre, on peut encore prévoir que, pour chaque impulsion, la durée entre la fin du premier intervalle d'intégration et le début du deuxième intervalle d'intégration de ladite impulsion est une constante inférieure à la moitié de la durée entre la fin du deuxième intervalle d'intégration de ladite impulsion et le début du premier intervalle d'intégration de l' impulsion suivante.
Selon un troisième mode de mise en œuvre en variante, pour chaque impulsion, on intègre une troisième image pendant un troisième intervalle d' intégration distinct des premier et second intervalles d'intégration, ledit troisième intervalle d' intégration étant de longueur supérieure à 5 fois celle de l ' intervalle d' impulsion.
D ' autres buts, caractéristiques et avantages de l 'invention apparaîtront à la lecture de la description suivante, donnée uniquement à titre d' exemple non limitatif, et faite en référence aux dessins annexés sur lesquels :
- la figure 1 illustre schématiquement un système de détection de la distance entre un véhicule automobile et une cible,
- la figure 2 est un chronogramme illustrant un premier exemple de mise en œuvre de procédé de détection au moyen du système de la figure 1 , - la figure 3 est un chronogramme illustrant un deuxième exemple de mise en œuvre de procédé de détection au moyen du système de la figure 1, et
- la figure 4 est un chronogramme illustrant un troisième exemple de mise en œuvre de procédé de détection au moyen du système de la figure 1.
On a représenté sur la figure 1 un système de détection 2 de la distance entre un véhicule automobile suiveur 4 et une cible 6. Dans ce mode de réalisation, la cible 6 est un autre véhicule automobile mais peut tout à fait être un cycliste, un piéton ou un autre objet, tel qu'un un panneau de signalisation, un obstacle, un danger, un virage, une entrée en agglomération un péage routier, un tunnel, etc. Le véhicule suiveur 4 et le véhicule cible 6 sont chacun schématiquement représentés sur la figure 1 par un trapèze, dont le petit côté 8 représente l'avant du véhicule, et le grand côté 10 représente l'arrière du véhicule.
Le véhicule suiveur 4 est doté d'au moins une source 12 d'impulsions lumineuses, placée sur sa face avant 8 de manière à émettre des impulsions lumineuses vers l'avant ou, en d'autres termes, vers la face arrière 10 du véhicule automobile 6. La source 12 comprend un émetteur de lumière tel qu'une ampoule ou une diode électroluminescente contrôlée par un programmateur 14. Le programmateur 14 pilote la source 12 de telle sorte que celle-ci émette une pluralité d'impulsions lumineuses de manière périodique à une fréquence d'émission Fi. Ainsi, si la fréquence d'émission Fi est de 25 Hz, une impulsion lumineuse est émise toutes les 40 ms, pendant un intervalle d'émission Δι constant.
Le véhicule suiveur 4 comporte par ailleurs un capteur d'imagerie 16. Le capteur d'imagerie 16 est une caméra à stéréovision constituée d'une première caméra 18 placée sur la gauche du véhicule, et d'une deuxième caméra 20 placée sur la droite du véhicule. Par rapport au véhicule suiveur 4, les caméras 18 et 20 sont disposées à la même position selon l'axe longitudinal et selon l'axe vertical. Elles sont distancées l'une par rapport à l'autre selon l'axe transversal, d'une distance de base B . Les caméras 1 8 et 20 sont conçues pour acquérir une pluralité d' images à une fréquence d' acquisition prédéfinie. Chaque période d' acquisition est divisée en une fenêtre d' acquisition, au cours de laquelle la caméra peut intégrer une image et une période d' aveuglement au cours de laquelle la caméra ne peut pas intégrer d' image. Les images intégrées sont intégrées au cours d'un intervalle d' intégration compris dans une fenêtre d' acquisition. Les caméras 1 8 et 20 sont pilotées par le programmateur 14, de manière à ne pouvoir intégrer des images que simultanément. En d' autres termes, lorsqu 'une image doit être intégrée pendant un intervalle d'intégration, le programmateur 14 transmet au capteur d' imagerie 16 l' instant de début et l ' instant de fin de l' intervalle d'intégration, de telle sorte que chacune des caméras 1 8 et 20 acquièrent une image, chacune de leur côté, pendant la durée de l' intervalle d' intégration.
D 'une manière générale, on choisira soigneusement une durée d'intervalle d'intégration ou d'intervalle d' acquisition des images nettement supérieure à 1 β qui correspond au temps mis par la lumière pour parcourir une distance d' environ 300 m. De cette façon, le temps de parcours par les impulsions lumineuses de la distance entre le véhicule suiveur et la cible ne nécessite pas d' être pris en considération.
Les deux images sont envoyées à un module de détection de pixels lumineux 22. Le mo dule de détection 22 a pour tâche de détecter sur chacune des images recueillies des coordonnées de pixels remarquables et transmet ces coordonnées à un calculateur 24. Le calculateur 24 a pour fonction, à partir de ces coordonnées, de calculer la distance séparant les véhicules 4 et 6.
Le véhicule cible 6 comporte sur sa face arrière 10 un catadioptre 26. Toutefois, on ne sortirait pas du cadre de l' invention en ajoutant plusieurs catadioptres sur la face arrière 1 0 du véhicule cible 6. En pratique, ces catadioptres peuvent être intégrés dans l' un des phares arrière du véhicule 6. Ils peuvent également correspondre aux surfaces réfléchissantes réglementaires sur tous les véhicules, dans certains pays. Avantageusement, le véhicule cible 6 comporte deux catadioptres, répartis sur chaque côté de sa face arrière 10. Ces catadioptres sont les catadioptres réglementaires dans un certain nombre de pays, de sorte que l 'imp lémentation de ce système de détection ne nécessite même pas d ' adapter le véhicule suiveur 6.
Comme cela sera détaillé par la suite, le module de détection 22 est spécialement conçu pour détecter le pixel lumineux correspondant au reflet d 'une impulsion lumineuse émise par la source 12 réfléchie par le catadioptre 26. Dans cet exemp le de réalisation, lorsqu'une image prise par la caméra 1 8 -respectivement par la caméra 20- est transmise au module de détection 22, celui-ci détermine les coordonnées du pixel lumineux correspondant à la position du catadioptre 26 par rapport à la caméra 1 8 -respectivement la caméra 20.
Les caméras 1 8 et 20 étant décalées l 'une par rapport à l ' autre sur l ' axe transversal du véhicule 4, les coordonnées du pixel lumineux ne sont pas les mêmes sur les deux images acquises simultanément . Dans l ' exemple de réalisation illustré en figure 1 , le pixel lumineux apparaîtra sur la droite d'une image acquise par la caméra 1 8 et sur la gauche d'une image acquise par la caméra 20. Connaissant les coordonnées du pixel lumineux sur l 'une et sur l ' autre des images respectivement acquises par les caméras 1 8 et 20, le calculateur 24 peut calculer le décalage entre ces deux coordonnées. On dit alors que le calculateur détermine la « disparité ». Connaissant la distance de base B, le modèle des optiques des caméras 26 et 28 et leurs distances focales, le calculateur 34 déduit de la disparité la distance du véhicule 6 par rapport au véhicule 4, par triangulation.
Au moyen du système de détection 2, il est possible de mettre en œuvre un procédé de détection qui va être détaillé en référence au chronogramme de la figure 2. On remarque que les durées représentées sur ce chronogramme, mais aussi celles représentées sur le chronogramme des figures 3 et 4 ne sont pas représentées à l ' échelle.
Sur ce chronogramme, on a représenté les intervalles d' émission d ' impulsions lumineuses par des rectangles 28. Pendant toute la durée du chronogramme de la figure 2, cinq impulsions lumineuses sont donc émises par la source 12, de manière périodique à la fréquence Fi = 25 Hz. On a donc représenté la période Pi entre deux impulsions lumineuses, égale à 40 ms. On a par ailleurs représenté la durée Ai = 1 ms de l'intervalle d'émission de chaque impulsion lumineuse.
Les intervalles d'intégration, au cours desquels une image est intégrée par la caméra 18 et par la caméra 20, sont représentés sur le chronogramme par des rectangles 30 et 31. Dans ce mode de mise en œuvre, la caméra 18 ou 20 intègre une image pendant toute la durée de la fenêtre d'acquisition associée. Le temps du chronogramme de la figure 2, neuf paires d'images sont intégrées par le capteur d'imagerie 16, chaque paire d'image comportant une image intégrée par la caméra 18 et une image intégrée par la caméra 20. Dans le procédé illustré par le chronogramme de la figure 2, le capteur d'imagerie fonctionnant à la fréquence d'acquisition F2 = 50 Hz, les fenêtres d'acquisitions ont une durée Δ2 = 19 ms et un intervalle d'aveuglement du capteur d'imagerie, de durée 1 ms, est interposé entre deux fenêtres d'acquisitions successives.
En se plaçant à l'origine des temps du chronogramme de la figure 2, une impulsion lumineuse 28 est émise au même instant qu'un premier intervalle d'intégration 30 débute. L'émission de l'impulsion lumineuse se poursuit puis s'arrête à t = 1 ms. L'intégration, elle, se poursuit jusqu'à t = 19 ms, instant auquel elle s'arrête. Deux images NG1 et ND1 intégrées respectivement par l'une et par l'autre des caméras 18 et 20 sont transmises au module de détection 22 et mémorisées par ce dernier.
A t = 20 ms, un deuxième intervalle d'intégration 31 recommence, sans cette fois qu'une impulsion lumineuse ne soit émise pendant la durée de cette intégration. A t = 39ms, l'intervalle d'intégration 31 est terminé et deux nouvelles images NG2 et ND2 intégrées respectivement par l'une et par l'autre des caméras 18 et 20 sont transmises au module de détection 22. Compte tenu de l ' ordre de grandeur important de la fréquence d' acquisition, les images NG 1 et NG2 sont quasiment identiques, à ceci près que l ' image NG 1 comporte un pixel lumineux par rapport aux pixels correspondants de l' image NG2. Ce pixel est du à la réflexion de l' impulsion lumineuse dans chacun des catadioptres 26, pendant le premier intervalle d' intégration 30. En conséquence, les coordonnées de ce pixel renseignent la position du catadioptre 26, par rapport à la caméra 1 8. Pour détecter ces coordonnées, le module de détection 22 soustrait à t = 19 ms l 'image NG 1 mémorisée à l' image NG2. I l apparaît alors une image « noire » comprenant seulement un pixel lumineux, dont les coordonnées sont aisément détectables.
Pour connaître la position du catadioptre 26 par rapport à la caméra 20, le module de détection détermine, de la même façon, les coordonnées du pixel lumineux sur l' image ND 1 en faisant une soustraction de ladite image ND 1 par l 'image ND2. Ces coordonnées sont transmises au module de détection 22.
Les caméras 1 8 et 20 étant décalées l 'une par rapport à l ' autre sur l ' axe transversal du véhicule 4, les coordonnées du pixel lumineux sont différentes. Connaissant les coordonnées du pixel lumineux détecté par l 'une et par l ' autre des caméras 1 8 et 20, le calculateur 24 peut calculer le décalage entre la position du pixel sur l 'une et la position du pixel sur l ' autre. En d' autres termes, le calculateur détermine la « disparité », qui correspond à la distance entre la position du catadioptre 26 vu par la caméra 1 8 et la position du catadioptre 26 vu par la caméra 20. Connaissant la distance de base B , le modèle des optiques des caméras 1 8 et 20 et leurs distances fo cales / , le calculateur 24 déduit aisément de la disparité Δ la distance D du véhicule 6 par rapport au véhicule 4. En pratique, on applique la f
relation : D = B x— .
A
Ces étapes sont répétées toutes les deux intégrations d' image de sorte que la distance D du véhicule 6 par rapport au véhicule 4 , estimée par le calculateur 24 est actualisée toutes les 40 ms . Lorsque le véhicule comporte plusieurs catadioptres, la répartition des catadioptres sur la face arrière sera avantageusement connue du calculateur 24. Ainsi, connaissant les coordonnées des multip les pixels lumineux sur les images impaires, le calculateur leur attribue un catadioptre et détermine la distance du véhicule par rapport au catadioptre . En faisant la moyenne des distances calculées, compte tenu de la loi des grands nombres, il détermine la distance D de manière plus précise qu' avec un seul catadioptre. Il est par ailleurs avantageux de disposer plusieurs catadioptres pour pouvoir encore déterminer la distance D, même lorsque l 'un des catadioptres ne réfléchit pas la lumière, par exemp le si de la boue a été proj etée sur celui-ci.
Ainsi, pour mettre en œuvre ce procédé, le programmateur 14 est programmé de telle sorte que, pendant chaque période d' émission, au moins deux intervalles d' intégration distincts aient lieu. En d' autres termes, chaque fois qu'une impulsion lumineuse est émise, au moins deux images sont intégrées par chacune des caméras 1 8 et 20. De la sorte, chacune des caméras 1 8 et 20 voit les pixels lumineux « clignoter » . Cela facilite grandement la détection des pixels lumineux par le module de détection 22.
Cet avantage a pour conséquence d' augmenter la fiabilité de la détection de la distance sans pour autant nécessiter un système plus compliqué. En particulier, le seul composant du système que doit comporter le véhicule suiveur 6 est un catadioptre . Un tel composant est déj à présent sur la plupart des faces arrière des véhicules automobiles . En outre, la source d' impulsions lumineuses et le capteur d' imagerie peuvent aisément être couplés pour mettre en œuvre le chronogramme de la figure 2 car ils sont implémentés sur le même véhicule. Enfin, il est possible de mo difier la fréquence d ' actualisation de l ' estimation de la distance entre les véhicules 4 et 6, en mo difiant seulement la fréquence d' acquisition F2.
On a représenté sur la figure 3 un chronogramme illustrant un deuxième procédé de détection pouvant être mis en œuvre au moyen du système de la figure 1 . Ce mode de mise en œuvre diffère en particulier de celui représenté à la figure 2, en ce que les intervalles d'intégration ne sont plus périodiques. Sur la figure 3, on a représenté en pointillés les fenêtres d'acquisition du capteur d'imagerie utilisé pour le mode de mise en œuvre de la figure 2. Le capteur d'imagerie utilisé peut intégrer des images à une fréquence d'acquisition de 60 Hz, de sorte que la durée de la fenêtre d'acquisition est de 16 ms et que la période d'aveuglement entre deux fenêtres d'acquisition est d'environ 0,67 ms.
Les intervalles d'émission d'impulsions lumineuses sont représentés sur le chronogramme de la figure 3 par des rectangles 32 remplis par des hachures. Les intervalles d'intégration, au cours desquels une image est intégrée par la caméra 18 et par la caméra 20, sont représentés sur le chronogramme par des rectangles 34 et 35. Pour chaque émission d'impulsion lumineuse, chacune des caméras 18 et 20 réalise deux intégrations d'images comprises dans deux fenêtres d'acquisition différentes. La première image intégrée est intégrée pendant un premier intervalle d'intégration 34 confondu avec l'intervalle d'émission 32 de l'impulsion lumineuse correspondante. De préférence, l'intervalle d'émission 32 est situé soit au début, soit à la fin d'une fenêtre d'acquisition. Dans cet exemple, l'intervalle d'émission est situé à la fin d'une fenêtre d'acquisition. La deuxième image intégrée est intégrée pendant un second intervalle d'intégration 35 de même durée que le premier intervalle d'intégration, et inclus dans une fenêtre d'acquisition adjacente à la fenêtre d'acquisition du premier intervalle d'intégration. Avantageusement, le second intervalle d'intégration a lieu à la fin de la fenêtre d'acquisition qui précède la fenêtre d'acquisition du premier intervalle d'intégration, si ce dernier a lieu au début d'une fenêtre d'acquisition. Si le premier intervalle d'intégration a lieu à la fin d'une fenêtre d'acquisition, comme c'est le cas dans l'exemple du chronogramme de la figure 3, le second intervalle d'intégration a lieu au début de la fenêtre d'acquisition suivante. Au vu de ce qui précède, la durée des intervalles d'intégration 34 et 35 est constante et toujours égale à la durée des intervalles d'émission Ai. L'origine des temps du chronogramme de la figure 3 correspond au début d'une fenêtre d'acquisition. A l'instant t = 15,9 ms par rapport à l'origine des temps, une impulsion lumineuse 32 de durée Δι = 10 est émise au même instant qu'un premier intervalle d'intégration 34 débute. L'émission de l'impulsion lumineuse 32 et l'intégration d'image 34 se poursuivent puis s'arrêtent à t = 15,91 ms. Le capteur d'imagerie transmet alors deux images NG1 et ND1 au module de détection 22.
A t ~ 16,17 ms, une autre fenêtre d'acquisition commence. Aucune impulsion lumineuse n'est émise pendant toute la durée de cette fenêtre. A t = 16,2 ms, une intégration d'image commence, pendant un second intervalle d'intégration 35 de même durée que le premier intervalle d'intégration 34, c'est-à-dire 10 μβ. A t = 16,21 ms, l'intégration d'image est terminée et deux nouvelles images NG2 et ND2 acquises respectivement par l'une et par l'autre des caméras 18 et 20 sont transmises au module de détection 22.
On applique ensuite les étapes du procédé de la figure 2 permettant successivement de détecter les coordonnées du(des) pixel(s) lumineux correspondant au(x) catadioptres du véhicule suiveur, de calculer la disparité et d'en déduire la distance séparant les deux véhicules, par triangulation.
Comme dans le procédé détaillé au moyen du chronogramme de la figure 2, la détection des impulsions lumineuses est rendue très facile et très robuste, par le fait qu'on visualise deux fois la scène vue par l'une et par l'autre des caméras 18 et 20, une fois avec l'impulsion lumineuse et une autre fois sans impulsion lumineuse.
En rapprochant autant que faire se peut les intervalles d'intégration 34 et 35, on simplifie le traitement d'images en supposant qu'entre deux images successives, la position relative des objets dans la scène a très peu varié. En effet, dans l'exemple de la figure 3, une fraction de milliseconde s'est écoulée entre les deux intégrations d'image 34 et 35. Cela renforce la robustesse et la facilité de la détection des pixels lumineux. En outre, la durée des intervalles d ' intégration 34 et 35 est réduite par rapport à la durée de la fenêtre d' acquisition du capteur d' imagerie. La durée de l' intervalle d' émission 32 a par ailleurs été réduite par rapport au premier mode de réalisation. Si l'on considère que plusieurs systèmes de détection mettent en œuvre un tel procédé de détection sur la route, la réduction des durées des intervalles d'intégration et d' émission réduit fortement le risque qu'un des systèmes ne soit po llué par les impulsions lumineuses d'un autre système de détection parasite, tout en garantissant une fréquence d' acquisition stable.
Par pollution visuelle par un système parasite, on entend que le traitement d' images n' est pas rendu possible en raison des impulsions lumineuses émises par un système de détection équivalent implémenté sur un autre véhicule automobile. La pollution par un système équivalent peut également être évitée par l' imp lémentation d 'un détecteur 36 au sein du véhicule suiveur 4 (en référence à la figure 1 ) . Le détecteur 36 a pour fonction de détecter l ' émission d' impulsions lumineuses parasites par un système équivalent sur un autre véhicule. Les impulsions lumineuses sont parasites si les sources d' impulsions lumineuses du système équivalent émettent à la même fréquence d' émission que le véhicule suiveur 4, et si les émissions sont synchronisées avec l 'un des premier et second intervalles d' intégration du capteur d' imagerie 16 du véhicule 4. Dans ces deux cas de figures, le système de détection 2 ne peut plus détecter de façon fiable et simple les réflexions des impulsions lumineuses qu' il a générées lui- même.
La détection d' impulsions lumineuses parasites est fondée sur le fait que les impulsions parasites arrivent directement au détecteur, à la différence des impulsions réfléchies émises par la source d' impulsions 12 qui ne peuvent arriver sans être réfléchies par le catadioptre 26. En conséquence, l' intensité des impulsions parasites et bien plus importante que l' intensité des impulsions réfléchies. Les caméras 1 8 et 20 sont conçues de telle sorte que la présence d' impulsions parasites entraine leur saturation. Le détecteur 36 comprend une unité 38 capable de détecter cette saturation. Lorsque l'unité 38 détecte la saturation, il transmet un signal à un module de commande 40, en liaison avec le programmateur 14. Le module de commande 40 génère alors un décalage temporel au hasard de manière à décaler l'intervalle d'émission de manière aléatoire pour que le système redevienne pleinement opérationnel. Dans cet exemple, le module de commande 40 génère un nombre K au hasard, compris entre 0 et 1599. Ce nombre est transmis au programmateur 14, qui calcule, en fonction de K :
- l'instant de début de l'intervalle d'intégration par rapport au début de la fenêtre d'acquisition associée :
Figure imgf000016_0001
et
- l'instant de fin de l'intervalle d'intégration par rapport au début de la fenêtre d'acquisition associée : (K +
Figure imgf000016_0002
Pour améliorer encore la détection de la distance, on peut envisager, en référence aux chronogrammes des figures 2 à 4, de faire varier l'intensité des impulsions lumineuses en proportion de la vitesse du véhicule. Cela a pour effet d'augmenter la portée de la détection de la distance lorsque la vitesse du véhicule 4 augmente. Le temps de réaction nécessaire pour dévier ou arrêter son véhicule étant plus important à haute vitesse, il est avantageux de pouvoir détecter, à haute vitesse, la distance avec des véhicules situés plus loin que si on est au ralenti. Alternativement, afin de permettre une sécurité optimale, on peut déterminer une fonction adaptée corrélant la portée de la détection à la vitesse, de sorte que la portée de la détection soit au plus proche de la distance parcourue par le véhicule avant l'arrêt ou la déviation de celui-ci.
On a représenté sur la figure 4 un chronogramme illustrant un troisième procédé de détection pouvant être mis en œuvre au moyen du système de la figure 1.
Pour mettre en œuvre ce procédé, le capteur d'imagerie 16 est configuré à la même fréquence d'acquisition 60 Hz que dans le procédé illustré dans la figure 3. On a en conséquence représenté les fenêtres d'acquisition en pointillés identiques à celles de la figure 3. Dans ce procédé, les impulsions lumineuses sont émises de manière périodique, à une fréquence de 20 Hz. En d'autres termes, une impulsion est émise toutes les trois fenêtres d'acquisition. Ainsi seules trois impulsions lumineuses sont émises sur le chronogramme de la figure 4.
Les intervalles d'émission d'impulsions lumineuses sont représentés sur le chronogramme de la figure 4 par des rectangles 42 remplis par des hachures. Les intervalles d'intégration sont représentés sur le chronogramme par des rectangles 44, 45 et 46. Pour chaque émission d'impulsion lumineuse 42 au cours d'une fenêtre d'acquisition N, chacune des caméras 18 et 20 réalise trois intégrations 44, 45 et 46 d'image comprises dans trois fenêtres d'acquisition différentes N, N+1 et N+2. En référence à la figure 4, N peut prendre la valeur 1, 4 ou 7. La première image est intégrée pendant un premier intervalle d'intégration 44 confondu avec l'intervalle d'émission 42 de l'impulsion lumineuse correspondante. La deuxième image est intégrée pendant un second intervalle d'intégration 45 de même durée que le premier intervalle d'intégration 44, et inclus dans la fenêtre d'acquisition N+1, c'est-à-dire dans la deuxième, la cinquième et la huitième fenêtres d'intégration en référence à la figure 4. Dans le procédé illustré par le chronogramme de la figure 4, les premier et deuxième intervalles d'intégration 44 et 45 correspondent donc aux premier et deuxième intervalles d'intégration 34 et 35 du chronogramme de la figure 3.
Pour chaque impulsion, une troisième image est intégrée pendant un troisième intervalle d'intégration référencé 46 sur la figure 4. L'intervalle 46 est distinct des premier et deuxième intervalles d'intégration 44 et 45, et inclus dans la fenêtre d'intégration N+2, c'est-à-dire dans la troisième, la sixième et la neuvième fenêtres d'intégration en référence à la figure 4.
L'origine des temps du chronogramme de la figure 4 correspond au début d'une fenêtre d'acquisition. Jusqu'à l'instant t ~ 33,33 ms par rapport à l'origine des temps, le chronogramme est identique à celui de la figure 3. Quatre images NG1, ND1, NG2 et ND2 ont déj à été transmises au module de détection qui, à l ' aide du calculateur 24, a déterminé la distance entre le véhicule 4 et le véhicule 6.
A t ~ 33 ,33 ms, une troisième fenêtre d' acquisition commence, qui se termine à t ~ 49,33 ms. Pendant toute la durée de cette troisième fenêtre, aucune impulsion lumineuse n' est émise . A t = 34 ms, une intégration d' image commence, pendant un troisième intervalle d'intégration 46 de durée 1 5 ms. A t = 49 ms, l' intégration d' image terminée et deux nouvelles images NG3 et ND3 acquises respectivement par l 'une et par l ' autre des caméras 1 8 et 20 sont transmises au module de détection 22 ou au calculateur 24, ou à un autre composant de l ' ordinateur de bord du véhicule 4.
Ces images sont utilisées pour d' autres applications que la détection de la distance par rapport au véhicule cible, telles que l ' affichage de la scène routière sur un afficheur, la lecture de panneaux de signalisation, etc ... . Avec un chronogramme du type de celui de la figure 4, il est possible d'intégrer au sein d'un même système plusieurs applications d' aide à la conduite de natures complètement différentes.
Ainsi, il ressort du mode de réalisation de la figure 1 et des trois exemp les de procédé des figures 2 à 4 que l 'invention fournit un moyen pour déterminer de manière facile et robuste la distance entre un véhicule automobile et une cible, la cible devant seulement comporter un ou plusieurs catadioptres . Dans certains pays où les catadioptres sont obligatoires, tous les véhicules en règle sont donc adaptés en tant que cibles de ce système.
Le système de détection et le procédé de détection ont été détaillés relativement à une cible correspondant à un véhicule automobile. Toutefois, on ne sort pas du cadre de l' invention en envisageant une cible différente, telle qu'un cycliste ou un piéton, ou de toute autre nature telle qu'un panneau de signalisation d 'un danger, d'un virage, d'une limitation de vitesse ou d'une entrée en agglomération. En fournissant un moyen pour détecter de manière facile et robuste la distance entre deux véhicules, on améliore la fiabilité du système et on diminue la puissance de calcul nécessaire pour le faire fonctionner, et donc le coût d'un tel système. En limitant les éléments à implémenter sur une cible pour la rendre compatible au système de détection, on limite le coût du système et on augmente le nombre de cibles compatibles.
Grâce à ce système de détection et au procédé de détection selon l' invention, on améliore donc de manière globale la sécurité des usagers de la route, et ce en minimisant les coûts de fabrication et de mise en place dudit système.

Claims

REVENDICATIONS
1 . Système (2) de détection de la distance entre un véhicule automobile (4) et une cible (6), comprenant un capteur d' imagerie ( 16) et un programmateur ( 14), caractérisé en ce que le véhicule automobile (4) comporte au moins une source d ' impulsions lumineuses ( 12) apte à émettre des impulsions lumineuses (28 , 32, 44) périodiques à une fréquence d' impulsion (Fi ) destinées à être réfléchies par au moins un catadioptre (26) de la cible (6), chaque impulsion étant émise pendant un intervalle d' émission (Δι ), le programmateur étant programmé pour que le capteur d' imagerie intègre, pour chaque impulsion :
une première image (NG 1 , ND 1 ) pendant un premier intervalle d' intégration (30 , 34 , 44) dans lequel l' intervalle d' émission est inclus, et
une seconde image (NG2, ND2) pendant un second intervalle d' intégration (30, 34, 44) distinct de l 'intervalle d' émission.
2. Système (2) selon la revendication 1 , dans lequel le capteur d' imagerie ( 16) est une caméra à stéréovision et le véhicule (4) comprend un calculateur (24) apte à déterminer la distance entre le véhicule automobile et la cible.
3. Système (2) selon l'une des revendications 1 et 2, dans lequel la cible (6) est un autre véhicule automobile.
4. Système (2) selon l 'une quelconque des revendications 1 à 3 , comprenant un détecteur (36) de pollution visuelle par une source parasite émettant des impulsions lumineuses périodiques pendant un intervalle d' intégration.
5. Système (2) selon la revendication 4 , dans lequel le détecteur (36) de pollution visuelle comprend une unité de détection (38) d'une saturation du capteur d' imagerie ( 16) et un module de commande (40) d'un décalage des intervalles d' émission.
6. Procédé de détection de la distance entre un véhicule automobile (4) et une cible (6) au moyen d'un système (2) de détection comportant au moins une source ( 12) d' impulsions lumineuses émettant des impulsions lumineuses (28, 32, 42) à une fréquence d'impulsion (Fi) destinées à être réfléchies par au moins un catadioptre (26) de la cible, dans lequel, pour chaque impulsion, on intègre une première image (NG1, ND1) au cours d'un premier intervalle d'intégration (30, 34, 44), on intègre une seconde image (NG2, ND2) pendant un second intervalle d'intégration (31, 35, 45) distinct du premier intervalle d'intégration, l'impulsion étant émise pendant un intervalle d'émission (28, 32, 42) inclus dans le premier intervalle d'intégration (30, 34, 44), puis on détermine la position des catadioptres (26) de la cible par comparaison de la première image (NG1, ND1) et de la deuxième image (NG2, ND2).
7. Procédé selon la revendication 6, dans lequel pour chaque impulsion (28) :
la durée du premier intervalle d'intégration (30) est égale à celle du second intervalle d'intégration (31), et
les intervalles d'intégration (30, 31) s'enchaînent de manière périodique à une fréquence d'acquisition (F2) égale au double de la fréquence d'impulsion (Fi).
8. Procédé selon la revendication 6, dans lequel pour chaque impulsion (32), le premier intervalle d'intégration (34) est sensiblement confondu avec l'intervalle d'émission (32), le second intervalle d'intégration (35) étant de durée égale à celle de l'intervalle d'émission (32).
9. Procédé selon la revendication 8, dans lequel pour chaque impulsion (32), la durée entre la fin du premier intervalle d'intégration
(34) et le début du deuxième intervalle d'intégration (35) de ladite impulsion (32) est une constante inférieure à la moitié de la durée entre la fin du deuxième intervalle d'intégration (35) de ladite impulsion (32) et le début du premier intervalle d'intégration (34) de l'impulsion suivante (32).
10. Procédé selon la revendication 7, dans lequel pour chaque impulsion (42), on intègre une troisième image pendant un troisième intervalle d'intégration (46) distinct des premier (44) et second (45) intervalles d'intégration, ledit troisième intervalle d'intégration (46) étant de longueur supérieure à 5 fois celle de l'intervalle d'impulsion (42).
PCT/FR2016/051773 2015-07-10 2016-07-11 Système de détection par sources d'impulsions lumineuses de la distance entre un véhicule automobile et une cible WO2017009565A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1556566A FR3038733B1 (fr) 2015-07-10 2015-07-10 Systeme de detection par sources d'impulsions lumineuses de la distance entre un vehicule automobile et une cible
FR1556566 2015-07-10

Publications (1)

Publication Number Publication Date
WO2017009565A1 true WO2017009565A1 (fr) 2017-01-19

Family

ID=55022516

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2016/051773 WO2017009565A1 (fr) 2015-07-10 2016-07-11 Système de détection par sources d'impulsions lumineuses de la distance entre un véhicule automobile et une cible

Country Status (2)

Country Link
FR (1) FR3038733B1 (fr)
WO (1) WO2017009565A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2261339A (en) * 1991-10-22 1993-05-12 Fuji Heavy Ind Ltd Distance detection system for vehicle
WO2000015462A1 (fr) * 1998-09-15 2000-03-23 Gentex Corporation Systemes et composants pour l'amelioration de la vision de l'arriere d'un vehicule
US7554652B1 (en) * 2008-02-29 2009-06-30 Institut National D'optique Light-integrating rangefinding device and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2261339A (en) * 1991-10-22 1993-05-12 Fuji Heavy Ind Ltd Distance detection system for vehicle
WO2000015462A1 (fr) * 1998-09-15 2000-03-23 Gentex Corporation Systemes et composants pour l'amelioration de la vision de l'arriere d'un vehicule
US7554652B1 (en) * 2008-02-29 2009-06-30 Institut National D'optique Light-integrating rangefinding device and method

Also Published As

Publication number Publication date
FR3038733A1 (fr) 2017-01-13
FR3038733B1 (fr) 2019-07-26

Similar Documents

Publication Publication Date Title
EP1553429A1 (fr) Système et procédé de détection de conditions de circulation pour véhicule automobile
FR3033532B1 (fr) Systeme de lampe de vehicule
EP2051206A1 (fr) Procédé de détermination automatique du coefficient d'une pente sur le point d'être abordée par un véhicule automobile, et dispositif associé
EP1027636B1 (fr) Procede et dispositif de localisation et de guidage d'un mobile muni d'une camera lineaire
EP3439917A1 (fr) Procédé de commande d'affichage automatique d'un pictogramme représentatif de la présence d'une perturbation en avant du véhicule
FR2983799A1 (fr) Procede et dispositif de commande de l'emission lumineuse d'un projecteur de vehicule
FR3027109A1 (fr) Determination d'une vitesse optimale pour un vehicule automobile approchant d'un feu tricolore
EP3482284A1 (fr) Afficheur tête-haute et procédé de pilotage d'un dispositif de génération d'images d'un afficheur tête-haute
EP2382783A1 (fr) Systeme de securite perimetrique par l'analyse active des images reflechies par un jeu de miroirs sur une camera video
EP2043044B1 (fr) Procédé et dispositif d'assistance au parcage d'un véhicule automobile
FR3038733B1 (fr) Systeme de detection par sources d'impulsions lumineuses de la distance entre un vehicule automobile et une cible
EP3609742A1 (fr) Dispositif de signalisation lumineuse d'un changement de voie pour véhicule automobile
FR2893171A1 (fr) Systeme d'assistance a la conduite d'un vehicule automobile par detection de l'environnement
FR3064073A1 (fr) Procede et dispositif de determination d'une position
EP3432031A1 (fr) Détection d'objets pour véhicule automobile
EP1540372B1 (fr) Dispositif de detection du franchissement d une ligne de marquage de route pour vehicule automobile
EP3074922A1 (fr) Système et procédé de formation d'images nocturnes pour un véhicule automobile
FR3049529A1 (fr) Procede de commande d'affichage automatique d'un pictogramme representatif de la violation d'une distance de securite par un vehicule suivant
WO2019162238A1 (fr) Dispositif et procédé d'aide à la conduite d'un véhicule automobile
EP2330439B1 (fr) Système de détection d'obstacle pour véhicule
EP1584079B1 (fr) Procede de detection d'incident sur route
FR2870355A1 (fr) Systeme d'assistance a la conduite d'un vehicule automobile par detection de l'environnement
FR2893172A1 (fr) Systeme d'assistance a la conduite d'un vehicule automobile par detection de l'environnement
FR3038802A1 (fr) Systeme de communication par sources d'impulsions lumineuses entre un vehicule automobile et une cible
FR3005011A1 (fr) Dispositif holographique de signalisation pour vehicule

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16742378

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16742378

Country of ref document: EP

Kind code of ref document: A1