WO2012042171A2 - Procede et dispositif de detection de brouillard, la nuit - Google Patents

Procede et dispositif de detection de brouillard, la nuit Download PDF

Info

Publication number
WO2012042171A2
WO2012042171A2 PCT/FR2011/052262 FR2011052262W WO2012042171A2 WO 2012042171 A2 WO2012042171 A2 WO 2012042171A2 FR 2011052262 W FR2011052262 W FR 2011052262W WO 2012042171 A2 WO2012042171 A2 WO 2012042171A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
light source
scene
camera
fog
Prior art date
Application number
PCT/FR2011/052262
Other languages
English (en)
Other versions
WO2012042171A3 (fr
Inventor
Romain Gallen
Aurélien CORD
Nicolas Hautiere
Didier Aubert
Original Assignee
Institut Francais Des Sciences Et Technologies Des Transports, De L'amenagement Et Des Reseaux
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut Francais Des Sciences Et Technologies Des Transports, De L'amenagement Et Des Reseaux filed Critical Institut Francais Des Sciences Et Technologies Des Transports, De L'amenagement Et Des Reseaux
Priority to KR1020137010774A priority Critical patent/KR20130138791A/ko
Priority to EP11779751.4A priority patent/EP2622324A2/fr
Priority to US13/876,138 priority patent/US9171216B2/en
Priority to JP2013530786A priority patent/JP5952822B2/ja
Publication of WO2012042171A2 publication Critical patent/WO2012042171A2/fr
Publication of WO2012042171A3 publication Critical patent/WO2012042171A3/fr

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/49Scattering, i.e. diffuse reflection within a body or fluid
    • G01N21/53Scattering, i.e. diffuse reflection within a body or fluid within a flowing fluid, e.g. smoke
    • G01N21/538Scattering, i.e. diffuse reflection within a body or fluid within a flowing fluid, e.g. smoke for determining atmospheric attenuation and visibility
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/49Scattering, i.e. diffuse reflection within a body or fluid
    • G01N21/53Scattering, i.e. diffuse reflection within a body or fluid within a flowing fluid, e.g. smoke
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/30Indexing codes relating to the vehicle environment
    • B60Q2300/31Atmospheric conditions
    • B60Q2300/312Adverse weather
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N2021/4704Angular selective
    • G01N2021/4709Backscatter

Definitions

  • the invention relates to a method for detecting, at night, the presence of an element such as fog, disrupting the visibility of a scene, the scene being illuminated by one (or more) light sources.
  • the invention relates in particular to the detection of such a disturbing element in the case where the scene is that which appears in the field of vision of a vehicle driver, in particular a road vehicle; it helps to determine, by the detection of such an element, the visibility distance of the driver, and allows to adapt automatically or not, the driving or the behavior of the vehicle to visibility conditions.
  • the invention also relates to a computer program for implementing the method, a device for implementing this method, and finally a vehicle comprising such a device.
  • the invention thus has applications in the field of the automobile and, in particular, in the field of lighting and signaling of road vehicles, but also in the field of video surveillance.
  • LIDAR Light Detection and Ranging
  • Another device proposed by the document US6853453, uses targets arranged in the scene studied to detect the presence of a disturbing element. This method requires to have targets in the scene, which is very restrictive, and impossible for mobile applications.
  • Another device proposed by the document JP11278182, is based on the identification and characterization of the luminous halo appearing around the taillights of a vehicle appearing in the scene studied. The disadvantage of this system is that it does not work when no vehicle light appears in the scene.
  • the objective of the invention is therefore to remedy the shortcomings of these various devices, and to propose a method for detecting the presence of an element disturbing the visibility of a scene illuminated by at least one light source, at night; said member belonging to the group comprising fog, smoke, rain or snow;
  • the method comprising a step a) in which at least one image of the scene is acquired by means of a camera, said at least one light source being fixed or pivotable with respect to the camera;
  • the method combines two complementary techniques to detect the presence of the disturbing element:
  • the backscattering analysis techniques of lighting work very badly, because the intensity of the backscattered lighting is weak and thus little identifiable among the different radiations reflected towards the objective of the camera.
  • an illuminated environment typically, an urban environment
  • the halo analysis techniques are effective.
  • the image of the scene largely depends on how the scene is lit by the fixed or rotating light source (s).
  • the fixed or rotating light source By exploiting known properties in advance of the light beam produced by the fixed or pivoting source or sources, it is possible to effectively implement the backscattering analysis technique of the light emitted, to detect the presence of the element. disturbing.
  • the light source identified during step b1) is an active component that actually emits light, generally from electrical energy, and is not limited to re-emitting radiation received elsewhere. So it's not a component passive, whose role is only to reflect and / or diffuse the light it receives, and which would be most of the time very difficult to discern at night.
  • each of steps b1), b2), and c) can be performed from a single image, or possibly from a few smoothed successive images, acquired sufficiently rapidly to represent substantially the same view of the studied scene (possibly after a slight computer registration).
  • the processing constituted by steps b1), b2) and / or c) mentioned above requires only a substantially instantaneous acquisition.
  • the information of presence of a disturbing element can advantageously be obtained very quickly, for example as soon as the vehicle enters a fog sheet, which is of considerable interest from the point of view of driving safety.
  • steps b1), b2), and c) can be performed just as well with a monochrome camera as with a color camera, the color information being used in a way that is optional for the implementation. of the invention.
  • the indication provided by the device according to the invention as to the presence of a disturbing element can be binary or digital, such as a percentage in a range between 0% and 100%.
  • the light source which illuminates the scene studied is most often fixed with respect to the camera.
  • the light source and the camera are fixed on the vehicle.
  • the light source is then typically a beacon of the vehicle and in particular, in many cases, its focus (the radiation emission part) does not appear in the image of the camera.
  • the light source can be any fixed light source relative to the ground, for example a street lamp or other.
  • the light source is pivotable, or orientable, relative to the camera.
  • the rotating light sources may be the steerable headlights of the vehicle.
  • the method may further advantageously have one or more of the following steps;
  • step a) a plurality of images can be acquired, in which case the image of the scene is an average of said plurality of images.
  • Step b2) is preferably a step during which the luminous intensity decrease in the halo is characterized for the various halos studied.
  • Step b2) can comprise the intermediate step:
  • segments of images corresponding to light sources detected in step b1) are segmented so as to identify the light sources one by one and not grouped.
  • Step b2) can comprise the following intermediate step
  • the presence of a disturbing element is detected by identifying a center of the light source in said image portion.
  • Step b2) can comprise the intermediate step:
  • the presence of a disturbing element is detected by analyzing an intensity profile along a segment traced in said at least one portion of a light source. 'picture.
  • This segment (analysis segment) can be determined by interpolating centers of the light source, calculated for different halo extraction threshold value surrounding the light source.
  • Step c) can comprise the intermediate step:
  • cl provides at least one reference image produced either by a camera or as a result of an optical simulation calculation.
  • Step c) can comprise the intermediate step:
  • a second object of the invention is to propose a computer program comprising instructions for the implementation of a method for detecting the presence of an element disturbing the visibility of a scene illuminated by at least one light source. the night ; said element belonging to the group consisting of fog, smoke, rain or snow;
  • the term computer includes any type of computer or computer, including on-board computers on board vehicles.
  • the invention also provides a computer-readable recording medium on which a computer program as described above is recorded.
  • a third object of the invention is to provide a device for detecting the presence of an element disturbing the visibility of a scene illuminated by at least one light source at night; said member belonging to the group comprising fog, smoke, rain or snow;
  • the device comprising a camera capable of acquiring at least one image of the scene, and calculation means able to execute a program for processing the images supplied by the camera; said at least one light source being a fixed or rotatable light source with respect to the camera;
  • the calculation means are able to execute the image processing program provided by the camera so as to perform the following operations:
  • the treatment program may be able to perform the following operation:
  • detecting the presence of a disturbing element by analyzing an intensity profile along a segment drawn in said at least one portion of 'picture.
  • This segment can in particular be determined by interpolation of centers of the light source, calculated for different halo extraction threshold value surrounding the light source.
  • the calculation means may be able to execute the processing program so as to perform the following operation:
  • the invention also relates to a device for detecting the presence of an element disturbing the visibility of a scene illuminated by at least one light source, at night; said member belonging to the group comprising fog, smoke, rain or snow;
  • the device comprising:
  • a camera capable of acquiring at least one image of the scene, said at least one light source being a fixed or pivoting light source with respect to the camera;
  • b2) means for detecting the presence of a disturbing element, as a function of the halo appearing in said at least one image in the vicinity of said at least one light source; c) detection means in said at least one image or in a part thereof, of the presence of a disturbing element, as a function of the backscattering of the light emitted by said light source (s) (s) ) onboard (s);
  • the invention finally relates to a vehicle, in particular a road vehicle, whose driving is made safer because it is able to detect the presence of an element disrupting the visibility, at night, of a scene illuminated by at least a light source on board the vehicle; said element belonging to the group comprising fog, smoke, rain or snow.
  • Such a vehicle is characterized in that it incorporates a device as described above.
  • the term "fog” will be used to refer to the disturbing element, it being understood that the disturbing element may also be rain, snow, smoke, etc.
  • FIG. 1 is a schematic view of a road vehicle comprising a device according to the invention
  • FIG. 2 is a diagram showing the steps of the method according to the invention, in one embodiment
  • FIGS. 3A and 3B are simplified images of a night scene, respectively in dry weather and in foggy weather;
  • FIGS. 4A, 4B and 4C represent the same portion of the image of FIG. 3B, but for different values of an extraction threshold serving to extract the different zones respectively corresponding to the different light sources of this image portion; ;
  • FIGS. 5A and 5B show an image portion in which a light source appears, respectively in foggy weather and in dry weather;
  • FIGS. 6A and 6B show the evolution curves of the light intensity along segments shown in FIGS. 5A and 5B;
  • FIG. 7 is a reference image, representative of the image obtained or likely to be obtained in an unlit environment, in foggy weather.
  • FIG. 1 A vehicle 100 comprising a fog detection device 110 according to the invention is illustrated in FIG. 1.
  • This vehicle comprises headlights 105 as on-board light sources. When these headlights are on, they illuminate the road in front of the vehicle. The road is illuminated further by other light sources, namely lampposts 107.
  • the device 110 includes an on-board camera 120, and an on-board computer 130.
  • the computer is provided to execute a fog detection program, from the images provided by the camera 120, in the case of a night ride.
  • This computer 130 comprises a read-only memory, which constitutes a recording medium within the meaning of the invention, in which a program is recorded in the sense of the invention.
  • the information obtained as to the presence of fog is transmitted to the driver, and / or used by the on-board computer 130 to control other equipment of the vehicle 100.
  • the method implemented by the on-board computer 130 through a computer program comprises three phases (FIG. 2).
  • a first phase a one acquires one or more images of the scene, thanks to the camera.
  • An image is usually sufficient.
  • one can from several images produce an image that is the average thereof. We thus obtain a unique image (initial image).
  • the first treatment b is a fog detection detection by halo detection.
  • a first step b1 of this first treatment it detects the light sources visible in the scene, that is to say appearing in the initial image.
  • the pixels illuminated by the different light sources are identified and grouped into groups of pixels called 'halos' and corresponding to the different light sources.
  • Pixels included in the halo or halos of light sources are identified by the fact that they have a higher light intensity than their environment.
  • a thresholding operation applied to the initial image the various halos appearing in the image are identified, which are considered to represent the light sources visible in the scene.
  • an extraction threshold intensity of between 80% and 99% of the maximum intensity perceptible by the camera can be chosen.
  • a halo may possibly encompass several light sources, if they are close (in the picture).
  • FIGS. 3A and 3B illustrate the considerable differences that occur during the detection of light sources, according to the fog, for the same scene;
  • Figure 3A shows a scene without fog. Only the illuminating portion of each lamppost is identified (bulb 108 and cache 109), A halo (and therefore a light source) is identified for each lamppost 107.
  • Figure 3B represents the same scene, a night of fog.
  • the parts of the image illuminated by the light of the lampposts merge and thus form only a single halo H, extending on both sides of the road.
  • the light source detection step therefore leads, in a first step, to identify only one light source.
  • a second step b2 depending on the halo (s) appearing in the or images in the vicinity of the light sources, the presence of fog is detected.
  • the halos identified in step b1) are analyzed; thanks to this analysis, the presence of fog is detected.
  • this halo analysis step comprises several operations; he
  • a first operation b21 the light sources identified in step b1) are segmented, so as to identify halos H1, H2, H3, each corresponding to a single light source, and not a halo H corresponding in fact to a set of light sources.
  • several thresholding operations are performed on the image by varying the value of the extraction threshold, until the halos corresponding to distinct light sources have been separated.
  • related component analysis algorithms can be used in particular.
  • FIGS. 4A to 4C show the halos obtained for different values of the extraction threshold.
  • FIG. 4A corresponds to a fairly low threshold: The different light sources form a single halo H.
  • FIG. 4B corresponds to an intermediate value.
  • FIG. 4C corresponds to a fairly high threshold, which makes it possible to segment the initial halo, and to distinguish within it the halos H1, H2, H3 corresponding to the three light sources actually present in this part of the image.
  • tests may be performed to eliminate false detections of light sources in the scene. These tests can be based on the complexity of the identified halo (which normally remains limited), on its size (elimination of the smallest light sources, considered as artifacts), etc.
  • an analysis segment is determined.
  • analysis segment we designate a line segment that is considered in the image, and according to which an intensity profile analysis will be performed.
  • the analysis segment is determined through an iterative procedure. The proposed procedure starts on the basis of a tight halo H1 (fig.5A), obtained with a very high extraction threshold of intensity, thus very selective.
  • the center of the halo may be the center of gravity of the pixels of the light source ; the center of gravity of these same pixels, weighted by the luminous intensity; the center of the ellipse optimally approximating the outer contour of the pixels of the light source; the center of the circle comprising the pixels of the light source; etc.
  • a line segment is drawn in the general direction of this series of centers, from the center corresponding to the smallest halo.
  • the analysis segment is oriented along the direction in which the center of the halo of the light source considered moves when the value of the halo extraction threshold is varied. It is calculated by interpolation of the position of the determined centers C11, C12, C13, or by a similar method.
  • the analysis segment thus corresponds to the direction in which the halo extends, which generally corresponds to the lighting direction of the light source considered.
  • FIG. 5A thus presents an analysis segment M defined from the centers Ci, C12 and C13 of halos H11, H12, and H13 corresponding to three different values of the extraction threshold.
  • Figure 5B shows a second analysis segment obtained for the same source, in case of time without fog.
  • a single halo H11 'corresponding to the area directly illuminated by the bulb can be extracted.
  • the latter case in which no preferred direction of extension of the halo can not be identified, may correspond for example to the case where the light source is non-directional, as for example, often for rear lights of road vehicle. If no preferential direction appears, one can choose preferably an analysis segment whose end is towards the center and the top of the image, so that the end of the segment is likely to correspond to a zone of sky, in the analyzed image.
  • a third operation b23 for each light source, the variations in the light intensity profile are analyzed according to the analysis segment defined in step b22. Smoothing can optionally be performed on the intensity profile curve to reduce the noise, for example by convolution using a smoothing window, by calculating average or median curve using a window slippery along the curve, etc.
  • the intensity profile variations are calculated for each of the light sources identified in the scene.
  • a fog presence index is calculated. This can be based on, for example but not exclusively: the width at half height; the width at different heights; the inverse of the slope at different heights; etc. Note that for each of these indicators, the higher the value, the greater the probability of fog.
  • FIGS. 6A and 6B illustrate the results obtained, respectively in fog and foggy weather.
  • the luminous intensity is indicated on the ordinate, and the distance expressed in pixels, on the abscissa. These curves therefore correspond to FIGS. 5A and 5B respectively.
  • the luminous intensity curve comprises a first plateau portion for which the pixels are saturated CSAT), then a progressive downward slope to a zero intensity value.
  • the luminous intensity curve also includes a first plateau portion, but almost no progressive slope: the plateau is followed by a stair step in which the intensity drops sharply. It can therefore easily be verified that for the various criteria previously mentioned (width at half height or at several heights, etc.), the curves of FIGS. 6A and 6B provide significantly different results.
  • an overall fog presence index is calculated. For this we aggregate the different indices obtained for each of the light sources. This aggregation or combination of indices can take into account the indices coming not from a single initial image, but from a set of initial images acquired in step a.
  • the aggregate index may for example be an average or median value of the various presence indices; it can be obtained by rank filtering, with different levels; it can still be a linear combination, weighted according to a criterion for example related to the surface or the shape of the halo of the light sources; etc.
  • the first fog detection detection process can be concluded by a step of choice, that is to say a step during which it is decided whether or not there is fog, to obtain a binary indicator.
  • This decision is made by comparing the overall index of presence of fog with a predefined minimum threshold, in relation to usual thresholds, such as those recommended in the French standard NF-P-99-320 on road weather.
  • the second treatment c of the second phase is a fog detection process by backscattering analysis.
  • This second treatment is based on the principle that in case of fog, a portion of the radiation of the onboard light sources (in this case, the headlights of the vehicle) is backscattered towards the camera.
  • one or more reference images of the scene are produced (FIG. These images represent the scene as can be observed in case of fog. If it is a fixed scene (CCTV case), the reference frame (s) may include shapes from elements actually present in the scene. On the other hand, if the scene is variable (case of a device embedded on a vehicle), the reference images are only based on the backscattering of the light emitted by the onboard light sources.
  • FIG. 7 thus represents a reference image that can be used for a motor vehicle with two headlights.
  • This is a grayscale (or at least monochrome) image, showing only the variations in light intensity produced in the image by the two beams of the headlights.
  • Curves have been shown arbitrarily in FIG. 7 to separate the image portions of different brightnesses. The curves appearing in FIG. 7 are therefore iso-luminosity curves. These curves, and more generally the brightness distribution in the reference image, are characteristic of the illumination produced by the fixed or rotating light sources (the headlights of the vehicle), in association with defined fog conditions.
  • a picture acquired by the camera, or a computed synthetic image can be used as reference image.
  • any rendering method known to provide a relatively realistic rendering of the scene may be used, provided that it is able to take into account the backscattering of the light in the fog.
  • the computer image must be calculated in such a way as to represent as realistically as possible the image that the camera could acquire in the presence of fog.
  • the positions and lighting properties of the various light sources on board the vehicle and illuminating the scene must be taken into account.
  • reference images can be used to represent the scene for different atmospheric conditions: more or less dense fog, but also rain, snow, etc.
  • the second and last step c2 of the second treatment c is a comparison step.
  • the image or the images acquired by the camera are compared with the reference image or images retained in step c1.
  • several images provided by the camera can be aggregated to provide a unique initial image, which is then compared to the reference image (s).
  • each of the pixels can be calculated either as an average of the starting images, or by means of a rank filter (for example a median filter) applied to a series of successive images, or by another calculation method.
  • the comparison between images from the camera, and reference images is made using image correlation methods. Different methods are usable.
  • the comparison method can thus be based on the sum of absolute differences (SAD), the sum of absolute differences with zero mean (ZSAD), the sum of squares of differences (SSD), the standardized sum of squares of differences at zero mean (ZNSSD), etc., or on a method quantifying a difference between two images by a function of type 'distance'.
  • This comparison can be made on the entire image, or on one or more image portions, for example the lower half of the image (in which the illumination produced by the headlights is the most marked).
  • This comparison provides one or more signs of fog in the scene.
  • An overall index of fog presence can then be calculated by aggregating the different indices. To calculate this aggregate, especially when the indices are obtained by comparison of a single camera image with several reference images corresponding to different fog densities, it is possible, for example, to choose the presence index having the highest value: should match the image that has a fog density close to the actual fog density in the scene at the instant of observation. In this way we have a characterization of the fog.
  • the overall index of presence of fog like the indices provided directly by the comparisons operated, has a value that increases as the probability of presence of fog is high. If necessary, a binary fog indicator (With / Without fog) can then be established by comparing the overall index with a predetermined threshold.
  • the second phase of the method according to the invention is thus completed by obtaining two families of fog presence indices;
  • These indices can be in each family aggregated or one to provide a single overall index. This one can be binary or not.
  • the fog presence indices are weighted using a decision criterion and a final index is calculated.
  • a decision criterion it is possible to choose, for example, the number of light sources identified during step b21: If at least two sources are identified, the overall index at the end of treatment b) is selected as indicating the presence or absence of no fog. If less than two sources are observed, then the presence index retained may be the overall index resulting from treatment c). Of course, other criteria may be retained while remaining within the scope of the invention.

Abstract

Procédé pour détecter la présence d'un élément (brouillard, pluie, etc..) perturbant la visibilité d'une scène éclairée par phare (105, 107), la nuit. Suivant le procédé : a) on acquiert une image de la scène à l'aide d'une caméra (120), bl) on détecte dans l'image, les sources lumineuses, b2) en fonction du halo (H) apparaissant dans l'image au voisinage des sources lumineuses, on détecte la présence de l'élément perturbant; c) en fonction de la rétrodiffusion de la lumière émise par les sources lumineuses, on détecte dans l'image la présence de l'élément perturbant; d) on pondère les résultats des détections réalisées dans les étapes b2) et c), de manière à fournir en sortie une indication quant à la présence de l'élément perturbant la visibilité de la scène. Ce procédé fournit des résultats satisfaisants en environnement éclairé ou non éclairé. Programme informatique, dispositif, pour la mise en oeuvre de ce procédé.

Description

Procédé et dispositif de détection de brouillard, la nuit
L'invention concerne un procédé pour détecter, de nuit, la présence d'un élément comme du brouillard, perturbant la visibilité d'une scène, la scène étant éclairée par une (ou plusieurs) sources lumineuses.
L'invention concerne en particulier la détection d'un tel élément perturbant dans le cas où la scène est celle qui apparaît dans le champ de vision d'un conducteur de véhicule, notamment un véhicule routier ; elle aide à déterminer, par la détection d'un tel élément, la distance de visibilité du conducteur, et permet d'adapter de manière automatique ou non, la conduite ou le comportement du véhicule aux conditions de visibilité. L'invention concerne également un programme d'ordinateur permettant la mise en œuvre du procédé, un dispositif pour mettre en oeuvre ce procédé, et enfin un véhicule comportant un tel dispositif.
L'invention trouve donc des applications dans le domaine de l'automobile et, en particulier, dans le domaine de l'éclairage et de la signalisation des véhicules routiers, mais aussi dans le domaine de la vidéosurveillance.
Il existe actuellement des dispositifs permettant de détecter la présence de brouillard. Ces dispositifs sont utilisés notamment pour commander automatiquement l'allumage des feux et des dispositifs d'éclairage et permettre aux conducteurs d'adapter la vitesse de leurs véhicules en fonction de la visibilité de la scène de route située à l'avant de leurs véhicules.
Un de ces dispositifs de détection de la présence de brouillard utilise un dispositif anticollision de type LIDAR (Light Détection and Ranging) qui permet d'évaluer la transmission de l'atmosphère pour en déduire la présence de brouillard. Or, les LIDARS sont des dispositifs très coûteux ; leur installation de manière systématique dans des véhicules de transport est donc difficilement envisageable.
Un autre dispositif, proposé par le document US6853453, utilise des cibles disposées dans la scène étudiée pour détecter la présence d'un élément perturbant. Cette méthode impose de disposer des cibles dans la scène, ce qui est très contraignant, et impossible pour des applications mobiles. Un autre dispositif, proposé par le document JP11278182, est fondé sur l'identification et la caractérisation du halo lumineux apparaissant autour des feux arrière d'un véhicule apparaissant dans la scène étudiée. L'inconvénient de ce système est qu'il ne fonctionne pas lorsqu'aucun feu de véhicule n'apparaît dans la scène.
Un autre dispositif, proposé par le document US2008/0007429, exploite la rétrodiffusion de la lumière des propres feux du véhicule dans lequel le dispositif est agencé. Cependant ce système manque de fiabilité, notamment parce qu'il est fondé sur une analyse très locale de l'image, et s'avère inefficace pour la détection de présence d'un élément perturbant la visibilité dans certains environnements, en particulier les environnements assez éclairés.
On comprend donc qu'un nombre relativement élevé de dispositifs ont été proposés pour permettre la détection de brouillard de nuit. Cependant, aucun de ces dispositifs n'est réellement satisfaisant. En effet, chacun de ces dispositifs n'est efficace que dans un domaine de fonctionnement limité, et s'avère impuissant à détecter efficacement le brouillard dans d'autres conditions atmosphériques.
L'objectif de l'invention est donc de remédier aux carences de ces différents dispositifs, et de proposer un procédé pour détecter la présence d'un élément perturbant la visibilité d'une scène éclairée par au moins une source lumineuse, la nuit ; ledit élément appartenant au groupe comprenant le brouillard, la fumée, la pluie ou la neige ;
le procédé comportant une étape a) dans laquelle on acquiert au moins une image de la scène à l'aide d'une caméra, ladite au moins une source lumineuse étant fixe ou pivotante par rapport à la caméra ;
procédé qui fournisse un résultat satisfaisant dans la plupart des circonstances, et ne requière pas la mise en place ou la présence d'éléments spécifiques dans la scène.
Cet objectif est atteint grâce au fait que le procédé comporte en outre les étapes suivantes :
bl) on détecte dans ladite au moins une image, au moins une source lumineuse apparaissant dans la scène ;
b2) en fonction du halo apparaissant dans ladite au moins une image au voisinage de ladite ou desdites source(s) lumineuse(s), on détecte la présence d'un élément perturbant ; c) en fonction de la rétrodiffusion de la lumière émise par ladite ou lesdites source(s) lumineuse(s) fixe(s) ou pivotante(s), on détecte dans ladite au moins une image ou dans une partie de celle-ci, la présence d'un élément perturbant ;
d) on pondère les résultats des détections réalisées dans les étapes b2) et c), de manière à fournir en sortie une indication quant à la présence d'un élément perturbant la visibilité de la scène.
En effet, il a été observé que l'efficacité des méthodes d'analyse d'image mises en œuvre habituellement dans de tels dispositifs dépend fortement de la présence de sources lumineuses dans la scène.
Avantageusement, le procédé combine deux techniques complémentaires pour détecter la présence de l'élément perturbant :
- Etapes bl) et b2) : Détection de halo autour d'une source lumineuse identifiée dans la scène ;
- Etape c) : Analyse de la rétrodiffusion de la lumière émise par la ou les source(s) lumineuse(s) fixe(s) ou pivotante(s).
L'intérêt qu'il y a à combiner ces deux techniques est le suivant :
- En environnement éclairé, les techniques d'analyse de rétrodiffusion d'éclairage fonctionnent très mal, car l'intensité de l'éclairage rétrodiffusé est faible et donc peu identifiable parmi les différents rayonnements réfléchis vers l'objectif de la caméra. Inversement, un environnement éclairé (typiquement, un environnement urbain) comporte des sources lumineuses ; en présence de celles-ci, les techniques d'analyse de halo sont efficaces.
- En environnement non éclairé, l'image de la scène dépend largement de la manière dont la scène est éclairée par la ou les sources lumineuses fixes ou pivotantes. En exploitant des propriétés connues à l'avance du faisceau lumineux produit par la ou les sources fixes ou pivotantes, il est possible de mettre en œuvre efficacement la technique d'analyse de rétrodiffusion de la lumière émise, pour détecter la présence de l'élément perturbant.
On notera que la source lumineuse identifiée au cours de l'étape bl) est un composant actif qui émet effectivement de la lumière, en général à partir d'énergie électrique, et ne se limite pas à réémettre un rayonnement reçu par ailleurs. Il ne s'agit donc pas d'un composant passif, dont le rôle est seulement de réfléchir et/ou diffuser la lumière qu'il reçoit, et qui serait la plupart du temps très difficile à discerner de nuit.
Avantageusement, chacune des étapes bl), b2), et c) peut être réalisée à partir d'une image unique, ou éventuellement de quelques images successives lissées, acquises suffisamment rapidement pour représenter sensiblement la même vue de la scène étudiée (éventuellement, après un léger recalage informatique). Ainsi, le traitement constitué par les étapes bl), b2) et/ou c) citées précédemment ne nécessite qu'une acquisition sensiblement instantanée. Aussi, l'information de présence d'un élément perturbant peut avantageusement être obtenue très rapidement, par exemple dès que le véhicule pénètre dans une nappe de brouillard, ce qui présente un intérêt considérable du point de vue de la sécurité de conduite.
De surcroît, les étapes bl), b2), et c) peuvent être réalisées tout aussi bien avec une caméra monochrome qu'avec une caméra couleur, l'information de couleur n'étant utilisée de manière qu'optionnelle pour la mise en œuvre de l'invention.
L'indication fournie par le dispositif selon l'invention quant à la présence d'un élément perturbant peut être binaire ou être numérique, comme par exemple un pourcentage compris dans une plage entre 0% et 100%.
Dans les applications envisagées pour l'invention, la source lumineuse qui éclaire la scène étudiée est le plus souvent fixe par rapport à la caméra. Ainsi dans le cas d'un dispositif monté à bord d'un véhicule, la source lumineuse ainsi que la caméra sont fixées sur le véhicule. La source lumineuse est alors typiquement un phare du véhicule et en particulier, bien souvent, son foyer (la partie d'émission du rayonnement) n'apparaît pas dans l'image de la caméra. Dans le cas d'un dispositif fixe, c'est-à-dire fixe par rapport au sol, la source lumineuse peut être toute source lumineuse fixe par rapport au sol, par exemple un lampadaire ou autre.
Une solution alternative est que la source lumineuse soit pivotante, ou orientable, par rapport à la caméra. Ainsi par exemple, dans le cas où le dispositif est monté à bord d'un véhicule, les sources lumineuses pivotantes peuvent être les phares orientables du véhicule. Le procédé peut en outre présenter avantageusement une ou plusieurs des étapes suivantes ;
A l'étape a), on peut acquérir une pluralité d'images, auquel cas l'image de la scène est une moyenne de ladite pluralité d'images.
L'étape b2) est de préférence une étape au cours de laquelle on caractérise pour les différents halos étudiés la décroissance d'intensité lumineuse dans le halo. L'étape b2) peut comporter l'étape intermédiaire suivante :
b21) on segmente les portions d'images correspondant à des sources lumineuses détectées à l'étape bl), de manière à identifier les sources lumineuses une par une et non groupées.
L'étape b2) peut comporter l'étape intermédiaire suivante ;
pour au moins une portion d'image associée à une source lumineuse identifiée dans la scène, on détecte la présence d'un élément perturbant en identifiant un centre de la source lumineuse dans ladite portion d'image.
L'étape b2) peut comporter l'étape intermédiaire suivante :
b23) pour au moins une portion d'image associée à une source lumineuse identifiée dans la scène, on détecte la présence d'un élément perturbant en analysant un profil d'intensité le long d'un segment tracé dans ladite au moins une portion d'image.
Ce segment (segment d'analyse) peut être déterminé en interpolant des centres de la source lumineuse, calculés pour différentes valeur de seuil d'extraction du halo entourant la source lumineuse.
L'étape c) peut comporter l'étape intermédiaire suivante :
cl) on fournit au moins une image de référence, produite soit par une caméra, soit comme résultat d'un calcul de simulation optique.
L'étape c) peut comporter l'étape intermédiaire suivante :
c2) on compare ladite au moins une image ou ladite partie de celle-ci avec ladite au moins une image de référence de manière à obtenir un score de comparaison.
Un deuxième objectif de l'invention est de proposer un programme d'ordinateur comprenant des instructions pour la mise en œuvre d'un procédé pour détecter la présence d'un élément perturbant la visibilité d'une scène éclairée par au moins une source lumineuse, la nuit ; ledit élément appartenant au groupe comprenant le brouillard, la fumée, la pluie ou la neige ;
programme qui fournisse un résultat satisfaisant dans la plupart des circonstances lorsqu'il est exécuté par un ordinateur, et ne requière pas la mise en place ou la présence d'éléments spécifiques dans la scène.
Cet objectif est atteint grâce au fait que le programme comprend des instructions pour la mise en œuvre d'un procédé tel que décrit précédemment. Le terme ordinateur inclut tout type de calculateur ou ordinateur, notamment les calculateurs de bord embarqués à bord de véhicules.
De plus, l'invention vise également un support d'enregistrement lisible par un ordinateur, sur lequel est enregistré un programme d'ordinateur tel que décrit précédemment.
Un troisième objectif de l'invention est de proposer un dispositif pour détecter la présence d'un élément perturbant la visibilité d'une scène éclairée par au moins une source lumineuse, la nuit ; ledit élément appartenant au groupe comprenant le brouillard, la fumée, la pluie ou la neige ;
le dispositif comportant une caméra apte à acquérir au moins une image de la scène, et des moyens de calcul aptes à exécuter un programme de traitement des images fournies par la caméra ; ladite au moins une source lumineuse étant une source lumineuse fixe ou pivotante par rapport à la caméra ;
dispositif qui fournisse un résultat satisfaisant dans la plupart des circonstances, ne requière pas la mise en place ou la présence d'éléments spécifiques dans la scène.
Cet objectif est atteint grâce au fait que dans le dispositif, les moyens de calcul sont aptes à exécuter le programme de traitement des images fournies par la caméra de manière à exécuter les opérations suivantes :
bl) détection dans ladite au moins une image, d'au moins une source lumineuse apparaissant dans la scène ;
b2) en fonction du halo apparaissant dans ladite au moins une image au voisinage de ladite au moins une source lumineuse, détection de la présence d'un élément perturbant ; c) en fonction de la rétrodiffusion de la lumière émise par ladite ou lesdites source(s) lumineuse(s) embarquée(s), détection dans ladite au moins une image ou dans une partie de celle-ci, de la présence d'un élément perturbant ;
d) pondération des résultats des détections réalisées dans les étapes b2) et cl), de manière à fournir en sortie une indication quant à la présence d'un élément perturbant la visibilité de la scène.
Le dispositif peut en outre présenter avantageusement un ou plusieurs des perfectionnements suivants :
Le programme de traitement peut être apte à exécuter l'opération suivante :
pour au moins une portion d'image associée à une source lumineuse identifiée dans la scène, détection de la présence d'un élément perturbant par analyse d'un profil d'intensité le long d'un segment tracé dans ladite au moins une portion d'image. Ce segment peut notamment être déterminé par interpolation de centres de la source lumineuse, calculés pour différentes valeur de seuil d'extraction du halo entourant la source lumineuse.
Les moyens de calcul peuvent être aptes à exécuter le programme de traitement de manière à exécuter l'opération suivante :
c2) comparaison de ladite au moins une image ou de ladite partie de celle- ci avec ladite au moins une image de référence de manière à obtenir un score de comparaison.
L'invention vise également un dispositif pour détecter la présence d'un élément perturbant la visibilité d'une scène éclairée par au moins une source lumineuse, la nuit ; ledit élément appartenant au groupe comprenant le brouillard, la fumée, la pluie ou la neige ;
le dispositif comportant :
a) une caméra apte à acquérir au moins une image de la scène, ladite au moins une source lumineuse étant une source lumineuse fixe ou pivotante par rapport à la caméra ;
bl) des moyens de détection dans ladite au moins une image, d'au moins une source lumineuse apparaissant dans la scène ;
b2) des moyens de détection de la présence d'un élément perturbant, en fonction du halo apparaissant dans ladite au moins une image au voisinage de ladite au moins une source lumineuse ; c) des moyens de détection dans ladite au moins une image ou dans une partie de celle-ci, de la présence d'un élément perturbant, en fonction de la rétrodiffusion de la lumière émise par ladite ou lesdites source(s) lumineuse(s) embarquée(s) ;
d) des moyens de pondération des résultats des détections réalisées dans les étapes b2) et ci), de manière à fournir en sortie une indication quant à la présence d'un élément perturbant la visibilité de la scène.
On comprend en effet que l'ensemble des étapes de calcul et notamment de détection, présentées précédemment, peuvent être réalisées soit au moyen d'un programme informatique exécuté par un ordinateur, et/ou par des composants électroniques conçus pour et aptes à réaliser les mêmes opérations, en agissant sur des signaux électroniques.
L'invention concerne enfin un véhicule, notamment un véhicule routier, dont la conduite soit rendue plus sûre du fait qu'il est apte à détecter la présence d'un élément perturbant la visibilité, la nuit, d'une scène éclairée par au moins une source lumineuse embarquée à bord du véhicule ; ledit élément appartenant au groupe comprenant le brouillard, la fumée, la pluie ou la neige.
Un tel véhicule se caractérise en ce qu'il intègre un dispositif tel que décrit précédemment.
Pour simplifier, dans la suite du document le terme "brouillard' sera utilisé pour faire référence à l'élément perturbant, étant entendu que l'élément perturbant peut être également de la pluie, de la neige, de la fumée, etc.
L'invention sera bien comprise et ses avantages apparaîtront mieux à la lecture de la description détaillée qui suit, de modes de réalisation représentés à titre d'exemples non limitatifs. La description se réfère aux dessins annexés, sur lesquels ;
- la figure 1 est une vue schématique d'un véhicule routier comportant un dispositif selon l'invention ;
- la figure 2 est un diagramme présentant les étapes du procédé selon l'invention, dans un mode de mise en œuvre ;
- les figures 3 A et 3B sont des images simplifiées d'une scène de nuit, respectivement par temps sec et par temps de brouillard ; - les figures 4A, 4B et 4C représentent une même portion de l'image de la figure 3B, mais pour différentes valeurs d'un seuil d'extraction servant à extraire les différentes zones correspondant respectivement aux différentes sources lumineuses de cette portion d'image;
- les figures 5A et 5B représentent une portion d'image dans laquelle apparaît une source lumineuse, respectivement par temps de brouillard et par temps sec ;
- les figures 6A et 6B représentent les courbes d'évolution de l'intensité lumineuse, le long de segments représentés sur les figures 5A et 5B ; - la figure 7 est une image de référence, représentative de l'image obtenue ou susceptible d'être obtenue en environnement non éclairé, par temps de brouillard.
Un véhicule 100 comportant un dispositif 110 de détection de brouillard selon l'invention est illustré par la figure 1. Ce véhicule comporte des phares 105 en tant que sources lumineuses embarquées. Lorsque ces phares sont allumés, ils illuminent la route devant le véhicule. La route est éclairée en outre par d'autres sources lumineuses, à savoir des lampadaires 107.
Le dispositif 110 comporte une caméra embarquée 120, et un ordinateur de bord 130. L'ordinateur est prévu pour exécuter un programme de détection de brouillard, à partir des images fournies par la caméra 120, dans le cas d'un trajet de nuit. Cet ordinateur 130 comporte une mémoire morte, qui constitue un support d'enregistrement au sens de l'invention, dans laquelle est enregistré un programme au sens de l'invention. L'information obtenue quant à la présence de brouillard est transmise au conducteur, et/ou exploitée par l'ordinateur de bord 130 pour piloter d'autres équipements du véhicule 100.
Le procédé mis en œuvre par l'ordinateur de bord 130 grâce à un programme informatique comporte trois phases (figure 2).
Dans une première phase a, on acquiert une ou plusieurs images de la scène, grâce à la caméra. Une image est en général suffisante. Cependant, pour réduire le bruit, on peut à partir de plusieurs images produire une image qui soit la moyenne de celles-ci. On obtient donc une image unique (image initiale).
A partir de l'image ou des images acquises à l'étape a, dans une deuxième phase deux traitements vont être exécutés en parallèle. Le premier traitement b est une détection de présence de brouillard par détection de halo.
Dans une première étape bl de ce premier traitement, on détecte les sources lumineuses visibles dans la scène, c'est-à-dire apparaissant dans l'image initiale. Les pixels illuminés par tes différentes sources lumineuses sont identifiés et regroupés en groupes de pixels appelés 'halos' et correspondant aux différentes sources lumineuses. Les pixels inclus dans le ou les halos de sources lumineuses sont identifiés par le fait qu'ils présentent une intensité lumineuse supérieure à celle de leur environnement. Ainsi par une opération de seuillage appliquée à l'image initiale, on identifie les différents halos apparaissant dans limage, qui sont considérés comme représentant les sources lumineuses visibles dans la scène. On peut par exemple choisir une intensité de seuil d'extraction comprise entre 80% et 99% de l'intensité maximale perceptible par la caméra. Un halo peut éventuellement englober plusieurs sources lumineuses, si elles sont proches (dans l'image).
Les figures 3A et 3B illustrent les différences considérables qui se produisent lors de la détection des sources lumineuses, en fonction du brouillard, pour une même scène ; La figure 3A représente une scène sans brouillard. Seule la partie éclairante de chaque lampadaire est identifiée (ampoule 108 et cache 109), Un halo (et donc une source lumineuse) est donc identifié pour chaque lampadaire 107.
Inversement, la figure 3B représente la même scène, une nuit de brouillard. Les parties de l'image illuminées par la lumière des lampadaires se fondent et forment ainsi seulement un halo unique H, s'étendant de part et d'autre de la route. L'étape de détection de source lumineuse conduit donc, dans un premier temps, à n'identifier qu'une seule source lumineuse.
Suite à la détection des sources lumineuses dans limage, dans une deuxième étape b2, en fonction du ou des halo(s) apparaissant dans la ou tes images au voisinage de la des sources lumineuses, on détecte la présence de brouillard. En d'autres termes, les halos identifiés à l'étape bl) sont analysés ; grâce à cette analyse, la présence de brouillard est détectée.
Dans le mode de mise en œuvre présenté, cette étape d'analyse de halo comporte plusieurs opérations ; i l
Dans une première opération b21, on segmente les sources lumineuses identifiées à l'étape bl), de manière à identifier des halos Hl, H2, H3, correspondant chacun à une source lumineuse unique, et non pas un halo H correspondant en fait à un ensemble de sources lumineuses. Pour réaliser cette segmentation, on réalise sur l'image plusieurs opérations de seuillage en faisant varier la valeur du seuil d'extraction, jusqu'à avoir séparé les halos correspondant à des sources lumineuses distinctes. Pour cette opération, des algorithmes d'analyse en composantes connexes peuvent notamment être utilisés.
Les figures 4A à 4C présentent les halos obtenus pour différentes valeurs du seuil d'extraction. La figure 4A correspond à un seuil assez bas : Les différentes sources lumineuses forment un halo unique H. La figure 4B correspond à une valeur intermédiaire. La figure 4C correspond à un seuil assez élevé, qui permet de segmenter le halo initial, et de distinguer au sein de celui-ci les halos Hl, H2, H3, correspondant aux trois sources lumineuses effectivement présentes dans cette partie de l'image.
Notons qu'au cours des opérations précédentes (bl, b21), il peut être procédé à des tests pour éliminer les détections erronées de sources lumineuses dans la scène. Ces tests peuvent se fonder sur la complexité du halo identifié (qui normalement reste limitée), sur sa taille (élimination des sources lumineuses les plus petites, considérées comme des artefacts), etc.
Une fois identifiées les différentes sources lumineuses, les opérations suivantes sont réalisées en parallèle pour chacune des sources lumineuses :
Dans une deuxième opération b22, pour chaque source lumineuse, on détermine un segment d'analyse. Par segment d'analyse, on désigne un segment de droite que l'on considère dans l'image, et suivant lequel une analyse de profil d'intensité sera réalisée. Le segment d'analyse est déterminé grâce à une procédure itérative. La procédure proposée commence sur la base d'un halo resserré Hl l (fig.5A), obtenu avec un seuil d'extraction d'intensité très élevé, donc très sélectif.
De manière itérative, on réalise les opérations suivantes :
- On identifie le centre (Ci l, C12, C13,...) du halo. Différents calculs peuvent être utilisés pour déterminer le centre d'un halo. Par exemple, le centre du halo peut être le barycentre des pixels de la source lumineuse ; le barycentre de ces même pixels, pondéré par l'intensité lumineuse ; le centre de l'ellipse approximant au mieux le contour extérieur des pixels de la source lumineuse ; le centre du cercle comprenant les pixels de la source lumineuse ; etc.
- On abaisse le seuil d'extraction, utilisé pour séparer les pixels du halo du reste de l'image ;
- On détermine un halo étendu (H12, H13,...), recalculé à partir de cette nouvelle valeur de seuil ;
- On vérifie que le halo étendu ainsi recalculé reste distinct des halos des autres sources lumineuses.
Si ce n'est pas le cas, l'algorithme s'arrête ; sinon, on reprend alors à la première étape de la procédure itérative.
La procédure itérative fournit donc une suite de centres, correspondant aux centres (C11,C12,C13,...) de halos de plus en plus étendus. On évalue alors la suite de centres ainsi obtenus :
Si une direction générale apparaît, un segment de droite est tracé dans la direction générale de cette suite de centres, à partir du centre correspondant au halo le plus petit. Aussi, le segment d'analyse est orienté suivant la direction dans laquelle se déplace le centre du halo de la source lumineuse considérée, lorsque l'on fait varier la valeur du seuil d'extraction du halo. Il est calculé par interpolation de la position des centres Cil, C12, C13 déterminés, ou par une méthode analogue. Le segment d'analyse correspond ainsi à la direction suivant laquelle le halo s'étend, qui correspond généralement à la direction d'éclairage de la source lumineuse considérée.
La figure 5A présente ainsi un segment d'analyse M, défini à partir des centres Ci l, C12 et C13 des halos Hl l, H 12, et H13 correspondant à trois valeurs différentes du seuil d'extraction.
La figure 5B présente un deuxième segment d'analyse obtenu pour la même source, en cas de temps sans brouillard. Dans ce cas, même en faisant varier le seuil d'extraction, un seul halo Hll' correspondant à la zone directement illuminée par l'ampoule peut être extrait. Aussi, il n'est pas possible d'identifier une direction de halo préférentielle en interpolant les positions de centres de halos. Par conséquent, pour définir le segment d'analyse M', on fixe arbitrairement une direction. On veille à ce qu'une extrémité du segment d'analyse retenu M' soit le centre Ci l' du halo (plus généralement dans ce cas, l'extrémité du segment d'analyse peut être le barycentre des centres ou un point analogue).
Ce dernier cas, dans lequel aucune direction préférentielle d'extension du halo ne peut être identifiée, peut correspondre par exemple au cas où la source lumineuse est non directionnelle, comme par exemple, bien souvent, pour des feux arrières de véhicule routier. Si aucune direction préférentielle n'apparaît, on peut choisir de préférence un segment d'analyse dont l'extrémité se trouve vers le centre et le haut de l'image, de telle sorte que l'extrémité du segment corresponde vraisemblablement à une zone de ciel, dans l'image analysée.
Dans une troisième opération b23, pour chaque source lumineuse, on analyse les variations du profil d'intensité lumineuse suivant le segment d'analyse défini à l'étape b22. Un lissage peut éventuellement être réalisé sur la courbe de profilé d'intensité pour en réduire le bruit, par exemple par convolution à l'aide d'une fenêtre de lissage, par calcul de courbe moyenne ou médiane à l'aide d'une fenêtre glissante le long de la courbe, etc.
Les variations de profil d'intensité sont calculées pour chacune des sources lumineuses identifiées dans la scène.
Ensuite, pour chacune des courbes obtenues, on calcule un indice de présence de brouillard. Celui-ci peut être fondé sur, par exemple mais non exclusivement : la largeur à mi-hauteur ; la largeur à différentes hauteurs ; l'inverse de la pente à différentes hauteurs ; etc. On note que pour chacun de ces indicateurs, plus sa valeur est élevée, plus la probabilité qu'il y ait du brouillard est forte.
Les courbes des figures 6A et 6B illustrent les résultats obtenus, respectivement par temps de brouillard et par temps sans brouillard. L'intensité lumineuse est indiquée en ordonnée, et la distance exprimée en pixels, en abscisse. Ces courbes correspondent donc aux figures 5A et 5B respectivement. Le long du segment M (figures 5A, 6A), la courbe d'intensité lumineuse comporte une première partie en plateau pour laquelle les pixels sont saturés CSAT), puis une pente descendante progressive jusqu'à une valeur nulle d'intensité.
Par contraste, le long du segment M' (figures 5B, 6B), la courbe d'intensité lumineuse comporte également une première partie en plateau, mais quasiment pas de pente progressive : Le plateau est suivi par une marche d'escalier dans laquelle l'intensité chute brutalement. On peut donc vérifier aisément que pour les différents critères énoncés précédemment (largeur à mi-hauteur ou à plusieurs hauteurs, etc.), les courbes des figures 6A et 6B fournissent des résultats significativement différents.
Dans une quatrième opération 524, on calcule un indice global de présence de brouillard. Pour cela on agrège les différents indices obtenus pour chacune des sources lumineuses. Cette agrégation ou combinaison d'indices peut prendre en compte les indices provenant non pas d'une seule image initiale, mais d'un ensemble d'images initiales acquises à l'étape a. L'indice agrégé peut par exemple être une valeur moyenne ou médiane des différents indices de présence ; il peut être obtenu par filtrage de rang, avec différents niveaux ; il peut être encore une combinaison linéaire, pondérée suivant un critère par exemple lié à la surface ou la forme du halo des sources lumineuses ; etc.
Enfin, le premier traitement de détection de présence de brouillard, par détection de halo, peut se conclure par une étape de choix, c'est-à- dire une étape durant laquelle il est décidé s'il y a ou non du brouillard, de manière à obtenir un indicateur binaire. Cette décision est faite en comparant l'indice global de présence de brouillard à un seuil minimal prédéfini, en rapport avec des seuils usuels, comme par exemple ceux préconisés dans la norme française NF-P-99-320 sur la météorologie routière.
Le deuxième traitement c de la deuxième phase est un traitement de détection de présence de brouillard par analyse de rétrodiffusion. Ce deuxième traitement repose sur le principe qu'en cas de brouillard, une partie du rayonnement des sources lumineuses embarquées (en l'occurrence, les phares du véhicule) est rétrodiffusée en direction de la caméra.
Dans une première étape cl de ce deuxième traitement, une ou plusieurs images de référence de la scène sont produites (fig.7). Ces images représentent la scène telle qu'est peut être observée en cas de brouillard. S'il s'agit d'une scène fixe (cas de la vidéosurveillance), la ou les images de référence peuvent inclure des formes provenant d'éléments réellement présents dans la scène. En revanche si la scène est variable (cas d'un dispositif embarqué sur un véhicule), les images de référence sont seulement fondées sur la rétrodiffusion de la lumière émise par les sources lumineuses embarquées.
La figure 7 représente ainsi une image de référence pouvant être utilisée pour un véhicule automobile avec deux phares. Il s'agit d'une image en niveaux de gris (ou du moins monochrome), faisant apparaître seulement les variations d'intensité lumineuse produites dans l'image par les deux faisceaux des phares. On a fait apparaître arbitrairement dans la figure 7 des courbes pour séparer les parties d'images de luminosités différentes. Les courbes apparaissant dans la figure 7 sont donc des courbes d 'iso-luminosité. Ces courbes, et plus généralement la répartition de luminosité dans l'image de référence, sont caractéristiques de l'éclairage produit par les sources lumineuses fixes ou pivotantes (les phares du véhicule), en association avec des conditions de brouillard définies.
On peut utiliser comme image de référence une image acquise par la caméra, ou une image de synthèse calculée. Dans le cas d'une image de synthèse, toute méthode de rendu connue pour fournir un rendu relativement réaliste de la scène peut être utilisée, sous réserve qu'elle soit à même de prendre en compte la rétrodiffusion de la lumière dans ie brouillard. L'image de synthèse doit être calculée de manière à représenter de la manière la plus réaliste possible l'image que pourrait acquérir la caméra, en présence de brouillard. Naturellement, les positions et propriétés d'éclairage des différentes sources lumineuses embarquées à bord du véhicule et éclairant la scène, doivent être prises en compte.
Par ailleurs, plusieurs images de référence peuvent être utilisées de manière à représenter la scène pour différentes conditions atmosphériques envisageables : soit des brouillards plus ou moins denses, mais aussi des conditions de pluie, neige, etc.
D'autre part, il peut être également nécessaire d'utiliser plusieurs images de référence lorsque la ou les sources lumineuses sont pivotantes. En effet, le traitement c) doit pouvoir être réalisé quelle que soit l'orientation de la ou des sources lumineuses. Pour atteindre cet objectif, on peut utiliser une librairie d'images de références, correspondant respectivement aux différentes orientations possibles (discrétisées) de la ou des sources lumineuses. La deuxième et dernière étape c2 du deuxième traitement c est une étape de comparaison. L'image ou les images acquises par la caméra, sont comparées à la ou aux images de référence retenues à l'étape cl. Naturellement, afin de réduire le bruit dans les images caméras et de simplifier les calculs, plusieurs images fournies par la caméra peuvent être agrégées de manière à fournir une image initiale unique, qui est alors comparée à la ou aux images de référence. Dans cette image initiale unique, chacun des pixels peut être calculé soit comme une moyenne des images de départ, soit au moyen d'un filtre de rang (par exemple un filtre médian) appliqués à une série d'image successives, ou par une autre méthode de calcul.
La comparaison entre images provenant de la caméra, et images de référence, est faite à l'aide de méthodes de corrélation d'images. Différentes méthodes sont utilisables. La méthode de comparaison peut ainsi être fondée sur la somme de différences absolues (SAD), la somme de différences absolues à moyenne nulle (ZSAD), la somme des carrés des différences (SSD), la somme normalisée des carrés des différences à moyenne nulle (ZNSSD), etc., ou encore sur une méthode quantifiant une différence entre deux images par une fonction de type 'distance'.
Cette comparaison peut être faite sur l'image entière, ou sur une ou des portions d'image, par exemple la moitié inférieure de l'image (dans laquelle l'illumination produite par les phares est la plus marquée).
Cette comparaison fournit un ou plusieurs indices de présence de brouillard dans la scène. Un indice global de présence de brouillard peut alors être calculé en agrégeant les différents indices. Pour calculer cet agrégat, notamment lorsque les indices sont obtenus par comparaison d'une image de caméra unique avec plusieurs images de référence correspondant à différentes densités de brouillard, on peut par exemple choisir l'indice de présence ayant la valeur la plus élevée : Il devrait correspondre à l'image qui présente une densité de brouillard proche de la densité de brouillard réelle dans la scène, à l'instant de l'observation. On a par ce biais une caractérisation du brouillard.
L'indice global de présence de brouillard, comme les indices fournis directement par les comparaisons opérées, a une valeur d'autant plus grande que la probabilité de présence de brouillard est élevée. Si nécessaire, un indicateur binaire de présence de brouillard (Avec/Sans brouillard) peut alors être établi, en comparant l'indice global avec un seuil prédéterminé.
La deuxième phase du procédé selon l'invention s'achève donc par l'obtention de deux familles d'indices de présence de brouillard ; Les indices calculés par le traitement b par détection de halo, et les indices calculés par le traitement c par analyse de rétrodiffusion. Ces indices peuvent être dans chaque famille agrégés ou on pour fournir un indice global unique. Celui-ci peut être binaire ou non.
Enfin, dans la phase finale d) du procédé, les indices de présence de brouillard sont pondérés à l'aide d'un critère de décision et un indice final est calculé. Comme critère de décision, on peut choisir par exemple le nombre de sources lumineuses identifiées lors de l'étape b21 : Si au moins deux sources sont identifiées, l'indice global à l'issue du traitement b) est retenu comme indiquant la présence ou non de brouillard. Si moins de deux sources sont observées, alors l'indice de présence retenu peut être l'indice global résultant du traitement c). Naturellement, d'autres critères peuvent être retenus tout en restant dans le cadre de l'invention.

Claims

REVENDICATIONS
1. Procédé pour détecter la présence d'un élément perturbant la visibilité d'une scène éclairée par au moins une source lumineuse (105, 107), la nuit ; ledit élément appartenant au groupe comprenant le brouillard, la fumée, la pluie ou la neige ;
le procédé comportant une étape a) dans laquelle on acquiert au moins une image de la scène à l'aide d'une caméra (120), ladite au moins une source lumineuse (105) étant fixe ou pivotante par rapport à la caméra ; le procédé comportant en outre les étapes suivantes :
bl) on détecte dans ladite au moins une image, au moins une source lumineuse apparaissant dans la scène ;
b2) en fonction du halo (H) apparaissant dans ladite au moins une image au voisinage de ladite ou desdites source(s) lumineuse(s), on détecte la présence d'un élément perturbant ;
c) en fonction de la rétrodiffusion de la lumière émise par ladite ou lesdites source(s) lumineuse(s) fixe(s) ou pivotante(s), on détecte dans ladite au moins une image ou dans une partie de celle-ci, la présence d'un élément perturbant ;
d) on pondère les résultats des détections réalisées dans les étapes b2) et c), de manière à fournir en sortie une indication quant à la présence d'un élément perturbant la visibilité de la scène.
2. Procédé suivant la revendication 1, dans lequel à l'étape a), on acquiert une pluralité d'images, auquel cas l'image de la scène est une moyenne de ladite pluralité d'images.
3. Procédé suivant la revendication 1 ou 2, dans lequel l'étape b2) comporte l'étape intermédiaire suivante :
b21) on segmente les portions d'images correspondant à des sources lumineuses détectées à l'étape bl), de manière à identifier les sources lumineuses une par une et non groupées.
4. Procédé suivant l'une quelconque des revendications 1 à 3, dans lequel l'étape b2) comporte l'étape intermédiaire suivante ; pour au moins une portion d'image associée à une source lumineuse identifiée dans la scène, on détecte la présence d'un élément perturbant en identifiant un centre (Ci l) de la source lumineuse dans ladite portion d'image.
5. Procédé suivant l'une quelconque des revendications 1 à 4, dans lequel l'étape b2) comporte l'étape intermédiaire suivante :
b23) pour au moins une portion d'image associée à une source lumineuse identifiée dans la scène, on détecte la présence d'un élément perturbant en analysant un profil d'intensité le long d'un segment (M, M') tracé dans ladite au moins une portion d'image.
6. Procédé suivant la revendication 5, dans lequel ledit segment est déterminé en interpolant des centres (C11,C12,C13) de la source lumineuse, calculés pour différentes valeur de seuil d'extraction du halo (H11,H12,H13) entourant la source lumineuse.
7. Procédé suivant l'une quelconque des revendications 1 à 6, dans lequel l'étape c) comporte l'étape intermédiaire suivante :
cl) on fournit au moins une image de référence, produite soit par une caméra, soit comme résultat d'un calcul de simulation optique.
8. Procédé suivant la revendication 7, dans lequel l'étape c) comporte l'étape intermédiaire suivante :
c2) on compare ladite au moins une image ou ladite partie de celle-ci avec ladite au moins une image de référence de manière à obtenir un score de comparaison.
9. Procédé suivant la revendication 8, dans lequel la comparaison est réalisée par une méthode de corrélation d'image fondée sur la somme de différences absolues (SAD), la somme de différences absolues à moyenne nulle (ZSAD), la somme des carrés des différences (SSD), la somme normalisée des carrés des différences à moyenne nulle (ZNSSD), ou encore par une méthode quantifiant une différence entre deux images par une fonction de type 'distance'.
10. Programme d'ordinateur comprenant des instructions pour la mise en œuvre d'un procédé suivant l'une quelconque des revendications 1 à 9, lorsqu'il est exécuté par un ordinateur,
11. Dispositif pour détecter la présence d'un élément perturbant la visibilité d'une scène éclairée par au moins une source lumineuse (105, 107), la nuit ; ledit élément appartenant au groupe comprenant le brouillard, la fumée, la pluie ou la neige ;
le dispositif comportant une caméra (120) apte à acquérir au moins une image de la scène, et des moyens de calcul aptes à exécuter un programme de traitement des images fournies par la caméra ; ladite au moins une source lumineuse (105) étant fixe ou pivotante par rapport à la caméra ;
lesdits moyens de calcul étant aptes à exécuter ledit programme de traitement des images fournies par la caméra de manière à exécuter les opérations suivantes :
bl) détection dans ladite au moins une image, d'au moins une source lumineuse apparaissant dans la scène ;
b2) en fonction du halo (H) apparaissant dans ladite au moins une image au voisinage de ladite au moins une source lumineuse, détection de la présence d'un élément perturbant ;
c) en fonction de la rétrodiffusion de la lumière émise par ladite ou lesdites source(s) lumineuse(s) fixe(s) ou pivotante(s), détection dans ladite au moins une image ou dans une partie de celle-ci, de la présence d'un élément perturbant ;
d) pondération des résultats des détections réalisées dans les étapes b2) et cl), de manière à fournir en sortie une indication quant à la présence d'un élément perturbant la visibilité de la scène.
12. Dispositif suivant la revendication 11, dans lequel ledit programme de traitement est apte à exécuter l'opération suivante :
pour au moins une portion d'image associée à une source lumineuse identifiée dans la scène, détection de la présence d'un élément perturbant par analyse d'un profil d'intensité le long d'un segment (M, M') tracé dans ladite au moins une portion d'image.
13. Dispositif suivant la revendication 12, dans lequel ledit segment est déterminé par interpolation de centres (C11,C12,C13) de la source lumineuse, calculés pour différentes valeur de seuil d'extraction du halo (H11,H12,H13) entourant la source lumineuse.
14. Dispositif suivant l'une quelconque des revendications 11 à 13, dans lequel ledit programme de traitement est apte à exécuter l'opération suivante ;
c2) comparaison de ladite au moins une image ou de ladite partie de celle- ci avec ladite au moins une image de référence de manière à obtenir un score de comparaison.
15. Véhicule, notamment véhicule routier (100), comportant un dispositif suivant l'une quelconque des revendications 11 à 14.
PCT/FR2011/052262 2010-09-28 2011-09-28 Procede et dispositif de detection de brouillard, la nuit WO2012042171A2 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020137010774A KR20130138791A (ko) 2010-09-28 2011-09-28 밤에 안개를 검출하는 방법 및 기기
EP11779751.4A EP2622324A2 (fr) 2010-09-28 2011-09-28 Procede et dispositif de detection de brouillard, la nuit
US13/876,138 US9171216B2 (en) 2010-09-28 2011-09-28 Method and device for detecting fog at night
JP2013530786A JP5952822B2 (ja) 2010-09-28 2011-09-28 夜間に霧を検出するための方法および装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1057802A FR2965354B1 (fr) 2010-09-28 2010-09-28 Procede et dispositif de detection de brouillard, la nuit
FR1057802 2010-09-28

Publications (2)

Publication Number Publication Date
WO2012042171A2 true WO2012042171A2 (fr) 2012-04-05
WO2012042171A3 WO2012042171A3 (fr) 2013-07-18

Family

ID=43432007

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2011/052262 WO2012042171A2 (fr) 2010-09-28 2011-09-28 Procede et dispositif de detection de brouillard, la nuit

Country Status (6)

Country Link
US (1) US9171216B2 (fr)
EP (1) EP2622324A2 (fr)
JP (1) JP5952822B2 (fr)
KR (1) KR20130138791A (fr)
FR (1) FR2965354B1 (fr)
WO (1) WO2012042171A2 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014223872A (ja) * 2013-05-16 2014-12-04 株式会社小糸製作所 リアフォグランプ制御装置及びリアフォグランプシステム
CN105324661A (zh) * 2013-06-26 2016-02-10 皇家飞利浦有限公司 采用基于传感器的照明器探测能见度降低的区域及其移动方向的装置和方法
FR3079614A1 (fr) 2018-03-30 2019-10-04 Syscience Procede et dispositif de mesure des conditions de visibilite

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015031478A1 (fr) * 2013-08-28 2015-03-05 Gentex Corporation Système d'imagerie et procédé de détection de brouillard
JP6299720B2 (ja) * 2015-10-02 2018-03-28 トヨタ自動車株式会社 物体認識装置及び煙判定方法
DE102016213059A1 (de) * 2016-07-18 2018-01-18 Robert Bosch Gmbh Verfahren und Steuergerät zum Verarbeiten eines zumindest einen Lichthof repräsentierenden Bildes sowie Bildaufnahmesystem

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11278182A (ja) 1998-03-31 1999-10-12 Nissan Motor Co Ltd 車両用霧状況検出装置
US20020040962A1 (en) 1993-02-26 2002-04-11 Donnelly Corporation, A Corporation Of The State Of Michigan Vehicle headlight control using imaging sensor
EP1715456A1 (fr) 2005-04-19 2006-10-25 Valeo Vision Procédé de détection de brouillard nocturne et système de mise en oeuvre de ce procédé.
US20080007429A1 (en) 2006-07-04 2008-01-10 Denso Corporation Visibility condition determining device for vehicle
EP2172873A2 (fr) 2008-10-06 2010-04-07 Mobileye Vision Technologies Groupage de systèmes d'assistance au conducteur

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0643587U (ja) * 1992-11-12 1994-06-10 コーア株式会社 霧の濃度の測定装置
JP3232502B2 (ja) * 1996-06-11 2001-11-26 株式会社日立製作所 霧監視システム
US6853453B2 (en) 1999-03-12 2005-02-08 Regents Of The University Of Minnesota Video camera-based visibility measurement system
MXPA05001880A (es) * 2002-08-21 2005-06-03 Gentex Corp Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular.
ITTO20020950A1 (it) * 2002-11-05 2004-05-06 Fiat Ricerche Sistema di visione integrato multifunzionale, con matrice
JP2008267837A (ja) * 2007-04-16 2008-11-06 Toyota Motor Corp 車両の排気状態検出装置
EP2195688B1 (fr) * 2007-08-30 2018-10-03 Valeo Schalter und Sensoren GmbH Procede et processus de detection des conditions meteorologiques avec characterisation d'etat de la rue a partir d'images
US8023760B1 (en) * 2007-12-06 2011-09-20 The United States Of America As Represented By The Secretary Of The Navy System and method for enhancing low-visibility imagery
WO2010057170A1 (fr) * 2008-11-17 2010-05-20 Cernium Corporation Codage à modulation analytique d'une vidéo de surveillance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020040962A1 (en) 1993-02-26 2002-04-11 Donnelly Corporation, A Corporation Of The State Of Michigan Vehicle headlight control using imaging sensor
JPH11278182A (ja) 1998-03-31 1999-10-12 Nissan Motor Co Ltd 車両用霧状況検出装置
EP1715456A1 (fr) 2005-04-19 2006-10-25 Valeo Vision Procédé de détection de brouillard nocturne et système de mise en oeuvre de ce procédé.
US20080007429A1 (en) 2006-07-04 2008-01-10 Denso Corporation Visibility condition determining device for vehicle
EP2172873A2 (fr) 2008-10-06 2010-04-07 Mobileye Vision Technologies Groupage de systèmes d'assistance au conducteur

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2622324A2

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014223872A (ja) * 2013-05-16 2014-12-04 株式会社小糸製作所 リアフォグランプ制御装置及びリアフォグランプシステム
CN105324661A (zh) * 2013-06-26 2016-02-10 皇家飞利浦有限公司 采用基于传感器的照明器探测能见度降低的区域及其移动方向的装置和方法
FR3079614A1 (fr) 2018-03-30 2019-10-04 Syscience Procede et dispositif de mesure des conditions de visibilite

Also Published As

Publication number Publication date
EP2622324A2 (fr) 2013-08-07
FR2965354A1 (fr) 2012-03-30
US9171216B2 (en) 2015-10-27
KR20130138791A (ko) 2013-12-19
JP2013546038A (ja) 2013-12-26
FR2965354B1 (fr) 2012-10-12
WO2012042171A3 (fr) 2013-07-18
US20140029790A1 (en) 2014-01-30
JP5952822B2 (ja) 2016-07-13

Similar Documents

Publication Publication Date Title
EP1715456B1 (fr) Procédé de détection de brouillard nocturne et système de mise en oeuvre de ce procédé.
EP2056093B1 (fr) Procédé de détection d'un phénomène perturbateur de visibilité pour un véhicule
EP2061006B1 (fr) Procédé de détection d'un phénomène perturbateur de visibilité pour un véhicule
EP2020595B1 (fr) Procédé de détection par un véhicule d'un phénomène perturbateur de visibilité
EP1832471B1 (fr) Procédé de commande de commutation automatique de projecteur de véhicule
WO2012042171A2 (fr) Procede et dispositif de detection de brouillard, la nuit
EP2199152B1 (fr) Procédé de commutation du mode d'éclairage de projecteurs pour véhicule automobile
EP1708125B1 (fr) Procédé de détection anticipée d'une arrivée d'un véhicule automobile dans un secteur sombre
FR2880848A1 (fr) Dispositif de detection de tunnel pour vehicule et dispositif de commande des feux pour vehicule
FR2903493A1 (fr) Dispositif de determination de conditions de visibilite pour vehicule
US20150085118A1 (en) Method and camera assembly for detecting raindrops on a windscreen of a vehicle
WO2018146400A1 (fr) Procédé de détection de faux-positifs relatifs à un feu de signalisation
EP3616161A1 (fr) Procédé de traitement d'images pour la suppression de zones lumineuses
EP2165882B1 (fr) Procédé d'ajustement de l'éclairage des projecteurs pour véhicule automobile
EP4229544A1 (fr) Procédé de traitement d'images
WO2018015446A1 (fr) Procédé de détermination d'un niveau d'éblouissement d'un conducteur de véhicule automobile
EP2165881A1 (fr) Procédé d'ajustement de l'éclairage des projecteurs pour véhicules automobiles
EP1812262A1 (fr) Systeme de feux de croisement pour vehicules automobiles
FR3105143A1 (fr) Procédé de détection d’un état local de la route sur laquelle circule un véhicule automobile
FR3109122A1 (fr) Véhicule à feu de route à adaptation d’intensité lumineuse pour réduire l’éblouissement par réflexion
WO2016131528A1 (fr) Procede et dispositif d'aide a la conduite d'un vehicule automobile
FR2911400A1 (fr) Systeme et procede de communication et d'identification inter-vehiculaire

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11779751

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 2011779751

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2013530786

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20137010774

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13876138

Country of ref document: US