WO2012171834A2 - Verfahren und vorrichtung zur detektion einer sichtbeeinträchtigung einer scheibe - Google Patents

Verfahren und vorrichtung zur detektion einer sichtbeeinträchtigung einer scheibe Download PDF

Info

Publication number
WO2012171834A2
WO2012171834A2 PCT/EP2012/060647 EP2012060647W WO2012171834A2 WO 2012171834 A2 WO2012171834 A2 WO 2012171834A2 EP 2012060647 W EP2012060647 W EP 2012060647W WO 2012171834 A2 WO2012171834 A2 WO 2012171834A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
disc
visual impairment
pane
texture
Prior art date
Application number
PCT/EP2012/060647
Other languages
English (en)
French (fr)
Other versions
WO2012171834A3 (de
Inventor
Daniel Weber
Annette Frederiksen
Stephan Simon
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to US14/126,960 priority Critical patent/US20140241589A1/en
Publication of WO2012171834A2 publication Critical patent/WO2012171834A2/de
Publication of WO2012171834A3 publication Critical patent/WO2012171834A3/de

Links

Classifications

    • G06T5/75
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/49Analysis of texture based on structural texture description, e.g. using primitives or placement rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/04Wipers or the like, e.g. scrapers
    • B60S1/06Wipers or the like, e.g. scrapers characterised by the drive
    • B60S1/08Wipers or the like, e.g. scrapers characterised by the drive electrically driven
    • B60S1/0818Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like
    • B60S1/0822Wipers or the like, e.g. scrapers characterised by the drive electrically driven including control systems responsive to external conditions, e.g. by detection of moisture, dirt or the like characterized by the arrangement or type of detection means
    • B60S1/0833Optical rain sensor
    • B60S1/0844Optical rain sensor including a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to a method for determining a pattern image of a pane, to methods for detecting a, in particular caused by raindrops, visual impairment or contamination of a disc on a corresponding device and to a corresponding computer program product.
  • the disk may be a disk of a vehicle or a fixed camera.
  • the “classic” rain sensor for motor vehicles is located in the area of the inner mirror behind the windshield and is optically coupled to it.Water drops, which are located on the outside of the disk, lead to the decoupling of light generated by an infrared LED, while at By determining the amount of decoupled light, a measure of the amount of water on the disc is obtained, based on this measure and its timing, a signal is generated to drive the windscreen wiper.
  • the rain sensor which is arranged in a vehicle.
  • the rain sensor includes a camera and a processor.
  • the camera takes an image of a scene outside the vehicle with an infinite focal length through a windshield of the vehicle.
  • the processor detects rain based on a degree of scattering of intensities of pixels in the image.
  • the present invention provides a method for determining a structure image of a pane, a method for detecting a visual impairment of a pane, in particular caused by raindrops, a method for detecting contamination of a pane, in particular caused by raindrops, and a device which uses at least one of these methods and finally presents a corresponding computer program product according to the independent claims.
  • Advantageous embodiments emerge from the respective subclaims and the following description.
  • disk is intended to be representative of disks, films or other light or radiation-transmissive devices that are located in the image capture area of an image capture device.
  • the disk may be part of the image capture device or spaced from the image capture device.
  • the image may thus include only a portion of an imager, i. If necessary, only a few pixels and not the entire picture that the camera takes. In particular, an image analysis can only be applied to such a subarea.
  • the approach of the present invention is generally applicable in the context of image capture devices.
  • the image capture device may be a permanently installed camera, for example a surveillance camera.
  • it may be a mobile image capture device, which is arranged for example in a vehicle.
  • the embodiments and embodiments described below are representative of an application in the vehicle sector, but are easily transferable to other applications where also the problem of visual impairment, for example, caused by rain, dirt, insects, scratches or splashes (from the person in front, or the Windscreen wiper system), occurs.
  • the invention is based on the recognition that video-based rain detection in a vehicle can be based on an image that images a slice or a section of a slice of the vehicle, with the slice or an outer surface of the slice focused on the image Background of the disc is out of focus.
  • the rain detection can then take place based on sharply displayed structures of the image.
  • Defocused structures can be previously removed or reduced from the image by means of suitable image processing.
  • the approach according to the invention can be implemented in a rain sensor with image signal analysis, in which drops are detected on the disk and quantified in quantity and / or number.
  • a camera can be used, which delivers individual images or image sequences.
  • the camera can be exclusively available to the rain sensor function. It is advantageous, however, to realize one or more driver assistance functions with the same camera.
  • the camera can simultaneously be used for lane, traffic sign, passenger, vehicle or obstacle detection, for a single-shear detection or for blind spot monitoring.
  • the method is characterized in particular by the fact that it can work passively. So no active illumination is needed at the sensor. The ambient light present in the scene is already enough to ensure the function. Optionally, however, active lighting can also be used to facilitate rain detection in very dark situations.
  • a rain sensor based on the inventive approach can use one or more existing driver assistance cameras and thus does not claim any additional central space swept by the windscreen wiper directly under the windscreen.
  • a rain sensor according to the invention does not have to be optically coupled to the disk, so that light can be coupled into the disk and decoupled again. Accordingly, there is no need for a long-term stable adhesion that would have to be structurally prepared.
  • the rain sensor according to the invention a reproducible and thus easily comprehensible wiper behavior for the driver can be ensured. the, because by the method according to the invention by the disc state, various types of drops, salt, dirt, soap, stone chips, scratches, temperature and ambient light caused effects can be detected and taken into account.
  • driver assistance camera allows integration of driver assistance camera and rain sensor. It can go far beyond a minimal solution of structural integration, in which the measuring principle of the classic rain sensor is maintained, but housing, power supply and signal connection, z. B. via the CAN bus, only once required.
  • a driver assistance camera according to the invention can be considered, which offers rain detection as an additional function and uses the existing image sensor, called an imager, for droplet recognition.
  • the method according to the invention is not limited to a specific camera arrangement, but works with any camera in which the pane surface is focused and the rest of the scene is outside the focus area.
  • the present invention provides a method for determining a pattern image of a pane, for example a vehicle or a permanently installed camera, wherein the texture image is suitable for detecting a visual impairment of the pane, in particular raindrops, the method comprising the steps of: removing a background brightness from an image of the disc on which a surface of the disc is sharply focused and a background of the disc is out of focus to determine a pattern image of the disc; and highlighting image structures present in the texture image to determine an enhanced texture image of the wafer.
  • the vehicle may be a motor vehicle.
  • the pane may be a windshield, rear window, or another pane of the vehicle made of, for example, glass or other transparent material.
  • it can be a disk which can be cleaned by a wiper device of the vehicle, for example a windshield wiper.
  • a security camera which has the disc or disposed behind the disc.
  • the image can image the entire slice or a portion of the slice.
  • Disc can also be understood as the outermost disc or lens of the camera optics.
  • the visual impairment may be an impurity disposed on a surface of the disc.
  • the visual impairment may affect a view of a vehicle occupant through the window.
  • the visual impairment may have an inhomogeneous structure.
  • the visual impairment may be a plurality of individual raindrops. Also, it may be in the visual impairment to
  • the visual impairment may generally refer to a disturbance affecting the transparency or transparency of the disc. This includes, for example, damage to the disc, caused for example by rockfall.
  • the image of the pane can be detected by an image capture device, for example a camera, and provided for further processing by means of the method according to the invention.
  • the image capture device can be directed onto an inner side of the window, that is to say, for example, be arranged in front of the window in the interior of the vehicle.
  • the image can be captured by an image capture device which is additionally designed to detect objects located in an environment of the vehicle, for example additional vehicles, persons or traffic signs.
  • the image used for the method according to the invention can be generated by such an image acquisition device by virtue of a part of the beam path through the image
  • the image of the pane can be focused so that the pane is in or near the depth of field of the image capture device, a background of the disc, which is located outside of the vehicle, but is outside the focus depth range.
  • a background of the disc which is located outside of the vehicle, but is outside the focus depth range.
  • the background is blurred or at least blurred than the surface of the disc.
  • the blurred background area may begin a few millimeters or a few centimeters beyond the outer surface of the disk and extend to infinity. In order to remove the background brightness, therefore, parts of the image that are out of focus can be shown be removed.
  • the structure image thus has the remaining sharply displayed areas of the image that form the structures of the visual impairment.
  • the structures can form surfaces or outlines of the visual impairments can be subjected to reinforce desired structures that are attributable to the visual impairment and to reduce unwanted structures that are assigned to the background, and thus to determine the enhanced structure image based on the reinforced structure image, the visual impairment can be detected
  • coherent structures can be counted in the enhanced structure image, or the intensity values or brightness values of the individual pixels of the amplified structure image can be evaluated
  • a method for detecting a visual impairment of a disc can be evaluated.
  • the image of the disk may have a plurality of pixels. In image processing steps performed according to the invention, the same operations can be carried out pixel by pixel, but the results are generally also dependent on the neighboring pixels, for example in the case of the smoothing filter or the Sobel filter.
  • edge courses present in the texture image may be emphasized to determine the enhanced pattern image of the pane suitable for detecting the visual impairment of the pane.
  • the edge profiles can run along sharp or steep changes in brightness in the image.
  • Edge curves can be enhanced to highlight them. This allows, for example, edges of visual impairments in the structure image to be highlighted.
  • extreme values present in the structure image in the step of highlighting may be emphasized more strongly than further values present in the structure image in order to determine the intensified structure image of the pane. In particular, not only are minima and maxima highlighted, but all nonzero amounts are highlighted, and the more so, the more the amount is different from zero.
  • the extreme values can be amplified to highlight them.
  • the remaining values of the structure image can also be amplified, whereby the further a value is spaced from the extreme values, the lower the absolute gain can be.
  • the extreme values can be particularly bright and particularly dark areas of the structure image.
  • the extreme values for example, interior areas of visual impairments and coronas can be emphasized or suppressed by the visual impairments. If both the edge courses and the extreme values are enhanced, the resulting structure pictures can each be combined, for example added, in order to obtain the enhanced structure picture.
  • the emphasis can be made by first transforming all values of the structure image into absolute values by means of absolute value formation, and then amplifying the absolute values. The amplification can be done by multiplication by a factor. All absolute values can be multiplied by a factor that is the same for all absolute values.
  • the method of the invention may further comprise a step of determining the background brightness of the image to determine a background brightness image of the disk.
  • the background brightness image may be combined with the texture image and / or the enhanced texture image to determine a cleaned texture image of the pane suitable for detecting the visual impairment of the pane.
  • the cleaned structure image may be cleaned up by background brightness-evoked structures. In this case, structures contained in the structure image, which are caused, for example, by a backlight, can be removed or suppressed.
  • a step of amplifying edge profiles present in the background brightness image can be carried out in order to produce a reinforced background image. to determine the basic brightness image.
  • the enhanced background brightness image may be combined with the texture image and / or the enhanced texture image. The combining can be done by subtraction. In this way disturbing influences of the background can be reduced even more.
  • a step of highlighting bright areas of the background brightness image may be performed to determine another enhanced background brightness image.
  • the further enhanced background brightness image may be combined with the texture image and / or the enhanced texture image.
  • Combining may involve multiplication or division.
  • the present invention further provides a method for detecting a, in particular caused by raindrops, visual impairment of a disc, such as a vehicle or a fixed camera, comprising the following steps: Evaluating structures of a structure image of the disc, wherein on the structure image, a surface of the Disc sharp and a background of the disc is out of focus to detect the visual impairment of the disc.
  • the structural image may be the enhanced structural image that has been determined by the method according to the invention for determining a structural image.
  • the structures of the visual impairments such as outlines or areas thereof, are shown sharply. Structures not caused by visual impairments, on the other hand, are out of focus or already filtered or suppressed from the structure image.
  • an average value or a sum over the structure image or a number of the structures can be determined. Accordingly, the visual impairment of the disc can be detected based on the average value, the sum or the number.
  • a threshold value be carried out with one or more thresholds. For example, visual impairment may be considered existing if the mean or sum or number exceeds a predetermined threshold.
  • a first texture image of the slice may be combined with at least one temporally preceding further texture image of the slice to determine a combined slice structure image.
  • structures of the combined structure image can be evaluated in order to detect the visual impairment of the pane. In this way, a temporal change of visual impairments can be detected. It can be recognized both newly added visual impairments, which are present only on the further structure image, as well as constant visual impairments, which are present on both the first and on the further structure image.
  • a link for example multiplication, can be made between the first structure image and the further structure image.
  • structures can be highlighted that have both the first structure image and the further structure image. If a cleaning of the panes is carried out between the structural images, such structures may indicate a difficult to remove visual impairment, which is caused for example by insects or tar. If no cleaning of the wafers is performed between the structural images, such structures may indicate a non-self-evident visual impairment requiring cleaning of the wafer.
  • a disturbance affecting the transparency of the pane for example damage to the pane, can also be detected.
  • Damage to the pane, caused, for example, by rockfall, according to this embodiment also leads to a detection which can not be removed by wiping.
  • a link for example, subtraction between the first pattern image and the other
  • Structure image are performed to highlight structures that has either only the first structure image or only the other structure image. Structures that are only recognizable in the further structure image may indicate newly added visual impairments. On the other hand, structures that can only be recognized in the first structure image can be removed in the meantime or in their own right
  • the video-based rain sensor is an increasingly important
  • a video-based rain sensor is to evaluate a sharp image of the slice using image processing technology.
  • the camera can be focused on the front screen, or an additional optical element, such as a lens or a mirror, must realize this focusing.
  • an approach can be selected in which the additional optical component is integrated into the holding frame or the housing of the camera.
  • the image taken by the automotive camera of the focused raindrops on the disk can be evaluated by an image processing algorithm and the drops are detected. This approach is a purely passive system.
  • Another principle according to the invention can be used in rain sensors based on the classical optical method which utilizes the total reflection. From a light emitting diode (LED) light is emitted, which in the
  • Windscreen is coupled by means of coupling element obliquely.
  • a photosensitive sensor such as a photodiode or a photoresistor (LDR). If there are drops of water on the disc, some of the light on the outside of the disc is decoupled and results in less intensity at the receiver.
  • the decrease in the number of NEN amount of light on the photodiode is a measure of the rain intensity. The more water is on the disk, the stronger the decoupled amount of light and the lower the reflection.
  • the wiper system is controlled with a speed adapted to the wetting state of the windshield.
  • This approach has the advantage that even in situations with low ambient brightness or very low environmental contrast, e.g. in the dark, in the night or in the fog, the detection can be carried out safely and even such environmental circumstances do not lead to any problems in detection reliability.
  • An inventive approach consists in an alternating pane lighting.
  • a first optical radiation which may be an ambient radiation
  • a second optical radiation is added by an additional illumination source.
  • a first optical radiation which may be an ambient radiation
  • a second optical radiation is added by an additional illumination source.
  • light beams can be reflected one or more times on the raindrops, starting from this second optical radiation, and thereby a signal can be received by the drops even in the absence of a first optical radiation.
  • the likelihood of a beam of the second optical radiation being reflected at the inside of the drop and returning towards the camera is low.
  • This inventive approach enables reliable detection in a video-based rain sensor by means of alternating illumination states under low-contrast environmental conditions. Alternating lighting conditions may thus contribute to reliable detection and a better signal-to-noise ratio (SNR) in the dark in a video-based rain sensor.
  • SNR signal-to-noise ratio
  • the present invention further provides a method for detecting contamination of a disk, for example a vehicle, caused in particular by raindrops, comprising the steps of: evaluating a first image of the disk based on a reflection of a first optical radiation and a reflection on a reflection a second optical radiation-based second image of the wafer to detect the contaminant, the first optical radiation being adapted to be reflected at a contaminated region of the wafer and the second optical radiation being formed to be at a non-contaminant region of the wafer to be reflected.
  • the first radiation and the second radiation may be provided by one or more radiation sources disposed in the interior of the vehicle.
  • the first and second radiation may differ in their wavelengths as well as in their direction of propagation with respect to a surface of the disk so as to have a different reflection behavior on the disk.
  • the first and second radiation may be provided one after the other or simultaneously.
  • the first radiation may be oriented so that the first radiation is at an angle to the first radiation
  • the first radiation is totally or at least very strongly reflected by the impurity.
  • the reflected first radiation can be detected by an image capture device, such as a camera.
  • the image capture device may provide the first image based on the reflected first radiation. In the first picture areas of the disc can be seen, where the first radiation was reflected. Thus, on the first image those areas are recognizable, in which there is an impurity. By means of a suitable image evaluation, these areas can be recognized and corresponding information about the recognized areas can be output, which have an impurity.
  • the second radiation may be oriented such that the second radiation strikes the disk at an angle where it is totally or at least very highly reflected on the disk, as long as the disk has no contamination. If, on the other hand, the disc has an impurity, then the second
  • the reflected second radiation may be detected by the or another image capture device.
  • the image capture device may provide the second image based on the reflected second radiation.
  • In the second picture areas of the disc are visible, where the second radiation was reflected.
  • those areas can be seen where there is no contamination.
  • Impurities are detected based on both the first and on the second radiation.
  • the first image and the second image can be evaluated separately or combined before the evaluation.
  • an average value or a sum over the image (s) can be determined.
  • a number of those areas may be determined where contaminants are located.
  • the contamination of the disk can be detected based on the average value, the sum or the number.
  • a threshold value comparison can be carried out with one or more thresholds.
  • an impurity can be regarded as existing if the mean value or the sum or the number exceeds a predetermined threshold value.
  • the ambient radiation or ambient brightness can be evaluated. Based on the ambient radiation, a further image can be generated, which is additionally evaluated separately from the first and second image or combined with the first and the second image before the evaluation.
  • the further image can be a structure image determined according to the invention, background brightness image or a combination thereof.
  • the first image or the second image may be inverted and superimposed with the respective other image in order to determine a superimposed image.
  • the superimposed image can be evaluated in order to detect the contamination.
  • the present invention further provides one or more devices each adapted to perform the steps of one or more of the methods of the invention in corresponding devices. Also by this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.
  • a device can be understood as meaning an electrical device which processes sensor signals and outputs control signals in dependence thereon.
  • the device may have an interface, which may be formed in hardware and / or software.
  • the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device.
  • the interfaces are their own integrated circuits or at least partially consist of discrete components.
  • the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.
  • FPGA implementation may be advantageous. For example, the data-intensive image processing parts can be performed on an FPGA and further processing up to the generation of the control signals can be performed on a microcontroller.
  • a computer program product with program code which can be stored on a machine-readable carrier such as a semiconductor memory, a hard disk memory or an optical memory and is used to carry out the method according to one of the embodiments described above if the program is on a computer corresponding to a computer is also of advantage Device is running.
  • Fig. 1 is a schematic representation of an embodiment of the present invention
  • FIGS. 2 to 4 are block diagrams of embodiments of the present invention.
  • FIGS. 5 to 15 show images of a pane in different processing states, according to exemplary embodiments of the present invention
  • FIGS. 17 to 19 are schematic images of a disk, in accordance with embodiments of the present invention.
  • FIG. 20 is a flowchart of a method according to the invention.
  • FIG. 1 shows a vehicle 100 with a pane 102 and a camera 104.
  • the vehicle 100 moves toward an object 106, for example a traffic sign.
  • the disk 102 may be a windshield of the vehicle 100.
  • the camera 104 may be disposed inside the vehicle 100 so as to detect an environment of the vehicle 100 through the disk 102.
  • the camera 104 is designed to detect a partial area of the pane 102 and the object 106 located in the vicinity of the vehicle 100 and to provide a corresponding image.
  • a depth of focus range of the camera 104 is set so that the disk 102 is in the depth-of-field of the camera 104.
  • the vehicle 102 and, in particular, the object 106 are outside the depth of focus range of the camera 104.
  • the pane 102 and any visual impairment or contamination, for example in the form of raindrops, on the pane 102 is on an image provided by the camera 104 sharp.
  • Vehicle 100 and thus also the object 106 are shown out of focus on the image.
  • refocusing e.g. with mirror optics
  • a secondary image which is an image focused on the pane, to choose a different viewing direction than for a primary image. So it is also possible to interpret the visual beam of the secondary image so that it looks into the sky or to the ground or to the side.
  • An embodiment of a primary image and a secondary image is shown in FIG.
  • the image provided by the camera 104 may be used to detect a visual impairment of the disk 102.
  • the image can be subjected to a corresponding image processing and image evaluation.
  • FIGS. 2 to 4 show a video-based rain detection subdivided into a plurality of subsections, in accordance with embodiments of the present invention. The sections may be combined so that the output data of the block diagram shown in FIG. 2 represents input data of the block diagram shown in FIG. 3 and the output data of the block diagram shown in FIG. 3 represents input data of the block diagram shown in FIG.
  • the block diagram shown in FIG. 2 is concerned with a determination of structures of an image of a disk on or in which visual impairments are located.
  • the block diagram shown in FIG. 3 is concerned with a highlighting of the structures of the image
  • the block diagram shown in FIG. 4 deals with a temporal evaluation of the structures of the image in order to classify the visual impairments on the basis of the structures and their temporal behavior.
  • FIG. 2 shows a block diagram for determining a structure image according to an embodiment of the present invention.
  • the disc may be the front window of a vehicle shown in FIG.
  • the image capture device 104 may be the camera shown in FIG. 1, for example in the form of a rain sensor camera.
  • On an outer, the camera 104 opposite, surface of the disc 102 is a visual impairment 203 in the form of a plurality of raindrops.
  • a portion of the disk 102 and the raindrops 203 located on the portion are located in the image capture area of the camera 104.
  • the camera 104 is configured to provide an image 210.
  • the image 210 may be constructed from a plurality of individual pixels. From the image 210, a texture image 212 and a background brightness image 214 may be determined.
  • the image 210 and thus each pixel may have a value range of 12 bits.
  • the image 210 is provided to a luminance extraction device 220, where unnecessary color information can be removed from the image 210.
  • a device 222 an adaptive histogram-based compression is performed.
  • the value range of the image for example, 8 bits, can be reduced.
  • an image section from the image 210 can be selected in a device 224 and made available for further processing.
  • sharp structures can be filtered out of the image 210 so that the blurred structures of the background brightness remain.
  • the image detail provided by the device 224 can be filtered by means of a low-pass filter 226.
  • the low-pass filter 226 may be designed such that the local extent of its impulse response is approximately equal to or greater than the dimensions in the image of the visual impairments to be detected.
  • the filter 226 may be configured to output the background brightness image 214.
  • the image detail provided by the device 224 may be combined with the background brightness image 214.
  • the principle of "unsharp masking" can be used, ie, the background brightness image 214 can be subtracted from the image 210. For example, the background brightness image 214 can be inverted and then in one
  • Combination device 230 combined with the image section provided by the device 224, for example, added.
  • the adder 230 may output the texture image 212.
  • the structure image is signed according to this embodiment.
  • the texture image 212 may be free of background brightness.
  • FIGS. 5-7 To illustrate the image processing steps illustrated in FIG. 2, embodiments of an image 210, a texture image 212, and a background brightness image 214 are shown in FIGS. 5-7.
  • the devices 220, 222, 224 are optional. If used, they may also be arranged in a different order than shown. According to one embodiment, only the texture image 212 may be determined. In this case, the visual impairments may be determined based on the texture image 212.
  • FIG. 3 shows a block diagram for determining a reinforced structure image 316 from a structure image 212 and a background brightness image 214 according to an embodiment of the present invention.
  • the texture image 212 and the background brightness image 214 may be determined based on the method shown in FIG. 3.
  • the structure image 212 is received and supplied on the one hand to a first signal processing branch, which has means 321, 323, and, on the other hand, to a second signal processing branch, which has means 325, 327, 329. Images resulting from the first signal processing branch and the second signal processing branch are combined with one another in a device 331.
  • the first signal processing branch is designed to emphasize in terms of magnitude high amplitudes of the pixels of the structure image 212.
  • areas that have high brightness and areas that have a large amount of darkness can be amplified. If the visual impairment of the disc is dripped, a drop inside can be highlighted in this way. Incidentally, it also highlights a corona around the drops.
  • the device 321 may be designed to perform an absolute value formation abs (). In this case, the corresponding absolute value can be formed for each of the pixels.
  • the absolute values provided by means 321 may then be amplified in means 323, for example by multiplying them by a factor.
  • the absolute values can each be multiplied by a factor of 16.
  • the second signal processing branch is designed to highlight existing edge profiles in the structure image 212. Edge profiles can be highlighted regardless of their orientation. As a result, outlines of the visual impairments, so for example, drop edges, be strengthened.
  • suitable filters for example Sobel filters, can be used in the device 325. According to this embodiment, for an x-alignment and a y-alignment, two pa- Rallele used filters whose output values each squared and then combined with each other, for example, added, and are subjected to the device 327 rooting.
  • the device 325 is also possible, for example by means of respective absolute value formation and subsequent addition of the two Sobel filter outputs.
  • the rooting 327 can then be omitted.
  • a value adaptation for example by multiplication by a factor, can be carried out in the device 329.
  • the factor can be 0.5.
  • the image information provided by the devices 323, 329 can be linked together in the device 331, for example by addition.
  • only the first or only the second signal processing branch can be executed in order to determine the amplified structure image 316.
  • the background brightness image 214 may be used to rid the enhanced texture image 316 of perturbing effects caused by the background brightness.
  • the perturbing effects may be edges caused by a blurred image of background point light sources.
  • the background brightness image 214 can be received and fed to a third signal processing branch, which has means 333, 335, 337, and to a fourth signal processing branch, which has means 339, 341, 343, 345, 347. Images resulting from the third signal processing branch and the fourth signal processing branch can be combined in device 339, 349 with the image provided by device 331.
  • the third signal processing branch is designed to emphasize edge profiles present in the background brightness image 214. As a result, brightness gradients can be highlighted.
  • suitable filters for example Sobel filters, can be used in the device 333.
  • the device 333 may be designed in accordance with the device 325. After filtering, rooting may be performed in device 335 and inversion may be performed in device 337.
  • the device 339 can be designed as an addition device in order to add the image data provided by the devices 331, 337.
  • the brightness gradient gradients determined by the third signal processing branch are subtracted from the structure image 212 preprocessed in the first and second signal processing branches and thus suppressed in the amplified structure image 316.
  • Alternative configurations for the device 333 are also possible, for example by means of respective magnitude formation and subsequent addition of the two Sobel filter outputs.
  • the rooting 335 can then be omitted.
  • the fourth signal processing branch is designed to select regions of above-average brightness present in the background brightness image 214. This makes it possible to level the influence of bright areas.
  • the device 339 may be designed to average mean () over the background brightness image 214, and the subsequent device 341 may be configured to perform inverse 1 / x.
  • the image provided by the device 341 can be combined, for example multiplied, with the background brightness image 214.
  • image values which are smaller than a threshold value for example one, can be set to one and image values that are greater than the threshold value can be left unchanged.
  • a function max (x, 1) can be implemented in the device 345.
  • a reciprocal formation 1 / x can be performed.
  • the device 349 can be designed to combine, for example to multiply, for example, the image data formed in the fourth signal processing branch with the image data of the structure image 212 preprocessed in the first and second signal processing branches, in order to achieve the leveling of the influence of the bright areas in the enhanced structure image 316.
  • the reinforced pattern image 316 is substantially defined by the first two branches.
  • the enhanced texture image 316 may be determined based on the method shown in FIG. 3.
  • the visual impairment may be droplets, and based on the enhanced texture image 316, a solid image 418 and a new drop 420 image may be determined.
  • negative values of the enhanced pattern image 316 may first be set to zero and positive values left unchanged.
  • the function max (x, 0) can be implemented in the device 421.
  • the image output by the device 421 can be supplied to a delay device 423, as well as combination devices 425, 426.
  • the delay device 423 may cause a delay by a time T, which may correspond to a time interval between two successive images.
  • a current image can be combined with a predecessor. New drops, impurities or visual impairments may define those that have been added within the time period T and therefore exist only on the current image but not on the previous image.
  • a plurality of temporally spaced-apart images can also be combined with one another.
  • the time intervals between the combined images can be the same or different.
  • temporally past image information can be temporarily stored in a suitable memory device.
  • different images can be combined.
  • a combination of only two temporally be sufficient for successive pictures.
  • a combination of only two images may be sufficient, between whose recording only a wiping process takes place.
  • a combination of three or more images may be required, between which recording several wiping operations take place.
  • a combination of at least two images may be required, between which recording a certain number of wiping takes place, which is usually sufficient to others Remove impurities.
  • a visual impairment already removed after a wiping operation can be classified as an easy-to-remove contaminant.
  • a visual impairment which persists over several wiping operations and is removed only after the several wiping operations can be classified as a hard-to-remove contaminant.
  • a visual impairment that persists even after a large number of wipes can be classified as a non-removable visual impairment.
  • the classification can be carried out by means of a suitable classification device which specifies, for example, the images to be evaluated and their preparation and evaluation.
  • a respective geometric average can be formed pixel by pixel over mutually corresponding pixels of the current image and the predecessor image.
  • the current image can be linked to the predecessor image in the combination device 425, for example, multiplied.
  • a device 427 rooting can be performed.
  • a constant can subsequently be added up.
  • the constant may have a value of -50.
  • a range of values of the pixels of the resulting image can be limited both upwards and downwards.
  • a function can be implemented in which a truncation of the value range to a predetermined range, for example between 0 to 255 (both inclusive) takes place.
  • Data output from the device 431 forms the image 418 comprising the stable drops.
  • the predecessor image may be subtracted from the current image.
  • an inversion device 433 and the combination device 426 for example in the form of an addition device, can be used.
  • the image output from the combiner 426 may be accumulated in an adder 437 by a constant.
  • the constant may have a value of -50.
  • a value range of the pixels of the resulting image can be limited both upwards and downwards.
  • a function may be implemented in which the range of values is truncated to a predetermined range, for example, between 0 to 255 (both inclusive). Data output by the device 439 forms the image 420 comprising the new drops.
  • Illustrative of the processing steps shown in FIG. 4 are exemplary embodiments of an image 418 comprising the stable drops in FIG. 13 and an image 420 comprising the new drops in FIG.
  • only the information 418 about the stable drops or only the information 420 about the new drops can be determined and provided.
  • the two branches shown in FIG. 4 may also be omitted, that is, the output 316 of FIG. 3 may be used directly to detect the visual impairment.
  • the image 418 comprising the stable drops and the image 420 comprising the new drops can be evaluated by means of an image evaluation in order to quantify the stable and new drops, for example.
  • FIGS. 2 to 3 The block diagrams shown with reference to FIGS. 2 to 3 will be described in detail below on the basis of an exemplary embodiment of a video-based rain detection.
  • a camera has at least one image, preferably a continuous sequence of images, an image.
  • ner transparent disc, z. B. receives a vehicle windscreen.
  • the camera is located inside the vehicle. On the outside of the disc, there may be drops of water that should be detected when present and quantified in quantity and / or number.
  • the arrangement should be designed so that the drops are located approximately in the depth of field of the camera or a camera image detail. All other scene objects, such as the street, buildings, vehicles, pedestrians, trees or clouds should be outside the depth of field.
  • the camera provides an image of the (front) disc, which is focused at least in a partial area on the outside of the disc.
  • the camera advantageously has a corresponding signal dynamic. For example, it can provide an output signal with a 12 bit luminance resolution.
  • luminance extraction may first occur if the color information is not subsequently used. According to the embodiment described here, the color information is not used. Alternatively, you can
  • the color information may be used to determine whether the blur disks have been generated by a front or rear light.
  • a corresponding information can be provided, for example, to further vehicle systems for further processing. If the color is not required, an image sensor can be used in which the color filter imprint is omit at least on the secondary image part of the image sensor.
  • global histogram-based compression of the input signal can be performed to reduce the dynamics to 8 bits.
  • a compression curve can be determined based on the histogram of the luminance, which is then applied to the gray values of all pixels by look-up table. This achieves adaptation to different input dynamics.
  • the compressor characteristic curve is selected such that the output signal makes good use of the available 256 gray values in each situation, thus ensuring a high signal entropy.
  • an image section for the rain detection can be extracted.
  • the order of compression and image section can also be swapped.
  • the resulting image 210 is shown by way of example in FIG. 5 below.
  • This image signal 210 may have a very strong dependence on the lighting in the scene.
  • the headlights of the oncoming vehicle 501 lead to large circles of light 503.
  • a plurality of drops 505 can be seen, of which only one drop is provided with a reference numeral for the sake of clarity.
  • the first image detail shown above, the so-called primary image can be used for the known driver assistance functions for environment detection, while the second image detail 210 shown below, the so-called secondary image, is used for rain detection.
  • a decomposition into low-pass component and high-pass component is performed. This can be z. B. by low-pass filtering and difference formation.
  • the high-pass component is referred to below as a structure image, the low-pass component as a background brightness image.
  • Fig. 6 shows a background brightness image 214.
  • the background brightness image 214 results from the low-pass filtering of the secondary image.
  • the large light circles 503 are exposed.
  • FIG. 7 shows a structure image 212, here raised for visualization by a constant gray value.
  • the structure image 212 still has the structure of the drops 505, but is largely exempt from the influence of the background brightness. Only edges of the light circles 503 can be seen.
  • the amount is subsequently formed on the pattern image 212. Since the structure image 212 is freed from the low-pass component, in this way the drop inside is highlighted, but also a corona around the drop. In between is usually a zero crossing, as shown with reference to FIG. 8.
  • Fig. 8 shows an absolute value of the texture image for highlighting the drop inside.
  • the absolute value can be formed by means of the device 321 shown in FIG.
  • Fig. 9 shows the gradient amount from the texture image for highlighting the drop edges.
  • the unwanted response to the large bright circles 503 caused by the oncoming headlights is suppressed by also performing gradient amount formation on the background brightness image. These brightness gradients are particularly pronounced at the circle edge, as can be seen from FIG. 10.
  • Fig. 10 shows the gradient amount from the background brightness image for highlighting the light circle edges and the corona of the drops 505.
  • the gradient amount from the background brightness image can be determined by the means 333, 335 shown in Fig. 3.
  • the gradient amount shown in FIG. 10 from the background brightness image is linked to the previous intermediate result, preferably by weighted subtraction. This can be done by means of the device 339 shown in FIG. As a result, the intentional suppression of light circle edges and corona of the drops 505 takes place.
  • a normalization function is formed in the lower path of the block diagram shown in Fig. 3, which acts only on image areas whose background brightness is greater than the average background brightness. The remaining image areas remain unaffected.
  • Fig. 1 1 shows where this leveling becomes effective.
  • FIG. 11 shows that in areas with an above-average brightness, the influence of the illumination is reduced.
  • FIG. 12 shows the intermediate result 316 based on the evaluation of a single input image.
  • Fig. 14 shows a result image 420 for newly added drops.
  • the sum or the mean value is calculated via the output images.
  • the mean value over the image of the stable drops represents a measure of the rainfall on the windscreen.
  • the average value over the image of the new drops provides information about the amount of rain per unit time, ie how much it rains.
  • Fig. 15 shows a compact visualization of the most important intermediate results on a screen.
  • a primary image 1501 is shown at the top, including the secondary image 210.
  • an image 1502 the detected stable droplets in and the new droplets can be seen.
  • the stable drops and the new drops can be displayed in different colors. For example, the stable drops may be shown in yellow and the new drops in green.
  • the curve 1503 below represents the course of the average value over the respective image of the stable drops over time. In this course, it can be seen how the slice is cleaned in each case by the preceding wiping movement and the subsequent wiping movement that follows and the curve in each case returns to zero or a value close to zero.
  • the primary image 1501 is focused on the scene to be detected, or at infinity or beyond infinity. Therefore, the drops appear on the disc in the primary image 1501 out of focus. In the photograph shown in Fig. 15, the disc was artificially irrigated, therefore, the ramps are so steeply different in the course 1503.
  • a count of the drops can also be made or an approximation for the number of drops can be determined.
  • For counting is a labeling algorithm, as it is known in image processing.
  • For an approximate count also simpler methods are considered, for. Using the count of the (bit) changes in a binarized detection image in line and / or column by pass.
  • the method according to the invention is also suitable for detecting snow and ice particles on the pane. Since these are in contact with the disc in the depth of field and thus lead to sharp image contours, the inventive method also attacks here.
  • the cause of the detections can also be of other types, for. B. caused by insects that stick to the disc, tar splatter or damage to the disc by stone chips, scratches or damage to optics or the imager or dust particles in the internal beam path.
  • detections of this type do not influence the activation of the windscreen wiper. This can be achieved by relating the results of the detection to each other at a greater time interval. It is particularly advantageous to use an image of a point in time shortly after the wiping process, ie if the pane should be substantially free of water. If it is ascertained for the respective pixel that detections occur regularly despite the wiping that has just taken place, then a persistent disturbance at the corresponding position of the
  • this disturbance is caused by an insect sticking to the windscreen, it will eventually disappear in case of prolonged rain and windscreen wiper operation. This can take minutes to hours depending on the weather. A tar stain can be more persistent. The disruption caused by it may only disappear after a thorough cleaning with solvent. Damage in the pane glass such as rockfall or scratches or a disturbance in the optics will not disappear by cleaning measures. The disturbance will be permanent.
  • the degree of persistence of the disturbance can be determined.
  • the number of wiping cycles or the amount of water removed by wiping can also be used as a "distance measure.”
  • the different distances can each be converted by the delay element 423 shown in FIG.
  • Detections that are not immediately or never eliminated by wiping can therefore be determined algorithmically. It is thus possible to disregard these disturbed pixels in the further evaluation or to give their influence a lesser weight. The result of the rain sensor then remains unaffected by such disturbances. In this way, unnecessary wiping operations can be avoided.
  • an automatic use of wiper water can take place. By means of the wiper water, the disc can be cleaned.
  • the wiper If the wiper is used, the distinctness of rain is even higher, because dirt of the species mentioned dry can hardly be removed.
  • the windshield washer pump may be specifically turned on when a dry contaminant has been detected, or it may be turned on, for example, every time the window cleaning function is activated for the first time, the first time activation being an activation after a predetermined rest period.
  • a backlighting of the disc can take place.
  • the inventive method works as a passive sensor without active illumination of the disc or the drops.
  • the scene present in the scene ambient light is already sufficient to ensure the rain sensor function. Active lighting can therefore be considered as an option.
  • backlighting which may also be used only occasionally, is that the sensor then works even in a completely dark environment and can correctly control the windscreen wiper. If the scene then brighter again, the disc is already wiped correctly and the driver has immediately unobstructed view.
  • the lighting can be done with visible light or invisible to human light, preferably infrared light.
  • the spectral composition of the light and the spectral sensitivity of the camera must be coordinated.
  • the lighting should be arranged so that only the pane area used for rain detection is illuminated if possible.
  • the disc penetration surface used for the driver assistance functions should be excluded from the illumination as far as possible in order to avoid unwanted interference.
  • two fundamental principles come into consideration.
  • the classic rain sensor works according to this principle.
  • the light is coupled by means of an optical coupling element at a certain angle to the inside of the disk, so that on the dry outer side of the disk, a total reflection occurs.
  • the presence of drops interrupts the total reflection at these points and leads to local outcoupling of light to the outside.
  • the resulting image on the disc can be decoupled and analyzed again with a decoupling element.
  • For the timing of the light source also come several options in question.
  • the light source is not modulated but constantly switched on. Then, the algorithm according to the invention for droplet detection takes effect immediately, because the illumination of the droplets produces sharp image contours, by means of which the presence of the droplets can be inferred.
  • a modulatable source for example, alternately an image with backlighting and an image without backlighting or with reduced backlighting intensity can be recorded. By evaluating the difference between these two types of images, it is then possible to deduce the presence or absence of drops.
  • the spectral composition of the light can also be modulated. This can be z. B. by two or more LED modules of different spectral composition (color) can be achieved. With a color camera, the corresponding demodulation can be performed.
  • Another degree of freedom is to position multiple light sources at different locations.
  • the modulation then switches between the light sources. Accordingly, the reflections take place in the drops at different locations, which z. B. can be worked out by a differential image processing.
  • a temporal update can be carried out in the absence of backlighting.
  • the inventive approach can also be used in connection with a rear window cleaning or headlight cleaning.
  • a sensor can be relocated accordingly.
  • the exemplary embodiments according to the invention can also be applied to vehicles which have a wiping and / or washing function for further windows, in particular for the rear window and the windows in front of lighting units and in front of further sensors.
  • the video-based rain sensor does not have to be in the area of the rear-view mirror behind the windshield. Other positions may be useful, especially if a cleaning device is present at these positions.
  • FIG. 16 shows a window 102 of a vehicle and an image capture device in the form of a camera 104 arranged in the vehicle.
  • a first light source 1601 and a second light source 1602 are disposed in the vehicle interior.
  • the first light source 1601 is designed to emit a first radiation 161 1 in the direction of the pane 102.
  • the second light source 1602 is configured to emit a second radiation 1612 in the direction of the disk 102.
  • the disk 102 may be in the depth-of-field of the camera 104.
  • An illustrated first beam of the first radiation 161 1 impinges on a portion of the disk 102 that is free of contaminants. In this case, the first beam of radiation 161 1 can penetrate the disk 102 and is not reflected.
  • An illustrated second beam of the first radiation 161 1 strikes a portion of the disk 102 in which the droplet 203 is located. In this case, the second beam of the first radiation 161 1 is reflected due to the drop 203. The reflected second beam of the first radiation 161 1 is from the
  • the desired reflection behavior of the first radiation 161 1 on the disc 102 can be adjusted by a suitable angle of incidence of the first radiation 161 1 on a surface of the disc 102.
  • the first light source 1601 can be aligned accordingly.
  • the camera 104 is designed to provide a first image on which reflections of the first radiation 161 1 can be recognized. The more rays of the first radiation 161 1 are reflected, the more impurities 203 are on the disc. Thus, it can be concluded from the amount of the reflected first radiation 161 1 on the impurities 203 on the disk 102.
  • the amount of reflections or a measure for the quantification of the reflections can be determined by an evaluation of the intensity profiles or brightness profiles of the first image.
  • the first light source 1601 and the camera 104 may be coupled to each other so that the emission of the first radiation 161 1 by the first light source 1601 and the detection of the first image by the camera 104 may be synchronized.
  • An illustrated first beam of the second radiation 1612 impinges on a portion of the disk 102 which is free of contaminants.
  • the first beam of the second radiation 1612 can not penetrate the disk 102, but is reflected at the disk 102.
  • An illustrated second beam of the second radiation 1612 impinges on a portion of the disk 102 in which the droplet 203 is located.
  • the second beam of the second radiation 1612 is not reflected due to the drop 203 and may pass the disk 102 and the drop 203.
  • the reflected first beam of the second radiation 1612 is detected by the camera 104.
  • the desired reflection behavior of the second radiation 1612 on the disk 102 can be adjusted to a surface of the disk 102 by a suitable angle of incidence of the second radiation 1612.
  • the second light source 1602 can be aligned accordingly.
  • the first radiation 161 1 can strike the surface of the pane 102 at a smaller angle of incidence than the second radiation 1612.
  • the camera 104 is configured to provide a second image on which reflections of the second radiation 1612 can be seen. The more rays of the second radiation 1612 are reflected, the fewer impurities 203 are present on the disk 102. Thus, it can be concluded from the amount of reflections on the impurities 203 or on the absence of impurities 203 on the disk 102. the.
  • the amount of reflections or a measure for the quantification of the reflections can be determined by an evaluation of the intensity profiles or brightness profiles of the second image.
  • the second light source 1601 and the camera 104 may be coupled together so that the emission of the second radiation 1612 by the second light source 1602 and the capture of the second image by the camera 104 may be synchronized.
  • the arrangement of the camera 104 and the light source 1601, 1602 is chosen only as an example and can be varied. Also, the first radiation 161 1 and the second radiation 1612 can be emitted from one and the same light source.
  • the camera 104 may additionally be configured to capture a third image on which a background brightness is imaged. While the third image is detected, the light sources 1601, 1602 may be turned off.
  • Fig. 16 The arrangement shown in Fig. 16 is shown greatly simplified. For reflection, the Fresnel reflections on the disc are utilized. Alternatively, it is also possible to utilize a total reflection on the pane, in which case a coupling element (not shown in FIG. 16) for coupling and decoupling the beam can be provided. By means of the coupling element of the beam can be coupled at an angle in the disc, which allows to exploit the total reflection within the disc.
  • FIG. 17 shows a schematic representation of a first image 1701, which can be determined, for example, by the camera 104 shown in FIG. 16 based on reflections of the first radiation 161 1.
  • a bright area 1703 in the first image 1701 may be associated with an impurity to which a portion of the first radiation is reflected. The more bright areas 1703 have the first image 1701, the more impurities are on the disk.
  • the brightness of the first image 1701 can be determined by suitable evaluation methods. By means of a suitable assignment rule or a look-up table, the brightness can be assigned to a degree of contamination of the pane. For example, the degree of contamination may indicate which percentage of the disk is covered by raindrops.
  • FIG. 17 shows a schematic representation of a first image 1701, which can be determined, for example, by the camera 104 shown in FIG. 16 based on reflections of the first radiation 161 1.
  • a bright area 1703 in the first image 1701 may be associated with an impurity to which a portion of the first radiation is
  • FIG. 18 shows a schematic representation of a second image 1801 that can be determined, for example, by the camera 104 shown in FIG. 16 based on reflections of the second radiation 1612.
  • a dark area 1803 in the second image 1801 may again be associated with the contaminant to which a portion of the second radiation is not reflected. The more dark areas
  • the brightness or darkness of the second image can be determined by suitable evaluation methods. By means of a suitable assignment rule or a look-up table, the brightness or darkness can again be assigned to a degree of contamination of the pane.
  • FIG. 19 shows a combined image 1901 determined by superimposing the images 1701, 1801 shown in FIGS. 17 and 18.
  • one of the images 1701, 1801 is inverted before the superposition.
  • the image 1701 shown in Fig. 17 has been inverted before being superimposed with respect to the brightness values of its pixels. By inverting, initially bright areas appear dark, and vice versa.
  • a region 1903 of the combined image 1901 is clearly highlighted.
  • the area 1903 is made much darker than the surrounding area of the image 1901.
  • the area 1903 indicates contamination of the disk. The more dark areas 1903 the combined image 1901 has, the more contaminants are on the disk.
  • FIG. 20 shows a flow chart of a method for detecting contamination of a windscreen of a vehicle, in particular caused by raindrops.
  • a first radiation and a second radiation can be emitted in the direction of the disk.
  • reflections of the first radiation and the second radiation can be detected in each case.
  • the first radiation and the second radiation can be emitted in succession.
  • the first radiation and the second radiation will be emitted simultaneously.
  • the reflections of the first and the second radiation can be detected, for example, by different detection devices or can be distinguished from one another by wavelength-selective detection using multiple wavelengths.
  • a first image and a second radiation can be emitted in the direction of the disk.
  • reflections of the first radiation and the second radiation can be detected in each case.
  • the first radiation and the second radiation can be emitted in succession.
  • the first radiation and the second radiation will be emitted simultaneously.
  • the reflections of the first and the second radiation can be detected, for example, by different detection devices or can be distinguished
  • the first image reflects the reflections of the first radiation on the disk.
  • the second image reflects the reflections of the second radiation on the disk.
  • the first image and the second image can be evaluated to determine the contamination of the disk. The reflections of the first radiation and the second radiation at the
  • Slice is affected by the contamination. Under knowledge of this influence can be deduced from the first image and the second image on the contamination.
  • the first image and the second image can be evaluated separately and then the evaluation results can be combined.
  • the image information of the first image and the second image may be combined first and then evaluated.
  • suitable image evaluation methods can be used which, for example, analyze a mean brightness progression of an image or structures present in an image.
  • Figs. 21 to 24 the method of detecting a contamination of a disk according to an embodiment of the present invention will be described in detail.
  • the two radiations used are referred to as second and third optical radiation.
  • an additional second optical radiation which differs from a first optical radiation, can be used for improved droplet recognition.
  • the first optical radiation the total reflection at the drop surface is utilized.
  • the pane should be illuminated from the inside in such a way that the light rays pass through when the pane is dry. Drops on the disc, rays that hit a drop, diverted within the drop by multiple total reflection and get to the lens.
  • the angle at which the radiation strikes the disk should be chosen so that as few fresnel reflections as possible occur. Fig.
  • FIG. 21 shows an image 1701 representing a simulation of the reflections of a disk with droplets at an illumination below -1 15 °, measured to the optical axis. Shown is a section of a focused drop area, a so-called secondary image, in a camera arrangement with two focal lengths. The primary image corresponds to an environment and the secondary image corresponds to the focused droplets on the disk.
  • FIG. 22 shows an image 1701 representing a simulation of the reflections of a disk with droplets under -1 15 ° illumination. Shown are the primary image and the secondary image.
  • the second optical radiation exploits the Fresnel reflections.
  • the Fresnel reflections occur on the inner and outer disc surfaces.
  • the angle of the incident radiation and the treatment state of the disk surfaces the Fresnel reflections have different strengths. If the angle of incidence for the second optical radiation is selected accordingly, fresnel reflections occur on the inside and outside of the pane. In the areas in which there are drops, the radiation is decoupled and thus they have a lower reflection, as shown in Figures 23 and 24. This is, so to speak, the currently used
  • Fig. 23 shows an image 1801 representing a simulation of the reflections of a disk with droplets at -130 ° illumination. Shown is a section of a focused drop area, a so-called secondary image, in a camera arrangement with two focal lengths. The primary image corresponds to an environment and the secondary image corresponds to the focused droplets on the disk.
  • Fig. 24 shows an image 1801 representing a simulation of the reflections of a disk with drops under -130 ° illumination. Shown are the primary image and the secondary image.
  • a reliable detection of the drops can be achieved from two successively recorded images, namely one with an artificial first optical radiation and one with an artificial second optical radiation. For this purpose it is possible to superimpose the images in inverted form and thus to achieve a higher SNR.
  • the system is more independent of the ambient background, for example in terms of brightness and contrast, as well as of the drop shape.
  • the illumination form must be adapted to the sensitive area in order to realize as far as possible a good illumination of the entire sensitive area. There are various possibilities for this realization of the illumination for the second and third optical radiation.
  • Two separate lights can be used.
  • a light source is used which is positionally variable and / or directionally variable in its radiation and can alternately generate the two radiations.
  • illumination may be used that is changed in direction by an optical element such as a mirror or a lens.
  • a dichroic element can be used for this purpose, for example, which divides the radiation emitted by the light source into the first and second optical radiation. It is also possible to use the optical additional components of the disc focusing in all lighting variants. For example, the mirrors, which serve to refocus a pane area, for example for the secondary image, can be used to redirect the additional lighting. This makes it possible on the one hand, the light source itself to appropriate
  • the occurring Fresnel reflex in the primary image for example in FIG. 24, can be obtained by synchronizing the illumination with the rolling shutter method (rolling Lender shutter) of the camera are prevented and thus do not constitute a disadvantage.
  • the use of the invention is possible in all vehicles with an automotive video camera, which also includes an integrated rain detection.
  • a deployment can be done with the introduction of a video-based rain sensor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

Es wird ein Verfahren zur Bestimmung eines Strukturbildes einer Scheibe (102) vorgeschlagen, wobei das Strukturbild zur Detektion einer Sichtbeeinträchtigung (203) der Scheibe, insbesondere von Regentropfen, geeignet ist. Das Verfahren umfasst einen Schritt des Entfernens einer Hintergrundhelligkeit (214) aus einem Bild (210) der Scheibe, auf dem eine Oberfläche der Scheibe scharf und ein Hintergrund der Scheibe unscharf dargestellt ist, um ein Strukturbild (212) der Scheibe zu bestimmen. In einem weiteren Schritt erfolgt ein Hervorheben von in dem Strukturbild vorhandenen Bildstrukturen, um ein verstärktes Strukturbild (316) der Scheibe zu bestimmen.

Description

Beschreibung Titel
Verfahren und Vorrichtung zur Detektion einer Sichtbeeinträchtigung einer Scheibe
Stand der Technik
Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Bestimmung eines Strukturbildes einer Scheibe, auf Verfahren zur Detektion einer, insbesondere durch Regentropfen hervorgerufenen, Sichtbeeinträchtigung oder Verunreinigung einer Scheibe auf eine entsprechende Vorrichtung sowie auf ein entsprechendes Computerprogrammprodukt. Bei der Scheibe kann es sich um eine Scheibe eines Fahrzeugs oder einer fest installierten Kamera handeln.
Der„klassische" Regensensor für Kraftfahrzeuge befindet sich im Bereich des Innenspiegels hinter der Frontscheibe und ist optisch an diese angekoppelt. Wassertropfen, die sich außen auf der Scheibe befinden, führen zur Auskoppelung von Licht, das von einer Infrarot-LED erzeugt wird, während bei einer trockenen Scheibe eine Totalreflexion stattfindet. Durch die Bestimmung des Anteils des ausgekoppelten Lichts wird ein Maß für die Menge an Wasser auf der Scheibe gewonnen. Basierend auf diesem Maß und seinem zeitlichen Verlauf wird ein Signal für die Ansteuerung des Scheibenwischers erzeugt.
Die DE 10 2006 016 774 A1 beschreibt einen Regensensor, der in einem Fahrzeug angeordnet ist. Der Regensensor umfasst eine Kamera und einen Prozessor. Die Kamera nimmt durch eine Windschutzscheibe des Fahrzeugs ein Bild einer Szene außerhalb des Fahrzeugs mit einer unendlichen Brennweite auf. Der Prozessor erfasst Regen auf der Grundlage eines Streuungsgrades von Intensitäten von Pixeln in dem Bild.
Offenbarung der Erfindung Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zur Bestimmung eines Strukturbildes einer Scheibe, ein Verfahren zur Detektion einer, insbesondere durch Regentropfen hervorgerufenen, Sichtbeeinträchtigung einer Scheibe, ein Verfahren zur Detektion einer, insbesondere durch Regentropfen hervorgerufenen, Verunreinigung einer Scheibe, weiterhin eine Vorrichtung, die zumindest eines dieser Verfahren verwendet sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den unabhängigen Patentansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
Der Ausdruck Scheibe soll stellvertretend für Scheiben, Folien oder andere licht- oder strahlungsdurchlässige Einrichtungen stehen, die sich im Bilderfassungsbereich einer Bilderfassungseinrichtung befinden. Die Scheibe kann Teil der Bilderfassungseinrichtung sein oder von der Bilderfassungseinrichtung beabstandet angeordnet sein.
Unter Bild kann das gesamte Bild das eine Kamera aufnimmt oder ein
Teilbereich eines solchen Bildes verstanden werden. Das Bild kann somit auch nur einen Teilbereich eines Imagers beinhalten, d.h. zur Not auch nur ein paar Pixel und nicht das gesamte Bild das die Kamera aufnimmt. Insbesondere eine Bildauswertung kann nur auf einen solchen Teilbereich angewendet werden.
Der erfindungsgemäße Ansatz lässt sich allgemein im Zusammenhang mit Bilderfassungseinrichtungen anwenden. Beispielsweise kann es sich bei der Bilderfassungseinrichtung um eine fest installierte Kamera, beispielsweise eine Überwachungskamera, handeln. Alternativ kann es sich um eine mobile Bilderfassungseinrichtung handeln, die beispielsweise in einem Fahrzeug angeordnet ist. Die im Folgenden beschriebenen Ausführungsformen und Ausführungsbeispiele beziehen sich stellvertretend auf eine Anwendung im Fahrzeugbereich, sind jedoch problemlos auf andere Anwendungsgebiete übertragbar, bei denen ebenfalls das Problem von Sichtbeeinträchtigungen, beispielsweise hervorgerufen durch Regen, Schmutz, Insekten, Kratzer oder Spritzwasser (vom Vordermann, oder der Scheibenwischanlage), auftritt. Die Erfindung basiert auf der Erkenntnis, dass eine videobasierte Regendetekti- on bei einem Fahrzeug basierend auf einem Bild erfolgen kann, das eine Scheibe oder einen Ausschnitt einer Scheibe des Fahrzeugs abbildet, wobei die Scheibe oder eine äußere Oberfläche der Scheibe auf dem Bild scharf und ein Hintergrund der Scheibe unscharf abgebildet ist. Die Regendetektion kann dann basierend auf scharf dargestellten Strukturen des Bildes erfolgen. Unscharf dargestellte Strukturen können zuvor mittels einer geeigneten Bildverarbeitung aus dem Bild entfernt oder reduziert werden.
Der erfindungsgemäße Ansatz kann bei einem Regensensor mit Bildsignalanalyse umgesetzt werden, bei dem Tropfen auf der Scheibe detektiert und in Menge und/oder Anzahl quantifiziert werden. Dazu kann eine Kamera verwendet werden, die Einzelbilder oder Bildfolgen liefert.
Die Kamera kann exklusiv der Regensensorfunktion zur Verfügung stehen. Vorteilhaft ist jedoch, mit derselben Kamera auch eine oder mehrere Fahrerassistenzfunktionen zu realisieren. So kann die Kamera beispielsweise zugleich für eine Fahrspur-, Verkehrszeichen-, Personen-, Fahrzeug- oder Hindernisdetekti- on, für eine Einscherererkennung oder für eine Totwinkel-Überwachung eingesetzt werden.
Das Verfahren zeichnet sich besonders dadurch aus, dass es passiv arbeiten kann. Es wird also keine aktive Beleuchtung am Sensor benötigt. Das in der Szene vorhandene Umgebungslicht reicht zur Gewährleistung der Funktion bereits aus. Optional kann jedoch auch eine aktive Beleuchtung verwendet werden, um in sehr dunklen Situationen die Regendetektion zu erleichtern.
Vorteilhafterweise kann ein auf dem erfindungsgemäßen Ansatz basierender Regensensor eine oder mehrere vorhandene Fahrerassistenzkameras nutzen und beansprucht somit keinen zusätzlichen zentralen, vom Scheibenwischer überstrichenen Platz direkt unter der Scheibe. Auch muss ein erfindungsgemäßer Regensensor nicht optisch mit der Scheibe verkoppelt sein, so dass Licht in die Scheibe eingekoppelt und wieder ausgekoppelt werden kann. Es ist demnach kein langzeitstabiler Kraftschluss erforderlich, der baulich vorbereitet sein müss- te. Mittels des erfindungsgemäßen Regensensors kann ein reproduzierbares und damit für den Fahrer leicht nachvollziehbares Wischverhalten gewährleistet wer- den, da mittels des erfindungsgemäßen Verfahrens durch den Scheibenzustand, verschiedene Tropfenarten, Salz, Schmutz, Seife, Steinschlagschäden, Kratzer, Temperatur und Umgebungslicht hervorgerufene Effekte erkannt und berücksichtigt werden können.
Besonders vorteilhaft ist, dass der erfindungsgemäße Ansatz eine Integration von Fahrerassistenzkamera und Regensensor ermöglicht. Dabei kann weit über eine Minimallösung der baulichen Integration herausgegangen werden, bei der das Messprinzip des klassischen Regensensors erhalten bleibt, jedoch Gehäuse, Spannungsversorgung und Signalanbindung, z. B. über den CAN-Bus, nur einmal erforderlich sind. Stattdessen kann erfindungsgemäß eine Fahrerassistenzkamera betrachtet werden, die die Regendetektion als Zusatzfunktion bietet und den vorhandenen Bildsensor, Imager genannt, für die Tropfenerkennung mit nutzt.
Das erfindungsgemäße Verfahren ist dabei nicht auf eine spezielle Kameraanordnung beschränkt, sondern es funktioniert mit jeder Kamera, bei der die Scheibenoberfläche fokussiert und der Rest der Szene außerhalb des Fokusbereichs ist.
Die vorliegende Erfindung schafft ein Verfahren zur Bestimmung eines Strukturbildes einer Scheibe, beispielsweise eines Fahrzeugs oder einer fest installierten Kamera, wobei das Strukturbild zur Detektion einer Sichtbeeinträchtigung der Scheibe, insbesondere von Regentropfen, geeignet ist, wobei das Verfahren die folgenden Schritte umfasst: Entfernen einer Hintergrundhelligkeit aus einem Bild der Scheibe, auf dem eine Oberfläche der Scheibe scharf und ein Hintergrund der Scheibe unscharf dargestellt ist, um ein Strukturbild der Scheibe zu bestimmen; und Hervorheben von in dem Strukturbild vorhandenen Bildstrukturen, um ein verstärktes Strukturbild der Scheibe zu bestimmen.
Bei dem Fahrzeug kann es sich um ein Kraftfahrzeug handeln. Bei der Scheibe kann es sich um eine Windschutzscheibe, Heckscheibe oder um eine andere Scheibe des Fahrzeugs handeln, die beispielsweise aus Glas oder einem anderen durchsichtigen Material gefertigt ist. Insbesondere kann es sich um eine Scheibe handeln, die durch eine Wischeinrichtung des Fahrzeugs, beispielsweise einen Scheibenwischer gereinigt werden kann. Bei der fest installierten Käme- ra kann es sich beispielsweise um eine Überwachungskamera handeln, die die Scheibe aufweist oder hinter der Scheibe angeordnet ist. Das Bild kann die gesamte Scheibe oder einen Teilbereich der Scheibe abbilden. Unter Scheibe kann auch die äußerste Scheibe oder Linse der Kameraoptik verstanden werden. Bei der Sichtbeeinträchtigung kann es sich um eine Verunreinigung handeln, die auf einer Oberfläche der Scheibe angeordnet ist. Die Sichtbeeinträchtigung kann eine Sicht eines Fahrzeuginsassen durch die Scheibe hindurch beeinträchtigen. Die Sichtbeeinträchtigung kann eine inhomogene Struktur aufweisen. Beispielsweise kann es sich bei der Sichtbeeinträchtigung um eine Mehrzahl von einzel- nen Regentropfen handeln. Auch kann es sich bei der Sichtbeeinträchtigung um
Staubpartikel, Insekten, Teerflecken, Salzflecken oder andere Verschmutzungen handeln, die eine freie Sicht durch die Scheibe beeinträchtigen können. Die Sichtbeeinträchtigung kann allgemein eine die Durchsichtigkeit oder Transparenz der Scheibe beeinflussende Störung bezeichnen. Darunter fällt beispielsweise auch eine Beschädigung der Scheibe, beispielsweise hervorgerufen durch Steinschlag. Das Bild der Scheibe kann von einer Bilderfassungseinrichtung, beispielsweise einer Kamera, erfasst und zur Weiterverarbeitung mittels des erfindungsgemäßen Verfahrens bereitgestellt werden. Die Bilderfassungseinrichtung kann auf eine Innenseite der Scheibe gerichtet sein, also beispielsweise im In- nenraum des Fahrzeugs vor der Scheibe angeordnet sein. Das Bild kann von einer Bilderfassungseinrichtung erfasst werden, die zusätzlich ausgebildet ist, um sich in einem Umfeld des Fahrzeugs befindliche Objekte, beispielsweise weitere Fahrzeuge, Personen oder Verkehrsschilder, zu erfassen. Das für das erfindungsgemäße Verfahren eingesetzte Bild kann von einer solchen Bilderfas- sungseinrichtung erzeugt werden, indem ein Teil des Strahlengangs durch die
Kamera abgeteilt und umfokussiert wird. Das Bild der Scheibe kann dabei so fo- kussiert werden, dass sich die Scheibe im oder nahezu im Schärfentiefebereich der Bilderfassungseinrichtung befindet, ein Hintergrund der Scheibe, der außerhalb des Fahrzeugs gelegen ist, sich dagegen außerhalb des Schärfentiefebe- reichs befindet. Somit ist zumindest eine Oberfläche der Scheibe und eine sich darauf befindliche Sichtbeeinträchtigung auf dem Bild scharf dargestellt. Der Hintergrund ist dagegen unscharf oder zumindest unschärfer als die Oberfläche der Scheibe dargestellt. Der unscharf dargestellte Hintergrundbereich kann bereits einige Millimeter oder einige Zentimeter hinter der äußeren Oberfläche der Scheibe beginnen und sich ins Unendliche erstrecken. Zum Entfernen der Hintergrundhelligkeit können demnach unscharf dargestellte Anteile aus dem Bild entfernt werden. Dies kann beispielsweise nach dem Prinzip des„Unscharf Markierens" erfolgen. Das Strukturbild weist somit die verbleibenden scharf dargestellten Bereiche des Bildes auf, die die Strukturen der Sichtbeeinträchtigung ausformen. Die Strukturen können Flächen oder Umrisse der Sichtbeeinträchti- gungen ausformen. Die Strukturen können einer Bildbearbeitung unterzogen werden, um erwünschte Strukturen, die der Sichtbeeinträchtigung zuzuordnen sind, zu verstärken und unerwünschte Strukturen, die dem Hintergrund zuzuordnen sind, zu reduzieren und somit das verstärkte Strukturbild zu bestimmen. Basierend auf dem verstärkten Strukturbild kann die Sichtbeeinträchtigung detek- tiert werden. Dazu können beispielsweise zusammenhängende Strukturen in dem verstärkten Strukturbild gezählt werden oder es können die Intensitätswerte oder Helligkeitswerte der einzelnen Bildpunkte des verstärkten Strukturbild ausgewertet werden. Auch kann das verstärkte Strukturbild mit dem erfindungsgemäßen Verfahren zur Detektion einer Sichtbeeinträchtigung einer Scheibe aus- gewertet werden. Das Bild der Scheibe kann eine Mehrzahl von Bildpunkten aufweisen. Bei erfindungsgemäß durchgeführten Bildverarbeitungsschritten können zwar bildpunktweise die gleiche Operationen durchgeführt werden, die Ergebnisse sind jedoch im allgemeinen auch von den benachbarten Bildpunkten abhängig, z.B. beim Glättungsfilter oder beim Sobelfilter.
Gemäß einer Ausführungsform können in dem Schritt des Hervorhebens in dem Strukturbild vorhandene Kantenverläufe hervorgehoben werden, um das verstärkte Strukturbild der Scheibe zu bestimmen, das zur Detektion der Sichtbeeinträchtigung der Scheibe geeignet ist. Die Kantenverläufe können entlang sprung- hafter oder steil verlaufender Helligkeitsveränderungen im Bild verlaufen. Die
Kantenverläufe können verstärkt werden, um sie hervorzuheben. Dadurch können beispielsweise Ränder von Sichtbeeinträchtigungen im Strukturbild hervorgehoben werden. Alternativ oder zusätzlich können im Schritt des Hervorhebens in dem Strukturbild vorhandene Extremwerte stärker hervorgehoben werden, als weitere in dem Strukturbild vorhandene Werte, um das verstärkte Strukturbild der Scheibe zu bestimmen. Insbesondere werden nicht nur Minima und Maxima hervorgehoben, sondern es werden alle von Null verschiedenen Beträge hervorgehoben, und zwar umso stärker, je mehr der Betrag von Null verschieden ist. Die Extremwerte können verstärkt werden, um sie hervorzuheben. Neben den Extremwerten kön- nen auch die übrigen Werte des Strukturbildes verstärkt werden, wobei die absolute Verstärkung umso geringer ausfallen kann, je weiter ein Wert von den Extremwerten beabstandet ist. Bei den Extremwerten kann es sich um besonders helle und besonders dunkle Bereiche des Strukturbilds handeln. Durch das Her- vorheben der Extremwerte können beispielsweise Innenbereiche von Sichtbeeinträchtigungen und Koronen um die Sichtbeeinträchtigungen hervorgehoben oder unterdrückt werden. Werden sowohl die Kantenverläufe als auch die Extremwerte verstärkt, so können die daraus resultierenden Strukturbilder jeweils kombiniert, beispielsweise addiert werden, um das verstärkte Strukturbild zu erhalten. Das Hervorheben kann erfolgen, indem zunächst mittels einer Absolutwertbildung alle Werte des Strukturbilds in Absolutwerte umgewandelt werden und anschließend die Absolutwerte verstärkt werden. Das Verstärken kann durch Multiplikation mit einem Faktor erfolgen. Dabei können alle Absolutwerte mit einem für alle Absolutwerte gleichen Faktor multipliziert werden.
Das erfindungsgemäße Verfahren kann ferner einen Schritt des Ermitteins der Hintergrundhelligkeit des Bildes umfassen, um ein Hintergrundhelligkeitsbild der Scheibe zu bestimmen. In einem Schritt des Kombinierens kann das Hintergrundhelligkeitsbild mit dem Strukturbild und/oder dem verstärkten Strukturbild kombiniert werden, um ein bereinigtes Strukturbild der Scheibe zu bestimmen, das zur Detektion der Sichtbeeinträchtigung der Scheibe geeignet ist. Das bereinigte Strukturbild kann von durch die Hintergrundhelligkeit hervorgerufenen Strukturen bereinigt sein. Dabei können in dem Strukturbild enthaltene Strukturen, die beispielsweise durch eine Hintergrundbeleuchtung hervorgerufen sind, entfernt oder unterdrückt werden. Das konkrete Problem der Hintergrundbeleuchtung sind dabei nahezu punktförmige helle Lichtquellen, die nach der unscharfen Abbildung zu immer noch hellen„Unschärfescheibchen" führen. Diese Unschär- fescheibchen haben etwa die geometrische Form der Kamerablende. Bei den im Folgenden beschriebenen Ausführungsbeispielen sind sie rund, da die Kamera keine verstellbare Blende aufweist. Bei einer verstellbaren Blende wären sie z.B. sechseckig. Obwohl die Punktlichtquellen sehr unscharf abgebildet werden, bilden die Unschärfescheibchen immer noch eine deutliche Außenkontur aus, beispielsweise in Form von Kanten. Diese gilt es zu unterdrücken.
Dabei kann ein Schritt des Verstärkens von in dem Hintergrundhelligkeitsbild vorhandenen Kantenverläufen durchgeführt werden, um ein verstärktes Hinter- grundhelligkeitsbild zu bestimmen. Im Schritt des Kombinierens kann das verstärkte Hintergrundhelligkeitsbild mit dem Strukturbild und/oder dem verstärkten Strukturbild kombiniert werden. Das Kombinieren kann durch eine Subtraktion erfolgen. Auf diese Weise können störende Einflüsse des Hintergrunds noch stär- ker reduziert werden.
Zusätzlich oder alternativ kann ein Schritt des Hervorhebens heller Bereiche des Hintergrundhelligkeitsbilds durchgeführt werden, um ein weiteres verstärktes Hintergrundhelligkeitsbild zu bestimmen. Im Schritt des Kombinierens kann das wei- tere verstärkte Hintergrundhelligkeitsbild mit dem Strukturbild und/oder dem verstärkten Strukturbild kombiniert werden. Das Kombinieren kann eine Multiplikation oder Division umfassen. Durch das Kombinieren können Strukturen des Strukturbildes gedämpft werden, die sich in Bereichen des Strukturbildes befinden, die mit den hellen Bereichen des Hintergrundhelligkeitsbilds übereinstim- men. Somit ist eine Nivellierung des Einflusses der hellen Bereiche des Hintergrunds möglich.
Die vorliegende Erfindung schafft ferner ein Verfahren zur Detektion einer, insbesondere durch Regentropfen hervorgerufenen, Sichtbeeinträchtigung einer Scheibe, beispielsweise eines Fahrzeugs oder einer fest installierten Kamera, das die folgenden Schritte umfasst: Auswerten von Strukturen eines Strukturbildes der Scheibe, wobei auf dem Strukturbild eine Oberfläche der Scheibe scharf und ein Hintergrund der Scheibe unscharf dargestellt ist, um die Sichtbeeinträchtigung der Scheibe zu detektieren.
Bei dem Strukturbild kann es sich um das verstärkte Strukturbild handeln, das mit dem erfindungsgemäßen Verfahren zur Bestimmung eines Strukturbildes bestimmt wurde. Auf dem Strukturbild sind die Strukturen der Sichtbeeinträchtigungen, beispielsweise Umrisse oder Flächen davon, scharf dargestellt. Nicht durch die Sichtbeeinträchtigungen hervorgerufene Strukturen sind dagegen unscharf dargestellt oder bereits aus dem Strukturbild herausgefiltert oder unterdrückt.
Beispielsweise kann im Schritt des Auswertens ein Mittelwert oder eine Summe über das Strukturbild oder eine Anzahl der Strukturen bestimmt werden. Dem- nach kann die Sichtbeeinträchtigung der Scheibe basierend auf dem Mittelwert, der Summe oder der Anzahl detektiert werden. Dazu kann ein Schwellwertver- gleich mit einer oder mehreren Schwellen durchgeführt werden. Beispielsweise kann eine Sichtbeeinträchtigung als existent gelten, wenn der Mittelwert bzw. die Summe oder die Anzahl einen vorbestimmten Schwellwert überschreiten. Gemäß einer Ausführungsform kann in einem Schritt des Kombinierens ein erstes Strukturbild der Scheibe mit wenigstens einem zeitlich vorangegangenen weiteren Strukturbild der Scheibe kombiniert werden, um ein kombiniertes Strukturbild der Scheibe zu bestimmen. Im Schritt des Auswertens können Strukturen des kombinierten Strukturbildes ausgewertet werden, um die Sichtbeeinträchti- gung der Scheibe zu detektieren. Auf diese Weise kann eine zeitliche Veränderung der Sichtbeeinträchtigungen erfasst werden. Es können sowohl neu hinzugekommene Sichtbeeinträchtigungen, die nur auf dem weiteren Strukturbild vorhanden sind, als auch beständige Sichtbeeinträchtigungen erkannt werden, die sowohl auf dem ersten als auch auf dem weiteren Strukturbild vorhanden sind.
Beispielsweise kann im Schritt des Kombinierens eine Verknüpfung, beispielsweise Multiplikation, zwischen dem ersten Strukturbild und dem weiteren Strukturbild durchgeführt werden. Auf diese Weise können Strukturen hervorgehoben werden, die sowohl das erste Strukturbild als auch das weitere Strukturbild auf- weist. Wird zwischen den Strukturbildern eine Reinigung der Scheiben durchgeführt, so können solche Strukturen auf eine schwer zu entfernende Sichtbeeinträchtigung hindeuten, die beispielsweise durch Insekten oder Teer hervorgerufen ist. Wird zwischen den Strukturbildern keine Reinigung der Scheiben durchgeführt, so können solche Strukturen auf eine sich nicht von selbst entfernende Sichtbeeinträchtigung hindeuten, die eine Reinigung der Scheibe erforderlich macht. Gemäß dieser Ausführungsform kann neben oder anstelle einer Verunreinigung auch eine die Transparenz der Scheibe beeinträchtigende Störung, beispielsweise eine Beschädigung der Scheibe, erkannt werden. Auch Schäden an der Scheibe, beispielsweise hervorgerufen durch Steinschlag, führen gemäß dieser Ausführungsform zu einer Detektion, die sich durch Wischen nicht entfernen lässt. Insofern gibt es drei Fälle. Erstens Tropfen, die sich durch das Wischen entfernen lassen. Zweitens weitere Verunreinigungen, die sich erst durch mehrfaches bzw. vielfaches Wischen entfernen lassen. Hierbei kann die Anzahl der erforderlichen Wischvorgänge weit variieren. Drittens können Störungen, bei- spielsweise Steinschlag, erkannt werden, die sich nicht durch Wischen entfernen lassen. Durch eine Beobachtung über einen längeren Zeitraum, der mindestens 3 Bilder umfasst, vorteilhafterweise zumindest zwei davon mit größerem zeitlichen Abstand, lassen sich die drei genannten Fälle unterscheiden.
Zusätzlich oder alternativ kann im Schritt des Kombinierens eine Verknüpfung, beispielsweise Subtraktion zwischen dem ersten Strukturbild und dem weiteren
Strukturbild durchgeführt werden, um Strukturen hervorzuheben, die entweder nur das erste Strukturbild oder nur das weitere Strukturbild aufweist. Strukturen, die nur im weiteren Strukturbild erkennbar sind, können auf neu hinzugekommene Sichtbeeinträchtigungen hindeuten. Strukturen, die nur im ersten Strukturbild erkennbar sind, können dagegen auf zwischenzeitlich entfernte oder sich in ihrer
Position veränderten Sichtbeeinträchtigungen hindeuten.
Mit zunehmendem Einsatz von Videosystemen im Kraftfahrzeug zur Realisierung von Fahrerassistenzsystemen, wie z.B. Nachtsichtsysteme oder warnende Vi- deosysteme, kommt dem videobasierten Regensensor eine immer wichtigere
Bedeutung zu. Eine erfindungsgemäße Möglichkeit für einen videobasierten Regensensor besteht darin, ein scharfes Abbild der Scheibe bildverarbeitungstech- nisch auszuwerten. Dabei kann entweder die Kamera auf die Frontscheibe fo- kussiert sein, oder ein zusätzliches Optikelement, wie eine Linse oder ein Spie- gel, muss diese Fokussierung realisieren. Zur Realisierung der Umfokussierung kann ein Ansatz gewählt werden, in dem die optische Zusatzkomponente in den Halterahmen bzw. das Gehäuse der Kamera integriert wird. Das von der automobilen Kamera aufgenommene Bild der fokussierten Regentropfen auf der Scheibe kann durch einen Bildverarbeitungsalgorithmus ausgewertet werden und die Tropfen detektiert werden. Bei diesem Ansatz handelt es sich um ein rein passives System.
Ein weiteres erfindungsgemäßes Prinzip kann in Regensensoren ungesetzt werden, die auf dem klassischen optischen Verfahren basieren, welches die Totalre- flexion ausnutzt. Von einer Leuchtdiode (LED) wird Licht emittiert, welches in die
Frontscheibe mittels Koppelelement schräg eingekoppelt wird. Bei Trockenheit der Scheibe wird das Licht an der Außenseite der Scheibe ein- oder mehrfach total reflektiert und gelangt auf einen lichtempfindlichen Sensor, z.B. eine Fotodiode oder einen Fotowiderstand (LDR). Wenn sich Wassertropfen auf der Scheibe be- finden, wird ein Teil des Lichts an der Außenseite der Scheibe ausgekoppelt und führt zu einer geringeren Intensität am Empfänger. Die Abnahme der empfange- nen Lichtmenge an der Fotodiode ist ein Maß für die Regenintensität. Je mehr Wasser sich auf der Scheibe befindet, desto stärker ist die ausgekoppelte Lichtmenge und desto geringer ist die Reflexion. In Abhängigkeit der detektierten Regenmenge wird die Wischeranlage mit einer an den Benetzungszustande der Frontscheibe angepassten Geschwindigkeit gesteuert.
Dieser Ansatz weist den Vorteil auf, dass auch in Situationen mit geringer Umgebungshelligkeit bzw. sehr geringem Umgebungskontrast, z.B. bei Dunkelheit, Nacht oder Nebel, die Detektion sicher durchgeführt werden kann und auch sol- che Umgebungsumstände zu keinen Problemen in der Detektionssicherheit führen.
Ein erfindungsgemäßer Ansatz besteht in einer alternierenden Scheibenbeleuchtung. Dabei kommt neben einer ersten optischen Strahlung, bei der es sich um eine Umgebungsstrahlung handeln kann, zusätzlich noch eine zweite optische Strahlung durch eine zusätzliche Beleuchtungsquelle hinzu. Bei sehr geringer Umgebungshelligkeit können Lichtstrahlen ausgehend von dieser zweiten optischen Strahlung ein- oder mehrfach an den Regentropfen reflektiert werden und dadurch kann auch bei Fehlen einer ersten optischen Strahlung ein Signal von den Tropfen empfangen werden. Allerdings ist die Wahrscheinlichkeit, dass ein Strahl der zweiten optischen Strahlung an der Tropfeninnenseite reflektiert wird und in Richtung Kamera zurückgelangt gering.
Durch das Einbringen einer dritten optischen Strahlung kann ein zusätzliches Signal generiert werden, welches Informationen über die Regenmenge auf der Scheibe bietet. Zusammen mit dem Ergebnis aus der zweiten optischen Strahlung ist dadurch gerade unter schwierigen Umgebungssituationen, wie Nacht, eine zuverlässigere Regendetektion gegeben. Somit ist eine vollständige Zuverlässigkeit der Tropfendetektion unter allen Umgebungszuständen gegeben.
Dieser erfindungsgemäße Ansatz ermöglicht eine zuverlässige Detektion bei einem videobasierten Regensensor mittels alternierender Beleuchtungszustände unter kontrastarmen Umgebungsbedingungen. Alternierende Beleuchtungszustände können somit bei einem videobasierten Regensensor für eine zuverlässige Detektion und ein besseres Signal-zu-Rauschverhältnis (SNR) bei Dunkelheit beitragen. Mittels diesem Ansatz ist ein Beheben des Problems möglich, dass Tropfen bei einheitlichem Umgebungshintergrund, z.B. Nacht, nicht oder nur schwer detek- tiert werden können. Somit ist eine Verbesserung des videobasierten Regensen- sors möglich und damit neben der Bauraumoptimierung, der besser an das menschliche Wahrnehmungsvermögen angepassten Funktionalität, der größeren sensitiven Fläche und der geringeren Scheibenfläche, die zur Anbringung benötigt wird, ein zusätzlicher Vorteil des videobasierten Regensensors gegenüber den derzeitigen Regensensoren gegeben. Durch eine zuverlässigere Regende- tektion ist eine bessere Sicht des Fahrers gegeben, wodurch sich bei Nacht ein sicheres Fahren und daraus resultierend eine geringere Unfallgefahr ergibt. Zudem ist eine bessere Ausnutzung einer bereits vorhandenen Beleuchtung gegeben. Auch kann ein Ausnutzen der bereits vorhandenen optischen Zusatzelemente für die Umfokussierung erfolgen und die Beleuchtung macht aus dem passiven System des videobasierten Regensensors ein aktives System.
Demnach schafft die vorliegende Erfindung ferner ein Verfahren zur Detektion einer, insbesondere durch Regentropfen hervorgerufenen, Verunreinigung einer Scheibe, beispielsweise eines Fahrzeugs, das die folgenden Schritte umfasst: Auswerten eines auf einer Reflexion einer ersten optischen Strahlung basierenden ersten Bildes der Scheibe und eines auf einer Reflexion einer zweiten optischen Strahlung basierenden zweiten Bildes der Scheibe, um die Verunreinigung zu detektieren, wobei die erste optische Strahlung ausgebildet ist, um an einem verunreinigten Bereich der Scheibe reflektiert zu werden und wobei die zweite optische Strahlung ausgebildet ist, um an einem verunreinigungsfreien Bereich der Scheibe reflektiert zu werden.
Die erste Strahlung und die zweite Strahlung können von einer oder mehreren Strahlungsquellen bereitgestellt werden, die im Inneren des Fahrzeugs angeord- net sind. Die erste und die zweite Strahlung können sich in Bezug auf ihre Wellenlängen sowie in Bezug auf ihre Ausbreitungsrichtung in Bezug auf eine Oberfläche der Scheibe unterscheiden, so dass sie an der Scheibe ein unterschiedliches Reflexionsverhalten aufweisen. Die erste und die zweite Strahlung können zeitlich nacheinander oder gleichzeitig bereitgestellt werden. Die erste Strahlung kann so ausgerichtet sein, dass die erste Strahlung in einem Winkel auf die
Scheibe trifft, in dem sie die Scheibe ohne oder nur mit geringer Reflexion durch- dringen kann, sofern die Scheibe keine Verunreinigung aufweist. Weist die Scheibe dagegen eine Verunreinigung auf, so wird die erste Strahlung durch die Verunreinigung total oder zumindest sehr stark reflektiert. Die reflektierte erste Strahlung kann von einer Bilderfassungseinrichtung, beispielsweise einer Kame- ra, erfasst werden. Die Bilderfassungseinrichtung kann basierend auf der reflektierten ersten Strahlung das erste Bild bereitstellen. Auf dem ersten Bild sind Bereiche der Scheibe zu erkennen, an denen die erste Strahlung reflektiert wurde. Somit sind auf dem ersten Bild diejenigen Bereiche erkennbar, an denen sich eine Verunreinigung befindet. Mittels einer geeigneten Bildauswertung können die- se Bereiche erkannt werden und es kann eine entsprechende Information über die erkannten Bereiche ausgegeben werden, die eine Verunreinigung aufweisen. Die zweite Strahlung kann so ausgerichtet sein, dass die zweite Strahlung in einem Winkel auf die Scheibe trifft, in dem sie an der Scheibe total oder zumindest sehr stark reflektiert wird, sofern die Scheibe keine Verunreinigung aufweist. Weist die die Scheibe dagegen eine Verunreinigung auf, so kann die zweite
Strahlung aufgrund der Verunreinigung die Scheibe und die Verunreinigung ohne oder nur mit geringer Reflexion durchdringen. Die reflektierte zweite Strahlung kann von der oder einer weiteren Bilderfassungseinrichtung erfasst werden. Die Bilderfassungseinrichtung kann basierend auf der reflektierten zweiten Strahlung das zweite Bild bereitstellen. Auf dem zweiten Bild sind Bereiche der Scheibe zu erkennen, an denen die zweite Strahlung reflektiert wurde. Somit sind auf dem zweiten Bild diejenigen Bereiche erkennbar, an denen sich keine Verunreinigung befindet. Mittels einer geeigneten Bildauswertung können diese Bereiche erkannt werden und es kann eine entsprechende Information über die erkannten Berei- che ausgegeben werden, die keine Verunreinigung aufweisen. Somit können
Verunreinigungen sowohl basierend auf der ersten als auch auf der zweiten Strahlung detektiert werden. Dazu können das erste Bild und das zweite Bild getrennt voneinander ausgewertet werden oder vor der Auswertung kombiniert werden. Im Schritt des Auswertens kann ein Mittelwert oder eine Summe über das oder die Bilder bestimmt werden. Auch kann eine Anzahl derjenigen Bereiche ermittelt werden, an denen sich Verunreinigungen befinden. Demnach kann die Verunreinigung der Scheibe basierend auf dem Mittelwert, der Summe oder der Anzahl detektiert werden. Dazu kann ein Schwellwertvergleich mit einer oder mehreren Schwellen durchgeführt werden. Beispielsweise kann eine Verunreini- gung als existent gelten, wenn der Mittelwert bzw. die Summe oder die Anzahl einen vorbestimmten Schwellwert überschreiten. Neben der ersten Strahlung und der zweiten Strahlung kann die Umgebungsstrahlung oder Umgebungshelligkeit ausgewertet werden. Basierend auf der Umgebungsstrahlung kann ein weiteres Bild generiert werden, das zusätzlich separat zu dem ersten und zweiten Bild ausgewertet wird oder mit dem ersten und dem zweiten Bild vor der Auswertung kombiniert wird. Bei dem weiteren Bild kann es sich um ein erfindungsgemäß bestimmtes Strukturbild, Hintergrundhelligkeitsbild oder eine Kombination daraus handeln.
Gemäß einer Ausführungsform kann das erste Bild oder das zweite Bild invertiert und mit dem jeweils anderen Bild überlagert werden, um ein überlagertes Bild zu ermitteln. Im Schritt des Auswertens kann das überlagerte Bild ausgewertet werden, um die Verunreinigung zu detektieren. Indem eines der Bilder vor der Überlagerung invertiert wird, zeigen beide Bilder entweder diejenigen Bereiche an, an denen sich eine Verunreinigung befindet, oder aber diejenigen Bereiche, die frei von einer Verunreinigung sind.
Die vorliegende Erfindung schafft ferner eine oder mehrere Vorrichtungen, die jeweils ausgebildet sind, um die Schritte eines oder mehrerer der erfindungsgemäßen Verfahren in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuersignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind. Anstelle einer Realisierung in einem ASIC kann eine FPGA- Realisierung vorteilhaft sein. Beispielsweise können die datenintensiven Bildverarbeitungsteile auf einem FPGA durchführt werden und die weitere Verarbeitung bis hin zur Erzeugung der Steuersignale können auf einem Mikrocontroller durchgeführt werden.
Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programm auf einem, einem Computer entsprechenden Gerät ausgeführt wird.
Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
Fig. 1 eine schematische Darstellung eines Ausführungsbeispiels der vorliegenden Erfindung;
Figuren 2 bis 4 Blockschaltbilder von Ausführungsbeispielen der vorliegenden
Erfindung; Figuren 5 bis 15 Bilder einer Scheibe in unterschiedlichen Bearbeitungszu- ständen, gemäß Ausführungsbeispielen der vorliegenden Erfindung;
Fig. 16 eine schematische Darstellung eines weiteren Ausführungs- beispiels der vorliegenden Erfindung;
Figuren 17 bis 19 schematische Bilder einer Scheibe, gemäß Ausführungsbeispielen der vorliegenden Erfindung Fig. 20 ein Ablaufdiagramm eines erfindungsgemäßen Verfahrens;
und
Figuren 21 bis 24 Bilder einer Scheibe, gemäß Ausführungsbeispiel
liegenden Erfindung. In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
Fig. 1 zeigt ein Fahrzeug 100 mit einer Scheibe 102 und eine Kamera 104. Das Fahrzeug 100 bewegt sich auf ein Objekt 106, beispielsweise ein Verkehrsschild zu. Bei der Scheibe 102 kann es sich um eine Frontscheibe des Fahrzeugs 100 handeln. Die Kamera 104 kann im Inneren des Fahrzeugs 100 so angeordnet sein, dass sie ein Umfeld des Fahrzeugs 100 durch die Scheibe 102 erfassen kann. Die Kamera 104 ist ausgebildet, um einen Teilbereich der Scheibe 102 und das sich im Umfeld des Fahrzeugs 100 befindliche Objekt 106 zu erfassen und ein entsprechendes Bild bereitzustellen. Gemäß diesem Ausführungsbeispiel ist ein Tiefenschärfebereich der Kamera 104 so eingestellt, dass sich die Scheibe 102 in dem Tiefenschärfebereich der Kamera 104 befindet. Das Umfeld des
Fahrzeugs 100 und insbesondere das Objekt 106 befinden sich dagegen außerhalb des Tiefenschärfebereichs der Kamera 104. Somit ist die Scheibe 102 und eine sich unter Umständen auf der Scheibe 102 befindliche Sichtbeeinträchtigung oder Verunreinigung, beispielsweise in Form von Regentropfen, auf einem von der Kamera 104 bereitgestellten Bild scharf dargestellt. Das Umfeld des
Fahrzeugs 100 und somit auch das Objekt 106 sind auf dem Bild unscharf dargestellt.
Bezüglich der Kamera 104 kann eine Umfokussierung, z.B. mit Spiegeloptik, rea- lisiert sein. Wegen der Umfokussierung besteht die Möglichkeit für ein Sekundärbild, bei dem es sich um ein auf die Scheibe fokussiertes Bild handelt, eine andere Blickrichtung zu wählen als für ein Primärbild. Es ist also auch möglich, das Sichtstrahlenbündel des Sekundärbilds so auszulegen, das es in den Himmel oder zum Boden oder zur Seite zu blickt. Ein Ausführungsbeispiel eines Primär- bilds und eines Sekundärbilds ist in Fig. 5 gezeigt.
Das von der Kamera 104 bereitgestellte Bild kann zum Detektieren einer Sichtbeeinträchtigung der Scheibe 102 eingesetzt werden. Dazu kann das Bild einer entsprechenden Bildverarbeitung und Bildauswertung unterzogen werden. Die Figuren 2 bis 4 zeigen eine in mehrere Teilabschnitte unterteilte videobasierte Regendetektion, gemäß Ausführungsbeispielen der vorliegenden Erfindung. Die Teilabschnitte können kombiniert werden, so dass die Ausgangsdaten des in Fig. 2 gezeigten Blockschaltbilds Eingangsdaten des in Fig. 3 gezeigten Block- Schaltbilds und die Ausgangsdaten des in Fig. 3 gezeigten Blockschaltbilds Eingangsdaten des in Fig. 4 gezeigten Blockschaltbilds darstellen. Das in Fig. 2 gezeigte Blockschaltbild befasst sich mit einer Bestimmung von Strukturen eines Bilds einer Scheibe, auf oder in der sich Sichtbeeinträchtigungen befinden. Das in Fig. 3 gezeigte Blockschaltbild befasst sich mit einer Hervorhebung der Struk- turen des Bildes und das in Fig. 4 gezeigte Blockschaltbild befasst sich mit einer zeitlichen Auswertung der Strukturen des Bildes, um die Sichtbeeinträchtigungen anhand der Strukturen und ihres zeitlichen Verhaltens zu klassifzieren.
Fig. 2 zeigt ein Blockschaltbild zur Bestimmung eines Strukturbildes gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Gezeigt sind eine Scheibe 102 und eine Bilderfassungseinrichtung 104. Bei der Scheibe kann es sich um die in Fig. 1 gezeigte Frontscheibe eines Fahrzeugs handeln. Bei der Bilderfassungseinrichtung 104 kann es sich um die in Fig. 1 gezeigte Kamera, beispielsweise in Form einer Regensensor-Kamera handeln. Auf einer äußeren, der Kamera 104 gegenüberliegenden, Oberfläche der Scheibe 102 befindet sich eine Sichtbeeinträchtigung 203 in Form einer Mehrzahl von Regentropfen. Einen Teilbereich der Scheibe 102 und die sich auf dem Teilbereich befindlichen Regentropfen 203 befinden sich im Bilderfassungsbereich der Kamera 104. Die Kamera 104 ist ausgebildet, um ein Bild 210 bereitzustellen. Das Bild 210 kann aus einer Mehrzahl von einzelnen Bildpunkten aufgebaut sein. Aus dem Bild 210 kann ein Strukturbild 212 und ein Hintergrundhelligkeitsbild 214 bestimmt werden.
Gemäß diesem Ausführungsbeispiel kann das Bild 210 und somit jeder Bildpunkt ein Wertebereich von 12 Bit aufweisen. Das Bild 210 wird an einer Einrichtung 220 zur Luminanzextraktion, in der nicht benötigte Farbinformationen aus dem Bild 210 entfernt werden können, bereitgestellt. Anschließend wird in einer Einrichtung 222 eine adaptive Histogramm-basierte Kompression durchgeführt. Dabei kann der Wertebereich des Bildes, beispielsweise auf 8 Bit, reduziert werden. Anschließend kann in einer Einrichtung 224 ein Bildausschnitt aus dem Bild 210 ausgewählt und zur Weiterverarbeitung bereitgestellt werden. Zum Bestimmen des Hintergrundhelligkeitsbilds 214 können scharf dargestellte Strukturen aus dem Bild 210 herausgefiltert werden, so dass die unscharfen Strukturen der Hintergrundhelligkeit verbleiben. Dazu kann der von der Einrichtung 224 bereitgestellte Bildausschnitt mittels eines Tiefpass-Filters 226 gefiltert werden. Der Tiefpass-Filter 226 kann so ausgeführt sein, dass die örtliche Ausdehnung seiner Stoßantwort etwa gleich groß oder größer ist als die Ausmaße im Bild der zu detektierenden Sichtbeeinträchtigungen. Der Filter 226 kann ausgebildet sein, um das Hintergrundhelligkeitsbild 214 auszugeben. Zum Bestimmen des Strukturbilds 212 kann der von der Einrichtung 224 bereitgestellte Bildausschnitt mit dem Hintergrundhelligkeitsbild 214 kombiniert werden. Zum Befreien des Strukturbilds 212 von der Hintergrundhelligkeit kann das Prinzip des„unscharf Maskierens" eingesetzt werden. Es kann also das Hintergrundhelligkeitsbild 214 von dem Bild 210 subtrahiert werden. Beispielsweise kann das Hintergrundhelligkeitsbild 214 invertiert und anschließend in einer
Kombinationseinrichtung 230 mit dem von der Einrichtung 224 bereitgestellten Bildausschnitt kombiniert, beispielsweise addiert, werden. Somit kann die Additionseinrichtung 230 das Strukturbild 212 ausgeben. Das Strukturbild ist gemäß diesem Ausführungsbeispiels vorzeichenbehaftet. Das Strukturbild 212 kann von der Hintergrundhelligkeit befreit sein.
Zur Veranschaulichung der in Fig. 2 dargestellten Bildverarbeitungsschritte sind Ausführungsbeispiele eines Bildes 210, eines Strukturbildes 212 und eines Hintergrundhelligkeitsbildes 214 in den Figuren 5 bis 7 gezeigt.
Die Einrichtungen 220, 222, 224 sind optional. Sofern sie eingesetzt werden, können sie auch in einer anderen als der gezeigten Reihenfolge angeordnet sein. Gemäß einem Ausführungsbeispiel kann auch nur das Strukturbild 212 bestimmt werden. In diesem Fall können die Sichtbeeinträchtigungen basierend auf dem Strukturbild 212 bestimmt werden.
Alternativ können die Scheibe 102 und die Kamera 104 außerhalb eines Fahrzeugs angeordnet sein und beispielsweise fest an einem Bauwerk installiert sein. Die Scheibe 102 kann von der Kamera 104 beabstandet angeordnet sein, oder Teil der Kamera 104 sein. Fig. 3 zeigt ein Blockschaltbild zur Bestimmung eines verstärkten Strukturbildes 316 aus einem Strukturbild 212 und einem Hintergrundhelligkeitsbild 214 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Strukturbild 212 und das Hintergrundhelligkeitsbild 214 können basierend auf dem in Fig. 3 gezeigten Verfahren bestimmt werden.
Das Strukturbild 212 wird empfangen und zum einen einem ersten Signalverarbeitungszweig, der Einrichtungen 321 , 323 aufweist, und zum anderen einem zweiten Signalverarbeitungszweig, der Einrichtungen 325, 327, 329 aufweist, zu- geführt. Aus dem ersten Signalverarbeitungszweig und dem zweiten Signalverarbeitungszweig resultierende Bilder werden in einer Einrichtung 331 miteinander kombiniert.
Der erste Signalverarbeitungszweig ist ausgebildet, um betragsmäßig hohe Amp- lituden der Bildpunkte des Strukturbilds 212 hervorzuheben. Dadurch können zum einen Bereiche, die eine große Helligkeit aufweisen, als auch Bereiche, die eine große Dunkelheit aufweisen, verstärkt werden. Handelt es sich bei der Sichtbeeinträchtigung der Scheibe um Tropfen, so kann auf diese Weise ein Tropfeninneres hervorgehoben werden. Nebenbei wird dabei auch eine Corona um die Tropfen herum hervorgehoben. Sind die Bildpunkte des Strukturbilds 212 vorzeichenbehaftet, so können stark positive oder stark negative Werte stärker hervorgehoben werden, als Werte, die in der Nähe des Nullpunkts liegen. Dazu kann die Einrichtung 321 ausgebildet sein, um eine Absolutwertbildung abs() durchzuführen. Dabei kann für jeden der Bildpunkte der entsprechende Absolut- wert gebildet werden. Die von der Einrichtung 321 bereitgestellten Absolutwerte können anschließend in der Einrichtung 323 verstärkt werden, indem sie beispielsweise mit einem Faktor multipliziert werden. Beispielsweise können die Absolutwerte jeweils mit dem Faktor 16 multipliziert werden. Der zweite Signalverarbeitungszweig ist ausgebildet, um in dem Strukturbild 212 vorhandene Kantenverläufe hervorzuheben. Dabei können Kantenverläufe unabhängig von ihrer Ausrichtung hervorgehoben werden. Dadurch können Umrisse der Sichtbeeinträchtigungen, also beispielsweise Tropfenränder, verstärkt werden. Zum Hervorheben der Kantenverläufe können in der Einrichtung 325 geeig- nete Filter, beispielsweise Sobel-Filter, eingesetzt werden. Gemäß diesem Ausführungsbeispiel werden für eine x-Ausrichtung und eine y-Ausrichtung zwei pa- rallele Filter eingesetzt, deren Ausgangswerte jeweils quadriert und anschließend miteinander kombiniert, beispielsweise addiert, werden und in der Einrichtung 327 einer Wurzelbildung unterzogen werden. Es sind auch alternative Ausgestaltungen für die Einrichtung 325 möglich, beispielsweise durch jeweilige Betrags- bildung und nachfolgende Addition der beiden Sobelfilter-Ausgänge. Die Wurzelbildung 327 kann dann entfallen. Anschließend kann in der Einrichtung 329 eine Werteanpassung, beispielsweise durch Multiplikation mit einem Faktor, durchgeführt werden. Der Faktor kann den Wert 0,5 aufweisen. Die von den Einrichtungen 323, 329 bereitgestellten Bildinformationen können in der Einrichtung 331 miteinander verknüpft werden, z.B. durch Addition. Gemäß weiteren Ausführungsbeispielen kann auch nur der erste oder nur der zweite Signalverarbeitungszweig ausgeführt werden, um das verstärkte Strukturbild 316 zu bestimmen.
Das Hintergrundhelligkeitsbild 214 kann eingesetzt werden, um das verstärkte Strukturbild 316 von Störeffekten zu befreien, die durch die Hintergrundhelligkeit hervorgerufen werden. Bei den Störeffekten kann es sich um Kanten handeln, die durch eine unscharfe Abbildung von sich im Hintergrund befindlichen punkt- förmigen Lichtquellen hervorgerufen werden. Dazu kann das Hintergrundhelligkeitsbild 214 empfangen und zum einen einem dritten Signalverarbeitungszweig, der Einrichtungen 333, 335, 337 aufweist, und zum anderen einem vierten Signalverarbeitungszweig, der Einrichtungen 339, 341 , 343, 345, 347 aufweist, zugeführt werden. Aus dem dritten Signalverarbeitungszweig und dem vierten Sig- nalverarbeitungszweig resultierende Bilder können in Einrichtung 339, 349 mit dem von der Einrichtung 331 bereitgestellten Bild kombiniert werden.
Der dritte Signalverarbeitungszweig ist ausgebildet, um in dem Hintergrundhelligkeitsbild 214 vorhandene Kantenverläufe hervorzuheben. Dadurch können Hel- ligkeitsgradienten hervorgehoben werden. Zum Hervorheben der Kantenverläufe können in der Einrichtung 333 geeignete Filter, beispielsweise Sobel-Filter, eingesetzt werden. Die Einrichtung 333 kann entsprechend der Einrichtung 325 ausgeführt sein. Nach der Filterung kann in der Einrichtung 335 eine Wurzelbildung und in der Einrichtung 337 eine Invertierung durchgeführt werden. Die Ein- richtung 339 kann als Additionseinrichtung ausgebildet sein, um die von den Einrichtungen 331 , 337 bereitgestellten Bilddaten zu addieren. Somit können die im dritten Signalverarbeitungszweig bestimmten Helligkeitsgradienten von dem im ersten und zweiten Signalverarbeitungszweig vorverarbeiteten Strukturbild 212 abgezogen und somit im verstärkten Strukturbild 316 unterdrückt werden. Es sind auch alternative Ausgestaltungen für die Einrichtung 333 möglich, bei- spielsweise durch jeweilige Betragsbildung und nachfolgende Addition der beiden Sobelfilter-Ausgänge. Die Wurzelbildung 335 kann dann entfallen.
Der vierte Signalverarbeitungszweig ist ausgebildet, um in dem Hintergrundhelligkeitsbild 214 vorhandene Bereiche überdurchschnittlicher Helligkeit auszuwäh- len. Dadurch wird eine Nivellierung des Einflusses von hellen Bereichen möglich.
Dazu kann die Einrichtung 339 ausgebildet sein, um eine Mittelwertbildung mean() über das Hintergrundhelligkeitsbild 214 durchzuführen und die nachfolgende Einrichtung 341 kann ausgebildet sein, um eine Kehrwertbildung 1/x durchzuführen. In der Einrichtung 343 kann das von der Einrichtung 341 bereit- gestellte Bild mit dem Hintergrundhelligkeitsbild 214 kombiniert, beispielsweise multipliziert, werden. Anschließend können in der Einrichtung 345 Bildwerte, die kleiner als ein Schwellwert, beispielsweise Eins, sind, auf Eins gesetzt und Bildwerte, die größer als der Schwellwert sind, unverändert belassen werden. Somit kann in der Einrichtung 345 eine Funktion max(x,1 ) umgesetzt sein. In der an die Einrichtung 345 anschließenden Einrichtung 347 kann wiederum eine Kehrwertbildung 1/x durchgeführt werden.
Die Einrichtung 349 kann ausgebildet sein, um die im vierten Signalverarbeitungszweig gebildeten Bilddaten mit den Bilddaten des im ersten und zweiten Signalverarbeitungszweig vorverarbeiteten Strukturbilds 212 zu kombinieren, beispielsweise zu multiplizieren, um die Nivellierung des Einflusses der hellen Bereiche im verstärkten Strukturbild 316 zu erzielen.
Zur Veranschaulichung der in Fig. 3 gezeigten Verarbeitungsschritte sind Ausfüh- rungsbeispiele eines von dem ersten Signalverarbeitungszweig ausgegebenen
Bildes in Fig. 8, eines von dem zweiten Signalverarbeitungszweig ausgegebenen Bildes in Fig. 9, eines von dem dritten Signalverarbeitungszweig ausgegebenen Bildes in Fig. 10, eines von dem vierten Signalverarbeitungszweig ausgegebenen Bildes in Fig. 1 1 und das verstärkte Strukturbild 316 in Fig. 12 gezeigt. Gemäß weiteren Ausführungsbeispielen kann auch nur der dritte, nur der vierte oder weder der dritte noch der vierte Signalverarbeitungszweig ausgeführt werden, um das verstärkte Strukturbilds 316 zu beeinflussen. Bestimmt wird das verstärkte Strukturbilds 316 im Wesentlichen durch die ersten beiden Zweige.
Fig. 4 zeigt ein Blockschaltbild zur Detektion einer Sichtbeeinträchtigung auf der Scheibe, basierend auf dem verstärkten Strukturbild 316, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das verstärkte Strukturbild 316 kann basierend auf dem in Fig. 3 gezeigten Verfahren bestimmt werden. Gemäß die- sem Ausführungsbeispiel kann es sich bei der Sichtbeeinträchtigung um Tropfen handeln und basierend auf dem verstärkten Strukturbild 316 kann ein stabile Tropfen umfassendes Bild 418 und ein neue Tropfen umfassendes Bild 420 bestimmt werden.
Gemäß diesem Ausführungsbeispiel können in einer Einrichtung 421 zunächst negative Werte des verstärkten Strukturbilds 316 auf Null gesetzt werden und positive Werte unverändert gelassen werden. Es kann die Funktion max(x,0) in der Einrichtung 421 umgesetzt werden. Das von der Einrichtung 421 ausgegebene Bild kann einer Verzögerungseinrichtung 423, sowie Kombinationseinrichtungen 425, 426 zugeführt werden. Die Verzögerungseinrichtung 423 kann eine Verzögerung um eine Zeit T bewirken, die einem zeitlichen Abstand zwischen zwei aufeinander folgenden Bildern entsprechen kann. Somit kann in den Kombinationseinrichtungen 425, 426 ein aktuelles Bild mit einem Vorgänger kombiniert werden. Neue Tropfen, Verunreinigungen oder Sichtbeeinträchtigungen können solche definieren, die innerhalb der Zeitdauer T neu hinzugekommen sind und daher nur auf dem aktuellen Bild, jedoch nicht auf dem vorangegangenen Bild vorhanden sind.
In den Kombinationseinrichtungen 425, 426 kann auch eine Mehrzahl von zeitlich auseinanderliegenden Bildern miteinander kombiniert werden. Die zeitlichen Abstände zwischen den kombinierten Bildern können dabei jeweils gleich oder unterschiedlich sein. Zeitlich zurückliegende Bildinformationen können dazu in einer geeigneten Speichereinrichtung zwischengespeichert werden. Um unterschiedliche Formen von Sichtbeeinträchtigungen zu erkennen und zu klassifizieren, kön- nen unterschiedliche Bilder kombiniert werden. Um überhaupt eine Sichtbeeinträchtigung zu erkennen kann eine Kombination von lediglich zwei zeitlich auf- einanderfolgenden Bildern ausreichend sein. Um leicht zu entfernende Verunreinigungen, wie Regentropfen, zu erkennen, kann eine Kombination von lediglich zwei Bildern ausreichend sein, zwischen deren Aufnahme lediglich ein Wischvorgang stattfindet. Um schwer zu entfernende Verunreinigungen, wie Insekten, zu erkennen, kann eine Kombination von drei oder mehr Bildern erforderlich sein, zwischen deren Aufnahme mehrere Wischvorgänge stattfinden. Um durch Scheibenwischen nicht entfernbare Verunreinigungen oder auch um Schäden an der Scheibe zu erkennen und als solche zu klassifizieren, kann eine Kombination von zumindest zwei Bildern erforderlich sein, zwischen deren Aufnahme eine be- stimmte Anzahl von Wischvorgängen stattfindet, die üblicherweise ausreichend ist, um andere Verunreinigungen zu entfernen. Eine Sichtbeeinträchtigung die bereits nach einem Wischvorgang entfernt ist, kann als leicht zu entfernende Verunreinigung klassifiziert werden. Eine Sichtbeeinträchtigung die über mehrere Wischvorgänge bestehen bleibt und erst nach den mehreren Wischvorgängen wieder entfernt ist, kann als schwer zu entfernende Verunreinigung klassifiziert werden. Eine Sichtbeeinträchtigung die auch nach einer großen Anzahl von Wischvorgängen noch vorhanden ist, kann als nicht entfernbare Sichtbeeinträchtigung klassifiziert werden. Die Klassifikation kann mittels einer geeigneten Klassifikationseinrichtung durchgeführt werden, die beispielsweise die auszuwerten- den Bilder sowie deren Aufbereitung und Auswertung vorgibt.
Zum Bestimmen des die stabile Tropfen umfassenden Bildes 418 kann bild- punktweise jeweils ein geometrischer Mittelwert über einander entsprechende Bildpunkte des aktuellen Bilds und des Vorgängerbild gebildet werden. Dazu kann das aktuelle Bild mit dem Vorgängerbild in der Kombinationseinrichtung 425 verknüpft, beispielsweise multipliziert, werden. Anschließend kann in einer Einrichtung 427 eine Wurzelbildung durchgeführt werden. In einer Kombinationseinrichtung 429, beispielsweise einer Additionseinrichtung, kann anschließend eine Konstante aufaddiert werden. Gemäß diesem Ausführungsbeispiel kann die Konstante einen Wert von -50 aufweisen. In einer weiteren Einrichtung 431 kann ein Wertebereich der Bildpunkte des resultierenden Bildes sowohl nach oben als nach unten begrenzt werden. In der Einrichtung 431 kann eine Funktion umgesetzt werden, bei der eine Beschneidung des Wertebereich auf einen vorbestimmten Bereich, beispielsweise zwischen 0 bis 255 (beides einschließlich) er- folgt. Von der Einrichtung 431 ausgegebene Daten bilden das die stabilen Tropfen umfassende Bild 418. Zum Bestimmen des neue Tropfen umfassenden Bildes 420 kann das Vorgängerbild von dem aktuellen Bild subtrahiert werden. Dazu kann eine Invertierungseinrichtung 433 und die Kombinationseinrichtung 426, beispielsweise in Form einer Additionseinrichtung, eingesetzt werden. Dem von der Kombinationseinrichtung 426 ausgegebenen Bild kann in einer Additionseinrichtung 437 eine Konstante aufaddiert werden. Gemäß diesem Ausführungsbeispiel kann die Konstante einen Wert von -50 aufweisen. In einer weiteren Einrichtung 439 kann ein Wertebereich der Bildpunkte des resultierenden Bild sowohl nach oben als nach unten begrenzt werden. In der Einrichtung 439 kann eine Funktion umgesetzt werden, bei der eine Beschneidung des Wertebereich auf einen vorbestimmten Bereich, beispielsweise zwischen 0 bis 255 (beides einschließlich) erfolgt. Von der Einrichtung 439 ausgegebene Daten bilden das die neuen Tropfen umfassende Bild 420.
Zur Veranschaulichung der in Fig. 4 gezeigten Verarbeitungsschritte sind Ausführungsbeispiele eines die stabilen Tropfen umfassenden Bilds 418 in Fig. 13 und ein die neuen Tropfen umfassenden Bilds 420 in Fig. 14 gezeigt.
Gemäß weiteren Ausführungsbeispielen kann auch nur die Information 418 über die stabilen Tropfen oder nur die Information 420 über die neuen Tropfen bestimmt und bereitgestellt werden. Gemäß einem Ausführungsbeispiel können auch die beiden in Fig. 4 gezeigten Zweige weglassen werden, also der Output 316 von Fig. 3 unmittelbar verwendet werden, um die Sichtbeeinträchtigung zu erkennen.
Das die stabilen Tropfen umfassende Bild 418 und das die neuen Tropfen umfassende Bild 420 können mittels einer Bildauswertung ausgewertet werden, um die stabilen und neuen Tropfen beispielsweise zu quantifizieren.
Im Folgenden werden die anhand der Figuren 2 bis 3 gezeigten Blockschaltbilder anhand eines Ausführungsbeispiels einer videobasierten Regendetektion detailliert beschrieben.
Gemäß diesem Ausführungsbeispiel wird davon ausgegangen, dass eine Kamera mindestens ein Bild, vorzugsweise eine fortlaufende Sequenz von Bildern, ei- ner durchsichtigen Scheibe, z. B. einer Fahrzeug-Frontscheibe aufnimmt. Im Falle einer Fahrzeugscheibe befindet sich die Kamera im Fahrzeuginneren. Auf der Außenseite der Scheibe können sich Wassertropfen befinden, die bei Vorhandensein detektiert und in Menge und/oder Anzahl quantifiziert werden sollen.
Die Anordnung soll so ausgeführt sein, dass sich die Tropfen etwa im Schärfentiefebereich der Kamera oder eines Kamerabildausschnitts befinden. Alle weiteren Szenenobjekte, beispielsweise die Straße, Gebäude, Fahrzeuge, Fußgänger, Bäume oder Wolken sollen sich außerhalb des Schärfentiefebereichs befinden.
Dies hat zur Folge, dass Tropfen und sonstige Objekte direkt auf der Scheibe scharf abgebildet werden, während alle Szenenobjekte unscharf abgebildet werden. Diese Eigenschaft macht sich das erfindungsgemäße Bildverarbeitungsverfahren zunutze, das anhand der Figuren 2 bis 3 dargestellt ist.
Wie in Fig. 2 dargestellt, liefert die Kamera ein Bild der (Front-)scheibe, das zumindest in einem Teilbereich auf die Außenseite der Scheibe fokussiert ist.
Da Fahrerassistenzszenen eine hohe Dynamik aufweisen können, besitzt die Kamera vorteilhafterweise eine entsprechende Signaldynamik. Beispielsweise kann sie ein Ausgangssignal mit einer 12 bit Auflösung der Luminanz liefern.
Falls die Kamera Farbfilter verwendet, kann zunächst eine Luminanzextraktion (Helligkeitssignal) stattfinden, wenn von der Farbinformation nachfolgend kein Gebrauch gemacht wird. Gemäß dem hier beschriebenen Ausführungsbeispiel wird von der Farbinformation kein Gebrauch gemacht. Alternativ kann
von der Farbinformation noch Gebrauch gemacht werden. Beispielsweise kann die Farbinformation eingesetzt werden, um eine Information darüber zu ermitteln, ob die Unschärfescheibchen von einem Front- oder Rücklicht erzeugt wurden. Eine entsprechende Information kann beispielsweise an weitere Fahrzeugsysteme zur Weiterverarbeitung bereitgestellt werden. Sofern die Farbe nicht benötigt wird, kann ein Bildsensor eingesetzt werden, bei dem der Farbfilteraufdruck zumindest auf dem Sekundärbildteil des Bildsensors weglassen ist.
Weiterhin kann eine globale Histogramm-basierte Kompression des Eingangssignals durchgeführt werden, um die Dynamik auf 8 bit zu reduzieren. Hierbei kann basierend auf dem Histogramm der Luminanz eine Kompressionskennline bestimmt werden, die anschließend auf die Grauwerte aller Bildpunkte per Look- Up-Tabelle angewendet wird. Damit wird eine Anpassung an unterschiedliche Eingangsdynamiken erreicht. Die Kompressorkennlinie ist so gewählt, dass das Ausgangssignal in jeder Situation die verfügbaren 256 Grauwerte gut ausnutzt und somit eine hohe Signalentropie gewahrt bleibt.
Anschließend kann ein Bildausschnitt für die Regendetektion extrahiert werden. Die Reihenfolge von Kompression und Bildausschnitt kann auch getauscht werden.
Das resultierende Bild 210 ist beispielhaft in Fig. 5 unten gezeigt. Dieses Bildsignal 210 weist unter Umständen eine sehr starke Abhängigkeit von der Beleuchtung in der Szene auf. Hier ist beispielsweise zu erkennen, dass die Scheinwerfer des entgegenkommenden Fahrzeugs 501 zu großen Lichtkreisen 503 führen. Neben den Lichtkreisen ist eine Mehrzahl von Tropfen 505 zu sehen, von denen der Übersichtlichkeit halber nur ein Tropfen mit einem Bezugszeichen versehen ist. Der oben gezeigte erste Bildausschnitt, das so genannte Primärbild, kann für die bekannten Fahrerassistenzfunktionen zur Umfelderfassung verwendet werden, während der unten gezeigte zweite Bildausschnitt 210, das so genannte Sekundärbild, der Regendetektion dient.
Um eine weitgehende Unabhängigkeit vom Umgebungslicht zu erreichen, wird eine Zerlegung in Tiefpassanteil und Hochpassanteil durchgeführt. Dies lässt sich z. B. durch Tiefpassfilterung und Differenzbildung erreichen.
Der Hochpassanteil wird nachfolgend als Strukturbild bezeichnet, der Tiefpassanteil als Hintergrundhelligkeitsbild.
Fig. 6 zeigt ein Hintergrundhelligkeitsbild 214. Das Hintergrundhelligkeitsbild 214 ergibt sich aus der Tiefpassfilterung des Sekundärbilds. In dem Hintergrundhelligkeitsbild 214 sind die großen Lichtkreisen 503 herausgestellt.
Fig. 7 zeigt ein Strukturbild 212, hier zur Visualisierung um einen konstanten Grauwert angehoben. Das Strukturbild 212 weist noch die Struktur der Tropfen 505 auf, ist aber vom Einfluss der Hintergrundhelligkeit weitgehend befreit. Es sind lediglich Kanten der Lichtkreise 503 zu erkennen.
Wie in Fig. 3 gezeigt, wird nachfolgend auf dem Strukturbild 212 der Betrag gebildet. Da das Strukturbild 212 vom Tiefpassanteil befreit ist, wird auf diese Weise das Tropfeninnere hervorgehoben, aber auch eine Korona um den Tropfen. Dazwischen ist in der Regel ein Nulldurchgang, wie es anhand von Fig. 8 gezeigt ist.
Fig. 8 zeigt einen Absolutwert des Strukturbilds zum Hervorheben des Tropfeninneren. Der Absolutwert kann mittels der in Fig. 3 gezeigten Einrichtung 321 gebildet werden.
Auf einem weiteren Pfad, der die in Fig. 3 gezeigten Einrichtungen 325, 327 umfassen kann, werden die Tropfenränder hervorgehoben. Dies erfolgt durch Betragsbildung des Gradienten, wobei zur Bestimmung des Gradienten Sobel-Filter in x- und y-Richtung verwendet werden können. Ein resultierendes Bild ist in Fig. 9 gezeigt.
Fig. 9 zeigt den Gradientenbetrag aus dem Strukturbild zum Hervorheben der Tropfenränder.
Der in Fig. 8 gezeigte Absolutwert des Strukturbilds und der in Fig. 9 gezeigte Gradientenbetrag aus dem Strukturbild werden anschließend verknüpft, hier durch gewichtete Addition.
Das ungewollte Ansprechen an den großen, durch die entgegenkommenden Scheinwerfer hervorgerufenen hellen Kreisen 503 wird unterdrückt, indem auch auf dem Hintergrundhelligkeitsbild eine Gradientenbetragsbildung durchgeführt wird. Diese Helligkeitsgradienten sind am Kreisrand besonders ausgeprägt, wie aus Fig. 10 ersichtlich ist.
Fig. 10 zeigt den Gradientenbetrag aus dem Hintergrundhelligkeitsbild zum Hervorheben der Lichtkreisränder und der Korona der Tropfen 505. Der Gradientenbetrag aus dem Hintergrundhelligkeitsbild kann mittels der in Fig. 3 gezeigten Einrichtungen 333, 335 bestimmt werden. Der in Fig. 10 gezeigte Gradientenbetrag aus dem Hintergrundhelligkeitsbild wird mit dem bisherigen Zwischenergebnis verknüpft, vorzugsweise durch gewichtete Subtraktion. Dies kann mittels der in Fig. 3 gezeigten Einrichtung 339 erfolgen. Hierdurch erfolgt die gewollte Unterdrückung von Lichtkreisrändern und Korona der Tropfen 505.
Da Tropfen vor einem hellen Hintergrund auch hohe Gradientenbeträge und hohe Absolutwerte im Strukturbild erzeugen, wird noch eine zusätzliche Nivellierung eingeführt, die diese Ungleichbewertung reduziert.
Dazu wird im unteren Pfad des in Fig. 3 gezeigten Blockschaltbilds eine Normierungsfunktion gebildet, die nur auf Bildbereiche wirkt, deren Hintergrundhelligkeit größer als die mittlere Hintergrundhelligkeit ist. Die restlichen Bildbereiche bleiben unbeeinflusst. Fig. 1 1 zeigt, wo diese Nivellierung wirksam wird. Fig. 1 1 zeigt, dass in Bereichen mit überdurchschnittlich hoher Helligkeit der Beleuch- tungseinfluss reduziert wird.
Mit allen bisher genannten Maßnahmen wird ein Zwischenergebnisbild erreicht. In dem Zwischenergebnisbild sind, wie in Fig. 12 gezeigt, die Tropfen 505 bereits gut detektiert. Es verbleibt nur noch ein sehr geringer Einfluss der Hintergrundhelligkeit.
Fig. 12 zeigt das Zwischenergebnis 316, basierend auf der Auswertung von einem einzigen Eingangsbild.
Wie anhand von Fig. 4 gezeigt, ergeben sich weitere Vorteile aus der Verknüpfung des in Fig. 12 gezeigten aktuellen Zwischenergebnisbilds mit zumindest einem zeitlich vorausgegangenen Zwischenergebnisbild. In dem in Fig. 4 gezeigten Blockschaltbild werden beispielhaft zwei vorteilhafte Verknüpfungen dieser Art durchgeführt.
Erstens führt eine bildpunktweise Bildung des geometrischen Mittelwerts dazu, dass nur solche Antworten Bestand haben, die in beiden Bildern von Null verschieden sind. Gleichzeitig werden schwache Antworten unterdrückt. Dies ist in dem in Fig. 4 gezeigten oberen Zweig realisiert. Fig. 13 zeigt ein Ergebnisbild 418 für stabile Tropfen. Die Vorgehensweise zur Bestimmung des Ergebnisbilds 418 für stabile Tropfen hat mehrere Vorteile. So findet insbesondere bei Nacht eine Rauschunterdrückung statt, denn das
Kamerarauschen, und seine Auswirkung auf das in Fig. 12 gezeigte Zwischenergebnisbild, tritt in zwei aufeinander folgenden Bildern statistisch unabhängig voneinander auf. Auch führen bewegte Tropfen zu keiner oder nur zu einer schwachen Antwort. Dies ist von Vorteil, wenn, z. B. bei guter Scheibenversiegelung und hoher Fahrtgeschwindigkeit oder hohem Eigengewicht, die Tropfen schnell von selbst von der Scheibe ablaufen. In diesem Falle ist ein Wischen nicht notwendig und kann sogar unerwünscht sein. Es handelt sich also um die örtlich stabilen Tropfen, die auf diese Weise detektiert werden. Zweitens kann des Weiteren, wie in dem in Fig. 4 gezeigten unteren Pfad, auch eine Differenzbildung mit dem zeitlich vorausgegangenen Zwischenergebnisbild durchgeführt werden. Damit lassen sich die neu hinzugekommenen Tropfen hervorheben. Durch die optionale Beschränkung auf werte, die eine positive Schwelle überschreiten, werden nur hinzugekommene Tropfen detektiert, nicht aber Tropfen, die verschwunden sind. Selbstverständlich ließen sich auch die verschwundenen Tropfen detektieren, nämlich durch Betrachtung der negativ- wertigen Ergebnisse.
Fig. 14 zeigt ein Ergebnisbild 420 für neu hinzugekommene Tropfen.
Eine Beschränkung der Ausgangswerte nach unten und oben wird hier in beiden Ausgangskanälen, also dem die stabilen Tropfen und dem die neuen Tropfen betreffenden Ausgangskanal, schließlich genutzt, um kleine Ausgangswerte zu ignorieren, z.B. Rauschen, und um nochmals die Auswirkung heller Tropfen zu be- schränken. In Fig. 4 sind entsprechende Beschränkungen durch die Einrichtungen 431 , 439 realisiert.
Im Folgenden wird ein Ausführungsbeispiel einer Auswertung der Bilder beschrieben, die mittels der anhand der Figuren 2 bis 4 beschriebenen Verfahren bestimmt wurden. Auf Basis der beiden Ausgangsbilder, nämlich der in Fig. 13 gezeigten stabilen Tropfen und der in Fig. 14 gezeigten neuen Tropfen, erfolgt eine Auswertung und die Ansteuerung des Scheibenwischers, der in dem in Fig. 4 gezeigten Blockschaltbild nicht mehr dargestellt ist. Im einfachsten Falle wird die Summe bzw. der Mittelwert über die Ausgangsbilder errechnet. Dabei stellt der Mittelwert über das Bild der stabilen Tropfen ein Maß für die auf der Scheibe befindliche Regenmenge dar. Der Mittelwert über das Bild der neuen Tropfen gibt Auskunft, welche Regenmenge pro Zeiteinheit hinzukommt, also wie stark es regnet.
Fig. 15 zeigt eine kompakte Visualisierung der wichtigsten Zwischenergebnisse auf einem Bildschirm. In der Visualisierung ist oben ein Primärbild 1501 gezeigt, darunter das Sekundärbild 210. Weiter darunter sind in einem Bild 1502 die de- tektierten stabilen Tropfen in und die neuen Tropfen zu sehen. Die stabilen Tropfen und die neuen Tropfen können in unterschiedlichen Farben dargestellt sein. Beispielsweise können die stabilen Tropfen in gelb und die neuen Tropfen in grün dargestellt sein. Die Kurve 1503 darunter stellt den Verlauf des Mittelwerts über das jeweilige Bild der stabilen Tropfen über die Zeit dar. In diesem Verlauf ist zu erkennen, wie jeweils durch die vorlaufende Wischbewegung und die kurz danach folgende zurück laufenden Wischbewegung die Scheibe gereinigt wird und die Kurve jeweils auf Null oder einen Wert nahe Null zurückspringt.
Das Primärbild 1501 wird auf die zu erfassende Szene oder auf Unendlich oder jenseits Unendlich fokussiert. Daher erscheinen die Tropfen auf der Scheibe im Primärbild 1501 unscharf. Bei der in Fig. 15 gezeigten Aufnahme wurde die Scheibe künstlich beregnet, daher sind die Rampen im Verlauf 1503 so unterschiedlich steil.
Statt Mittelwertbildung oder ergänzend kann auch eine Zählung der Tropfen erfolgen bzw. eine Näherung für die Anzahl der Tropfen bestimmt werden. Für das Zählen eignet sich ein Labeling-Algorithmus, wie er in der Bildverarbeitung bekannt ist. Für eine approximative Zählung kommen auch einfachere Verfahren in Betracht, z. B. unter Verwendung der Zählung der (Bit-)Änderungen in einem bi- narisierten Detektionsbild bei zeilen- und/ oder spaltenweisem Durchlaufen.
Zur weiteren Verarbeitung kann auf bekannte Bildverarbeitungsalgorith rückgegriffen werden. Das erfindungsgemäße Verfahren ist auch geeignet, Schnee und Eispartikel auf der Scheibe zu detektieren. Da diese bei Kontakt mit der Scheibe im Schärfentiefebereich liegen und damit zu scharfen Bildkonturen führen, greift das erfindungsgemäße Verfahren auch hier.
Einzelne anhand der Figuren 2 bis 4 beschriebene Verfahrensschritte können vereinfacht werden. Mittels solcher möglichen Vereinfachungen können bei verringertem Rechenaufwand fast identisch gute Ergebnisse erreicht werden.
Als Beispiel sei die Betragsbildung von zweidimensionalen Vektoren genannt, die in dem in Fig. 3 gezeigten Blockschaltbild gleich zweimal vorkommt, nämlich bei der Gradientenbetragsbildung im Strukturbild und im Hintergrundhelligkeitsbild. Die ideale Vorschrift
2 = v'.Y2 + yz
(1 ) kann vereinfacht werden zu z « c · (max(|x|, |y|) + 0.5 · min(|x|, |y|)) (2) mit c = 0.92. Die rechentechnisch teurere Quadrierung und Wurzelbildung werden auf diese Weise vermieden. Der Fachmann ist in der Lage, ähnliche weitere Vereinfachungen anzugeben.
Mit dem erfindungsgemäßen Ansatz ist auch eine Behandlung von persistentem Schmutz oder einer schadhaften Scheibe möglich.
In der Regel verschwinden durch den Wischvorgang die Tropfen und damit auch die Detektionsergebnisse. Die Ursache für die Detektionen können jedoch auch sonstiger Art sein, z. B. hervorgerufen durch Insekten, die auf der Scheibe kleben, Teerspritzer oder Beschädigungen der Scheibe durch Steinschlag, Kratzer oder auch durch Schäden an Optik oder dem Imager oder Staubpartikel im internen Strahlengang. Gemäß einer Ausführungsform beeinflussen Detektionen dieser Art nicht die An- steuerung des Scheibenwischers. Dies kann erreicht werden, indem die Detekti- onsergebnisse in größeren zeitlichen Abstand miteinander in Beziehung gebracht werden. Besonders vorteilhaft ist es, dazu jeweils ein Bild von einem Zeitpunkt kurz nach dem Wischvorgang heranzuziehen, also wenn die Scheibe weitgehend frei von Wasser sein sollte. Wird dabei für den jeweiligen Bildpunkt festgestellt, dass trotz des gerade erfolgten Wischens regelmäßig Detektionen auftreten, so kann von einer persistenten Störung an der entsprechenden Stelle der
Scheibe ausgegangen werden.
Ist diese Störung durch ein auf der Scheibe klebendes Insekt hervorgerufen, so wird sie bei anhaltendem Regen und Scheibenwischereinsatz irgendwann wieder verschwunden sein. Dies kann wetterabhängig Minuten bis Stunden dauern. Ein Teerfleck kann hartnäckiger sein. Die durch ihn hervorgerufene Störung wird vielleicht erst nach einer gründlichen Scheibenreinigung mit Lösungsmittel verschwinden. Ein Schaden im Scheibenglas wie Steinschlagloch bzw. Kratzer oder eine Störung in der Optik wird durch Reinigungsmaßnahmen nicht verschwinden. Die Störung wird also dauerhaft vorhanden sein.
Durch Wahl von unterschiedlichen zeitlichen Abständen der Bilder, die miteinander in Beziehung gebracht werden, kann der Grad der Hartnäckigkeit der Störung bestimmt zu werden. Als vorteilhafte Alternative zum zeitlichen Abstand kann auch die Anzahl Wischzyklen oder die durch Wischen entfernte Wassermenge als„Abstandsmaß" herangezogen werden. Die unterschiedlichen Abstände können jeweils durch das in Fig. 4 gezeigte Verzögerungsglied 423 umgesetzt werden.
Detektionen, die vom Wischen nicht unmittelbar oder niemals beseitigt werden, lassen sich also algorithmisch feststellen. Es ist damit möglich, diese gestörten Bildpunkte bei der weiteren Auswertung unberücksichtigt zu lassen oder ihrem Einfluss ein geringeres Gewicht zu geben. Das Ergebnis des Regensensors bleibt dann unbeeinflusst von solchen Störungen. Auf diese Weise lassen sich unnötige Wischvorgänge vermeiden. Gemäß einem Ausführungsbeispiel kann eine automatische Verwendung von Wischwasser erfolgen. Mittels des Wischwassers kann die Scheibe gereinigt werden.
Auch bei Fahrten bei trockener oder fast trockener Witterung kann es zur Ansammlung von Schmutz auf der Scheibe kommen. Im Sommer sammeln sich, je nach Region, vorwiegend tote Insekten und Insektenschmutz, Staub, Schmutz von Bäumen und auch von Läusen auf Bäumen sowie Vogelkot auf der Scheibe. Diese Arten der Verschmutzung sammeln sich in der Regel viel langsamer an als Regentropfen, wodurch eine Unterscheidbarkeit von Regen bereits ohne Einsatz des Wischers gegeben ist.
Falls der Wischer eingesetzt wird, ist die Unterscheidbarkeit von Regen noch höher, weil sich Schmutz der genannten Arten trocken kaum beseitigen lässt.
Es ist daher von Vorteil, automatisch die Scheibenwaschfunktion oder Schei- benwischfunktion zu aktivieren, also die Scheibenwaschwasserpumpe und anschließend den Wischer jeweils kurzzeitig einzuschalten, oder so lange bzw. so oft, bis eine Verbesserung des Zustande eintritt. Ähnliches gilt auch im Winter, wenn die Verschmutzung meist durch aufgewirbeltes Wasser von der Straße hervorgerufen wird, in dem insbesondere Streusalz gelöst ist. Beim Antrocknen auf der Scheibe verbleibt das Salz dort und führt innerhalb von Minuten zu einer Verschmutzung, für deren Beseitigung der automatische Einsatz der Scheibenwaschfunktion oder Scheibenwischfunktion ebenfalls von Vorteil ist.
Dabei kann die Scheibenwaschwasserpumpe speziell eingeschaltet werden, wenn eine trockene Verunreinigung erkannt wurde oder sie kann beispielsweise bei jeder erstmaligen Aktivierung der Scheibenreinigungsfunktion eingeschaltet werden, wobei die erstmalige Aktivierung eine Aktivierung nach einer vorbestimmten Ruhezeit darstellen kann.
Gemäß einem weiteren Ausführungsbeispiel kann eine Hinterleuchtung der Scheibe erfolgen.
Das erfindungsgemäße Verfahren funktioniert als passiver Sensor ohne aktive Beleuchtung der Scheibe oder der Tropfen. Das in der Szene vorhandene Um- gebungslicht reicht zur Gewährleistung der Regensensorfunktion bereits aus. Eine aktive Beleuchtung kann daher als Option betrachtet werden.
Der Vorteil einer Hinterleuchtung, die ggf. auch nur zeitweise genutzt wird, besteht darin, dass der Sensor dann auch bei völlig dunkler Umgebung funktioniert und den Scheibenwischer korrekt ansteuern kann. Wird die Szene dann wieder heller, ist die Scheibe bereits korrekt gewischt und der Fahrer hat sofort ungehinderte Sicht.
Die Beleuchtung kann mit sichtbarem Licht erfolgen oder auch mit für den Menschen unsichtbarem Licht, vorzugsweise Infrarotlicht. Dabei sind die spektrale Zusammensetzung des Lichts und die spektrale Empfindlichkeit der Kamera aufeinander abzustimmen.
Örtlich sollte die Beleuchtung so angeordnet sein, dass möglichst nur die für die Regendetektion verwendete Scheibenfläche angeleuchtet wird. Die für die Fahrerassistenzfunktionen verwendete Scheibendurchtrittsfläche sollte von der Beleuchtung möglichst ausgenommen sein, um unerwünschte Störungen zu vermeiden. Für die Anordnung der Beleuchtung kommen zwei grundsätzliche Prinzipien in Betracht.
Zum einen ist eine Nutzung von Lichtreflexionen im Tropfen bzw. an der Grenzschicht Tropfen zu Glas möglich. Während das Licht im Normalfall die Scheibe nach außen durchtritt und nicht mehr zum Sensor zurückkehrt, führt ein Tropfen auf der Scheibe dazu, dass stellenweise Licht von Tropfen zurückgeworfen wird und den Sensor erreicht. Dabei spielen Reflexions-, Mehrfachreflexions- und Brechungseffekte eine wesentliche Rolle.
Zum anderen ist eine Nutzung der Totalreflexion an der Scheibe möglich. Nach diesem Prinzip arbeitet auch der klassische Regensensor. Das Licht wird mit Hilfe eines optischen Einkoppel-Elements in einem bestimmten Winkel an der Scheibeninnenseite eingekoppelt, so dass an der trockenen Scheibenaußenseite eine Totalreflexion entsteht. Das Vorhandensein von Tropfen unterbricht die Totalreflexion an diesen Stellen und führt zu lokalen Auskopplungen von Licht nach außen. Das so an der Scheibe entstehende Bild kann mit einem Auskoppel- Element wieder ausgekoppelt und analysiert werden. Für die zeitliche Steuerung der Lichtquelle kommen ebenfalls mehrere Möglichkeiten in Frage.
Im einfachsten Falle ist die Lichtquelle nicht moduliert, sondern ständig eingeschaltet. Dann greift der erfindungsgemäße Algorithmus zur Tropfendetektion unmittelbar, denn durch die Beleuchtung der Tropfen entstehen scharfe Bildkonturen, durch die auf das Vorhandensein der Tropfen geschlossen werden kann.
Des Weiteren kann mit einer modulierbaren Quelle beispielsweise abwechselnd ein Bild mit Hinterleuchtung und ein Bild ohne Hinterleuchtung bzw. mit reduzierter Hinterleuchtungsstärke aufgenommen werden. Durch Auswertung des Unterschieds zwischen diesen beiden Bildtypen kann dann auf die Anwesenheit bzw. Abwesenheit von Tropfen geschlossen werden.
Statt der Intensitätsmodulation kann auch die spektrale Zusammensetzung des Lichts moduliert werden. Dies kann z. B. durch zwei oder mehr LED-Module unterschiedlicher spektraler Zusammensetzung (Farbe) erreicht werden. Mit einer Farbkamera lässt sich die entsprechende Demodulation durchführen.
Ein weiterer Freiheitsgrad besteht darin, mehrere Lichtquellen an unterschiedlicher Stelle zu positionieren. Die Modulation schaltet dann zwischen den Lichtquellen hin und her. Entsprechend finden die Reflexionen in den Tropfen an unterschiedlichen Stellen statt, was z. B. durch eine Differenzbildbearbeitung herausgearbeitet werden kann.
Gemäß einer weiteren Ausführungsform kann eine zeitliche Fortschreibung bei fehlender Hinterleuchtung erfolgen.
Auch mit dem passiven System, d. h. ohne Hinterleuchtung, ist es möglich, Phasen der Dunkelheit zu überbrücken. Wenn die Szene zeitweise so dunkel ist, dass eine Regendetektion nicht möglich ist, kann die aktuelle Wischperiode einfach fortgeschrieben werden, gegebenenfalls auch mit einer leicht veränderten, vorzugsweise verlängerten Periode. Dieses Vorgehen ist sinnvoll, weil Phasen völliger Dunkelheit eigentlich fast nicht anzutreffen sind, da bereits die Reflexion des Fahrlichts von einem Leitpfosten ausreicht, um die Tropfen zumindest teilweise zu erleuchten.
Außerdem endet eine Regenphase selten schlagartig. Zumindest ist meist noch so viel Nässe auf der Scheibe oder an den Wischerblättern vorhanden, dass wenige weitere Wischzyklen ohne Rattern möglich sind.
Der erfindungsgemäße Ansatz lässt sich auch im Zusammenhang mit einer Heckscheibenreinigung oder einer Scheinwerferreinigung einsetzten. Ein Senso rort kann entsprechend verlegt werden. Die erfindungsgemäßen Ausführungsbeispiele lassen sich demnach auch auf Fahrzeuge übertragen, die über eine Wisch- und/oder Waschfunktion für weitere Scheiben verfügen, insbesondere fü die Heckscheibe und die Scheiben vor Leuchteinheiten und vor weiteren Sensoren. Weiterhin muss sich der videobasierte Regensensor nicht im Bereich des Rückspiegels hinter der Windschutzscheibe befinden. Auch andere Positionen können sinnvoll sein, insbesondere wenn an diesen Positionen eine Reinigungseinrichtung vorhanden ist.
Fig. 16 zeigt eine Scheibe 102 eines Fahrzeugs und eine Bilderfassungseinrichtung in Form einer Kamera 104, die in dem Fahrzeug angeordnet ist. Auf einer äußeren Oberfläche der Scheibe 102 befindet sich eine Verunreinigung in Form eines Tropfens 203. Im Fahrzeuginneren sind ferner eine erste Lichtquelle 1601 und eine zweite Lichtquelle 1602 angeordnet. Die erste Lichtquelle 1601 ist ausgebildet, um eine erste Strahlung 161 1 in Richtung der Scheibe 102 auszusenden. Die zweite Lichtquelle 1602 ist ausgebildet, um eine zweite Strahlung 1612 in Richtung der Scheibe 102 auszusenden. Die Scheibe 102 kann sich im Tiefenschärfebereich der Kamera 104 befinden.
Ein dargestellter erster Strahl der ersten Strahlung 161 1 trifft auf einen Bereich der Scheibe 102 auf, die frei von Verunreinigungen ist. In diesem Fall kann der erste Strahl der Strahlung 161 1 die Scheibe 102 durchdringen und wird nicht reflektiert. Ein dargestellter zweiter Strahl der ersten Strahlung 161 1 trifft auf einen Bereich der Scheibe 102 auf, in dem sich der Tropfen 203 befindet. In diesem Fall wird der zweite Strahl der ersten Strahlung 161 1 aufgrund des Tropfens 203 reflektiert. Der reflektierte zweite Strahl der ersten Strahlung 161 1 wird von der
Kamera 104 erfasst. Das gewünschte Reflektionsverhalten der ersten Strahlung 161 1 an der Scheibe 102 kann durch einen geeigneten Auftreffwinkel der ersten Strahlung 161 1 auf eine Oberfläche der Scheibe 102 eingestellt werden. Dazu kann die erste Lichtquelle 1601 entsprechend ausgerichtet werden. Die Kamera 104 ist ausgebildet, um ein erstes Bild bereitzustellen auf dem Reflexionen der ersten Strahlung 161 1 zu erkennen sind. Umso mehr Strahlen der ersten Strahlung 161 1 reflektiert werden, umso mehr Verunreinigungen 203 befinden sich auf der Scheibe. Somit kann aus der Menge der reflektierten ersten Strahlung 161 1 auf die Verunreinigungen 203 auf der Scheibe 102 geschlossen werden. Die Menge der Reflexionen oder ein Maß zur Quantifizierung der Reflexionen kann durch eine Auswertung der Intensitätsverläufe oder Helligkeitsverläufe des ersten Bildes bestimmt werden. Die erste Lichtquelle 1601 und die Kamera 104 können miteinander gekoppelt sein, so dass das Aussenden der ersten Strahlung 161 1 durch die erste Lichtquelle 1601 und das Erfassen des ersten Bildes durch die Kamera 104 synchronisiert erfolgen können.
Ein dargestellter erster Strahl der zweiten Strahlung 1612 trifft auf einen Bereich der Scheibe 102 auf, der frei von Verunreinigungen ist. In diesem Fall kann der erste Strahl der zweiten Strahlung 1612 die Scheibe 102 nicht durchdringen son- dem wird an der Scheibe 102 reflektiert. Ein dargestellter zweiter Strahl der zweiten Strahlung 1612 trifft auf einen Bereich der Scheibe 102 auf, in dem sich der Tropfen 203 befindet. In diesem Fall wird der zweite Strahl der zweiten Strahlung 1612 aufgrund des Tropfens 203 nicht reflektiert und kann die Scheibe 102 und den Tropfen 203 passieren. Der reflektierte erste Strahl der zweiten Strahlung 1612 wird von der Kamera 104 erfasst. Das gewünschte Reflektionsverhalten der zweiten Strahlung 1612 an der Scheibe 102 kann durch einen geeigneten Auftreffwinkel der zweiten Strahlung 1612 auf eine Oberfläche der Scheibe 102 eingestellt werden. Dazu kann die zweite Lichtquelle 1602 entsprechend ausgerichtet werden. Beispielsweise kann die erste Strahlung 161 1 in einem kleineren Ein- fallswinkel als die zweite Strahlung 1612 auf die Oberfläche der Scheibe 102 auftreffen. Die Kamera 104 ist ausgebildet, um ein zweites Bild bereitzustellen auf dem Reflexionen der zweiten Strahlung 1612 zu erkennen sind. Umso mehr Strahlen der zweiten Strahlung 1612 reflektiert werden, umso weniger Verunreinigungen 203 befinden sich auf der Scheibe 102. Somit kann aus der Menge der Reflexionen auf die Verunreinigungen 203 beziehungsweise auf ein Nichtvorhandensein von Verunreinigungen 203 auf der Scheibe 102 geschlossen wer- den. Die Menge der Reflexionen oder ein Maß zur Quantifizierung der Reflexionen kann durch eine Auswertung der Intensitätsverläufe oder Helligkeitsverläufe des zweiten Bildes bestimmt werden. Die zweite Lichtquelle 1601 und die Kamera 104 können miteinander gekoppelt sein, so dass das Aussenden der zweiten Strahlung 1612 durch die zweite Lichtquelle 1602 und das Erfassen des zweiten Bildes durch die Kamera 104 synchronisiert erfolgen können.
Die Anordnung der Kamera 104 sowie der Lichtquelle 1601 , 1602 ist lediglich beispielhaft gewählt und kann variiert werden. Auch können die erste Strahlung 161 1 und die zweite Strahlung 1612 von ein und derselben Lichtquelle ausgesendet werden. Die Kamera 104 kann zusätzlich ausgebildet sein, um ein drittes Bild zu erfassen, auf dem eine Hintergrundhelligkeit abgebildet wird. Während das dritte Bild erfasst wird, können die Lichtquellen 1601 , 1602 ausgeschaltet sein.
Die in Fig. 16 gezeigte Anordnung ist stark vereinfacht dargestellt. Zur Reflexion werden die Fresnelreflexionen an der Scheibe ausgenutzt. Alternativ kann auch eine Totalreflexion an der Scheibe ausgenutzt werden, wobei für diesen Fall ein Koppelelement (nicht gezeigt in Fig. 16) zum einkoppeln und auskoppeln des Strahls vorgesehen werden kann. Mittels des Koppelelements kann der Strahl unter einem Winkel in die Scheibe eingekoppelt werden, der es erlaubt, die Total reflexion innerhalb der Scheibe auszunutzen.
Fig. 17 zeigt eine schematische Darstellung eines ersten Bildes 1701 , das bei- spielsweise von der in Fig. 16 gezeigten Kamera 104 basierend auf Reflexionen der ersten Strahlung 161 1 ermittelt werden kann. Ein heller Bereich 1703 in dem ersten Bild 1701 kann einer Verunreinigung zugeordnet werden, an die ein Teil der ersten Strahlung reflektiert wird. Je mehr helle Bereiche 1703 das erste Bild 1701 aufweist, umso mehr Verunreinigungen befinden sich auf der Scheibe. Die Helligkeit des ersten Bildes 1701 kann mit geeigneten Auswertungsverfahren bestimmt werden. Mittels einer geeigneten ZuOrdnungsvorschrift oder einer Nachschlagetabelle kann die Helligkeit ein Verunreinigungsgrad der Scheibe zugeordnet werden. Der Verunreinigungsgrad kann beispielsweise anzeigen, welcher prozentuale Anteil der Scheibe von Regentropfen bedeckt ist. Fig. 18 zeigt eine schematische Darstellung eines zweiten Bildes 1801 , das beispielsweise von der in Fig. 16 gezeigten Kamera 104 basierend auf Reflexionen der zweiten Strahlung 1612 ermittelt werden kann. Ein dunkler Bereich 1803 in dem zweiten Bild 1801 kann wieder der Verunreinigung zugeordnet werden, an die ein Teil der zweiten Strahlung nicht reflektiert wird. Je mehr dunkle Bereiche
1803 das zweite Bild 1801 aufweist, umso weniger Verunreinigungen befinden sich auf der Scheibe. Die Helligkeit oder Dunkelheit des zweiten Bildes kann mit geeigneten Auswertungsverfahren bestimmt werden. Mittels einer geeigneten ZuOrdnungsvorschrift oder einer Nachschlagetabelle kann die Helligkeit oder Dunkelheit wiederum einem Verunreinigungsgrad der Scheibe zugeordnet werden.
Fig. 19 zeigt ein kombiniertes Bild 1901 , dass durch eine Überlagerung der in den Figuren 17 und 18 gezeigten Bilder 1701 , 1801 ermittelt wird. Dabei wird ei- nes der Bilder 1701 , 1801 vor der Überlagerung invertiert. Gemäß dem Ausführungsbeispiel ist das in Fig. 17 gezeigte Bild 1701 vor der Überlagerung in Bezug auf die Helligkeitswerte seiner Bildpunkte invertiert worden. Durch das Invertieren erscheinen ursprünglich helle Bereiche dunkel, und umgekehrt. Durch die Kombination der Bildinformationen der Bilder 1701 , 1801 wird ein Bereich 1903 des kombinierten Bildes 1901 deutlich hervorgehoben. Gemäß diesem Ausführungsbeispiel ist der Bereich 1903 deutlich dunkler dargestellt als der umgebende Bereich des Bildes 1901. Der Bereich 1903 kennzeichnet eine Verunreinigung der Scheibe. Je mehr dunkle Bereiche 1903 das kombinierte Bild 1901 aufweist, umso mehr Verunreinigungen befinden sich auf der Scheibe. Die Helligkeit oder Dunkelheit des kombinierten Bildes 1901 kann mit geeigneten Auswertungsverfahren bestimmt werden. Mittels einer geeigneten ZuOrdnungsvorschrift oder einer Nachschlagetabelle kann der Helligkeit oder Dunkelheit ein Verunreinigungsgrad der Scheibe zugeordnet werden. Fig. 20 zeigt ein Ablaufdiagramm eines Verfahrens zur Detektion einer, insbesondere durch Regentropfen hervorgerufenen, Verunreinigung einer Scheibe eines Fahrzeugs. In einem Schritt 2001 kann eine erste Strahlung und eine zweite Strahlung in Richtung der Scheibe ausgesendet werden. In einem Schritt 2003 können jeweils Reflexionen der ersten Strahlung und der zweiten Strahlung er- fasst werden. Dabei können die erste Strahlung und die zweite Strahlung zeitlich nacheinander ausgesendet werden. Alternativ können die erste Strahlung und die zweite Strahlung gleichzeitig ausgesendet werden. In diesem Fall können die Reflexionen der ersten und der zweiten Strahlung beispielsweise von unterschiedlichen Erfassungseinrichtungen erfasst werden oder durch eine wellenlängenselektive Detektion bei Verwendung mehrerer Wellenlängen voneinander un- terschieden werden. In einem Schritt 2005 kann ein erstes Bild und ein zweites
Bild ausgegeben werden. Das erste Bild bildet die Reflexionen der ersten Strahlung an der Scheibe ab. Das zweite Bild bildet die Reflexionen der zweiten Strahlung an der Scheibe ab. In einem Schritt 2007 können das erste Bild und das zweite Bild ausgewertet werden, um die Verunreinigung der Scheibe zu bestim- men. Die Reflexionen der ersten Strahlung und der zweiten Strahlung an der
Scheibe werde durch die Verunreinigung beeinflusst. Unter Kenntnis dieser Beeinflussung kann aus dem ersten Bild und dem zweiten Bild auf die Verunreinigung zurückgeschlossen werden. Das erste Bild und das zweite Bild können getrennt voneinander ausgewertet werden und anschließend können die Auswerte- ergebnisse kombiniert werden. Alternativ können die Bildinformationen des ersten Bilds und des zweiten Bilds zuerst kombiniert werden und anschließend kann eine Auswertung erfolgen. Zur Auswertung können geeignete Bildauswertungsverfahren eingesetzt werden, die beispielsweise einen mittleren Helligkeitsverlauf eines Bildes oder in einem Bild vorhandene Strukturen analysieren.
Anhand der Figuren 21 bis 24 wird das Verfahren zur Detektion einer Verunreinigung einer Scheibe, gemäß einem Ausführungsbeispiel der vorliegen Erfindung, detailliert beschrieben. Im Folgenden werden die zwei verwendeten Strahlungen als zweite und dritte optische Strahlung bezeichnet.
Für eine verbesserte Tropfenerkennung kann demnach eine zusätzliche zweite optische Strahlung verwendet werden, die sich von einer ersten optischen Strahlung unterscheidet. Bei der ersten optischen Strahlung wird die Totalreflexion an der Tropfenoberfläche ausgenutzt. Dadurch erscheinen an den Stellen, wo sich Tropfen auf der Scheibe befinden helle Punkte auf dem Bild, wie es in den Figuren 21 und 22 zu erkennen ist. Dabei ist die Scheibe von innen derart zu beleuchten, dass bei trockener Scheibe die Lichtstrahlen durchgehen. Bei Tropfen auf der Scheibe werden Strahlen, die einen Tropfen treffen, innerhalb des Tropfens durch mehrfache Totalreflexion umgeleitet und gelangen so zum Objektiv. Der Winkel, unter dem die Strahlung auf die Scheibe trifft, sollte dabei so gewählt werden, dass möglichst wenige Fresnelreflexionen auftreten. Fig. 21 zeigt ein Bild 1701 , das eine Simulation der Reflexionen einer Scheibe mit Tropfen bei einer Beleuchtung unter -1 15°, gemessen zur optischen Achse darstellt. Gezeigt ist ein Ausschnitt eines fokussierten Tropfenbereichs, eines sogenannten Sekundärbilds, bei einer Kameraanordnung mit zwei Fokuslängen. Das Primärbild entspricht einer Umgebung und das Sekundärbild den fokussierten Tropfen auf der Scheibe.
Fig. 22 zeigt ein Bild 1701 , das eine Simulation der Reflexionen einer Scheibe mit Tropfen bei einer Beleuchtung unter -1 15° darstellt. Gezeigt sind das Primärbild und das Sekundärbild.
Die zweite optische Strahlung nutzt die Fresnelreflexe aus. Die Fresnelreflexe treten an der inneren und äußeren Scheibenoberfläche auf. Abhängig vom Material, dem Winkel der auftreffenden Strahlung und vom Behandlungszustand der Scheibenflächen sind die Fresnelreflexionen unterschiedlich stark. Wenn der Einstrahlwinkel für die zweite optische Strahlung entsprechend gewählt wird, entstehen an der Scheibeninnenseite und Scheibenaußenseite Fresnelreflexionen. In den Bereichen in denen sich Tropfen befinden, wird die Strahlung ausgekoppelt und somit weisen sie eine geringere Reflexion auf, wie es in den Figuren 23 und 24 dargestellt ist. Hierbei wird sozusagen das derzeit verwendete
Regensensorprinzip, mit einer Ausnutzung der Totalreflexion in Abhängigkeit des auf der Scheibe befindlichen Mediums, in abbildender Form angewandt. Die Tropfen auf der Scheibenaußenseite unterbrechen die Fresnelreflexionen und es entstehen„Löcher" im Bild, wie es in den Figuren 23 und 24 dargestellt ist.
Fig. 23 zeigt ein Bild 1801 , das eine Simulation der Reflexionen einer Scheibe mit Tropfen bei einer Beleuchtung unter -130° darstellt. Gezeigt ist ein Ausschnitt eines fokussierten Tropfenbereichs, eines sogenannten Sekundärbilds, bei einer Kameraanordnung mit zwei Fokuslängen. Das Primärbild entspricht einer Umgebung und das Sekundärbild den fokussierten Tropfen auf der Scheibe.
Fig. 24 zeigt ein Bild 1801 , das eine Simulation der Reflexionen einer Scheibe mit Tropfen bei einer Beleuchtung unter -130° darstellt. Gezeigt sind das Primärbild und das Sekundärbild. Durch einen angepassten Auswertealgorithmus kann aus zwei nacheinander aufgenommenen Bildern, nämlich einem mit einer künstlichen ersten optischen Strahlung und einem mit einer künstlichen zweiten optischen Strahlung, eine zuverlässigere Detektion der Tropfen erreicht werden. Dazu besteht die Möglichkeit die Bilder in invertierter Form zu überlagern und somit ein höheres SNR zu erreichen. Zusätzlich ist das System durch die zwei von einander unterschiedlichen Beleuchtungen unabhängiger vom Umgebungshintergrund, beispielsweise in Bezug auf Helligkeit und Kontrast, als auch von der Tropfenform.
Die Beleuchtungsform muss an die sensitive Fläche angepassten sein, um möglichst eine gute Ausleuchtung des gesamten sensitiven Bereichs zu realisieren. Für diese Realisierung der Beleuchtung für die zweite und dritte optische Strahlung gibt es verschiedenen Möglichkeiten.
Es können zwei voneinander getrennte Beleuchtungen verwendet werden. Oder es wird eine Lichtquelle verwendet, die positionsvariabel und / oder richtungsvariabel in ihrer Abstrahlung ist und alternierend die zwei Strahlungen erzeugen kann. Auch kann eine Beleuchtung verwendet werden, die durch ein optisches Element, beispielsweise einen Spiegel oder eine Linse, in ihrer Richtung geändert wird.
Bei Verwendung einer Beleuchtung mit mehreren Wellenlängen, also mindestens zwei unterschiedlichen Wellenlängen, kann dazu beispielsweise ein dichroiti- sches Element verwendet werden, welches die von der Lichtquelle ausgehende Strahlung in die erste und zweite optische Strahlung aufteilt. Außerdem besteht die Möglichkeit bei allen Beleuchtungsvarianten die optischen Zusatzkomponenten der Scheibenfokussierung mit zu verwenden. Beispielsweise können die Spiegel, die zur Umfokussierung eines Scheibenbereichs, beispielsweise für das Sekundärbild, dienen dazu genutzt werden die zusätzliche Beleuchtung umzu- lenken. Dadurch ist es einerseits möglich die Lichtquelle selbst an geeignete
Stellen außerhalb des Sichtkegels der Kamera zu positionieren, anderseits können so auch weitere zusätzliche Strahlführungslemente eingespart werden.
Die auftretenden Fresnelreflex im Primärbild, z.B. in Fig. 24 ersichtlich, können durch Synchronisation der Beleuchtung mit dem Rolling Shutter Verfahren (rol- lender Verschluss) der Kamera verhindert werden und stellen somit keinen Nachteil dar.
Der Einsatz der Erfindung ist in allen Fahrzeugen mit einer automotive Videokamera, welche auch eine integrierte Regendetektion beinhaltet, möglich. Ein Einsatz kann zusammen mit einer Einführung eines videobasierten Regensensors erfolgen.
Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden. Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
Die gezeigten und beschriebenen Signalverarbeitungsschritte sind nur beispielhaft gewählt. Sie können durch andere geeignete oder gleichwertige Schritte ersetzt werden. Auch können die erfindungsgemäßen Ansätze auch bei Scheiben eingesetzt werden, die sich nicht an Fahrzeugen befinden.

Claims

Ansprüche
1 . Verfahren zur Bestimmung eines Strukturbildes einer Scheibe (102), wobei das Strukturbild zur Detektion einer Sichtbeeinträchtigung (203) der Scheibe, insbesondere von Regentropfen, geeignet ist, wobei das Verfahren die folgenden Schritte umfasst:
Entfernen einer Hintergrundhelligkeit (214) aus einem Bild (210) der Scheibe, auf dem eine Oberfläche der Scheibe scharf und ein Hintergrund der Scheibe unscharf dargestellt ist, um ein Strukturbild (212) der Scheibe zu bestimmen; und
Hervorheben von in dem Strukturbild vorhandenen Bildstrukturen, um ein verstärktes Strukturbild (316) der Scheibe zu bestimmen.
2. Verfahren gemäß Anspruch 1 , bei dem im Schritt des Hervorhebens in dem Strukturbild (212) vorhandene Kantenverläufe hervorgehoben (325) werden, um das verstärkte Strukturbild (316) der Scheibe (102) zu bestimmen, das zur Detektion der Sichtbeeinträchtigung der Scheibe geeignet ist.
3. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem im
Schritt des Hervorhebens in dem Strukturbild (212) vorhandene Extremwerte stärker hervorgehoben (321 ) werden als weitere in dem Strukturbild vorhandene Werte, um das verstärkte Strukturbild (316) der Scheibe (102) zu bestimmen.
4. Verfahren gemäß einem der vorangegangenen Ansprüche, mit einem Schritt des Ermitteins der Hintergrundhelligkeit des Bildes, um ein Hintergrundhelligkeitsbild (214) der Scheibe (102) zu bestimmen, und mit einem Schritt des Kombinierens (339, 349) des Hintergrundhelligkeitsbilds mit dem Strukturbild (212) und/oder dem verstärkten Strukturbild (316), um ein bereinigtes Struk- turbild der Scheibe zu bestimmen, das zur Detektion der Sichtbeeinträchtigung der Scheibe geeignet ist.
Verfahren gemäß Anspruch 4, mit einem Schritt des Verstärkens (333) von in dem Hintergrundhelligkeitsbild (214) vorhandenen Kantenverläufen, um ein verstärktes Hintergrundhelligkeitsbild zu bestimmen, und bei dem im Schritt des Kombinierens (339) das verstärkte Hintergrundhelligkeitsbild mit dem Strukturbild (212) und/oder dem verstärkten Strukturbild (316) kombiniert wird.
Verfahren gemäß einem der Ansprüche 4 oder 5, mit einem Schritt des Hervorhebens (345) heller Bereiche des Hintergrundhelligkeitsbilds, um ein weiteres verstärktes Hintergrundhelligkeitsbild zu bestimmen, und bei dem im Schritt des Kombinierens (349) das weitere verstärkte Hintergrundhelligkeitsbild mit dem Strukturbild (212) und/oder dem verstärkten Strukturbild (316) kombiniert wird.
Verfahren zur Detektion einer, insbesondere durch Regentropfen hervorgerufenen, Sichtbeeinträchtigung (203) einer Scheibe (102), das die folgenden Schritte umfasst:
Auswerten von Strukturen eines Strukturbildes (316) der Scheibe, wobei auf dem Strukturbild eine Oberfläche der Scheibe scharf und ein Hintergrund der Scheibe unscharf dargestellt ist, um die Sichtbeeinträchtigung der Scheibe zu detektieren.
Verfahren zur Detektion einer Sichtbeeinträchtigung gemäß Anspruch 7, bei dem im Schritt des Auswertens ein Mittelwert oder eine Summe über das Strukturbild oder eine Anzahl der Strukturen bestimmt wird, und bei dem die Sichtbeeinträchtigung (203) der Scheibe basierend auf dem Mittelwert, der Summe oder der Anzahl detektiert wird.
Verfahren zur Detektion einer Sichtbeeinträchtigung gemäß Anspruch 7 oder 8, mit einem Schritt des Kombinierens (425, 426) eines ersten Strukturbildes (316) der Scheibe mit wenigstens einem zeitlich vorangegangenen weiteren Strukturbild der Scheibe, um ein kombiniertes Strukturbild (418, 420) der Scheibe zu bestimmen, und bei dem im Schritt des Auswertens Strukturen des kombinierten Strukturbildes ausgewertet werden, um die Sichtbeeinträchtigung (203) der Scheibe (202) zu detektieren.
10. Verfahren zur Detektion einer Sichtbeeinträchtigung gemäß Anspruch 9, bei dem im Schritt des Kombinierens (425) eine Verknüpfung zwischen dem ersten Strukturbild (316) und dem weiteren Strukturbild durchgeführt wird, um Strukturen hervorzuheben, die sowohl das erste Strukturbild als auch das weitere Strukturbild aufweist.
1 1 . Verfahren zur Detektion einer Sichtbeeinträchtigung gemäß Anspruch 9 oder 10, bei dem im Schritt des Kombinierens eine Verknüpfung (426, 433) zwischen dem ersten Strukturbild (316)und dem weiteren Strukturbild durchgeführt wird, um Strukturen hervorzuheben, die entweder nur das erste Strukturbild oder nur das weitere Strukturbild aufweist.
12. Verfahren zur Detektion einer, insbesondere durch Regentropfen hervorgerufenen, Verunreinigung (203) einer Scheibe (102), das die folgenden Schritte umfasst: Auswerten (2007) eines auf einer Reflexion einer ersten optischen Strahlung
(1601 ) basierenden ersten Bildes (1701 ) der Scheibe und eines auf einer Reflexion einer zweiten optischen Strahlung (1601 ) basierenden zweiten Bildes (1801 ) der Scheibe, um die Verunreinigung zu detektieren, wobei die erste optische Strahlung ausgebildet ist, um an einem verunreinigten Bereich (203) der Scheibe reflektiert zu werden und wobei die zweite optische Strahlung ausgebildet ist, um an einem verunreinigungsfreien Bereich der Scheibe reflektiert zu werden.
3. Verfahren zur Detektion einer Verunreinigung gemäß Anspruch 12, bei dem das erste Bild (1701 ) oder das zweite Bild (1801 ) invertiert und mit dem jeweils anderen Bild überlagert werden, um ein überlagertes Bild (1901 ) zu ermitteln und bei dem im Schritt des Auswertens (2007) das überlagerte Bild ausgewertet wird, um die Verunreinigung zu detektieren.
4. Vorrichtung, die ausgebildet ist, um die Schritte eines Verfahrens gemäß einem der Ansprüche 1 bis 13 durchzuführen.
15. Computer-Programmprodukt mit Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 13, wenn das Programm auf einer Vorrichtung ausgeführt wird.
PCT/EP2012/060647 2011-06-17 2012-06-06 Verfahren und vorrichtung zur detektion einer sichtbeeinträchtigung einer scheibe WO2012171834A2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/126,960 US20140241589A1 (en) 2011-06-17 2012-06-06 Method and apparatus for the detection of visibility impairment of a pane

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011077725.3 2011-06-17
DE102011077725 2011-06-17

Publications (2)

Publication Number Publication Date
WO2012171834A2 true WO2012171834A2 (de) 2012-12-20
WO2012171834A3 WO2012171834A3 (de) 2013-06-06

Family

ID=46508318

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/060647 WO2012171834A2 (de) 2011-06-17 2012-06-06 Verfahren und vorrichtung zur detektion einer sichtbeeinträchtigung einer scheibe

Country Status (3)

Country Link
US (1) US20140241589A1 (de)
DE (1) DE102012209514A1 (de)
WO (1) WO2012171834A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028427A (ja) * 2013-07-30 2015-02-12 株式会社リコー 付着物検出装置、移動体機器制御システム、移動体及び付着物検出用プログラム
CN112437879A (zh) * 2018-07-19 2021-03-02 株式会社富士 检查设定装置及检查设定方法
CN112862832A (zh) * 2020-12-31 2021-05-28 重庆盛泰光电有限公司 一种基于同心圆分割定位的脏污检测方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012171737A1 (de) * 2011-06-17 2012-12-20 Robert Bosch Gmbh Verfahren und vorrichtung zur erkennung von gerichteten strukturen auf einer scheibe eines fahrzeugs
US11161457B2 (en) * 2014-04-03 2021-11-02 SMR Patents S.à.r.l. Pivotable interior rearview device for a motor vehicle
GB2526270B (en) * 2014-05-16 2018-08-22 Pre Chasm Res Ltd Examining vehicle glass defects
US10112552B2 (en) * 2015-03-11 2018-10-30 Magna Electronics Inc. Vehicle vision system with camera viewing through windshield
US9848173B1 (en) * 2015-08-17 2017-12-19 Ambarella, Inc. Automatic maintenance of front and/or rear windshield visibility
KR101856937B1 (ko) * 2016-10-14 2018-06-19 현대자동차주식회사 자동차의 레인 센서 및 그 제어 방법
US10936884B2 (en) * 2017-01-23 2021-03-02 Magna Electronics Inc. Vehicle vision system with object detection failsafe
JP6627127B2 (ja) * 2017-11-27 2020-01-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US10957023B2 (en) 2018-10-05 2021-03-23 Magna Electronics Inc. Vehicular vision system with reduced windshield blackout opening
DE102019218450A1 (de) 2019-11-28 2021-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung einer optischen Beeinträchtigung einer Kamera
JP7319597B2 (ja) * 2020-09-23 2023-08-02 トヨタ自動車株式会社 車両運転支援装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006016774A1 (de) 2005-04-11 2006-10-12 Denso Corp., Kariya Regensensor

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1475745B1 (de) * 2002-02-12 2014-07-09 Panasonic Corporation Bildverarbeitungseinrichtung und bildverarbeitungsverfahren
GB0216483D0 (en) * 2002-07-16 2002-08-21 Trw Ltd Vehicle window cleaning apparatus and method
US8180099B2 (en) * 2002-07-16 2012-05-15 Trw Limited Rain detection apparatus and method
US7623728B2 (en) * 2004-03-24 2009-11-24 General Electric Company Method and product for processing digital images
JP4491360B2 (ja) * 2005-03-11 2010-06-30 セコム株式会社 画像信号処理装置
US7809208B2 (en) * 2007-05-30 2010-10-05 Microsoft Corporation Image sharpening with halo suppression
US20090174773A1 (en) * 2007-09-13 2009-07-09 Gowdy Jay W Camera diagnostics
EP2062777B1 (de) * 2007-11-21 2010-06-16 Delphi Technologies, Inc. Optisches Modul
DE102007057745A1 (de) * 2007-11-30 2009-06-04 Robert Bosch Gmbh Steuerungsverfahren und Steuerungsvorrichtung für eine Scheibenwischvorrichtung
EP2315431A4 (de) * 2008-07-14 2012-06-27 Sharp Kk Bildsignalverarbeitungsvorrichtung und bildanzeigevorrichtung
TWI462575B (zh) * 2008-08-06 2014-11-21 Marketech Int Corp 影像處理裝置及影像處理方法
US8559753B2 (en) * 2011-09-23 2013-10-15 The Boeing Company Reflection removal system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006016774A1 (de) 2005-04-11 2006-10-12 Denso Corp., Kariya Regensensor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028427A (ja) * 2013-07-30 2015-02-12 株式会社リコー 付着物検出装置、移動体機器制御システム、移動体及び付着物検出用プログラム
CN112437879A (zh) * 2018-07-19 2021-03-02 株式会社富士 检查设定装置及检查设定方法
CN112437879B (zh) * 2018-07-19 2024-01-16 株式会社富士 检查设定装置及检查设定方法
CN112862832A (zh) * 2020-12-31 2021-05-28 重庆盛泰光电有限公司 一种基于同心圆分割定位的脏污检测方法
CN112862832B (zh) * 2020-12-31 2022-07-12 盛泰光电科技股份有限公司 一种基于同心圆分割定位的脏污检测方法

Also Published As

Publication number Publication date
US20140241589A1 (en) 2014-08-28
WO2012171834A3 (de) 2013-06-06
DE102012209514A1 (de) 2013-01-03

Similar Documents

Publication Publication Date Title
WO2012171834A2 (de) Verfahren und vorrichtung zur detektion einer sichtbeeinträchtigung einer scheibe
DE69817197T2 (de) Feuchtigkeitssensor und windschutzscheiben-beschlagdetektor
EP2558336B1 (de) Verfahren und vorrichtung zur fahrerunterstützung beim fahren eines fahrzeugs durch detektion von wetterbedingten sichteinschränkungen
DE102004037871B4 (de) Optisches Modul für ein den Außenvorraum in Fahrtrichtung eines Kraftfahrzeuges erfassendes Assistenzsystem
DE102006016774B4 (de) Regensensor
EP2384295B1 (de) Kameraanordnung und verfahren zur erfassung einer fahrzeugumgebung
DE102005004802B4 (de) Scheibenwischer-Steuervorrichtung und Verfahren zum automatischen Scheibenwischen bei Fahrzeugen
DE102005044486B4 (de) Verfahren zur Detektion des Oberflächenzustands einer Fahrbahn, sowie Detektionssystem und Fahrerassistenzsystem zur Umsetzung des Verfahrens
WO2006024247A1 (de) Verfahren zur detektion von niederschlag auf einer scheibe
DE102018203807A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
EP2062777A1 (de) Optisches Modul
WO2012171737A1 (de) Verfahren und vorrichtung zur erkennung von gerichteten strukturen auf einer scheibe eines fahrzeugs
DE102008001679A1 (de) Verfahren und Vorrichtung zur Verarbeitung von aufgenommenen Bildinformationen aus einem Fahrzeug
WO2013083120A1 (de) Verfahren zur auswertung von bilddaten einer fahrzeugkamera unter berücksichtigung von informationen über regen
DE10303046A1 (de) Verfahren und Vorrichtung zur quantitativen Abschätzung der Sichtweite in Fahrzeugen
DE102014209197A1 (de) Vorrichtung und Verfahren zum Erkennen von Niederschlag für ein Kraftfahrzeug
EP2844529A1 (de) Detektion von regentropfen auf einer scheibe mittels einer kamera und beleuchtung
WO2012107136A1 (de) Verfahren und vorrichtung zur bestimmung einer klarsichtigkeit einer scheibe eines fahrzeugs
WO2022128014A1 (de) Korrektur von bildern eines rundumsichtkamerasystems bei regen, lichteinfall und verschmutzung
EP1440856A2 (de) Verfahren und Vorrichtung zur Sichtverbesserung und zur Bestimmung der Wettersituation
DE60313287T2 (de) Verfahren zur sichtweitebestimmung und nebeldetektion
DE102006055905A1 (de) Verfahren zur Fahrzeugumfelderkennung und Vorrichtung zur Umfelderkennung in einem Kraftfahrzeug
DE102005004513A1 (de) Detektion von Niederschlägen auf Oberflächen, insbesondere auf der Oberfläche der Windschutzscheibe eines Kraftfahrzeuges
DE102011055343A1 (de) Verfahren zur Regendetektion mittels einer Kamera
DE102008048309A1 (de) Verfahren und Vorrichtung zum Detektieren von Fahrzeugen bei Dunkelheit

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12735101

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 14126960

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 12735101

Country of ref document: EP

Kind code of ref document: A2