JP2014232026A - Attachment detection device, moving body apparatus control system, and moving body - Google Patents

Attachment detection device, moving body apparatus control system, and moving body Download PDF

Info

Publication number
JP2014232026A
JP2014232026A JP2013112300A JP2013112300A JP2014232026A JP 2014232026 A JP2014232026 A JP 2014232026A JP 2013112300 A JP2013112300 A JP 2013112300A JP 2013112300 A JP2013112300 A JP 2013112300A JP 2014232026 A JP2014232026 A JP 2014232026A
Authority
JP
Japan
Prior art keywords
image
light
detection
raindrop
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013112300A
Other languages
Japanese (ja)
Inventor
真太郎 木田
Shintaro Kida
真太郎 木田
押切 幸治
Koji Oshikiri
幸治 押切
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
高橋 祐二
Yuji Takahashi
祐二 高橋
真人 森岡
Masato Morioka
真人 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013112300A priority Critical patent/JP2014232026A/en
Publication of JP2014232026A publication Critical patent/JP2014232026A/en
Pending legal-status Critical Current

Links

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress a reduction in detection accuracy of attachments due to the saturation state of a light receiving unit.SOLUTION: An attachment detection device specifies, from a photographed image obtained through the irradiation with light from a light irradiation unit 202, a photographed image part corresponding to a light receiving unit in an imaging unit 201 receiving light with the intensity equal to or higher than a predetermined threshold, as an unused image part, and detects, on the basis of two photographed images photographed in photographing periods different from each other, an image area having a difference in pixel value equal to or more than a prescribed value between both photographed images, as an attachment image area, within a photographed image part excluding the specified unused image part as a processing object.

Description

本発明は、光源からの光が照射されるガラス等の光透過部材を撮像手段で撮像して得られる撮像画像に基づいて当該光透過部材に付着している付着物を検出する付着物検出装置、移動体機器制御システム及び移動体に関するものである。   The present invention relates to an adhering matter detection device that detects an adhering matter adhering to a light transmitting member based on a captured image obtained by imaging a light transmitting member such as glass irradiated with light from a light source with an imaging means. The present invention relates to a mobile device control system and a mobile body.

この種の付着物検出装置としては、例えば、特許文献1に記載された画像処理システムが知られている。この画像処理システムでは、車両等のウィンドウガラス(光透過部材)に光源から光を照射し、そのウィンドウガラスからの反射光を、複数の受光部を二次元方向に配列してなる撮像手段で撮像し、その撮像画像に基づいてウィンドウガラスに付着した雨滴などの付着物を検出する。この画像処理システムにおいては、まず、光源を点灯したときの画像信号を撮像素子から画像処理プロセッサに入力する。そして、入力された画像信号に対してエッジ検出処理を実行し、雨滴の画像領域と雨滴でない画像領域との境界を強調したエッジ画像を作成する。その後、このエッジ画像に対して円形状の領域を検出する円検出処理を実行し、検出した円形状領域を雨滴の画像領域(付着物画像領域)として検出する。   As this kind of deposit detection apparatus, for example, an image processing system described in Patent Document 1 is known. In this image processing system, a window glass (light transmissive member) of a vehicle or the like is irradiated with light from a light source, and reflected light from the window glass is imaged by an imaging means in which a plurality of light receiving portions are arranged in a two-dimensional direction. Then, an adhering matter such as raindrops adhering to the window glass is detected based on the captured image. In this image processing system, first, an image signal when a light source is turned on is input from an image sensor to an image processor. Then, edge detection processing is performed on the input image signal to create an edge image in which the boundary between the raindrop image region and the non-raindrop image region is emphasized. Thereafter, a circle detection process is performed on the edge image to detect a circular area, and the detected circular area is detected as a raindrop image area (attachment image area).

また、特許文献2には、自動車等の車外に取り付けられた撮像装置のレンズを覆うレンズカバー状導光部(光透過部材)に付着した水滴等の付着物を検出する機能を備えた撮像装置が開示されている。この撮像装置では、複数の受光部を二次元方向に配列してなる撮像手段を用いて、光源が点灯しているときに得られた画像と、光源が消灯しているときに得られた画像との濃度差分画像を生成する。前記特許文献2の撮像装置においては、付着物が付着している付着領域の画像濃度は、付着物が付着していない非付着領域の画像濃度よりも相対的に明るい(低い)ものである。よって、特許文献2の撮像装置では、濃度差分画像において所定の画像濃度以下である画素領域を付着物画像領域であると判断する。   Patent Document 2 discloses an image pickup apparatus having a function of detecting adhering substances such as water droplets attached to a lens cover-like light guide (light transmitting member) that covers a lens of an image pickup apparatus attached outside a vehicle such as an automobile. Is disclosed. In this imaging apparatus, an image obtained when the light source is turned on and an image obtained when the light source is turned off using an imaging means in which a plurality of light receiving units are arranged in a two-dimensional direction. A density difference image is generated. In the image pickup apparatus of Patent Document 2, the image density of the attached region where the attached matter is attached is relatively brighter (lower) than the image density of the non-attached region where the attached matter is not attached. Therefore, in the imaging device of Patent Document 2, it is determined that a pixel area having a predetermined image density or less in the density difference image is an attachment image area.

光源で照明した光透過部材の照明範囲からの光を撮像して付着物を検出する場合、上述したいずれの特許文献に開示された技術においても、付着物が付着している付着領域からの光の受光量(撮像画像上の画素値)と、付着物が付着していない非付着領域からの光の受光量(撮像画像上の画素値)とに違いが生じることを利用して、付着物を検出する。このとき、光源によって照明される照明範囲内の照度が均一であれば、単一の撮像画像内において非付着領域を映し出す非付着物画像領域に対して規定値以上の画素値差(コントラスト)がある画像領域を付着物画像領域として検出することが可能である。   In the case where an object is detected by imaging light from the illumination range of the light transmitting member illuminated by the light source, the light from the attachment region to which the object is attached is detected in any of the techniques disclosed in any of the above-mentioned patent documents. Using the fact that there is a difference between the amount of received light (pixel value on the captured image) and the amount of received light (pixel value on the captured image) from the non-attached area where the attached matter is not attached. Is detected. At this time, if the illuminance within the illumination range illuminated by the light source is uniform, there is a pixel value difference (contrast) greater than or equal to a specified value with respect to the non-adherent image region that projects the non-adherent region in a single captured image. It is possible to detect a certain image area as the deposit image area.

しかしながら、通常、単一の光源から照射される光による光透過部材上の照明範囲内には照度ムラが生じる。また、複数の光源を用いて光透過部材を照明する場合でも、個々の光源に照度ムラが存在するため、光透過部材上の照明範囲内の照度ムラを解消することは難しい。そのため、単一の光源を使う場合でも複数の光源を使う場合でも、光透過部材を照明する場合には、その照明範囲内には照度ムラが出てしまう。このような照度ムラが存在すると、単一の撮像画像中における画素値差(コントラスト)が、付着物画像領域と非付着物画像領域との違いによるものなのか、照度ムラによるものなのかを区別することが困難となる。その結果、高い付着物検出精度を得ることは難しい。   However, normally, illuminance unevenness occurs in the illumination range on the light transmission member by light emitted from a single light source. Moreover, even when illuminating the light transmissive member using a plurality of light sources, since illuminance unevenness exists in each light source, it is difficult to eliminate the illuminance unevenness in the illumination range on the light transmissive member. Therefore, even when a single light source is used or when a plurality of light sources are used, when the light transmitting member is illuminated, illuminance unevenness appears within the illumination range. When there is such illuminance unevenness, it is distinguished whether the pixel value difference (contrast) in a single captured image is due to the difference between the adhered image area and the non-attached object image area or due to uneven illuminance. Difficult to do. As a result, it is difficult to obtain high deposit detection accuracy.

一方、付着物の検出方法としては、撮像時期が異なる2つの撮像画像間における同一箇所の画素値差を観測して付着物を検出する方法がある。この方法では、2つの撮像画像間における同一箇所の画素値差が規定値以上となった箇所については、当該2つの撮像画像間における先の撮像画像の撮像時期と後の撮像画像の撮像時期との間の時期に付着物が付着したということが検出できる。この方法によれば、光源による照明範囲内に照度ムラが存在していても、両撮像画像間における同一箇所については光源による照度は同一なので、付着物の検出精度に対する照度ムラの影響が少ない。よって、高い検出精度で付着物を検出することが可能である。   On the other hand, as a method for detecting an adhering substance, there is a method for detecting an adhering substance by observing a pixel value difference at the same location between two captured images having different imaging times. In this method, for a location where the difference in pixel value at the same location between two captured images is greater than or equal to a specified value, the imaging timing of the previous captured image and the imaging timing of the subsequent captured image between the two captured images It can be detected that the deposit is attached at the time between. According to this method, even if illuminance unevenness exists within the illumination range of the light source, the illuminance by the light source is the same at the same location between both captured images, and therefore the influence of the illuminance unevenness on the detection accuracy of the attached matter is small. Therefore, it is possible to detect a deposit with high detection accuracy.

ところが、光源の光照射強度が大きすぎたり、強い外乱光が入射したりして、撮像素子の中に受光量が飽和状態になる部分(受光部)が現れると、その部分に対応した画像部分については、2つの撮像画像間における適正な画素値差を得ることができない。数値例を挙げて説明すると、例えば、受光量(画素値)が2であった非付着物画像領域に対応する箇所(非付着領域)に付着物が付着したときに、その受光量(画素値)が9に変化する場合を考える。この場合、その受光量差(画素値差)は9−2=7と算出され、比較的大きな差が得られるので、当該画像領域は付着物画像領域として適切に検出される。このとき、撮像素子を構成する各受光部の飽和量(飽和画素値)が10であるとした場合、受光量(画素値)が10になるまでは適切に受光量を検出できるが、10を超える受光量の場合には、これを適切に検出できず、飽和量である10として検出される。そのため、例えば、受光量(画素値)が8であった非付着物画像領域に対応する箇所(非付着領域)に付着物が付着した場合、その受光量(画素値)は本来15と検出されるべきところが、飽和量である10として検出される。この場合、本来であればその受光量差(画素値差)は15−8=7と算出されるべきところ、これが10−8=2と算出されてしまい、輝度差が本来よりも小さく算出される。その結果、当該画像領域は付着物画像領域として検出されない。このように撮像素子を構成する受光部が飽和状態になってしまう画像領域については、2つの撮像画像間における適正な画素値差が得られず、付着物の適切な検出を行うことができない。そのため、付着物の検出精度が低下するという問題があった。   However, if the light receiving intensity of the light source is too high or strong disturbance light is incident and a portion (light receiving portion) where the amount of received light is saturated appears in the image sensor, the image portion corresponding to that portion For, it is not possible to obtain an appropriate pixel value difference between two captured images. When a numerical example is given and explained, for example, when an adhering material adheres to a position (non-adhering region) corresponding to a non-adhering material image region where the received light amount (pixel value) was 2, the received light amount (pixel value) ) Is changed to 9. In this case, the difference in received light amount (pixel value difference) is calculated as 9−2 = 7, and a relatively large difference is obtained. Therefore, the image area is appropriately detected as an attached object image area. At this time, if the saturation amount (saturated pixel value) of each light receiving unit constituting the image sensor is 10, the received light amount can be appropriately detected until the received light amount (pixel value) becomes 10, In the case of the amount of received light exceeding this, this cannot be detected appropriately and is detected as 10 which is the saturation amount. Therefore, for example, when an adhering material adheres to a portion (non-adhering region) corresponding to the non-adhering material image region where the received light amount (pixel value) is 8, the received light amount (pixel value) is originally detected as 15. The place to be detected is detected as 10 which is the saturation amount. In this case, the difference in received light amount (pixel value difference) should be calculated as 15−8 = 7. However, this is calculated as 10−8 = 2, and the luminance difference is calculated smaller than the original. The As a result, the image area is not detected as a deposit image area. As described above, an appropriate pixel value difference between the two captured images cannot be obtained for the image region in which the light receiving unit constituting the imaging element is saturated, and the attached matter cannot be appropriately detected. For this reason, there is a problem that the detection accuracy of the attached matter is lowered.

この問題に対しては、例えば、光源の光照射強度を小さめに調整して飽和状態になる受光部を少なく抑えるという対策が考えられる。しかしながら、光源は、前述のとおり、照度ムラを生じさせるため、光源の光照射強度を小さめに調整すると、照明範囲内に占める照度の低い領域の割合が相対的に拡大する。照度の低い領域は、付着物画像領域と非付着物画像領域との間の画素値差(受光量差)を大きくとることができないので、照度の高い領域に比べて付着物の検出精度が低い。したがって、光源の光照射強度を小さめに調整してしまうと、付着物検出精度の低い領域の割合が拡大し、かえって付着物の検出精度を低下させることになる。   To solve this problem, for example, a countermeasure can be considered in which the light irradiation intensity of the light source is adjusted to be small so that the number of light receiving portions that are saturated is reduced. However, as described above, the light source causes unevenness in illuminance. Therefore, when the light irradiation intensity of the light source is adjusted to be small, the ratio of the low illuminance area in the illumination range is relatively increased. The area with low illuminance cannot take a large pixel value difference (difference in received light amount) between the attached image area and the non-attached object image area, and therefore the detection accuracy of the attached substance is lower than the area with high illuminance. . Therefore, if the light irradiation intensity of the light source is adjusted to be small, the ratio of the area with low attached matter detection accuracy is increased, and the attached matter detection accuracy is lowered.

本発明は、以上の問題に鑑みなされたものであり、その目的とするところは、光源の光照射強度を小さめに調整することなく、受光部が飽和状態になることによる付着物の検出精度の低下を抑制できる付着物検出装置、移動体機器制御システム及び付着物検出用プログラムを提供することである。   The present invention has been made in view of the above problems, and the object of the present invention is to improve the accuracy of detection of an adhering substance due to the light receiving unit becoming saturated without adjusting the light irradiation intensity of the light source to be small. An object is to provide a deposit detection device, a mobile device control system, and a deposit detection program capable of suppressing a decrease.

前記目的を達成するために、本発明は、複数の受光部を二次元方向に配置してなる撮像手段を用いて、光源からの光が照射される光透過部材の付着物観測部分を撮像して得られる撮像画像から、該付着物観測部分に付着している付着物を検出する付着物検出処理を実行する検出処理手段を備えた付着物検出装置において、前記光源から光を照射したときの付着物観測部分の撮像画像の中から、前記撮像手段における所定の閾値以上の受光量を受光している受光部に対応した撮像画像部分を不使用画像部分として特定する不使用画像部分特定手段を有し、前記検出処理手段は、前記不使用画像部分特定手段により特定された不使用画像部分を除いた撮像画像部分を前記付着物検出処理の対象として、前記撮像手段によって前記付着物観測部分を互いに異なる撮像時期に撮像した2つの撮像画像間における画素値差に基づいて付着物を検出することを特徴とする。   In order to achieve the above object, the present invention images an adhering observation portion of a light transmissive member irradiated with light from a light source, using an imaging means in which a plurality of light receiving portions are arranged in a two-dimensional direction. In the attached matter detection apparatus provided with the detection processing means for executing the attached matter detection process for detecting the attached matter attached to the attached matter observation portion from the captured image obtained in the above, when the light is irradiated from the light source Non-use image part specifying means for specifying as a non-use image part a picked-up image part corresponding to a light receiving part that receives a received light amount equal to or greater than a predetermined threshold in the image pickup means from among the picked-up image observation part. And the detection processing means uses the captured image portion excluding the unused image portion specified by the unused image portion specifying means as the target of the attached matter detection processing, and the attached matter observation portion by the imaging means. And detecting a deposit based on the pixel value difference between two captured images captured in different imaging times are.

本発明によれば、飽和状態となる受光部に対応した撮像画像部分についての付着物の誤検出を低減できるので、光源の光照射強度を小さめに調整することなく、受光部が飽和状態になることによる付着物の検出精度の低下を抑制できるという優れた効果が得られる。   According to the present invention, it is possible to reduce the erroneous detection of the adhering matter for the captured image portion corresponding to the light receiving unit that is saturated, so that the light receiving unit is saturated without adjusting the light irradiation intensity of the light source to be small. The outstanding effect that the fall of the detection accuracy of the deposit | attachment by this can be suppressed is acquired.

実施形態における車載機器制御システムの概略構成を示す模式図である。It is a mimetic diagram showing a schematic structure of an in-vehicle device control system in an embodiment. 同車載機器制御システムにおける雨滴検出装置を構成する撮像ユニット及び画像解析ユニットの概略構成の一例を示す模式図である。It is a schematic diagram which shows an example of schematic structure of the imaging unit and image analysis unit which comprise the raindrop detection apparatus in the same vehicle equipment control system. 同車載機器制御システムにおける雨滴検出装置を構成する撮像ユニット及び画像解析ユニットの概略構成の他の例を示す模式図である。It is a schematic diagram which shows the other example of schematic structure of the imaging unit and image analysis unit which comprise the raindrop detection apparatus in the same vehicle equipment control system. 1つの光源で雨滴検出用画像領域を照明したときの画像の一例を示す説明図である。It is explanatory drawing which shows an example when an image area for raindrop detection is illuminated with one light source. 8つの光源で雨滴検出用画像領域を照明したときの画像の一例を示す説明図である。It is explanatory drawing which shows an example when an image area for raindrop detection is illuminated with eight light sources. 雨滴検出用の撮像画像データに適用可能なカットフィルタのフィルタ特性を示すグラフである。It is a graph which shows the filter characteristic of the cut filter applicable to the picked-up image data for raindrop detection. 雨滴検出用の撮像画像データに適用可能なバンドパスフィルタのフィルタ特性を示すグラフである。It is a graph which shows the filter characteristic of the band pass filter applicable to the picked-up image data for raindrop detection. 撮像部に設けられる光学フィルタの正面図である。It is a front view of the optical filter provided in an imaging part. 同撮像部の撮像画像データの画像例を示す説明図である。It is explanatory drawing which shows the image example of the captured image data of the imaging part. 実施形態における雨滴量算出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the raindrop amount calculation process in embodiment. 画像解析ユニットにおける雨滴量算出処理を実行する雨滴量算出処理部の機能ブロック図である。It is a functional block diagram of a raindrop amount calculation processing unit that executes a raindrop amount calculation process in the image analysis unit. (a)は、外乱光も付着物も存在しない状況において1つの光源による照明範囲に着目した光源画像の一例を示すものである。(b)は、外乱光が存在する状況における点灯時画像の一例を示すものである。(c)は、外乱光が存在する状況における消灯時画像の一例を示すものである。(d)は、ハッチングで示す不使用画像部分を除外したことを図示した説明図である。(A) shows an example of a light source image in which attention is paid to an illumination range by one light source in a situation where there is no disturbance light and no deposits. (B) shows an example of a lighting image in a situation where ambient light exists. (C) shows an example of an image at the time of extinction in a situation where disturbance light exists. (D) is explanatory drawing which illustrated having excluded the unused image part shown by hatching. (a)は、外乱光が存在しない状況における点灯時画像と、これに対応する受光量分布を示した説明図である。(b)は、外乱光が存在する状況における点灯時画像と、これに対応する受光量分布を示した説明図である。(A) is explanatory drawing which showed the image at the time of lighting in the condition where disturbance light does not exist, and the received light amount distribution corresponding to this. (B) is explanatory drawing which showed the image at the time of lighting in the condition where disturbance light exists, and received light amount distribution corresponding to this. 実施形態における飽和画素マップ生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the saturated pixel map production | generation process in embodiment. 変形例における雨滴量算出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the raindrop amount calculation process in a modification.

以下、本発明に係る付着物検出装置を移動体機器制御システムである車載機器制御システムに用いた一実施形態について説明する。
なお、本発明に係る付着物検出装置は、車載機器制御システムに限らず、他のシステムにも適用できる。
Hereinafter, an embodiment in which the deposit detection apparatus according to the present invention is used in an in-vehicle device control system that is a mobile device control system will be described.
In addition, the deposit | attachment detection apparatus which concerns on this invention is applicable not only to a vehicle equipment control system but another system.

図1は、本実施形態における車載機器制御システムの概略構成を示す模式図である。
本車載機器制御システムは、移動体である自動車などの自車両100に搭載された撮像部で撮像した自車両進行方向前方領域(撮像領域)の撮像画像データを利用して、ワイパーの駆動制御、ヘッドランプの配光制御、その他の車載機器の制御を行うものである。
FIG. 1 is a schematic diagram illustrating a schematic configuration of an in-vehicle device control system according to the present embodiment.
This in-vehicle device control system uses a captured image data of a forward region (imaging region) in the traveling direction of the host vehicle captured by an imaging unit mounted on the host vehicle 100 such as an automobile that is a moving body, It controls the light distribution of the headlamps and other in-vehicle devices.

本実施形態の車載機器制御システムに設けられる撮像部は、撮像ユニット101に設けられており、走行する自車両100の進行方向前方領域を撮像領域として撮像するものである。撮像ユニット101は、例えば、自車両100のフロントガラス105のルームミラー(図示せず)付近に設置される。撮像ユニット101の撮像部で撮像された撮像画像データは、画像解析ユニット102に入力される。画像解析ユニット102は、撮像部から送信されてくる撮像画像データを解析し、撮像画像データに自車両100の前方に存在する他車両の位置、方角、距離を算出したり、光透過部材であるフロントガラス105に付着する雨滴や異物などの付着物を検出したり、撮像領域内に存在する路面上の白線(区画線)等の検出対象物を検出したりする。他車両の検出では、他車両のテールランプを識別することで自車両100と同じ進行方向へ進行する先行車両を検出し、他車両のヘッドランプを識別することで自車両100とは反対方向へ進行する対向車両を検出する。   The imaging unit provided in the in-vehicle device control system of the present embodiment is provided in the imaging unit 101, and images an area in the traveling direction of the traveling vehicle 100 as an imaging area. The imaging unit 101 is installed near a room mirror (not shown) of the windshield 105 of the host vehicle 100, for example. The captured image data captured by the imaging unit of the imaging unit 101 is input to the image analysis unit 102. The image analysis unit 102 analyzes the captured image data transmitted from the imaging unit, calculates the position, direction, and distance of another vehicle existing ahead of the host vehicle 100 in the captured image data, or is a light transmitting member. For example, an adhering matter such as raindrops or foreign matters adhering to the windshield 105 is detected, or a detection target such as a white line (partition line) on the road surface existing in the imaging region is detected. In the detection of other vehicles, a preceding vehicle traveling in the same traveling direction as the own vehicle 100 is detected by identifying the tail lamp of the other vehicle, and traveling in the opposite direction to the own vehicle 100 by identifying the headlamp of the other vehicle. An oncoming vehicle is detected.

画像解析ユニット102の算出結果は、ランプ制御手段としてのヘッドランプ制御ユニット103に送られる。ヘッドランプ制御ユニット103は、例えば、画像解析ユニット102が算出した距離データから、自車両100の車載機器であるヘッドランプ104を制御する制御信号を生成する。具体的には、例えば、先行車両や対向車両の運転者の目に自車両100のヘッドランプの強い光が入射するのを避けて他車両の運転者の幻惑防止を行いつつ、自車両100の運転者の視界確保を実現できるように、ヘッドランプ104のハイビームおよびロービームの切り替えを制御したり、ヘッドランプ104の部分的な遮光制御を行ったりする。   The calculation result of the image analysis unit 102 is sent to a headlamp control unit 103 as lamp control means. For example, the headlamp control unit 103 generates a control signal for controlling the headlamp 104 that is an in-vehicle device of the host vehicle 100 from the distance data calculated by the image analysis unit 102. Specifically, for example, while avoiding that the strong light of the headlamp of the own vehicle 100 is incident on the driver of the preceding vehicle or the oncoming vehicle, the driver of the other vehicle is prevented from being dazzled. The switching of the high beam and the low beam of the headlamp 104 is controlled, and partial shading control of the headlamp 104 is performed so that the driver's visibility can be secured.

画像解析ユニット102の算出結果は、ワイパー制御手段としてのワイパー制御ユニット106にも送られる。ワイパー制御ユニット106は、ワイパー107を制御して、自車両100のフロントガラス105に付着した雨滴や異物などの付着物を除去する。ワイパー制御ユニット106は、画像解析ユニット102が検出した付着物検出結果を受けて、ワイパー107を制御する制御信号を生成する。ワイパー制御ユニット106により生成された制御信号がワイパー107の図示しないワイパー駆動部に送られると、自車両100の運転者の視界を確保するべく、ワイパー107が稼動する。   The calculation result of the image analysis unit 102 is also sent to the wiper control unit 106 as a wiper control means. The wiper control unit 106 controls the wiper 107 to remove deposits such as raindrops and foreign matters attached to the windshield 105 of the host vehicle 100. The wiper control unit 106 receives the attached matter detection result detected by the image analysis unit 102 and generates a control signal for controlling the wiper 107. When the control signal generated by the wiper control unit 106 is sent to a wiper drive unit (not shown) of the wiper 107, the wiper 107 is activated to ensure the visibility of the driver of the host vehicle 100.

また、画像解析ユニット102の算出結果は、車両走行制御手段としての車両走行制御ユニット108にも送られる。車両走行制御ユニット108は、画像解析ユニット102が検出した白線検出結果に基づいて、白線によって区画されている車線領域から自車両100が外れている場合等に、自車両100の運転者へ警告を報知したり、自車両のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。   The calculation result of the image analysis unit 102 is also sent to the vehicle travel control unit 108 as vehicle travel control means. Based on the white line detection result detected by the image analysis unit 102, the vehicle travel control unit 108 warns the driver of the host vehicle 100 when the host vehicle 100 is out of the lane area defined by the white line. Notification is performed, and driving support control such as controlling the steering wheel and brake of the host vehicle is performed.

図2は、付着物検出装置としての雨滴検出装置200を構成する撮像ユニット101及び画像解析ユニット102の概略構成の一例を示す模式図である。
この雨滴検出装置200は、撮像ユニット101に設けられた撮像部201及び光照射部202と、画像解析ユニット102に設けられた雨滴量情報算出部203とから構成されている。本実施形態において、光照射部202は、フロントガラス105の外壁面に付着した付着物(以下、付着物が雨滴Rdである場合を例に挙げて説明する。)を検出するためのものである。
FIG. 2 is a schematic diagram illustrating an example of a schematic configuration of the imaging unit 101 and the image analysis unit 102 that configure the raindrop detection device 200 as the attached matter detection device.
The raindrop detection apparatus 200 includes an imaging unit 201 and a light irradiation unit 202 provided in the imaging unit 101, and a raindrop amount information calculation unit 203 provided in the image analysis unit 102. In this embodiment, the light irradiation part 202 is for detecting the deposit | attachment adhering to the outer wall surface of the windshield 105 (Hereinafter, it demonstrates as an example when the deposit | attachment is raindrop Rd). .

図2に示す雨滴検出装置200では、光照射部202から照射した光がフロントガラス105の内壁面から内部へ入射するように、光照射部202が配置されている。光照射部202からフロントガラス105の内部へ入射した光は、フロントガラス105の外壁面のうち雨滴Rdが付着していない非付着領域では、その多くがフロントガラス外壁面を透過し、撮像部201に受光されない。一方、フロントガラス105の外壁面のうち雨滴Rdが付着している付着領域では、その多くがフロントガラス外壁面で反射し、その正反射光が撮像部201に受光される。したがって、撮像部201での受光量は、非付着領域からの受光量が少なく、付着領域からの受光量が多い。よって、撮像画像上においては、非付着領域を映し出す非付着物画像領域である非雨滴画像領域の画素値(輝度)よりも付着領域を映し出す付着物画像領域である雨滴画像領域の画素値(輝度)の方が高いものとなる。   In the raindrop detection apparatus 200 shown in FIG. 2, the light irradiation unit 202 is arranged so that the light irradiated from the light irradiation unit 202 enters the inside from the inner wall surface of the windshield 105. Most of the light incident on the inside of the windshield 105 from the light irradiation unit 202 is transmitted through the outer wall surface of the windshield in the non-attached region where the raindrop Rd is not attached on the outer wall surface of the windshield 105. Is not received. On the other hand, most of the outer wall surface of the windshield 105 where raindrops Rd adhere is reflected by the windshield outer wall surface, and the specularly reflected light is received by the imaging unit 201. Therefore, the amount of light received by the imaging unit 201 is small from the non-attached area and large from the attached area. Therefore, on the captured image, the pixel value (luminance) of the raindrop image area that is an attachment image area that projects the adhesion area is higher than the pixel value (luminance) of the non-raindrop image area that is the non-attachment image area that projects the non-attachment area. ) Is higher.

図3は、雨滴検出装置200を構成する撮像ユニット101及び画像解析ユニット102の概略構成の他の例を示す模式図である。
この雨滴検出装置200は、撮像ユニット101に設けられた撮像部201、光照射部202及び導光部204と、画像解析ユニット102に設けられた雨滴量情報算出部203とから構成されている。図3に示す雨滴検出装置200では、光照射部202から照射した光がプリズム等で構成される導光部204の内部へ入射する。導光部204は、フロントガラス105の内壁面に密着する密着面を有し、光照射部202から導光部204の内部へ入射した光は、導光部204の密着面とフロントガラス内壁面との境界面を透過してフロントガラス105の内部へ入射する。フロントガラス105の内部に入射した光は、フロントガラス105の外壁面のうち雨滴Rdが付着していない非付着領域では、その多くがフロントガラス外壁面で反射し、その正反射光が撮像部201に受光される。一方、フロントガラス105の外壁面のうち雨滴Rdが付着している付着領域では、その多くがフロントガラス外壁面を透過して、撮像部201には受光されない。したがって、撮像部201での受光量は、非付着領域からの受光量が多く、付着領域からの受光量が少ない。よって、撮像画像上においては、非付着領域を映し出す非雨滴画像領域の画素値(輝度)よりも付着領域を映し出す雨滴画像領域の画素値(輝度)の方が低いものとなる。
FIG. 3 is a schematic diagram illustrating another example of a schematic configuration of the imaging unit 101 and the image analysis unit 102 that configure the raindrop detection apparatus 200.
The raindrop detection apparatus 200 includes an imaging unit 201, a light irradiation unit 202, and a light guide unit 204 provided in the imaging unit 101, and a raindrop amount information calculation unit 203 provided in the image analysis unit 102. In the raindrop detection apparatus 200 shown in FIG. 3, the light irradiated from the light irradiation unit 202 enters the light guide unit 204 configured by a prism or the like. The light guide unit 204 has a close contact surface that is in close contact with the inner wall surface of the windshield 105, and the light incident from the light irradiation unit 202 into the light guide unit 204 is in contact with the close contact surface of the light guide unit 204 and the inner wall surface of the windshield. And enters the windshield 105 through the boundary surface. Most of the light incident on the inside of the windshield 105 is reflected on the outer surface of the windshield 105 in the non-attached area where the raindrop Rd is not attached, and the specularly reflected light is reflected by the imaging unit 201. Is received. On the other hand, in the attachment region where raindrops Rd are attached on the outer wall surface of the windshield 105, most of the region passes through the outer wall surface of the windshield and is not received by the imaging unit 201. Therefore, the amount of light received by the imaging unit 201 is large from the non-attached area and small from the attached area. Therefore, on the captured image, the pixel value (luminance) of the raindrop image area that projects the attached area is lower than the pixel value (luminance) of the non-raindrop image area that projects the non-attached area.

本実施形態では、図2に示す雨滴検出装置200でも、図3に示す雨滴検出装置200でも、同様に採用することができるが、以下の説明では、図3に示す雨滴検出装置200を例に挙げて説明する。   In the present embodiment, the raindrop detection device 200 shown in FIG. 2 or the raindrop detection device 200 shown in FIG. 3 can be similarly adopted. However, in the following description, the raindrop detection device 200 shown in FIG. 3 is taken as an example. I will give you a description.

本実施形態では、撮像部201に設けられる撮像レンズの焦点は、無限遠又は無限遠とフロントガラス105の外壁面との間に設定している。これにより、フロントガラス105上に付着した雨滴Rdの検出を行う場合だけでなく、先行車両や対向車両の検出や白線の検出を行う場合にも、撮像部201の撮像画像データから適切な情報を取得することができる。   In the present embodiment, the focal point of the imaging lens provided in the imaging unit 201 is set between infinity or infinity and the outer wall surface of the windshield 105. Thereby, not only when detecting the raindrop Rd adhering to the windshield 105, but also when detecting the preceding vehicle, the oncoming vehicle, and the white line, appropriate information is obtained from the captured image data of the imaging unit 201. Can be acquired.

光照射部202は、光源を1又は2以上搭載する。1つの光源だけでフロントガラス105を照明する場合、その雨滴検出用画像領域214には、図4に示すような画像が表示される。この画像は、外乱光も付着物も存在しない状況において1つの光源でフロントガラス105を照明したときの光源画像を示している。図4に示すように、1つの光源から照射される光によるフロントガラス105上の照明範囲内には照度ムラが存在する。また、2以上の光源でフロントガラス105を照明する場合、その雨滴検出用画像領域214には、図5に示すような画像が表示される。この画像は、外乱光も付着物も存在しない状況において8つの光源でフロントガラス105を照明した光源画像を示している。図5に示すように、8つの光源から照射される光によるフロントガラス105上の照明範囲内にも照度ムラが存在する。   The light irradiation unit 202 is equipped with one or more light sources. When the windshield 105 is illuminated with only one light source, an image as shown in FIG. 4 is displayed in the raindrop detection image area 214. This image shows a light source image when the windshield 105 is illuminated with one light source in a situation where there is no disturbance light and no deposits. As shown in FIG. 4, unevenness in illuminance exists within the illumination range on the windshield 105 due to light emitted from one light source. When the windshield 105 is illuminated with two or more light sources, an image as shown in FIG. 5 is displayed in the raindrop detection image area 214. This image shows a light source image in which the windshield 105 is illuminated with eight light sources in a situation where no disturbance light and adhering matter exist. As shown in FIG. 5, illuminance unevenness also exists in the illumination range on the windshield 105 by the light emitted from the eight light sources.

光照射部202に設けられる光源としては、LED(発光ダイオード)やLD(レーザーダイオード)を好適に用いることができる。本実施形態では、コスト、消費電力、省スペースの関係で、小型のLEDを光源として用いているため、複数のLEDを用いた光照射部202を採用してフロントガラス照明範囲を確保している。したがって、本実施形態において、雨滴検出用画像領域214上に現れる光源画像は図5に示すようなものとなる。なお、光照射部202には、光の発散を低減して照明範囲内での光効率を上げるため、光線を平行にするコリメートレンズ等を設けてもよい。   As a light source provided in the light irradiation part 202, LED (light emitting diode) and LD (laser diode) can be used suitably. In the present embodiment, since a small LED is used as a light source in terms of cost, power consumption, and space saving, a light irradiation unit 202 using a plurality of LEDs is employed to ensure a windshield illumination range. . Therefore, in the present embodiment, the light source image appearing on the raindrop detection image area 214 is as shown in FIG. Note that the light irradiation unit 202 may be provided with a collimating lens or the like that collimates the light rays in order to reduce light divergence and increase the light efficiency within the illumination range.

光照射部202の発光波長は、例えば可視光や赤外光を用いることができる。ただし、光照射部202の光で対向車両の運転者や歩行者等を眩惑するのを回避する場合には、可視光よりも波長が長くて画像センサの受光感度がおよぶ範囲の波長、例えば800nm以上1000nm以下の赤外光領域が好ましい。本実施形態の光照射部202は、赤外光領域の波長を有する光を照射するものである。   As the emission wavelength of the light irradiation unit 202, for example, visible light or infrared light can be used. However, in order to avoid dazzling the driver or pedestrian of the oncoming vehicle with the light of the light irradiation unit 202, the wavelength is longer than the visible light and the light receiving sensitivity of the image sensor reaches, for example, 800 nm. The infrared light region of 1000 nm or less is preferable. The light irradiation unit 202 of the present embodiment irradiates light having a wavelength in the infrared light region.

特に、直射日光などの外界からの光の影響を低減するためには、950nmを中心とした波長を選択することが有効である。ここで、フロントガラス105の外壁面で反射した光照射部202からの赤外波長光を撮像部201で撮像する際、撮像部201の画像センサでは、光照射部202からの赤外波長光のほか、例えば太陽光などの赤外波長光を含む大光量の外乱光も受光される。よって、光照射部202からの赤外波長光をこのような大光量の外乱光と区別するためには、光照射部202の発光量を外乱光よりも十分に大きくする必要があるが、このような大発光量の光照射部202を用いることは困難である場合が多い。   In particular, in order to reduce the influence of light from the outside such as direct sunlight, it is effective to select a wavelength centered on 950 nm. Here, when imaging the infrared wavelength light from the light irradiation unit 202 reflected by the outer wall surface of the windshield 105 with the imaging unit 201, the image sensor of the imaging unit 201 uses the infrared wavelength light from the light irradiation unit 202. In addition, a large amount of disturbance light including infrared wavelength light such as sunlight is also received. Therefore, in order to distinguish the infrared wavelength light from the light irradiation unit 202 from such a large amount of disturbance light, the light emission amount of the light irradiation unit 202 needs to be sufficiently larger than the disturbance light. It is often difficult to use such a light emitting unit 202 with a large light emission amount.

そこで、本実施形態においては、例えば、図6に示すように光照射部202の発光波長よりも短い波長の光をカットするようなカットフィルタか、もしくは、図7に示すように透過率のピークが光照射部202の発光波長とほぼ一致したバンドパスフィルタを介して、光照射部202からの光を画像センサで受光するように構成する。これにより、光照射部202の発光波長以外の光を除去して受光できるので、画像センサで受光される光照射部202からの光量は、外乱光に対して相対的に大きくなる。その結果、大発光量の光照射部202でなくても、光照射部202からの光を外乱光と区別することが可能となる。   Therefore, in the present embodiment, for example, a cut filter that cuts light having a wavelength shorter than the light emission wavelength of the light irradiation unit 202 as shown in FIG. 6, or a transmittance peak as shown in FIG. Is configured such that the light from the light irradiation unit 202 is received by the image sensor through a bandpass filter that substantially matches the emission wavelength of the light irradiation unit 202. As a result, light other than the emission wavelength of the light irradiation unit 202 can be removed and received, so that the amount of light from the light irradiation unit 202 received by the image sensor is relatively large with respect to disturbance light. As a result, it is possible to distinguish the light from the light irradiation unit 202 from the disturbance light even if the light irradiation unit 202 does not have a large light emission amount.

ただし、本実施形態においては、撮像画像データから、フロントガラス105上の雨滴Rdを検出するだけでなく、先行車両や対向車両の検出や白線の検出も行う。そのため、撮像画像全体について光照射部202が照射する赤外波長光以外の波長帯を除去してしまうと、先行車両や対向車両の検出や白線の検出に必要な波長帯の光を画像センサで受光できず、これらの検出に支障をきたす。そこで、本実施形態では、撮像画像データの画像領域を、フロントガラス105上の雨滴Rdを検出するための雨滴検出用画像領域と、先行車両や対向車両の検出や白線の検出を行うための車両検出用画像領域とに区分し、雨滴検出用画像領域に対応する部分についてのみ光照射部202が照射する赤外波長光以外の波長帯を除去する光学フィルタを用いている。   However, in the present embodiment, not only the raindrop Rd on the windshield 105 is detected from the captured image data, but also the preceding vehicle and the oncoming vehicle and the white line are detected. Therefore, if the wavelength band other than the infrared wavelength light irradiated by the light irradiation unit 202 is removed from the entire captured image, light in the wavelength band necessary for detection of the preceding vehicle and the oncoming vehicle and detection of the white line is detected by the image sensor. The light cannot be received, and this hinders detection. Therefore, in the present embodiment, the image area of the captured image data, the image area for raindrop detection for detecting the raindrop Rd on the windshield 105, and the vehicle for detecting the preceding vehicle and the oncoming vehicle and detecting the white line. An optical filter is used that is divided into detection image areas and removes a wavelength band other than the infrared wavelength light irradiated by the light irradiation unit 202 only on a portion corresponding to the raindrop detection image area.

図8は、光学フィルタの一例を示す正面図である。
図9は、撮像画像データの画像例を示す説明図である。
本実施形態の光学フィルタ210は、図9に示すように、車両検出用画像領域213である撮像画像上部2/3に対応する箇所に配置される赤外光カットフィルタ領域211と、雨滴検出用画像領域214である撮像画像下部1/3に対応する箇所に配置される赤外光透過フィルタ領域212とに、領域分割されている。赤外光透過フィルタ領域212には、図6に示したカットフィルタや図7に示したバンドパスフィルタを用いる。
FIG. 8 is a front view showing an example of the optical filter.
FIG. 9 is an explanatory diagram illustrating an example of captured image data.
As shown in FIG. 9, the optical filter 210 of the present embodiment includes an infrared light cut filter region 211 disposed at a position corresponding to the upper image 2/3 of the captured image, which is the vehicle detection image region 213, and raindrop detection. The region is divided into an infrared light transmission filter region 212 disposed at a position corresponding to the lower third of the captured image that is the image region 214. For the infrared light transmission filter region 212, the cut filter shown in FIG. 6 or the band-pass filter shown in FIG. 7 is used.

対向車両のヘッドランプ及び先行車両のテールランプ並びに路端や白線の画像は、主に撮像画像中央部に存在することが多く、撮像画像下部には自車両前方の直近路面の画像が存在するのが通常である。よって、対向車両のヘッドランプ及び先行車両のテールランプ並びに路端や白線の識別に必要な情報は撮像画像中央部に集中しており、その識別において撮像画像下部の情報はあまり重要でない。よって、単一の撮像画像データから、対向車両や先行車両あるいは路端や白線の検出と雨滴の検出とを両立して行う場合には、図9に示すように、撮像画像下部を雨滴検出用画像領域214とし、撮像画像中央部を含む残りの撮像画像上部を車両検出用画像領域213とし、これに対応して光学フィルタ210を領域分割するのが好適である。   The headlamp of the oncoming vehicle, the tail lamp of the preceding vehicle, and the image of the road edge and white line are often present mainly at the center of the captured image, and the image of the closest road surface in front of the host vehicle is present at the bottom of the captured image. It is normal. Therefore, the information necessary for identifying the headlamp of the oncoming vehicle, the tail lamp of the preceding vehicle, the road edge, and the white line is concentrated in the center of the captured image, and the information below the captured image is not so important in the identification. Therefore, when both detection of an oncoming vehicle, a preceding vehicle, or a road edge or white line and raindrop detection are performed simultaneously from a single captured image data, the lower part of the captured image is used for raindrop detection as shown in FIG. It is preferable that the image area 214 is formed, and the upper part of the remaining captured image including the central portion of the captured image is the vehicle detection image area 213, and the optical filter 210 is divided into areas corresponding thereto.

なお、撮像画像上部の情報は、自車両前方の上空の画像が存在するのが通常であり、撮像画像下部の情報と同様、対向車両のヘッドランプ及び先行車両のテールランプ並びに路端や白線の識別にはあまり重要でない。よって、雨滴検出用画像領域214を撮像画像上部に設けるようにしてもよいし、撮像画像上部と下部の両方に設けるようにしてもよい。   The information above the captured image usually has an image of the sky in front of the host vehicle. Similar to the information at the bottom of the captured image, the headlamp of the oncoming vehicle, the tail lamp of the preceding vehicle, and the road edge and white line are identified. Is not very important. Therefore, the raindrop detection image area 214 may be provided in the upper part of the captured image, or may be provided in both the upper part and the lower part of the captured image.

また、本実施形態においては、撮像領域内の下部に自車両のボンネットが入り込んでくる場合がある。この場合、自車両のボンネットで反射した太陽光や先行車両のテールランプなどが外乱光となり、これが撮像画像データに含まれることで雨滴検出精度を悪化させる原因となる。このような場合でも、本実施形態では、撮像画像下部に対応する箇所に図6に示したカットフィルタや図7に示したバンドパスフィルタが配置されているので、ボンネットで反射した太陽光や先行車両のテールランプなどの外乱光が雨滴検出用画像領域214に含まれずに除去され、雨滴検出精度の悪化を抑制している。   In the present embodiment, the bonnet of the host vehicle may enter the lower part of the imaging area. In this case, sunlight reflected by the bonnet of the host vehicle, tail lamps of the preceding vehicle, etc. become disturbance light, and this is included in the captured image data, thereby causing raindrop detection accuracy to deteriorate. Even in such a case, in this embodiment, the cut filter shown in FIG. 6 and the bandpass filter shown in FIG. Disturbance light such as a tail lamp of a vehicle is removed without being included in the raindrop detection image region 214, and deterioration of raindrop detection accuracy is suppressed.

また、本実施形態の光学フィルタ210における車両検出用画像領域213に対応する箇所には、赤外光カットフィルタ領域211が配置される。この箇所のフィルタ領域は、可視光を透過できればよいので、全波長帯を透過する非フィルタ領域でもよいが、光照射部202からの赤外波長光が入射してもこれによるノイズが軽減されるように、赤外波長をカットできるのが望ましい。   In addition, an infrared light cut filter region 211 is disposed at a location corresponding to the vehicle detection image region 213 in the optical filter 210 of the present embodiment. Since the filter region at this point only needs to be able to transmit visible light, it may be a non-filter region that transmits the entire wavelength band. However, even if infrared wavelength light from the light irradiation unit 202 is incident, noise due to this is reduced. Thus, it is desirable to be able to cut infrared wavelengths.

ここで、先行車両を検出する際には、撮像画像上のテールランプを識別することで先行車両の検出を行うが、テールランプは対向車両のヘッドランプと比較して光量が少なく、また街灯などの外乱光も多く存在するため、単なる輝度データのみからテールランプを高精度に検出するのは困難である。そのため、テールランプの識別には分光情報を利用し、赤色光の受光量に基づいてテールランプを識別するようにしてもよい。   Here, when the preceding vehicle is detected, the preceding vehicle is detected by identifying the tail lamp on the captured image. However, the tail lamp has a smaller amount of light compared to the headlamp of the oncoming vehicle, and disturbance such as street lights. Since there is a lot of light, it is difficult to detect the tail lamp with high accuracy only from mere luminance data. Therefore, spectral information may be used to identify the tail lamp, and the tail lamp may be identified based on the amount of received red light.

撮像領域からの光は、撮像部201の撮像レンズを通り、光学フィルタ210を透過して、画像センサでその光強度に応じた電気信号に変換される。画像センサから出力される電気信号(アナログ信号)は、画像センサ上における各画素の明るさ(輝度)を示すデジタル信号に変換され、画像の水平・垂直同期信号とともに撮像画像データとして画像解析ユニット102へ出力される。   The light from the imaging region passes through the imaging lens of the imaging unit 201, passes through the optical filter 210, and is converted into an electrical signal corresponding to the light intensity by the image sensor. The electrical signal (analog signal) output from the image sensor is converted into a digital signal indicating the brightness (luminance) of each pixel on the image sensor, and the image analysis unit 102 as captured image data together with the horizontal / vertical synchronization signal of the image. Is output.

画像センサは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などを用いたイメージセンサであり、その受光素子(受光部)にはフォトダイオードを用いている。フォトダイオードは、画素ごとに二次元方向に配置されており、フォトダイオードの集光効率を上げるために、各フォトダイオードの入射側にはマイクロレンズが設けられている。この画像センサがワイヤボンディングなどの手法によりPWB(printed wiring board)に接合されてセンサ基板が形成されている。   The image sensor is an image sensor using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, and a photodiode is used as a light receiving element (light receiving portion). The photodiodes are arranged in a two-dimensional direction for each pixel, and a microlens is provided on the incident side of each photodiode in order to increase the light collection efficiency of the photodiode. This image sensor is bonded to a printed wiring board (PWB) by a method such as wire bonding to form a sensor substrate.

次に、本実施形態における付着物検出処理である雨滴量算出処理について説明する。
図10は、本実施形態における雨滴量算出処理の流れを示すフローチャートである。
図11は、画像解析ユニット102における雨滴量算出処理を実行する雨滴量情報算出部203の機能ブロック図である。
所定の雨滴量検出タイミングが到来したら、まず、光照射部202を点灯させて(S1)、撮像部201により点灯時画像(照明時撮像画像)を撮像する(S2)。これにより、光照射部202からの光が照射されたフロントガラス105の付着物観測部分(雨滴観測部分)が撮像画像下部の雨滴検出用画像領域214に映し出された撮像画像(点灯時画像)のデータが、水平同期信号に同期して、画像格納メモリ301に格納される。続いて、光照射部202を消灯させて(S3)、撮像部により消灯時画像(非照明時撮像画像)を撮像する(S4)。これにより、光照射部202から光が照射されていない状態のフロントガラス105の雨滴観測部分が撮像画像下部の雨滴検出用画像領域214に映し出された撮像画像(消灯時画像)のデータが、水平同期信号に同期して、画像格納メモリ301に格納される。点灯時画像の撮像時点と消灯時画像の撮像時点とはより近い時点であるのが好ましい。したがって、本実施形態では、点灯時画像及び消灯時画像として、連続する2フレームで撮像したものを使用する。
Next, a raindrop amount calculation process that is an attached matter detection process in the present embodiment will be described.
FIG. 10 is a flowchart showing the flow of raindrop amount calculation processing in the present embodiment.
FIG. 11 is a functional block diagram of the raindrop amount information calculation unit 203 that executes the raindrop amount calculation processing in the image analysis unit 102.
When the predetermined raindrop amount detection timing arrives, first, the light irradiation unit 202 is turned on (S1), and the imaging unit 201 captures a lighting image (illuminated captured image) (S2). As a result, the captured image (lighted image) of the deposit observation part (raindrop observation part) of the windshield 105 irradiated with light from the light irradiation unit 202 is displayed in the raindrop detection image area 214 below the captured image. Data is stored in the image storage memory 301 in synchronization with the horizontal synchronization signal. Subsequently, the light irradiation unit 202 is turned off (S3), and an image at the time of extinction (a non-illuminated captured image) is captured by the imaging unit (S4). Thereby, the data of the picked-up image (image when extinguished) in which the raindrop observation portion of the windshield 105 in a state where no light is irradiated from the light irradiation unit 202 is displayed in the raindrop detection image region 214 below the picked-up image is horizontal. It is stored in the image storage memory 301 in synchronization with the synchronization signal. It is preferable that the time when the image is turned on and the time when the image is turned off are closer to each other. Therefore, in the present embodiment, images that are captured in two consecutive frames are used as the on-image and the off-image.

なお、雨滴量情報算出部203に入力される垂直同期信号は、点灯時画像や消灯時画像の選択、画像格納メモリ301の書込許可などに利用される。また、点灯時画像や消灯時画像の画素数が多い場合には、適宜間引きして、画像格納メモリ301に格納するようにしてもよい。   Note that the vertical synchronization signal input to the raindrop amount information calculation unit 203 is used for selecting a lighting image and a lighting image, permission for writing to the image storage memory 301, and the like. In addition, when the number of pixels of the on-image or off-image is large, it may be thinned out as appropriate and stored in the image storage memory 301.

次に、差分画像生成部303は、後述する飽和画素マップ生成処理によって生成される飽和画素マップをメモリ305から読み出し、雨滴量の算出に使用しない不使用画素を特定する(S5)。この不使用画素は、詳しくは後述するが、撮像部201の画像センサを構成する受光素子のうち飽和量を超える受光量を受光する可能性の高い受光素子(飽和状態の受光素子)に対応する撮像画像上の画素である。そして、本実施形態では、このような不使用画素については雨滴量の算出から除外するため、雨滴検出用画像領域214から不使用画素を除外した処理対象領域に対し、差分画像生成部303において、点灯時画像と消灯時画像の差分画像を作成する(S6)。この差分画像は、点灯時画像の画素値と消灯時画像の画素値との差分値を画素値とした画像である。本実施形態における点灯時画像及び消灯時画像が特定波長帯(光照射部202の発光波長を含む波長帯)についての輝度画像であり、その差分画像は輝度の差分をとった輝度差分画像となる。なお、点灯時画像及び消灯時画像は、例えば特定の偏光成分のみを撮像した偏光画像などの特殊な画像であってもよい。   Next, the difference image generation unit 303 reads out a saturated pixel map generated by a saturation pixel map generation process, which will be described later, from the memory 305, and identifies unused pixels that are not used for calculating the raindrop amount (S5). Although not described in detail later, this unused pixel corresponds to a light receiving element (saturated light receiving element) that has a high possibility of receiving a light receiving amount exceeding the saturation amount among light receiving elements constituting the image sensor of the imaging unit 201. It is a pixel on a captured image. In the present embodiment, in order to exclude such unused pixels from the calculation of the amount of raindrops, the difference image generating unit 303 performs processing on the processing target area in which the unused pixels are excluded from the raindrop detection image area 214. A difference image between the on-image and the off-image is created (S6). This difference image is an image in which the difference value between the pixel value of the on-image and the pixel value of the off-image is used as the pixel value. The on-image and the off-image in the present embodiment are luminance images for a specific wavelength band (a wavelength band including the emission wavelength of the light irradiation unit 202), and the difference image is a luminance difference image obtained by taking a luminance difference. . Note that the on-image and the off-image may be special images such as a polarized image obtained by capturing only a specific polarization component.

図12(a)は、外乱光も付着物も存在しない状況において1つの光源による照明範囲に着目した光源画像の一例を示すものである。この例においては、略円形の照明範囲の中央が最も照度が高く、その径方向外方へ向かうにつれて照度が低くなるという照度分布をもっており、図中符号Aで示す中央部分は、対応する受光素子が飽和状態になっている飽和画素部分に相当する。光照射部202がこのような光源を点灯させた状態で撮像した雨滴検出用画像領域214は、外乱光と光照射部202からの光の両方を映し出したものとなる。そのため、図13(a)の下図に示すように、外乱光が存在しない状況であれば飽和値を超える飽和画素部分は僅かであっても、図13(b)の下図に示すように、外乱光が存在する状況下では照度が全体的に底上げされ、飽和値を超える飽和画素部分A’が多くなる。その結果、外乱光の影響により、図12(b)に示す飽和画素部分は、図12(a)に示した光照射部202からの光による飽和画素部分よりも多くなる。   FIG. 12A shows an example of a light source image in which attention is paid to an illumination range by one light source in a situation where there is no disturbance light and no deposits. In this example, the center of the substantially circular illumination range has the highest illuminance, and has an illuminance distribution in which the illuminance decreases as it goes outward in the radial direction. Corresponds to a saturated pixel portion in a saturated state. The raindrop detection image area 214 imaged in a state where the light irradiation unit 202 turns on such a light source reflects both disturbance light and light from the light irradiation unit 202. For this reason, as shown in the lower diagram of FIG. 13A, if there is no disturbance light, even if there are a few saturated pixel portions exceeding the saturation value, as shown in the lower diagram of FIG. In the situation where light is present, the illuminance is raised as a whole, and the saturated pixel portion A ′ exceeding the saturation value increases. As a result, due to the influence of disturbance light, the saturated pixel portion shown in FIG. 12B becomes larger than the saturated pixel portion due to light from the light irradiation unit 202 shown in FIG.

一方で、光照射部202を消灯させた状態で撮像された雨滴検出用画像領域214は、図12(c)に示すように、光照射部202からの光を含まない外乱光のみを映し出したものとなる。実際の撮像状況下で撮像される点灯時画像は、光照射部202からの光と外乱光とを含むものであるため(図12(b))、本来は、図12(a)に示す光源画像の画素値と図12(c)に示す消灯時画像の画素値とを足し合わせた画素値をもつ画像となるべきである。この場合、点灯時画像と消灯時画像との輝度差分を計算することで得られる輝度差分画像の画素値は、外乱光の輝度分が適切に除外され、光照射部202からの光に対応したものとなる。   On the other hand, as shown in FIG. 12C, the raindrop detection image area 214 imaged in a state where the light irradiation unit 202 is turned off displays only disturbance light not including light from the light irradiation unit 202. It will be a thing. Since the lighting image captured under actual imaging conditions includes light from the light irradiation unit 202 and disturbance light (FIG. 12B), the light source image shown in FIG. An image having a pixel value obtained by adding the pixel value and the pixel value of the off-time image shown in FIG. 12C should be obtained. In this case, the pixel value of the luminance difference image obtained by calculating the luminance difference between the on-image and the off-image corresponds to the light from the light irradiation unit 202 by appropriately excluding the luminance of disturbance light. It will be a thing.

しかしながら、画素値は飽和値を超える値をとることができないので、足し合わせた画素値が飽和値を超えている画素の画素値はすべて飽和値を示すものとなる。したがって、点灯時画像中に飽和画素部分が存在していると、その画素部分については、消灯時画像との輝度差分を計算しても、外乱光の輝度分を適切に除外できない。より詳しくは、本来の外乱光の輝度分を超える画素値を除外してしまうことになる。そのため、光照射部202からの光に適切に対応したものとなる。輝度差分画像は、光照射部202からの光に適切に対応したものではなくなり、後述の雨滴検出を適切に行うことができなくなる。   However, since the pixel value cannot take a value exceeding the saturation value, all the pixel values of the pixels whose combined pixel value exceeds the saturation value indicate the saturation value. Therefore, if a saturated pixel portion exists in the lighting image, the luminance component of the disturbance light cannot be appropriately excluded even if the luminance difference between the pixel portion and the unlit image is calculated. More specifically, pixel values exceeding the original luminance of ambient light are excluded. Therefore, it corresponds appropriately to the light from the light irradiation unit 202. The luminance difference image does not appropriately correspond to the light from the light irradiation unit 202, and raindrop detection described later cannot be appropriately performed.

そこで、本実施形態においては、後述する飽和画素マップ生成処理により、想定範囲内の外乱光が入射したときに飽和画素となり得る画素を示す飽和画素マップを生成し、その飽和画素マップによって特定される画素を不使用画素として、輝度差分画像の作成処理の対象から除外する。これにより、図12(d)中のハッチングで示す領域Bは、不使用画素として輝度差分画像の作成処理の対象から除外される。   Therefore, in the present embodiment, a saturated pixel map indicating pixels that can become saturated pixels when disturbance light within an assumed range is incident is generated by a saturated pixel map generation process described later, and is specified by the saturated pixel map. The pixel is excluded from the target of the luminance difference image creation process as an unused pixel. Thereby, the area B indicated by hatching in FIG. 12D is excluded from the target of the luminance difference image creation process as an unused pixel.

このようにして作成された輝度差分画像のデータは、メモリ305に保存される(S7)。その後、差分画像生成部303は、前回にメモリ305に保存した輝度差分画像のデータを読み出し、前回の輝度差分画像と今回の輝度差分画像との差分をとった時差分画像を作成する(S8)。この時差分画像は、前回の輝度差分画像の画素値と今回の輝度差分画像の画素値との差分値を画素値とした画像である。このようにして作成される時差分画像は、差分画像生成部303から雨滴量算出部304へ送られる。   The brightness difference image data created in this way is stored in the memory 305 (S7). Thereafter, the difference image generation unit 303 reads out the data of the brightness difference image previously stored in the memory 305 and creates a time difference image by taking the difference between the previous brightness difference image and the current brightness difference image (S8). . The difference image at this time is an image in which the difference value between the pixel value of the previous luminance difference image and the pixel value of the current luminance difference image is used as the pixel value. The time difference image created in this way is sent from the difference image generation unit 303 to the raindrop amount calculation unit 304.

本実施形態において、この時差分画像において規定値以上の画素値をもつ画像領域は、当該2つの輝度差分画像間における前回の輝度差分画像の作成時と今回の輝度差分画像の作成時との間の時期に雨滴が付着した箇所である。このような時差分画像の画素値から雨滴を検出する方法によれば、光源による照明範囲内に照度ムラが存在していても、両画像間における同一箇所については光源による照度は同一なので、雨滴Rdの検出精度に対する照度ムラの影響が少ない。よって、高い検出精度で雨滴Rdを検出することが可能である。   In this embodiment, the image area having a pixel value greater than or equal to the specified value in the difference image at this time is between the time when the previous luminance difference image is created and the time when the current luminance difference image is created between the two luminance difference images. It is the place where raindrops adhered at the time of. According to such a method of detecting raindrops from the pixel values of the time difference image, even if illuminance unevenness exists within the illumination range of the light source, the illuminance by the light source is the same at the same location between both images. There is little influence of illuminance unevenness on the detection accuracy of Rd. Therefore, it is possible to detect the raindrop Rd with high detection accuracy.

本実施形態においては、上述したように、光照射部202からの光のうち、雨滴Rdが付着しているフロントガラス105上の付着領域に入射する光は撮像部201に入射せず、雨滴Rdが付着していない非付着領域に入射した光は撮像部201に入射する。したがって、雨滴Rdを映し出す雨滴画像は、雨滴検出用画像領域214上において低輝度な画像として映し出される。したがって、雨滴Rdを映し出す雨滴画像領域は、時差分画像において大きな画素値をもつことになる。   In the present embodiment, as described above, of the light from the light irradiation unit 202, the light that enters the attachment region on the windshield 105 to which the raindrop Rd is attached does not enter the imaging unit 201, and the raindrop Rd. The light that has entered the non-attached area where no is attached enters the imaging unit 201. Therefore, the raindrop image that displays the raindrop Rd is displayed as a low-brightness image on the raindrop detection image area 214. Therefore, the raindrop image area that displays the raindrop Rd has a large pixel value in the time difference image.

そこで、本実施形態では、雨滴量算出部304において、時差分画像中から所定の規定値を超える画素値をもった画像領域を抽出し、抽出された画像領域を、雨滴Rdが映し出された雨滴画像領域の候補領域として特定する。具体的には、雨滴量算出部304は、まず、時差分画像の画素値を所定の規定値と比較することにより2値化処理を行う。この2値化処理では、例えば、所定の規定値以上の画素値をもつ画素に「1」、そうでない画素に「0」を割り振ることで、2値化画像を作成する。次に、この2値化画像において、「1」が割り振られた画素が近接している場合には、それらを1つの画像領域として認識するラベリング処理を実施する。これによって、時差分画像の画素値が大きい近接した複数の画素の集合が、1つの画像領域として抽出される。   Therefore, in the present embodiment, the raindrop amount calculation unit 304 extracts an image region having a pixel value exceeding a predetermined specified value from the time difference image, and the extracted image region is a raindrop on which the raindrop Rd is projected. The candidate area is specified as an image area candidate area. Specifically, the raindrop amount calculation unit 304 first performs binarization processing by comparing the pixel value of the time difference image with a predetermined specified value. In this binarization process, for example, a binary image is created by assigning “1” to pixels having a pixel value equal to or greater than a predetermined specified value and assigning “0” to pixels that are not. Next, in the binarized image, when pixels assigned with “1” are close to each other, a labeling process for recognizing them as one image region is performed. Thereby, a set of a plurality of adjacent pixels having a large pixel value of the time difference image is extracted as one image region.

次に、このようにして特定される雨滴画像領域の候補領域に対し、形状識別処理を行って雨滴画像領域を特定する。撮像画像上の雨滴画像の形状は円形状であることが多いので、抽出した雨滴画像領域の候補領域が円形状であるかどうかの形状識別処理を行い、その結果から雨滴画像領域を特定する。そして、このようにして特定された雨滴画像領域の数をカウントした結果を雨滴量として算出する(S9)。   Next, the raindrop image area is specified by performing shape identification processing on the candidate raindrop image area specified in this way. Since the shape of the raindrop image on the captured image is often circular, shape identification processing is performed to determine whether the candidate raindrop image region is a circular shape, and the raindrop image region is identified based on the result. Then, the result of counting the number of raindrop image areas specified in this way is calculated as the raindrop amount (S9).

ワイパー制御ユニット106は、例えば、この雨滴量の算出結果が所定の条件(例えば、連続して作成された20個の時差分画像について、いずれも雨滴量のカウント値が10以上であるという条件)を満たしたときに、ワイパー107の駆動制御やウォッシャー液の吐出制御を行う。本実施形態においては、飽和画素となり得る部分すなわち不使用画素部分Bについては、雨滴Rdの検出処理の対象にはならないので雨滴Rdの検出を行うことができないが、当該不使用画素部分Bで雨滴Rdの誤検知が発生することはなくなる。その結果、飽和画素による雨滴Rdの検出精度の低下は抑制される。   For example, the wiper control unit 106 determines that the calculation result of the raindrop amount is a predetermined condition (for example, a condition that the count value of the raindrop amount is 10 or more for each of the 20 time difference images created in succession). When the above condition is satisfied, the drive control of the wiper 107 and the discharge control of the washer liquid are performed. In the present embodiment, the portion that can be a saturated pixel, that is, the unused pixel portion B is not subjected to the raindrop Rd detection process, so that the raindrop Rd cannot be detected. Rd false detection will not occur. As a result, a decrease in the detection accuracy of the raindrop Rd due to the saturated pixels is suppressed.

次に、上述した飽和画素マップを生成する飽和画素マップ生成処理について説明する。
図14は、本実施形態における飽和画素マップ生成処理の流れを示すフローチャートである。
飽和画素マップ生成処理は、例えば、電源投入時、一定時間が経過した時などの所定の処理開始タイミングが到来したときに実行される。所定の処理開始タイミングが到来したら、まず、光照射部202を点灯させて(S11)、撮像部201により点灯時画像を撮像する(S12)。これにより、例えば、図12(b)に示すような飽和画素部分A’を含む点灯時画像が得られる。この点灯時画像データは、図11に示すように、不使用画像部分特定手段としての不使用画素特定部302に送られる。不使用画素特定部302は、雨滴検出用画像領域214についての点灯時画像データが入力されると、飽和画素マップ生成処理で用いる各種パラメータを初期化する(S13)。具体的には、雨滴検出用画像領域214の幅w(x方向の画素数)、雨滴検出用画像領域214の高さh(y方向長さの画素数)、過去の飽和画素マップデータなどを初期化する。
Next, a saturated pixel map generation process for generating the above-described saturated pixel map will be described.
FIG. 14 is a flowchart showing the flow of the saturated pixel map generation process in this embodiment.
The saturated pixel map generation process is executed when a predetermined process start timing arrives, for example, when the power is turned on or when a certain time has passed. When the predetermined processing start timing arrives, first, the light irradiation unit 202 is turned on (S11), and an image at lighting is captured by the imaging unit 201 (S12). Thereby, for example, a lighting image including a saturated pixel portion A ′ as shown in FIG. 12B is obtained. As shown in FIG. 11, the lighting-time image data is sent to an unused pixel specifying unit 302 as an unused image portion specifying means. When the lighting-time image data for the raindrop detection image area 214 is input, the unused pixel specifying unit 302 initializes various parameters used in the saturated pixel map generation process (S13). Specifically, the width w (number of pixels in the x direction) of the raindrop detection image area 214, the height h (number of pixels in the y direction length) of the raindrop detection image area 214, past saturated pixel map data, and the like. initialize.

その後、不使用画素特定部302は、雨滴検出用画像領域214における最初の画素座標(x,y)についての輝度値P(x,y)を、撮像した点灯時画像のデータから取得する(S14)。そして、取得した輝度値P(x,y)が所定の規定値以上であるか否かを判断する(S15)。このとき、輝度値P(x,y)が所定の規定値以上であると判断されると(S15のYes)、その画素を不使用画素とするために、その画素座標(x,y)にフラグを設定する(S16)。   Thereafter, the unused pixel specifying unit 302 acquires the brightness value P (x, y) for the first pixel coordinate (x, y) in the raindrop detection image region 214 from the data of the captured lighting image (S14). ). Then, it is determined whether or not the acquired luminance value P (x, y) is equal to or greater than a predetermined specified value (S15). At this time, if it is determined that the luminance value P (x, y) is equal to or greater than the predetermined specified value (Yes in S15), the pixel coordinate (x, y) is set to the pixel coordinate (x, y) to make the pixel an unused pixel. A flag is set (S16).

輝度値P(x,y)を取得してからフラグを設定するまでの処理(S14〜S16)は、雨滴検出用画像領域214内の各画素について、最初の画素座標から所定の順番で順次行われる。そして、雨滴検出用画像領域214内の最終画素座標(w,h)まで処理を終えたら(S17のYes)、不使用画素特定部302は、フラグが設定された画素座標を示す飽和画素マップのデータをメモリ305に保存する(S18)。   The processing (S14 to S16) from the acquisition of the luminance value P (x, y) to the setting of the flag is sequentially performed for each pixel in the raindrop detection image area 214 in a predetermined order from the first pixel coordinate. Is called. When the processing is finished up to the final pixel coordinates (w, h) in the raindrop detection image area 214 (Yes in S17), the unused pixel specifying unit 302 creates a saturated pixel map indicating the pixel coordinates for which the flag is set. Data is stored in the memory 305 (S18).

本実施形態では、飽和画素マップ生成処理時に撮像した点灯時画像で飽和画素となっている画素を不使用画素としているが、不使用画素は、当該点灯時画像中の飽和画素と一致している必要はない。例えば、当該点灯時画像中の飽和画素部分よりも拡大した範囲を不使用画素としてもよいし、当該点灯時画像中の飽和画素部分よりも狭い範囲を不使用画素としてもよい。ただし、当該点灯時画像中の飽和画素部分よりも狭い範囲を不使用画素とする場合でも、外乱光が存在しない状況下で光照射部202を点灯させたときに飽和画素となる飽和画素部分については不使用画素となるようにするのが好ましい。このような画素は外乱光の強弱に関係なく飽和画素となるからである。   In this embodiment, pixels that are saturated pixels in the lighting image captured during the saturation pixel map generation process are used as unused pixels, but the unused pixels match the saturated pixels in the lighting image. There is no need. For example, a range larger than the saturated pixel portion in the lighting image may be used as an unused pixel, or a range narrower than the saturated pixel portion in the lighting image may be used as an unused pixel. However, even when a range narrower than the saturated pixel portion in the lighting image is used as a non-use pixel, the saturated pixel portion that becomes a saturated pixel when the light irradiation unit 202 is lit in a situation where ambient light does not exist Is preferably an unused pixel. This is because such a pixel is a saturated pixel regardless of the intensity of disturbance light.

〔変形例〕
次に、前記実施形態における雨滴量算出処理の一変形例について説明する。
雨滴量算出処理では、雨滴の量を算出できればよく、雨滴の付着箇所の情報を用いることはない。本変形例は、輝度差分画像のデータに代えて、点灯時画像の画素値(輝度値)の総和から消灯時画像の画素値(輝度値)の総和を差し引いた輝度総和差分値を用いる簡易な雨滴量算出処理である。
[Modification]
Next, a modification of the raindrop amount calculation process in the embodiment will be described.
In the raindrop amount calculation process, it is only necessary to be able to calculate the amount of raindrops, and information on the location of raindrops is not used. In this modification, instead of the luminance difference image data, a simple luminance total difference value obtained by subtracting the total pixel value (luminance value) of the unlit image from the total pixel value (luminance value) of the lit image is used. This is a raindrop amount calculation process.

図15は、本変形例における雨滴量算出処理の流れを示すフローチャートである。
所定の雨滴量検出タイミングが到来したら、まず、光照射部202を点灯させて(S21)、撮像部により点灯時画像を撮像するとともに(S22)、事前に行われた飽和画素マップ生成処理によって生成された飽和画素マップを取得する(S23)。その後、雨滴検出用画像領域214における最初の画素座標(x,y)についての輝度値P(x,y)を、撮像した点灯時画像のデータから取得する(S24)。そして、飽和画素マップを参照して、取得した輝度値P(x,y)の画素座標(x,y)にフラグが設定されているか否か、すなわち、画素座標(x,y)に対応するフラグF(x,y)の値が1であるか否かを判断する(S25)。
FIG. 15 is a flowchart showing a flow of raindrop amount calculation processing in the present modification.
When the predetermined raindrop amount detection timing arrives, first, the light irradiation unit 202 is turned on (S21), and an image at the time of lighting is picked up by the image pickup unit (S22), and generated by a saturated pixel map generation process performed in advance. The obtained saturated pixel map is acquired (S23). Thereafter, the brightness value P (x, y) for the first pixel coordinates (x, y) in the raindrop detection image area 214 is acquired from the data of the captured lighting image (S24). Then, referring to the saturated pixel map, whether or not a flag is set in the pixel coordinates (x, y) of the acquired luminance value P (x, y), that is, corresponding to the pixel coordinates (x, y). It is determined whether or not the value of the flag F (x, y) is 1 (S25).

この判断において、フラグF(x,y)が1である場合には(S25のYes)、その画素は不使用画素である判断して、画素座標(x,y)の輝度値P(x,y)は使用しない。一方、フラグF(x,y)がゼロである場合には(S25のNo)、その画素座標(x,y)の輝度値P(x,y)を、輝度総和差分値となるSumデータに加算する処理を行う(S26)。輝度値P(x,y)を取得してからSumデータに加算する処理までの処理(S24〜S26)は、点灯時画像における雨滴検出用画像領域214内の各画素について、最初の画素座標から所定の順番で順次行われる。この時点で得られるSumデータは、点灯時画像の雨滴検出用画像領域214における不使用画素(飽和画素になり得る画素)を除いた全画素値の総和を示すものとなる。   In this determination, when the flag F (x, y) is 1 (Yes in S25), it is determined that the pixel is an unused pixel, and the luminance value P (x, y) of the pixel coordinate (x, y) is determined. y) is not used. On the other hand, when the flag F (x, y) is zero (No in S25), the luminance value P (x, y) of the pixel coordinate (x, y) is converted into Sum data that becomes the luminance sum difference value. Processing for addition is performed (S26). The process (S24 to S26) from the acquisition of the luminance value P (x, y) to the process of adding to the Sum data (S24 to S26) starts from the first pixel coordinates for each pixel in the raindrop detection image area 214 in the lighting image. It is sequentially performed in a predetermined order. The Sum data obtained at this time indicates the total sum of all pixel values excluding unused pixels (pixels that can be saturated pixels) in the raindrop detection image area 214 of the lighting image.

点灯時画像について雨滴検出用画像領域214内の最終画素座標(w,h)まで処理を終えたら(S27のYes)、次に、光照射部202を消灯させて(S28)、撮像部により消灯時画像を撮像する(S29)。そして、雨滴検出用画像領域214における最初の画素座標(x,y)についての輝度値P(x,y)を、撮像した消灯時画像のデータから取得する(S30)。その後、飽和画素マップを参照して、取得した輝度値P(x,y)の画素座標(x,y)にフラグが設定されているか否か、すなわち、画素座標(x,y)に対応するフラグF(x,y)の値が1であるか否かを判断する(S31)。   When the process is completed up to the final pixel coordinate (w, h) in the raindrop detection image area 214 for the lighting image (Yes in S27), the light irradiation unit 202 is then turned off (S28), and the imaging unit turns off the light. A time image is captured (S29). Then, the brightness value P (x, y) for the first pixel coordinate (x, y) in the raindrop detection image area 214 is acquired from the data of the captured unlit image (S30). Thereafter, referring to the saturated pixel map, whether or not a flag is set in the pixel coordinates (x, y) of the acquired luminance value P (x, y), that is, corresponding to the pixel coordinates (x, y). It is determined whether or not the value of the flag F (x, y) is 1 (S31).

この判断において、フラグF(x,y)が1である場合には(S31のYes)、その画素は不使用画素である判断して、画素座標(x,y)の輝度値P(x,y)は使用しない。一方、フラグF(x,y)がゼロである場合には(S31のNo)、その画素座標(x,y)の輝度値P(x,y)を、Sumデータから減算する処理を行う(S32)。輝度値P(x,y)を取得してからSumデータの減算処理を行うまでの処理(S30〜S32)は、消灯時画像における雨滴検出用画像領域214内の各画素について、最初の画素座標から所定の順番で順次行われる。この結果、得られるSumデータは、点灯時画像の雨滴検出用画像領域214における不使用画素を除いた全画素値の総和から、消灯時画像の雨滴検出用画像領域214における不使用画素を除いた全画素値の総和を差し引いた輝度総和差分値を示すものとなる。   In this determination, when the flag F (x, y) is 1 (Yes in S31), it is determined that the pixel is an unused pixel, and the luminance value P (x, y) of the pixel coordinate (x, y) is determined. y) is not used. On the other hand, when the flag F (x, y) is zero (No in S31), the luminance value P (x, y) of the pixel coordinate (x, y) is subtracted from the Sum data ( S32). The processing (S30 to S32) from when the luminance value P (x, y) is acquired to when the sum data is subtracted (S30 to S32) is the first pixel coordinate for each pixel in the raindrop detection image area 214 in the unlit image. Are sequentially performed in a predetermined order. As a result, the obtained Sum data is obtained by removing unused pixels in the raindrop detection image area 214 of the unlit image from the sum of all pixel values excluding unused pixels in the raindrop detection image area 214 of the lighting image. This indicates a luminance sum difference value obtained by subtracting the sum of all pixel values.

このようにして算出されたSumデータすなわち輝度総和差分値Sumは、後述する不使用画素の数に応じた補正を行った後、メモリ305に保存しておく(S32)。そして、今回の補正後の輝度総和差分値Sumと前回の補正後の輝度総和差分値Sumとの差分をとった時差分値を算出する(S33)。この時差分値は、前回と今回との間の時期に付着した雨滴の画像面積と高い相関関係を示すものであり、この時差分値から雨滴量が算出される(S34)。   The Sum data calculated in this way, that is, the luminance sum total difference value Sum is corrected in accordance with the number of unused pixels, which will be described later, and then stored in the memory 305 (S32). Then, a difference value is calculated when the difference between the current corrected luminance total difference value Sum and the previous corrected luminance total difference value Sum is taken (S33). The difference value at this time shows a high correlation with the image area of the raindrops attached at the time between the previous time and the current time, and the amount of raindrops is calculated from the difference value at this time (S34).

本変形例においては、雨滴検出用画像領域214における不使用画素(飽和画素になり得る画素)の数が固定値でないため、不使用画素数が変動する場合がある。この場合、同じ雨滴量であっても、輝度総和差分値Sumの値が変化することになるので、不使用画素数が変動しても共通の相関関係を用いて雨滴量を算出する場合には、輝度総和差分値Sumを不使用画素の数に応じて補正するのが好ましい。そのため、本変形例では、前記処理ステップS32において、算出された輝度総和差分値Sumに対し、不使用画素の数に応じた補正を行っている。具体的には、例えば、算出された輝度総和差分値Sumに対し、(雨滴検出用画像領域214における全画素数)/{(雨滴検出用画像領域214における全画素数)−(不使用画素数)}という補正係数を乗じたものを、補正後の輝度総和差分値Sumとして、メモリ305に保存する。これにより、不使用画素数が変動しても、共通の相関関係を用いて精度の高い雨滴量の算出を行うことができる。   In the present modification, the number of unused pixels (pixels that can be saturated pixels) in the raindrop detection image region 214 is not a fixed value, and thus the number of unused pixels may vary. In this case, even if the amount of raindrops is the same, the value of the sum total difference value Sum changes, so when calculating the amount of raindrops using a common correlation even if the number of unused pixels varies. The luminance sum total difference value Sum is preferably corrected according to the number of unused pixels. Therefore, in this modification, in the processing step S32, the calculated luminance sum difference value Sum is corrected according to the number of unused pixels. Specifically, for example, for the calculated luminance sum difference value Sum, (total number of pixels in the raindrop detection image area 214) / {(total number of pixels in the raindrop detection image area 214) − (number of unused pixels) )} Multiplied by the correction coefficient is stored in the memory 305 as the corrected luminance sum difference value Sum. Thereby, even if the number of unused pixels fluctuates, it is possible to calculate the raindrop amount with high accuracy using the common correlation.

本変形例によれば、メモリ305に保存するデータが輝度総和差分値Sumという数値データであるため、メモリ305に輝度差分画像データを保存する前記実施形態の場合よりもメモリ容量を大幅に削減できる。   According to the present modification, the data stored in the memory 305 is numerical data called the luminance sum total difference value Sum, so that the memory capacity can be significantly reduced compared to the case of the embodiment in which the luminance difference image data is stored in the memory 305. .

なお、本実施形態では、点灯時画像と消灯時画像の撮像順序は、点灯時画像の方が先である例について説明したが、消灯時画像の方が先に撮像される場合でも同様である。
また、本実施形態では、外乱光の影響を抑制すべく、点灯時画像と消灯時画像との輝度差分をとった輝度差分画像を用いて雨滴量の算出処理を行う場合について説明したが、点灯時画像のみを用いて雨滴量の算出処理を行ってもよい。この場合、点灯時画像同士の時差分画像又は時差分値から、上述した実施形態や変形例と同様の方法により、雨滴量を算出することができる。この場合でも、外乱光の変化が少ない状況等であれば、雨滴量を適切に算出することができる。
In the present embodiment, the order of capturing the lighting-time image and the lighting-time image has been described with respect to the example in which the lighting-time image is first, but the same applies to the case where the lighting-time image is captured first. .
Further, in the present embodiment, in order to suppress the influence of disturbance light, the case where the raindrop amount calculation processing is performed using the luminance difference image obtained by calculating the luminance difference between the lighting image and the lighting image is described. The raindrop amount calculation process may be performed using only the time image. In this case, the amount of raindrops can be calculated from the time difference images or the time difference values between the lighting images by the same method as in the above-described embodiment and modification. Even in this case, the amount of raindrops can be appropriately calculated in a situation where there is little change in ambient light.

以上に説明したものは一例であり、本発明は、次の態様毎に特有の効果を奏する。
(態様A)
複数の受光素子等の受光部を二次元方向に配置してなる画像センサを備えた撮像部201等の撮像手段を用いて、光照射部202等の光源からの光が照射されるフロントガラス105等の光透過部材の付着物観測部分を撮像して得られる撮像画像から、該付着物観測部分に付着している雨滴Rd等の付着物を検出する雨滴量算出処理等の付着物検出処理を実行する差分画像生成部303及び雨滴量算出部304等の検出処理手段を備えた雨滴検出装置200等の付着物検出装置において、前記光源から光を照射したときの付着物観測部分の撮像画像の中から、前記撮像手段における飽和値等の所定の閾値以上の受光量を受光している受光部に対応した撮像画像部分を不使用画像部分として特定する不使用画素特定部302等の不使用画像部分特定手段を有し、前記検出処理手段は、前記不使用画像部分特定手段により特定された不使用画像部分を除いた撮像画像部分を前記付着物検出処理の対象として、前記撮像手段によって前記付着物観測部分を互いに異なる撮像時期に撮像した2つの輝度差分画像等の2つの撮像画像間における画素値差(時差分画像の画素値又は時差分値)に基づいて付着物を検出することを特徴とする。
これによれば、所定の閾値以上の受光量を受光している受光部に対応した撮像画像部分を不使用画像部分とし、これを除いた撮像画像部分を用いて付着物を検出する。したがって、前記所定の閾値を適切に設定することにより、光源の光照射強度を小さめに調整しなくても、飽和状態となる受光部に対応した撮像画像部分について付着物の誤検知を低減できる。よって、受光部が飽和状態になることによる付着物の検出精度の低下を抑制できる。しかも、光源の光照射強度を小さめに調整しないで済むので、光源による照明範囲内に占める低照度領域の割合の拡大により付着物検出精度が低下することがない。
What has been described above is merely an example, and the present invention has a specific effect for each of the following modes.
(Aspect A)
A windshield 105 on which light from a light source such as a light irradiation unit 202 is irradiated using an imaging unit such as an imaging unit 201 provided with an image sensor in which light receiving units such as a plurality of light receiving elements are arranged in a two-dimensional direction. The attached matter detection process such as the raindrop amount calculation process for detecting the attached matter such as the raindrop Rd adhering to the adhered observation part from the captured image obtained by imaging the attached observation part of the light transmitting member such as In the adhering matter detection device such as the raindrop detection device 200 having detection processing means such as the difference image generation unit 303 and the raindrop amount calculation unit 304 to be executed, the captured image of the adhering observation portion when light is emitted from the light source An unused image such as an unused pixel specifying unit 302 that specifies a captured image portion corresponding to a light receiving unit that receives a received light amount equal to or greater than a predetermined threshold, such as a saturation value, in the imaging unit. portion And the detection processing unit sets the captured image portion excluding the unused image portion specified by the unused image portion specifying unit as a target of the attached matter detection processing, and the attached matter by the imaging unit. It is characterized in that an adhering matter is detected based on a pixel value difference (a pixel value or a time difference value of a time difference image) between two captured images such as two luminance difference images obtained by imaging the observation part at different imaging times. To do.
According to this, the captured image part corresponding to the light receiving part that receives a light receiving amount equal to or greater than a predetermined threshold is set as an unused image part, and the adhered object is detected using the captured image part excluding this part. Accordingly, by appropriately setting the predetermined threshold value, it is possible to reduce false detection of attached matter in the captured image portion corresponding to the light receiving unit that is saturated without adjusting the light irradiation intensity of the light source to be small. Therefore, the fall of the detection accuracy of the deposit | attachment by a light-receiving part becoming saturated can be suppressed. In addition, since it is not necessary to adjust the light irradiation intensity of the light source to be small, the adhesion detection accuracy does not decrease due to the increase in the ratio of the low illuminance area in the illumination range by the light source.

(態様B)
前記態様Aにおいて、前記2つの撮像画像は、それぞれ、前記光源から光を照射したときの付着物観測部分を撮像した点灯時画像等の照明時撮像画像と該照明時撮像画像の撮像時期に前後して該光源から光を照射していないときの付着物観測部分を撮像した消灯時画像等の非照明時撮像画像との差分画像(輝度差分画像)であることを特徴とする。
これによれば、外乱光の変化の影響が少ない付着物の検出が可能となる。
(Aspect B)
In the aspect A, the two captured images are respectively before and after the illumination-time captured image such as a lighting-up image obtained by imaging the adhering portion observed when light is irradiated from the light source and the imaging timing of the illumination-captured image. Thus, the image is a difference image (luminance difference image) from a non-illuminated captured image such as an unlit image obtained by capturing an adhering observation portion when no light is irradiated from the light source.
According to this, it is possible to detect an attached substance that is less affected by disturbance light.

(態様C)
前記態様A又はBにおいて、前記2つの撮像画像は、前記光源から照射される光を選択的に透過させる赤外光透過フィルタ領域212等の光学フィルタを介して撮像されたものであることを特徴とする。
これによれば、外乱光の影響が少ない付着物の検出が可能となる。
(Aspect C)
In the aspect A or B, the two captured images are captured through an optical filter such as an infrared light transmission filter region 212 that selectively transmits light emitted from the light source. And
According to this, it is possible to detect an adhering substance with little influence of disturbance light.

(態様D)
自車両100等の移動体におけるフロントガラス105等の光透過部材の付着物観測部分に付着する雨滴Rd等の付着物を検出する付着物検出手段と、前記付着物検出手段の検出結果に基づいて、前記移動体に搭載されたワイパー107等の所定の機器を制御するワイパー制御ユニット106等の移動体機器制御手段とを備えた移動体機器制御システムにおいて、前記付着物検出手段として、前記態様A〜Cのいずれかの態様に係る付着物検出装置を用いたことを特徴とする。
これによれば、受光部が飽和状態になることによる付着物の検出精度の低下が抑制されるので、移動体に搭載された所定の機器を適切に制御することができる。
(Aspect D)
Based on the detection result of the adhering matter detecting means for detecting adhering matter such as raindrops Rd adhering to the adhering observation portion of the light transmitting member such as the windshield 105 in the moving body such as the own vehicle 100, etc. In a mobile device control system comprising a mobile device control means such as a wiper control unit 106 for controlling a predetermined device such as a wiper 107 mounted on the mobile body, the attached matter detection means is the mode A A deposit detection apparatus according to any one of the aspects C to C is used.
According to this, since the fall of the detection accuracy of the deposit | attachment by a light-receiving part becoming a saturated state is suppressed, the predetermined | prescribed apparatus mounted in the mobile body can be controlled appropriately.

(態様E)
ワイパー107等の所定の機器を搭載して移動する自車両100等の移動体において、前記所定の機器を制御する手段として、前記態様Dに係る移動体機器制御システムを用いたことを特徴とする。
これによれば、受光部が飽和状態になることによる付着物の検出精度の低下が抑制されるので、所定の機器を適切に制御できる移動体を提供することができる。
(Aspect E)
A moving body control system according to the aspect D is used as a means for controlling the predetermined apparatus in a moving body such as the own vehicle 100 that moves by mounting the predetermined apparatus such as the wiper 107. .
According to this, since the fall of the detection accuracy of the deposit | attachment by a light-receiving part becoming a saturated state is suppressed, the mobile body which can control a predetermined | prescribed apparatus appropriately can be provided.

100 自車両
101 撮像ユニット
102 画像解析ユニット
105 フロントガラス
106 ワイパー制御ユニット
107 ワイパー
200 雨滴検出装置
201 撮像部
202 光照射部
203 雨滴量情報算出部
204 導光部
210 光学フィルタ
211 赤外光カットフィルタ領域
212 赤外光透過フィルタ領域
213 車両検出用画像領域
214 雨滴検出用画像領域
301 画像格納メモリ
302 不使用画素特定部
303 差分画像生成部
304 雨滴量算出部
305 メモリ
DESCRIPTION OF SYMBOLS 100 Own vehicle 101 Imaging unit 102 Image analysis unit 105 Windshield 106 Wiper control unit 107 Wiper 200 Raindrop detection apparatus 201 Imaging part 202 Light irradiation part 203 Raindrop amount information calculation part 204 Light guide part 210 Optical filter 211 Infrared light cut filter area | region 212 Infrared light transmission filter region 213 Vehicle detection image region 214 Raindrop detection image region 301 Image storage memory 302 Unused pixel specifying unit 303 Difference image generation unit 304 Raindrop amount calculation unit 305 Memory

特開2005−195566号公報JP-A-2005-195 566 特開2008−64630号公報JP 2008-64630 A

Claims (5)

複数の受光部を二次元方向に配置してなる撮像手段を用いて、光源からの光が照射される光透過部材の付着物観測部分を撮像して得られる撮像画像から、該付着物観測部分に付着している付着物を検出する付着物検出処理を実行する検出処理手段を備えた付着物検出装置において、
前記光源から光を照射したときの付着物観測部分の撮像画像の中から、前記撮像手段における所定の閾値以上の受光量を受光している受光部に対応した撮像画像部分を不使用画像部分として特定する不使用画像部分特定手段を有し、
前記検出処理手段は、前記不使用画像部分特定手段により特定された不使用画像部分を除いた撮像画像部分を前記付着物検出処理の対象として、前記撮像手段によって前記付着物観測部分を互いに異なる撮像時期に撮像した2つの撮像画像間における画素値差に基づいて付着物を検出することを特徴とする付着物検出装置。
Using an imaging means in which a plurality of light receiving parts are arranged in a two-dimensional direction, from the captured image obtained by imaging the adhered observation part of the light transmitting member irradiated with light from the light source, the adhered observation part In the adhering matter detection apparatus provided with the detection processing means for executing the adhering matter detection process for detecting the adhering matter adhering to the
Among the captured images of the adhering matter observation portion when light is irradiated from the light source, the captured image portion corresponding to the light receiving portion that receives the received light amount equal to or larger than the predetermined threshold in the imaging means is set as an unused image portion. A non-use image part specifying means for specifying,
The detection processing means takes the imaged image portion excluding the unused image portion specified by the unused image portion specifying means as the target for the attached matter detection processing, and the imaging means picks up the different attachment observation portions from each other. An adhering matter detection apparatus that detects an adhering matter based on a pixel value difference between two captured images taken at a time.
請求項1の付着物検出装置において、
前記2つの撮像画像は、それぞれ、前記光源から光を照射したときの付着物観測部分を撮像した照明時撮像画像と該照明時撮像画像の撮像時期に前後して該光源から光を照射していないときの付着物観測部分を撮像した非照明時撮像画像との差分画像であることを特徴とする付着物検出装置。
The deposit detection apparatus according to claim 1,
The two picked-up images are respectively irradiated with light from the light source before and after the picked-up image of the image of the observed portion of the deposit when the light is irradiated from the light source A deposit detection apparatus, which is a difference image from a non-illuminated captured image obtained by imaging a deposit observation portion when there is not.
請求項1又は2の付着物検出装置において、
前記2つの撮像画像は、前記光源から照射される光を選択的に透過させる光学フィルタを介して撮像されたものであることを特徴とする付着物検出装置。
In the deposit detection apparatus according to claim 1 or 2,
The two picked-up images are picked-up through an optical filter that selectively transmits light emitted from the light source.
移動体における光透過部材の付着物観測部分に付着する付着物を検出する付着物検出手段と、
前記付着物検出手段の検出結果に基づいて、前記移動体に搭載された所定の機器を制御する移動体機器制御手段とを備えた移動体機器制御システムにおいて、
前記付着物検出手段として、請求項1乃至4のいずれか1項に記載の付着物検出装置を用いたことを特徴とする移動体機器制御システム。
An adhering matter detecting means for detecting an adhering matter adhering to the adhering matter observation portion of the light transmitting member in the moving body;
In a mobile device control system comprising a mobile device control means for controlling a predetermined device mounted on the mobile based on the detection result of the attached matter detection means,
A mobile device control system using the deposit detection device according to claim 1 as the deposit detection means.
所定の機器を搭載して移動する移動体において、
前記所定の機器を制御する手段として、請求項4の移動体機器制御システムを用いたことを特徴とする移動体。
In a moving body that carries predetermined equipment and moves,
A moving body using the moving body apparatus control system according to claim 4 as means for controlling the predetermined apparatus.
JP2013112300A 2013-05-28 2013-05-28 Attachment detection device, moving body apparatus control system, and moving body Pending JP2014232026A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013112300A JP2014232026A (en) 2013-05-28 2013-05-28 Attachment detection device, moving body apparatus control system, and moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013112300A JP2014232026A (en) 2013-05-28 2013-05-28 Attachment detection device, moving body apparatus control system, and moving body

Publications (1)

Publication Number Publication Date
JP2014232026A true JP2014232026A (en) 2014-12-11

Family

ID=52125501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013112300A Pending JP2014232026A (en) 2013-05-28 2013-05-28 Attachment detection device, moving body apparatus control system, and moving body

Country Status (1)

Country Link
JP (1) JP2014232026A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019214267A (en) * 2018-06-12 2019-12-19 株式会社デンソー Vehicle cleaning device
CN113227840A (en) * 2018-12-27 2021-08-06 株式会社电装 Object detection device and object detection method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003315256A (en) * 2002-04-23 2003-11-06 Mitsubishi Electric Corp Foreign matter detecting device for surface of light transmission body
JP2005195569A (en) * 2003-08-12 2005-07-21 Hitachi Ltd Image processing system
JP2008046917A (en) * 2006-08-17 2008-02-28 Nohmi Bosai Ltd Smoke detection device
JP2008064630A (en) * 2006-09-07 2008-03-21 Hitachi Ltd Vehicle imager with deposit sensing function
JP2012222704A (en) * 2011-04-12 2012-11-12 Olympus Corp Imaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003315256A (en) * 2002-04-23 2003-11-06 Mitsubishi Electric Corp Foreign matter detecting device for surface of light transmission body
JP2005195569A (en) * 2003-08-12 2005-07-21 Hitachi Ltd Image processing system
JP2008046917A (en) * 2006-08-17 2008-02-28 Nohmi Bosai Ltd Smoke detection device
JP2008064630A (en) * 2006-09-07 2008-03-21 Hitachi Ltd Vehicle imager with deposit sensing function
JP2012222704A (en) * 2011-04-12 2012-11-12 Olympus Corp Imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019214267A (en) * 2018-06-12 2019-12-19 株式会社デンソー Vehicle cleaning device
WO2019239660A1 (en) * 2018-06-12 2019-12-19 株式会社デンソー Cleaning device for vehicle
JP6992682B2 (en) 2018-06-12 2022-01-13 株式会社デンソー Vehicle cleaning equipment
CN113227840A (en) * 2018-12-27 2021-08-06 株式会社电装 Object detection device and object detection method

Similar Documents

Publication Publication Date Title
JP5999483B2 (en) Adhering matter detection device and in-vehicle device control device
JP6468482B2 (en) IMAGING DEVICE, OBJECT DETECTION DEVICE, AND MOBILE DEVICE CONTROL SYSTEM
US9726604B2 (en) Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices
JP5846485B2 (en) Adhering matter detection apparatus and adhering matter detection method
JP6380843B2 (en) Object detection apparatus, mobile device control system including the same, and object detection program
JP5561333B2 (en) Image processing apparatus, imaging method, program, and vehicle
KR100874461B1 (en) External lighting control device of vehicle and automatic control device of vehicle
JP4327024B2 (en) Image processing system
JP2005195566A (en) Image processing system
JP2010223685A (en) Imaging apparatus for vehicle
JP6555569B2 (en) Image processing apparatus, mobile device control system, and image processing program
JP2014232026A (en) Attachment detection device, moving body apparatus control system, and moving body
JP6098575B2 (en) Imaging unit, image processing apparatus, and vehicle
JP2016146583A (en) Imaging device, mobile apparatus control system and program
JP2015028427A (en) Adhered substance detection device, moving body device control system, moving body, and program for detecting adhered substance
JP2014235079A (en) Deposit detection device, mobile object equipment control system and mobile object
JP5891723B2 (en) Imaging method and imaging unit
JP2010208451A (en) Imaging apparatus for vehicle
JP6701542B2 (en) Detection device, mobile device control system, and detection program
JP2017003531A (en) Object detection device, object removal operation control system, object detection method, and object detection program
JP6566308B2 (en) Adhering matter detection apparatus, mobile device control system, adhering matter detection program, and adhering matter detection method
JP2015169567A (en) Deposit detection device, mobile device control system, and deposit detection program
JP2016218046A (en) Object detection device, object removal operation control system, object detection method, and program for object detection
JP2016076916A (en) Imaging apparatus, imaging method, program, and mobile apparatus control system
KR20190034919A (en) Apparatus and method for controlling automotive lamps

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170714