JP6817104B2 - Adhesion detection device, deposit detection method - Google Patents

Adhesion detection device, deposit detection method Download PDF

Info

Publication number
JP6817104B2
JP6817104B2 JP2017031488A JP2017031488A JP6817104B2 JP 6817104 B2 JP6817104 B2 JP 6817104B2 JP 2017031488 A JP2017031488 A JP 2017031488A JP 2017031488 A JP2017031488 A JP 2017031488A JP 6817104 B2 JP6817104 B2 JP 6817104B2
Authority
JP
Japan
Prior art keywords
detection
unit
water droplets
pixel
deposit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017031488A
Other languages
Japanese (ja)
Other versions
JP2018072312A (en
Inventor
修久 池田
修久 池田
河野 貴
貴 河野
信徳 朝山
信徳 朝山
山本 大輔
大輔 山本
谷 泰司
泰司 谷
橋本 順次
順次 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to US15/723,588 priority Critical patent/US10552706B2/en
Publication of JP2018072312A publication Critical patent/JP2018072312A/en
Application granted granted Critical
Publication of JP6817104B2 publication Critical patent/JP6817104B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、付着物検出装置および付着物検出方法に関する。 The present invention relates to a deposit detection device and a deposit detection method.

従来、例えば車両に取り付けられたカメラのレンズに付着した雨滴等の水滴を検出する付着物検出装置がある。かかる付着物検出装置は、撮像画像から付着物のエッジを抽出し、レンズに付着した水滴を検出している(たとえば、特許文献1参照)。 Conventionally, for example, there is an deposit detection device that detects water droplets such as raindrops adhering to the lens of a camera attached to a vehicle. Such a deposit detecting device extracts the edge of the deposit from the captured image and detects water droplets adhering to the lens (see, for example, Patent Document 1).

特開2010−14494号公報Japanese Unexamined Patent Publication No. 2010-14494

しかしながら、従来技術では、例えば付着した水滴に光が反射する場合や、水滴の形状などによっては水滴の検出精度が低下するおそれがあり、水滴の検出精度を向上させるうえで更なる改善の余地があった。 However, in the prior art, for example, when light is reflected by the attached water droplet or the shape of the water droplet may reduce the detection accuracy of the water droplet, there is room for further improvement in improving the detection accuracy of the water droplet. there were.

本発明は、上記に鑑みてなされたものであって、水滴の検出精度を向上させることができる付着物検出装置および付着物検出方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a deposit detection device and a deposit detection method capable of improving the detection accuracy of water droplets.

上述した課題を解決し、目的を達成するために、本発明は、付着物検出装置において、抽出部と、変換部と、マッチング部と、検出部とを備える。抽出部は、撮像装置によって撮像された撮像画像に含まれる各画素のエッジ情報を抽出する。変換部は、前記抽出部によって抽出された前記エッジ情報に基づいて前記各画素を所定のデータ形式に変換する。マッチング部は、前記変換部によって前記データ形式に変換された前記各画素と、水滴を示す当該データ形式のテンプレートとのマッチング処理を行う。検出部は、前記マッチング部によるマッチング結果に基づいて前記撮像装置に付着した水滴を検出する。 In order to solve the above-mentioned problems and achieve the object, the present invention includes an extraction unit, a conversion unit, a matching unit, and a detection unit in the deposit detection device. The extraction unit extracts the edge information of each pixel included in the captured image captured by the imaging device. The conversion unit converts each pixel into a predetermined data format based on the edge information extracted by the extraction unit. The matching unit performs matching processing between each pixel converted into the data format by the conversion unit and a template of the data format indicating water droplets. The detection unit detects water droplets adhering to the image pickup apparatus based on the matching result of the matching unit.

本発明に係る付着物検出装置によれば、水滴の検出精度を向上させることができる。 According to the deposit detection device according to the present invention, the accuracy of detecting water droplets can be improved.

図1は、付着物検出方法の概要を示す図である。FIG. 1 is a diagram showing an outline of a deposit detection method. 図2は、第1の実施形態に係る付着物検出装置のブロック図である。FIG. 2 is a block diagram of the deposit detection device according to the first embodiment. 図3は、2値化閾値を示す図である。FIG. 3 is a diagram showing a binarization threshold. 図4は、第1の実施形態に係るテンプレートの一例を示す図である。FIG. 4 is a diagram showing an example of a template according to the first embodiment. 図5は、テンプレートの走査位置を示す図である。FIG. 5 is a diagram showing scanning positions of the template. 図6は、マッチング部によるマッチング処理の一例を示す図である。FIG. 6 is a diagram showing an example of matching processing by the matching unit. 図7Aは、検出部による検出処理を示す図(その1)である。FIG. 7A is a diagram (No. 1) showing the detection process by the detection unit. 図7Bは、検出部による検出処理を示す図(その2)である。FIG. 7B is a diagram (No. 2) showing the detection process by the detection unit. 図7Cは、検出部による検出処理を示す図(その3)である。FIG. 7C is a diagram (No. 3) showing the detection process by the detection unit. 図7Dは、検出部による検出処理を示す図(その4)である。FIG. 7D is a diagram (No. 4) showing the detection process by the detection unit. 図8は、第1の実施形態に係る付着物検出装置が実行する処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure executed by the deposit detection device according to the first embodiment. 図9は、第2の実施形態に係る付着物検出装置のブロック図である。FIG. 9 is a block diagram of the deposit detection device according to the second embodiment. 図10は、抽出範囲を示す図である。FIG. 10 is a diagram showing an extraction range. 図11Aは、ベクトルの算出方法を示す図である。FIG. 11A is a diagram showing a vector calculation method. 図11Bは、パラメータ情報の一例を示す図である。FIG. 11B is a diagram showing an example of parameter information. 図12は、第2の実施形態に係るテンプレートの一例を示す図である。FIG. 12 is a diagram showing an example of a template according to the second embodiment. 図13は、第2の実施形態に係る検出閾値を示す図である。FIG. 13 is a diagram showing a detection threshold value according to the second embodiment. 図14は、第2の実施形態に係る付着物検出装置が実行する処理手順を示すフローチャートである。FIG. 14 is a flowchart showing a processing procedure executed by the deposit detection device according to the second embodiment. 図15は、第3の実施形態に係る付着物検出装置のブロック図である。FIG. 15 is a block diagram of the deposit detection device according to the third embodiment. 図16Aは、代表値の算出方法を説明する図(その1)である。FIG. 16A is a diagram (No. 1) for explaining a method of calculating a representative value. 図16Bは、代表値の算出方法を説明する図(その2)である。FIG. 16B is a diagram (No. 2) for explaining a method of calculating a representative value. 図17Aは、第3の実施形態に係るテンプレートの一例を示す図である。FIG. 17A is a diagram showing an example of a template according to the third embodiment. 図17Bは、第3の実施形態に係るマッチング部によるマッチング処理の一例を示す図である。FIG. 17B is a diagram showing an example of matching processing by the matching unit according to the third embodiment. 図18は、第3の実施形態に係る検出部による検出処理を示す図である。FIG. 18 is a diagram showing a detection process by the detection unit according to the third embodiment. 図19は、第3の実施形態に係る検出部による検出処理の除外例を示す図である。FIG. 19 is a diagram showing an example of exclusion of the detection process by the detection unit according to the third embodiment. 図20は、第3の実施形態に係る付着物検出装置が実行する処理手順を示すフローチャートである。FIG. 20 is a flowchart showing a processing procedure executed by the deposit detection device according to the third embodiment. 図21は、第4の実施形態に係る付着物除去システムのブロック図である。FIG. 21 is a block diagram of the deposit removing system according to the fourth embodiment. 図22Aは、付着物検出部からの通知内容の一例を示す図である。FIG. 22A is a diagram showing an example of the content of notification from the deposit detection unit. 図22Bは、検出情報DBに含まれる検出エリアに関するデータ内容の一例を示す図である。FIG. 22B is a diagram showing an example of data contents relating to the detection area included in the detection information DB. 図22Cは、検出エリアの状態の説明図である。FIG. 22C is an explanatory diagram of the state of the detection area. 図23Aは、アルゴリズム間重なり判定部の処理説明図(その1)である。FIG. 23A is a processing explanatory diagram (No. 1) of the inter-algorithm overlap determination unit. 図23Bは、アルゴリズム間重なり判定部の処理説明図(その2)である。FIG. 23B is a processing explanatory diagram (No. 2) of the inter-algorithm overlap determination unit. 図23Cは、アルゴリズム間重なり判定部の処理説明図(その3)である。FIG. 23C is a processing explanatory diagram (No. 3) of the inter-algorithm overlap determination unit. 図23Dは、フレーム間重なり判定部および付着判定部の処理説明図である。FIG. 23D is a processing explanatory view of the frame-to-frame overlap determination unit and the adhesion determination unit. 図24Aは、フレーム間重なり判定部の処理説明図(その1)である。FIG. 24A is a processing explanatory diagram (No. 1) of the frame-to-frame overlap determination unit. 図24Bは、フレーム間重なり判定部の処理説明図(その2)である。FIG. 24B is a processing explanatory diagram (No. 2) of the frame-to-frame overlap determination unit. 図24Cは、フレーム間重なり判定部の処理説明図(その3)である。FIG. 24C is a processing explanatory diagram (No. 3) of the frame-to-frame overlap determination unit. 図24Dは、フレーム間重なり判定部および付着判定部の処理説明図である。FIG. 24D is a processing explanatory view of the frame-to-frame overlap determination unit and the adhesion determination unit. 図24Eは、除去要否判定部の処理説明図である。FIG. 24E is a processing explanatory view of the removal necessity determination unit. 図25は、第4の実施形態に係る付着物除去システムが実行する処理手順を示すフローチャートである。FIG. 25 is a flowchart showing a processing procedure executed by the deposit removing system according to the fourth embodiment.

以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、以下では、付着物として撮像装置であるカメラに付着した水滴を検出する場合について説明する。 Hereinafter, embodiments of the deposit detection device and the deposit detection method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to this embodiment. Further, a case of detecting water droplets adhering to a camera, which is an imaging device, as adhering matter will be described below.

まず、図1を用いて本願の開示する付着物検出方法の概要について説明する。図1は、付着物検出方法の概要を示す図である。 First, the outline of the deposit detection method disclosed in the present application will be described with reference to FIG. FIG. 1 is a diagram showing an outline of a deposit detection method.

同図に示すように、付着物検出方法では、まず、カメラ画像Lからエッジ情報を抽出する(ステップS1)。ここで、エッジ情報とは、例えば、カメラ画像Lにおける各画素の図中横方向(X軸方向)および縦方向(Y軸方向)の輝度の勾配を示す。 As shown in the figure, in the deposit detection method, first, edge information is extracted from the camera image L (step S1). Here, the edge information indicates, for example, the gradient of the brightness of each pixel in the camera image L in the horizontal direction (X-axis direction) and the vertical direction (Y-axis direction).

その後、付着物検出方法では、かかるエッジ情報に基づいてカメラ画像Lにおける各画素を所定のデータ形式へ変換する(ステップS2)。ここで、本願の開示する付着物検出方法では、エッジ情報に基づいて各画素を所定のデータ形式へ変換することで、水滴の検出精度を向上させることにしている。 After that, in the deposit detection method, each pixel in the camera image L is converted into a predetermined data format based on the edge information (step S2). Here, in the deposit detection method disclosed in the present application, the accuracy of detecting water droplets is improved by converting each pixel into a predetermined data format based on the edge information.

具体的には、カメラ画像Lにおける各画素のエッジ強度に基づいて各画素を2値化する。これにより、カメラ画像Lに写る水滴の輝度のムラの影響を受けにくくすることができる。すなわち、光が反射する水滴を精度よく検出することができる。この点の詳細については、図2〜図8を用いて第1の実施形態として説明する。 Specifically, each pixel is binarized based on the edge strength of each pixel in the camera image L. As a result, it is possible to reduce the influence of uneven brightness of water droplets captured in the camera image L. That is, it is possible to accurately detect water droplets that reflect light. Details of this point will be described as the first embodiment with reference to FIGS. 2 to 8.

また、本願の開示する付着物検出方法では、カメラ画像Lにおける各画素のエッジ向きと反対のエッジ向き同士が1の補数の関係となるパラメータを用いて各画素を所定のデータ形式に変換する。 Further, in the deposit detection method disclosed in the present application, each pixel is converted into a predetermined data format by using a parameter in which the edge orientation opposite to the edge orientation of each pixel in the camera image L is a one's complement relationship.

これにより、各画素のエッジ向きの違いを鮮明にすることができる。このため、マッチング処理における認識精度を向上させることが可能となる。この点の詳細については、図9〜図14を用いて第2の実施形態として説明する。 As a result, the difference in edge orientation of each pixel can be made clear. Therefore, it is possible to improve the recognition accuracy in the matching process. Details of this point will be described as a second embodiment with reference to FIGS. 9 to 14.

また、本願の開示する付着物検出方法では、カメラ画像Lにおける各画素のエッジ向きにそれぞれ対応する符号を割り当てることにより、各画素を符号化する。 Further, in the deposit detection method disclosed in the present application, each pixel is encoded by assigning a corresponding code to the edge direction of each pixel in the camera image L.

かかる場合に、水滴を示す符号列との正規表現を用いたマッチング処理を行う。これにより、カメラ画像Lにおいて、例えば、水滴に内包される矩形の各辺の符号列を抽出することが可能となる。 In such a case, a matching process using a regular expression with a code string indicating a water droplet is performed. As a result, in the camera image L, for example, it is possible to extract the code string of each side of the rectangle included in the water droplet.

また、抽出された符号列の組み合わせにより、カメラに付着した水滴を検出することで、カメラ画像Lから見切れた水滴など、不定形状の水滴を検出することが可能となる。この点の詳細については、図15〜図20を用いて第3の実施形態として説明する。 Further, by detecting water droplets adhering to the camera by combining the extracted code strings, it is possible to detect water droplets having an irregular shape such as water droplets that have been cut off from the camera image L. Details of this point will be described as a third embodiment with reference to FIGS. 15 to 20.

そして、付着物検出方法では、変換した各画素と、水滴を示すテンプレートとのマッチング処理を行い(ステップS3)、マッチング結果に基づいてカメラに付着した水滴を検出する(ステップS4)。なお、同図に示すカメラ画像L1では、付着物検出方法により水滴を検出した箇所に印Mをつけて示している。 Then, in the deposit detection method, matching processing is performed between each converted pixel and the template showing the water droplet (step S3), and the water droplet attached to the camera is detected based on the matching result (step S4). In the camera image L1 shown in the figure, a mark M is attached to a portion where water droplets are detected by the deposit detection method.

このように、本願の開示する付着物検出方法では、エッジ情報に基づいてカメラ画像Lにおける各画素を所定のデータ形式に変換し、かかるデータ形式のテンプレートを用いたマッチング処理によってカメラに付着した水滴を検出する。 As described above, in the deposit detection method disclosed in the present application, each pixel in the camera image L is converted into a predetermined data format based on the edge information, and water droplets adhered to the camera by the matching process using the template of the data format. Is detected.

したがって、本願の開示する付着物検出方法によれば、水滴の検出精度を向上させることができる。 Therefore, according to the deposit detection method disclosed in the present application, the accuracy of detecting water droplets can be improved.

なお、本願の開示する付着物検出方法では、マッチング処理の走査位置に応じて水滴の異なる部分の部分形状を示すテンプレートを用いることにしている。この点の詳細については、図4および図5を用いて後述する。 In the deposit detection method disclosed in the present application, a template showing a partial shape of a portion of water droplets different depending on the scanning position of the matching process is used. Details of this point will be described later with reference to FIGS. 4 and 5.

また、第1〜第3の実施形態に係る付着物検出装置による検出結果を組み合わせて水滴を検出することで、検出精度をさらに向上させることができる。かかる点の詳細については、図21〜図25を用いて第4の実施形態にて詳細に説明する。 Further, the detection accuracy can be further improved by detecting water droplets by combining the detection results by the deposit detection device according to the first to third embodiments. The details of this point will be described in detail in the fourth embodiment with reference to FIGS. 21 to 25.

(第1の実施形態)
次に、第1の実施形態に係る付着物検出装置1の構成について説明する。図2は、第1の実施形態に係る付着物検出装置1のブロック図である。なお、図2には、カメラ10および付着物除去装置11を併せて示している。
(First Embodiment)
Next, the configuration of the deposit detection device 1 according to the first embodiment will be described. FIG. 2 is a block diagram of the deposit detection device 1 according to the first embodiment. Note that FIG. 2 also shows the camera 10 and the deposit removing device 11.

同図に示すように、付着物検出装置1は、例えば、付着物除去装置11および4台のカメラ10に接続される。 As shown in the figure, the deposit detecting device 1 is connected to, for example, the deposit removing device 11 and the four cameras 10.

4台の各カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、例えば車両の前方、後方、右側方および左側方を撮像する位置にそれぞれ取り付けられる。なお、付着物検出装置1をカメラ10ごとにそれぞれ設けることとしてもよい。 Each of the four cameras 10 is equipped with an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and is attached to a position for photographing the front, rear, right side, and left side of the vehicle, respectively. Be done. It should be noted that the deposit detection device 1 may be provided for each camera 10.

付着物除去装置11は、付着物検出装置1の検出結果に基づき、カメラ10に付着した水滴を除去する。付着物除去装置11は、例えば圧縮した空気をカメラ10へ向けて噴出し水滴を除去する。なお、付着物除去装置11は、例えばウォッシャ液をカメラ10へ向けて噴出させたり、カメラワイパでカメラ10を拭ったりしてもよい。 The deposit removing device 11 removes water droplets adhering to the camera 10 based on the detection result of the deposit detecting device 1. The deposit removing device 11 ejects compressed air, for example, toward the camera 10 to remove water droplets. The deposit removing device 11 may, for example, eject the washer fluid toward the camera 10 or wipe the camera 10 with a camera wiper.

第1の実施形態に係る付着物検出装置1は、制御部2と、記憶部3とを備える。制御部2は、画像取得部21と、抽出部22と、変換部23と、マッチング部24と、検出部25とを備える。また、記憶部3は、2値化閾値情報31と、テンプレート情報32と、検出情報33とを記憶する。 The deposit detection device 1 according to the first embodiment includes a control unit 2 and a storage unit 3. The control unit 2 includes an image acquisition unit 21, an extraction unit 22, a conversion unit 23, a matching unit 24, and a detection unit 25. Further, the storage unit 3 stores the binarization threshold information 31, the template information 32, and the detection information 33.

制御部2は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。 The control unit 2 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), an input / output port, and various circuits.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の画像取得部21、抽出部22、変換部23、マッチング部24および検出部25として機能する。 The CPU of the computer functions as an image acquisition unit 21, an extraction unit 22, a conversion unit 23, a matching unit 24, and a detection unit 25 of the control unit 2, for example, by reading and executing a program stored in the ROM.

また、制御部2の画像取得部21、抽出部22、変換部23、マッチング部24および検出部25の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 Further, at least one or all of the image acquisition unit 21, the extraction unit 22, the conversion unit 23, the matching unit 24, and the detection unit 25 of the control unit 2 are ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). It can also be configured with hardware such as.

また、記憶部3は、たとえば、RAMやHDDに対応する。RAMやHDDは、2値化閾値情報31、テンプレート情報32および検出情報33や各種プログラムの情報を記憶することができる。 Further, the storage unit 3 corresponds to, for example, a RAM or an HDD. The RAM or HDD can store the binarization threshold information 31, the template information 32, the detection information 33, and information on various programs.

なお、付着物検出装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 The deposit detection device 1 may acquire the above-mentioned program and various information via another computer or a portable recording medium connected by a wired or wireless network.

画像取得部21は、カメラ10からカメラ画像を取得し、かかるカメラ画像をグレースケール化することによりグレースケール画像に変換する。また、画像取得部21は、グレースケール画像を抽出部22へ出力する。 The image acquisition unit 21 acquires a camera image from the camera 10 and converts the camera image into a grayscale image by grayscale it. Further, the image acquisition unit 21 outputs a grayscale image to the extraction unit 22.

なお、グレースケール化とは、カメラ画像における各画素を輝度に応じて白から黒までの各階調で表現するように変換する処理である。なお、かかるグレースケール化処理を省略することにしてもよい。 The grayscale conversion is a process of converting each pixel in the camera image so as to be expressed in each gradation from white to black according to the brightness. The grayscale processing may be omitted.

抽出部22は、画像取得部21から入力されるグレースケール画像にソベルフィルタを用いることで、グレースケール画像における各画素のエッジ情報を抽出する。ここで、エッジ情報とは、各画素のX軸方向およびY軸方向におけるエッジ強度を指す。 The extraction unit 22 extracts the edge information of each pixel in the grayscale image by using a sobel filter for the grayscale image input from the image acquisition unit 21. Here, the edge information refers to the edge strength of each pixel in the X-axis direction and the Y-axis direction.

また、抽出部22は、抽出したエッジ情報をグレースケール画像に対応付けて変換部23に出力する。なお、抽出部22は、ソベルフィルタに代えて例えばラプラシアンフィルタ等の他のエッジ抽出法を用いることにしてもよい。 Further, the extraction unit 22 associates the extracted edge information with the grayscale image and outputs it to the conversion unit 23. The extraction unit 22 may use another edge extraction method such as a Laplacian filter instead of the sobel filter.

変換部23は、抽出部22から入力される各画素のエッジ情報に基づき、グレースケール画像を2値化する。具体的には、まず、変換部23は、エッジ情報であるX軸方向およびY軸方向のエッジ強度をそれぞれ2乗した後に加算した値を各画素のエッジ量として算出する。 The conversion unit 23 binarizes the grayscale image based on the edge information of each pixel input from the extraction unit 22. Specifically, first, the conversion unit 23 calculates the edge amount of each pixel as the value obtained by squaring the edge strengths in the X-axis direction and the Y-axis direction, which are edge information, and then adding them.

続いて、変換部23は、算出したエッジ量が後述の2値化閾値THa以上となる画素を「1」とし、2値化閾値THa以下となる画素を「0」とすることで、グレースケール画像を2値化する。 Subsequently, the conversion unit 23 sets the pixel in which the calculated edge amount is equal to or greater than the binarization threshold THa, which will be described later, to be “1”, and sets the pixel in which the calculated edge amount is equal to or less than the binarization threshold to “0” to grayscale. Binarize the image.

このように、変換部23は、エッジ量に基づいて各画素を2値化することでノイズの影響を排除することができる。このため、水滴の検出精度を向上させることができる。また、2値化することで水滴のエッジを全て等価にする。このため、マッチング部24による処理負荷を抑えることができる。 In this way, the conversion unit 23 can eliminate the influence of noise by binarizing each pixel based on the edge amount. Therefore, the accuracy of detecting water droplets can be improved. Also, by binarizing, all the edges of water droplets are made equivalent. Therefore, the processing load of the matching unit 24 can be suppressed.

なお、以下では、エッジ量に基づいて2値化する場合について説明するが、エッジ強度とエッジ量とは相関関係にある。このため、エッジ量に基づいて2値化することと、エッジ強度に基づいて2値化することとは同義である。 In the following, the case of binarization based on the edge amount will be described, but the edge strength and the edge amount have a correlation. Therefore, binarization based on the edge amount is synonymous with binarization based on the edge strength.

そして、変換部23は、各画素を2値化した画像(以下、2値化画像という)をマッチング部24へ出力する。ここで、第1の実施形態に係る付着物検出装置1では、2値化閾値THaの値をカメラ10の周囲環境に応じて動的に設定することにしている。この点の詳細については、図3を用いて後述する。 Then, the conversion unit 23 outputs a binarized image of each pixel (hereinafter referred to as a binarized image) to the matching unit 24. Here, in the deposit detection device 1 according to the first embodiment, the value of the binarization threshold value THa is dynamically set according to the surrounding environment of the camera 10. Details of this point will be described later with reference to FIG.

なお、変換部23は、「黒」、「白」以外にも「1」、「0」や他の文字や図形等を用いてグレースケール画像を2値化することにしてもよい。 In addition to "black" and "white", the conversion unit 23 may use "1", "0", other characters, figures, and the like to binarize the grayscale image.

マッチング部24は、変換部23から入力される2値化画像と水滴の特徴を示すテンプレートとのマッチング処理によって2値化画像とテンプレートとの類似度を算出する。また、マッチング部24は、算出した類似度の値を2値化画像における各画素に対応付けて検出部25へ出力する。 The matching unit 24 calculates the degree of similarity between the binarized image and the template by matching processing between the binarized image input from the conversion unit 23 and the template showing the characteristics of water droplets. Further, the matching unit 24 outputs the calculated similarity value to the detection unit 25 in association with each pixel in the binarized image.

なお、マッチング部24による処理の詳細については図6を用いて後述する。また、テンプレートは、記憶部3にテンプレート情報32として記憶される。かかるテンプレートの詳細については図4を用いて後述する。 The details of the processing by the matching unit 24 will be described later with reference to FIG. Further, the template is stored in the storage unit 3 as template information 32. Details of such a template will be described later with reference to FIG.

検出部25は、マッチング部24から入力される類似度に基づいてカメラ10に付着した水滴を検出する。そして、検出部25は、水滴を検出した場合、付着物除去装置11や車両の自動運転を行う車両制御装置(図示略)へ通知する。 The detection unit 25 detects water droplets adhering to the camera 10 based on the similarity input from the matching unit 24. Then, when the detection unit 25 detects water droplets, it notifies the deposit removing device 11 and the vehicle control device (not shown) that automatically drives the vehicle.

これにより、例えば、付着物除去装置11では、カメラ10に付着した水滴を除去することとなる。また、車両制御装置では、かかる付着した領域を避けて例えば、白線などの認識が行われることとなる。なお、検出部25による検出処理の詳細については図7A〜7Dを用いて後述する。 As a result, for example, the deposit removing device 11 removes water droplets adhering to the camera 10. Further, in the vehicle control device, for example, a white line or the like is recognized while avoiding such an attached region. The details of the detection process by the detection unit 25 will be described later with reference to FIGS. 7A to 7D.

次に、図3を用いて変換部23による2値化閾値THaの設定方法について説明する。図3は、2値化閾値THaを示す図である。なお、図3の縦軸は、上記したエッジ量を示しており、横軸は、周囲の照度を示している。 Next, a method of setting the binarization threshold value THa by the conversion unit 23 will be described with reference to FIG. FIG. 3 is a diagram showing a binarization threshold value THa. The vertical axis of FIG. 3 indicates the above-mentioned edge amount, and the horizontal axis indicates the ambient illuminance.

図3に示すように2値化閾値THaは、例えば、周囲環境として照度に応じて動的に設定される。具体的には、2値化閾値THaは、エッジ量Saを上限とし、エッジ量Sbを下限として、例えば、周囲の照度が高いほど、2値化閾値THaが高くなるように設定される。 As shown in FIG. 3, the binarization threshold value THa is dynamically set according to the illuminance as the surrounding environment, for example. Specifically, the binarization threshold value THa is set so that the edge amount Sa is the upper limit and the edge amount Sb is the lower limit, for example, the higher the ambient illuminance, the higher the binarization threshold value THa.

また、エッジ量が2値化閾値THaよりも高い画素は、2値化画像において「白」となり、エッジ量が2値化閾値THa以下の画素は、2値化画像において「黒」で表される。 Pixels whose edge amount is higher than the binarization threshold THa are represented by "white" in the binarized image, and pixels whose edge amount is equal to or less than the binarization threshold THa are represented by "black" in the binarized image. To.

ここで、周囲の光源の光が水滴に反射する場合がある。かかる場合、水滴のエッジを示す画素のエッジ量は増加する。このとき、周囲の照度が高い、すなわち、周囲が明るいと、グレースケール画像には、水滴の他、背景の構造物や路面の白線などが写る。 Here, the light of an ambient light source may be reflected by water droplets. In such a case, the amount of edges of the pixels indicating the edges of the water droplets increases. At this time, when the ambient illuminance is high, that is, when the surroundings are bright, in addition to water droplets, background structures and white lines on the road surface appear in the grayscale image.

このため、2値化閾値THaを高い値に設定することで、水滴のエッジを示す画素のみが「白」となるようにしている。換言すると、2値化閾値THaを高い値に設定することで、不要物のエッジを効率的に除去する。 Therefore, by setting the binarization threshold value THa to a high value, only the pixel indicating the edge of the water droplet becomes “white”. In other words, by setting the binarization threshold THa to a high value, the edges of unnecessary objects are efficiently removed.

一方、照度が低い、すなわち、周囲が暗いと、グレースケール画像に不要物が写りにくい。また、水滴に光が反射すると、水滴のエッジを示す画素のエッジ量は、不要物のエッジを示す画素に比べて増加しやすい。 On the other hand, when the illuminance is low, that is, when the surroundings are dark, it is difficult for unnecessary objects to appear in the grayscale image. Further, when light is reflected by the water droplet, the edge amount of the pixel indicating the edge of the water droplet tends to increase as compared with the pixel indicating the edge of the unnecessary object.

また、光源の強さによっては、水滴のエッジ量がエッジ量Saを超えない場合がある。かかる場合に、周囲が暗い場合の2値化閾値Thaを照度が高い場合と同様の2値化閾値Thaに設定すると、水滴のエッジ量が2値化閾値THaを下回る場合があり好ましくない。 Further, depending on the intensity of the light source, the edge amount of the water droplet may not exceed the edge amount Sa. In such a case, if the binarization threshold Tha when the surroundings are dark is set to the same binarization threshold Tha as when the illuminance is high, the edge amount of the water droplet may be lower than the binarization threshold THa, which is not preferable.

これらのことより、周囲が暗い場合、2値化閾値THaを照度が高い場合よりも低い値に設定することで、光が反射する水滴のエッジを示す画素のみが「白」となるようにしている。換言すると、暗い場合は、光源の強さによらず、水滴のエッジを効率よく抽出することができる。 From these facts, when the surroundings are dark, the binarization threshold THa is set to a value lower than when the illuminance is high so that only the pixel indicating the edge of the water droplet on which light is reflected becomes "white". There is. In other words, when it is dark, the edges of water droplets can be efficiently extracted regardless of the intensity of the light source.

このように、第1の実施形態に係る付着物検出装置1では、周囲の状況に応じて2値化閾値THaを動的に設定することで、水滴のエッジのみを効率よく抽出することができる。 As described above, in the deposit detection device 1 according to the first embodiment, by dynamically setting the binarization threshold value THa according to the surrounding conditions, only the edge of the water droplet can be efficiently extracted. ..

これにより、従来検出が困難であった夜間において、光が反射した水滴の検出や、昼間に強い光源が存在する場合における水滴の検出を精度よく行うことが可能となる。なお、変換部23は、同図に示すように2値化閾値THaの値を例えば昼間と夜間で、それぞれエッジ量Saおよびエッジ量Sbに設定する。 This makes it possible to accurately detect water droplets reflected by light at night, which was difficult to detect in the past, and water droplets when a strong light source is present in the daytime. As shown in the figure, the conversion unit 23 sets the value of the binarization threshold value THa to the edge amount Sa and the edge amount Sb, respectively, in the daytime and at nighttime, respectively.

かかる昼間と夜間の判別方法として、例えば、時間帯に応じて昼間と夜間とを判別する方法や、車両のヘッドライトに連動して昼間と夜間とを判別する方法を用いることができる。 As such a method of discriminating between daytime and nighttime, for example, a method of discriminating between daytime and nighttime according to the time zone, and a method of discriminating between daytime and nighttime in conjunction with the headlight of the vehicle can be used.

例えば、変換部23は、ヘッドライトがONである場合、2値化閾値THaの値をエッジ量Sbに設定し、ヘッドライトがOFFである場合に、2値化閾値THaの値をエッジ量Saに設定することができる。 For example, the conversion unit 23 sets the value of the binarization threshold value THa to the edge amount Sb when the headlight is ON, and sets the value of the binarization threshold value THa to the edge amount Sa when the headlight is OFF. Can be set to.

また、例えば、車両に照度センサを備える場合、変換部23は、かかる照度センサのセンサ値に基づいて2値化閾値THaの値を設定することもできる。 Further, for example, when the vehicle is provided with an illuminance sensor, the conversion unit 23 can set the value of the binarization threshold value THa based on the sensor value of the illuminance sensor.

かかる場合に、変換部23は、例えば、同図の破線で示すように、照度に応じて2値化閾値THaの値を順次設定することもできる。また、図示しない操作部に対するユーザ操作に応じて2値化閾値THaを切り替えることにしてもよい。 In such a case, the conversion unit 23 can sequentially set the value of the binarization threshold value THa according to the illuminance, for example, as shown by the broken line in the figure. Further, the binarization threshold value THa may be switched according to a user operation on an operation unit (not shown).

ここでは、周囲環境として照度に応じて2値化閾値THaを切り替える場合について例示したが、これに限られない。すなわち、周囲環境として位置情報に基づいて2値化閾値THaを切り替えることにしてもよい。 Here, the case where the binarization threshold value THa is switched according to the illuminance as the ambient environment has been illustrated, but the present invention is not limited to this. That is, the binarization threshold value THa may be switched based on the position information as the surrounding environment.

例えば、変換部23は、ナビゲーション装置から位置情報を取得し、例えば、立体駐車場など、車両が屋内にいる場合に2値化閾値THaを高い値に設定することにしてもよい。 For example, the conversion unit 23 may acquire the position information from the navigation device and set the binarization threshold value THa to a high value when the vehicle is indoors, for example, in a multi-storey car park.

次に、図4を用いて第1の実施形態に係るテンプレートについて説明する。図4は、第1の実施形態に係るテンプレートの一例を示す図である。同図に示すように、第1の実施形態に係る付着物検出装置1では、黒地の背景に水滴の輪郭が白抜きのテンプレートが用いられる。 Next, the template according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram showing an example of a template according to the first embodiment. As shown in the figure, in the deposit detection device 1 according to the first embodiment, a template in which the outline of water droplets is white is used on a black background.

また、同図に示すように、第1の実施形態に係る付着物検出装置1では、水滴の輪郭の特徴を示す複数のテンプレートを有する。具体的には、同図のaに示すように、水滴の輪郭が略真円状のテンプレートや、同図のb〜eに示すように、それぞれ水滴の部分形状を示す略半弧状のテンプレートを有する。 Further, as shown in the figure, the deposit detection device 1 according to the first embodiment has a plurality of templates showing the characteristics of the contour of the water droplet. Specifically, as shown in a of the figure, a template in which the outline of the water droplet is substantially circular, and as shown in b to e of the figure, a template in which the water droplet is partially arcuate. Have.

また、同図のfに示すように、テンプレートは、略真円状や略半弧状に限られず、略楕円形状であってもよい。これは、カメラ10に魚眼レンズなど凸型レンズを用いた場合、凸型レンズに付着した水滴が楕円形状となりやすいためである。 Further, as shown in f in the figure, the template is not limited to a substantially perfect circle shape or a substantially semi-arc shape, and may be a substantially elliptical shape. This is because when a convex lens such as a fisheye lens is used for the camera 10, water droplets adhering to the convex lens tend to have an elliptical shape.

このように、第1の実施形態に係る付着物検出装置1では、複数のテンプレートを用いてマッチング処理を行うことで、水滴の検出精度を向上させることができる。また、図4のb〜eに示した水滴の部分形状を示すテンプレートを用いることで、水滴が画像から見切れる場合であっても、かかる水滴を検出することが可能となる。 As described above, in the deposit detection device 1 according to the first embodiment, the accuracy of detecting water droplets can be improved by performing the matching process using a plurality of templates. Further, by using the template showing the partial shape of the water droplet shown in FIGS. 4 to e, it is possible to detect the water droplet even when the water droplet is cut off from the image.

また、第1の実施形態に係る付着物検出装置1では、テンプレートの種類(同図のa〜f)ごとにマッチング処理を行う領域を設定することにしている。この点の詳細については図5を用いて後述する。 Further, in the deposit detection device 1 according to the first embodiment, the area for performing the matching process is set for each type of template (a to f in the figure). Details of this point will be described later with reference to FIG.

なお、図4に示したテンプレートは、一例であってこれに限定されるものではない。例えば、カメラ10の形状や、水滴の液だれなどを考慮してシミュレーションや統計等によって最適なテンプレートを導出することができる。 The template shown in FIG. 4 is an example and is not limited thereto. For example, the optimum template can be derived by simulation, statistics, etc. in consideration of the shape of the camera 10 and the dripping of water droplets.

また、第1の実施形態に係る付着物検出装置1は、図4のa〜fに示したテンプレートの縮尺が異なる複数のテンプレートを有する。これにより、大きさが異なる水滴を精度よく検出することができる。なお、マッチング部24は、カメラ10の周囲環境に応じて異なる大きさのテンプレートからマッチング処理を行うこともできる。 Further, the deposit detection device 1 according to the first embodiment has a plurality of templates having different scales of the templates shown in FIGS. 4A to 4F. As a result, water droplets of different sizes can be detected with high accuracy. The matching unit 24 can also perform matching processing from templates having different sizes depending on the surrounding environment of the camera 10.

例えば、大雨のときには、大粒の雨がカメラ10に付着しやすいため、マッチング部24は、大粒の水滴用の大きなテンプレートからマッチング処理を開始し、徐々に小さなテンプレートを用いてマッチング処理を行う。 For example, when it rains heavily, a large amount of rain tends to adhere to the camera 10, so the matching unit 24 starts the matching process from a large template for large water droplets, and gradually performs the matching process using a small template.

また、小雨のときには、カメラ10に小さい水滴が付着しやすいため、小さいテンプレートからマッチング処理を開始し、徐々に大きなテンプレートを用いてマッチング処理を行う。 Further, when it is raining lightly, small water droplets are likely to adhere to the camera 10, so the matching process is started from a small template, and the matching process is gradually performed using a large template.

このようにすることで、車両の周囲状況に応じて効率よく水滴を検出することができる。また、第1の実施形態に係る付着物検出装置1では、テンプレートの大きさに応じて異なる検出閾値を設定している。この点の詳細については、図7Aを用いて後述する。 By doing so, water droplets can be efficiently detected according to the surrounding conditions of the vehicle. Further, in the deposit detection device 1 according to the first embodiment, different detection threshold values are set according to the size of the template. Details of this point will be described later with reference to FIG. 7A.

次に、図5を用いてテンプレートと走査位置との関係について説明する。図5は、テンプレートと走査位置との関係を示す図である。図5に示す領域Ra〜Reは、図4のa〜eに示したテンプレートにそれぞれ対応するものとする。 Next, the relationship between the template and the scanning position will be described with reference to FIG. FIG. 5 is a diagram showing the relationship between the template and the scanning position. The regions Ra to Re shown in FIG. 5 correspond to the templates shown in a to e of FIG. 4, respectively.

具体的には、マッチング部24は、図4のaに示した略真円状のテンプレートを2値化画像L2の中央部に位置する領域Raを走査する場合に用いる。また、図4のbに示した弧が図中下向きのテンプレートは、2値化画像L2の上部に位置する領域Rbを走査する場合に用いられる。 Specifically, the matching unit 24 is used when scanning the region Ra located at the center of the binarized image L2 using the substantially perfect circular template shown in FIG. 4a. Further, the template in which the arc shown in FIG. 4b is directed downward in the figure is used when scanning the region Rb located at the upper part of the binarized image L2.

また、図4のcに示す弧が図中上向きのテンプレートは、2値化画像L2の下部に位置する領域Rcを走査する場合に用いられる。同様に、図4のdおよびeに示した弧がそれぞれ図中左向きまたは右向きのテンプレートは、2値化画像L2の左右に位置する領域RdおよびReをそれぞれ走査する場合に用いられる。 Further, the template in which the arc shown in c of FIG. 4 points upward in the figure is used when scanning the region Rc located at the lower part of the binarized image L2. Similarly, the templates in which the arcs shown in d and e in FIG. 4 are oriented to the left or right in the figure are used when scanning the regions Rd and Re located on the left and right sides of the binarized image L2, respectively.

このように、マッチング部24は、2値化画像L2の走査位置に応じて異なるテンプレートを用いてマッチング処理を行うことができる。これにより、2値化画像L2における各領域に付着しやすい形状の水滴を効率よく検出することができる。 In this way, the matching unit 24 can perform matching processing using different templates depending on the scanning position of the binarized image L2. As a result, it is possible to efficiently detect water droplets having a shape that easily adheres to each region in the binarized image L2.

なお、マッチング部24は、全ての種類のテンプレートを2値化画像L2における全領域を走査することにしてもよい。かかる場合に、水滴の検出漏れを抑えることができる。 The matching unit 24 may scan all types of templates in the entire region of the binarized image L2. In such a case, it is possible to suppress the detection omission of water droplets.

また、カメラ10が広角レンズである場合に、カメラ画像の端ほど、水滴が歪んで表示される。このため、端に行くほど、歪んだ水滴の輪郭の特徴を示すテンプレートを用いることにしてもよい。 Further, when the camera 10 is a wide-angle lens, water droplets are distorted and displayed toward the edge of the camera image. For this reason, a template may be used that shows the characteristics of the contour of the distorted water droplet toward the edge.

次に、図6を用いてマッチング部24によるテンプレートとマッチング処理について説明する。図6は、マッチング処理の一例を示す図である。 Next, the template and the matching process by the matching unit 24 will be described with reference to FIG. FIG. 6 is a diagram showing an example of matching processing.

同図に示すように、まず、マッチング部24は、例えば、テンプレートGの左上が2値化画像L2における左上に位置する画素P1に配置する。 As shown in the figure, first, the matching unit 24 is arranged, for example, in the pixel P1 in which the upper left of the template G is located in the upper left of the binarized image L2.

続いて、マッチング部24は、かかる位置における2値化画像L2とテンプレートGとの類似度を算出する。なお、かかる類似度の算出方法については、第2の実施形態で説明するため、ここでの説明は省略する。 Subsequently, the matching unit 24 calculates the degree of similarity between the binarized image L2 and the template G at such a position. Since the method of calculating the similarity will be described in the second embodiment, the description thereof will be omitted here.

続いて、マッチング部24は、算出した類似度の値を例えば、テンプレートGの左上に位置する画素P1に格納する。その後、テンプレートGを1画素分右にずらして類似度を算出し、算出した類似度の値を画素P2に格納する。 Subsequently, the matching unit 24 stores the calculated similarity value in, for example, the pixel P1 located at the upper left of the template G. After that, the template G is shifted to the right by one pixel to calculate the similarity, and the calculated similarity value is stored in the pixel P2.

マッチング部24は、かかる類似度の算出を繰り返し、右端まで類似度の算出を終えると、テンプレートGを1画素分だけ下にずらして算出処理を繰り返すことで全ての画素について類似度の算出を行う。これにより、マッチング部24は、全ての画素について類似度の値を得る。 The matching unit 24 repeats the calculation of the similarity, and when the calculation of the similarity is completed up to the right end, the matching unit 24 calculates the similarity for all the pixels by shifting the template G downward by one pixel and repeating the calculation process. .. As a result, the matching unit 24 obtains the similarity value for all the pixels.

また、マッチング部24は、種類や大きさが異なるテンプレートについても同様に類似度の算出を行うものとする。そして、マッチング部24は、算出した類似度の値を画素の座標とあわせて検出部25へ出力する。 Further, the matching unit 24 shall similarly calculate the degree of similarity for templates having different types and sizes. Then, the matching unit 24 outputs the calculated similarity value together with the pixel coordinates to the detection unit 25.

ここで、マッチング部24は、必ずしも全ての画素について類似度の値を算出する必要はなく、例えば、所定の間隔ごとに類似度を算出するなど、類似度の算出処理を簡略化して行うことにしてもよい。このようにすることで、マッチング部24による処理負荷を軽減することができる。 Here, the matching unit 24 does not necessarily have to calculate the similarity value for all the pixels, and the similarity calculation process is simplified, for example, the similarity is calculated at predetermined intervals. You may. By doing so, the processing load by the matching unit 24 can be reduced.

また、例えば、同図に示す2値化画像L2の中央に位置する領域Rgのように、水滴検出の優先度の高い領域から類似度の値を算出することにしてもよい。このようにすることで、優先度の高い領域において、付着した水滴を素早く検出することができる。 Further, for example, the similarity value may be calculated from a region having a high priority for detecting water droplets, such as a region Rg located at the center of the binarized image L2 shown in the figure. By doing so, it is possible to quickly detect the adhering water droplet in the high priority region.

この際、2値化画像L2の上部の領域など、優先度が低い領域について、マッチング部24は、類似度を算出しないことにしてもよい。これにより、マッチング部24による処理負荷をさらに軽減することができる。 At this time, the matching unit 24 may not calculate the similarity for the region having a low priority such as the region above the binarized image L2. As a result, the processing load of the matching unit 24 can be further reduced.

さらに、例えば、マッチング部24は、優先度の高い領域について全ての画素について類似度の算出を行い、優先度の低い領域については類似度の算出処理を簡略化して行うことにしてもよい。 Further, for example, the matching unit 24 may calculate the similarity for all the pixels in the high priority region, and simplify the similarity calculation process for the low priority region.

つまり、優先度の高い領域では、精度を高くして水滴を検出し、優先度の低い領域では、精度を荒くして水滴を検出することとしてもよい。これにより、処理負荷を抑えつつ、優先度の高い領域について水滴の検出漏れを抑制することができる。 That is, in the region with high priority, the accuracy may be increased to detect water droplets, and in the region with low priority, the accuracy may be coarsened to detect water droplets. As a result, it is possible to suppress omission of detection of water droplets in a region having a high priority while suppressing the processing load.

次に、検出部25による判定処理について図7A〜図7Dを用いて説明する。図7A〜図7Dは、検出部25による判定処理を説明する図である。 Next, the determination process by the detection unit 25 will be described with reference to FIGS. 7A to 7D. 7A to 7D are diagrams for explaining the determination process by the detection unit 25.

まず、図7Aを用いてテンプレートと検出閾値との関係について説明する。同図に示すように、検出部25は、テンプレートの大きさに応じて異なる検出閾値を設けている。 First, the relationship between the template and the detection threshold will be described with reference to FIG. 7A. As shown in the figure, the detection unit 25 sets different detection threshold values according to the size of the template.

なお、かかる検出閾値は、検出部25がマッチング部24から入力される類似度の値と比較するものである。そして、検出部25は、類似度の値が検出閾値以上であれば、水滴が付着していると判定する。 The detection threshold is compared with the similarity value input from the matching unit 24 by the detection unit 25. Then, if the value of the similarity is equal to or higher than the detection threshold value, the detection unit 25 determines that water droplets are attached.

同図に示すように、第1の実施形態に係る付着物検出装置1では、テンプレートが大きいほど、検出閾値を低く設定する一方、テンプレートが小さいほど、検出閾値を高く設定するようにしている。 As shown in the figure, in the deposit detection device 1 according to the first embodiment, the larger the template, the lower the detection threshold value, while the smaller the template, the higher the detection threshold value is set.

これは、テンプレートが小さいほど、水滴以外の不要なエッジを水滴のエッジとして誤検出しやすいためである。つまり、テンプレートの大きさに応じて検出閾値を設定することで、水滴の誤検出を抑制することができる。 This is because the smaller the template, the more likely it is that unnecessary edges other than water droplets will be erroneously detected as edges of water droplets. That is, by setting the detection threshold value according to the size of the template, erroneous detection of water droplets can be suppressed.

なお、同図には、テンプレートが図4のaに対応する略真円状である場合について示したが、図4のb〜fに示した他のテンプレートについても同様である。また、テンプレートの種類に応じて異なる検出閾値を設けることにしてもよいし、あるいは、全てのテンプレートで同じ検出閾値を用いることにしてもよい。 Although the case where the template has a substantially perfect circular shape corresponding to a in FIG. 4 is shown in the figure, the same applies to the other templates shown in b to f in FIG. Further, different detection threshold values may be provided depending on the type of template, or the same detection threshold value may be used for all templates.

次に、図7Bを用いて検出部25が2値化画像L2の領域ごとに異なる検出閾値を設ける場合について説明する。上記したように、2値化画像L2の領域に応じて水滴を検出する優先度が異なる。 Next, a case where the detection unit 25 sets a different detection threshold value for each region of the binarized image L2 will be described with reference to FIG. 7B. As described above, the priority for detecting water droplets differs depending on the region of the binarized image L2.

そこで、第1の実施形態に係る付着物検出装置1では、2値化画像L2の領域に応じて異なる検出閾値を設けることもできる。具体的には、例えば、車両から近い位置が写る領域Rlについては、水滴検出の優先度を高く設定し、他の領域に比べて検出閾値を低く設定する。これにより、優先度の高い領域RIにおける水滴の検出漏れを抑制することができる。 Therefore, in the deposit detection device 1 according to the first embodiment, different detection threshold values can be set depending on the region of the binarized image L2. Specifically, for example, in the region Rl where a position close to the vehicle is captured, the priority of water droplet detection is set high, and the detection threshold is set lower than in other regions. As a result, it is possible to suppress omission of detection of water droplets in the high-priority region RI.

一方、車両から遠い位置が写る領域Rhについては、水滴検出の優先度を低く設定し、検出閾値を高く設定する。また、領域Rlおよび領域Rhの間に位置する領域Rmについては、例えば、検出閾値が領域Rlおよび領域Rhの中間の値となるように設定する。 On the other hand, for the region Rh in which a position far from the vehicle is captured, the priority of water droplet detection is set low and the detection threshold is set high. Further, for the region Rm located between the regions Rl and Rh, for example, the detection threshold value is set to be an intermediate value between the regions Rl and the region Rh.

このように、2値化画像L2の領域に応じて異なる検出閾値を設定することで、優先度の低い領域Rhにおいて水滴の誤検出を軽減しつつ、優先度の高い領域Rlにおいて水滴を確実に検出することができる。 In this way, by setting different detection threshold values according to the region of the binarized image L2, erroneous detection of water droplets in the low priority region Rh is reduced, and water droplets are reliably generated in the high priority region Rl. Can be detected.

なお、図7Bでは、2値化画像L2を3つの領域に分割する場合について説明したが、分割する領域は、2つであっても4つ以上であってもよい。また、2値化画像L2を横方向や斜め方向や同心円状に分割して検出閾値を設定することにしてもよい。 Although the case where the binarized image L2 is divided into three regions has been described with reference to FIG. 7B, the divided regions may be two or four or more. Further, the binarized image L2 may be divided into a horizontal direction, an oblique direction, or a concentric circle to set a detection threshold value.

また、上記した各領域の優先度は一例であって、水滴の検出目的に応じて優先度を変更することにしてもよい。また、検出部25は、例えば、昼間および夜間で異なる検出閾値を設定することにしてもよい。 Further, the priority of each of the above-mentioned regions is an example, and the priority may be changed according to the purpose of detecting water droplets. Further, the detection unit 25 may set different detection threshold values in the daytime and at night, for example.

次に、図7Cを用いて検出部25が複数フレームの2値化画像L2に基づいて水滴を検出する場合について説明する。ここでは、検出部25が、例えば、図7Aおよび図7Bで既に説明した検出処理を終えた場面を示す。 Next, a case where the detection unit 25 detects water droplets based on the binarized image L2 of a plurality of frames will be described with reference to FIG. 7C. Here, for example, the detection unit 25 shows a scene in which the detection process already described with reference to FIGS. 7A and 7B has been completed.

また、同図では、枠F1〜F3が存在する領域において各枠の大きさに対応するテンプレートとの類似度が検出閾値よりも大きかったことを示す。 Further, in the figure, it is shown that the similarity with the template corresponding to the size of each frame is larger than the detection threshold value in the region where the frames F1 to F3 exist.

ここで、枠F1および枠F2のように、大きさが異なるテンプレートとの類似度が高かった領域であり、かつ、枠F1で囲われた領域内に枠F2が存在する領域がある場合、検出部25は、かかる領域を水滴が付着していると判定する。これは、1つのテンプレートで類似度が高かった場合、大きさが近い他のテンプレートでも類似度が高くなる傾向があるためである。 Here, when there is an area having a high degree of similarity with templates having different sizes, such as the frame F1 and the frame F2, and there is an area in which the frame F2 exists in the area surrounded by the frame F1, it is detected. The unit 25 determines that such a region has water droplets attached to it. This is because when one template has a high degree of similarity, the degree of similarity tends to be high in other templates having similar sizes.

また、検出部25は、例えば、枠F3のように、近接する領域に1つの枠しか存在しない場合には、上記の条件を満たさないため、かかる枠F3の領域に水滴が付着していないと判定する。上述したように、1つのテンプレートで類似度が高かった場合、大きさが近い他のテンプレートでも類似度が高くなる傾向があるため、1つのテンプレートだけで類似度が大きく、他の(大きさの近い)テンプレートで類似度が大きくなければ、ノイズなどの影響で、たまたま1つのテンプレートで類似度が高くなっただけと判断できるためである。 Further, when the detection unit 25 does not satisfy the above conditions when there is only one frame in the adjacent region, for example, the frame F3, it is said that water droplets do not adhere to the region of the frame F3. judge. As mentioned above, if one template has a high degree of similarity, the other templates that are close in size also tend to have a high degree of similarity. Therefore, only one template has a high degree of similarity and the other (size). This is because if the similarity is not high in the (close) template, it can be judged that the similarity is high in one template due to the influence of noise or the like.

つまり、検出部25は、大きさの異なる複数のテンプレートとの類似度が高かった領域について水滴が付着していると判定する。このように、付着物検出装置1は、複数のテンプレートとの類似度に基づいて水滴を検出することで、水滴の誤検出を低減しつつ、水滴の検出精度の信頼性を向上させることができる。 That is, the detection unit 25 determines that water droplets are attached to the region having a high degree of similarity to the plurality of templates having different sizes. In this way, the deposit detection device 1 can improve the reliability of the water droplet detection accuracy while reducing the false detection of the water droplet by detecting the water droplet based on the similarity with the plurality of templates. ..

なお、かかる場合に、検出部25は、例えば、枠F1と枠F2との少なくとも一部が重なっていれば水滴が付着していると判定することにしてもよい。また、検出部25は、例えば、近接する位置に複数の枠が存在する場合に、水滴が付着していると判定することにしてもよい。 In such a case, the detection unit 25 may determine, for example, that water droplets are attached if at least a part of the frame F1 and the frame F2 overlap. Further, the detection unit 25 may determine, for example, that water droplets are attached when a plurality of frames are present at adjacent positions.

次に、図7Dを用いて検出部25が複数の2値化画像L2に基づいて水滴を検出する場合について説明する。同図では、紙面手前側ほど新しい2値化画像L2であることを示す。すなわち、2値化画像L2eから2値化画像L2aの順に新しい2値化画像L2であることを示す。 Next, a case where the detection unit 25 detects water droplets based on a plurality of binarized images L2 will be described with reference to FIG. 7D. In the figure, it is shown that the front side of the paper surface is a newer binarized image L2. That is, it is shown that the binarized image L2e is the new binarized image L2 in the order of the binarized image L2e to the binarized image L2a.

また、同図に示す枠F4および枠F5は、図7Cと同様に、かかる枠の領域において枠の大きさに対応するテンプレートと類似度が高かったことを示すものとする。 Further, it is assumed that the frame F4 and the frame F5 shown in the figure have a high degree of similarity with the template corresponding to the size of the frame in the area of the frame as in FIG. 7C.

同図に示すように、2値化画像L2a、2値化画像L2bおよび2値化画像L2cには、枠F4が存在し、2値化画像L2a、2値化画像L2cおよび2値化画像L2eには、枠F5が存在する。 As shown in the figure, the binarized image L2a, the binarized image L2b, and the binarized image L2c have a frame F4, and the binarized image L2a, the binarized image L2c, and the binarized image L2e There is a frame F5 in.

このとき、検出部25は、例えば、3つのフレームで連続して同じ位置に枠が存在した場合に、かかる領域に水滴が付着していると判定する。同図に示す例では、枠F4が3フレームにわたって連続して検出されているため、検出部25は、枠F4の領域に水滴が付着していると判定する。 At this time, the detection unit 25 determines that, for example, when three frames are continuously present at the same position, water droplets are attached to such a region. In the example shown in the figure, since the frame F4 is continuously detected over three frames, the detection unit 25 determines that water droplets are attached to the region of the frame F4.

なお、検出部25は、例えば、枠F5のように、5フレームの間に3回検出されていれば、枠F5の領域に水滴が付着していると判定することにしてもよい。 Note that the detection unit 25 may determine that water droplets are attached to the region of the frame F5 if the detection unit 25 is detected three times during the five frames, for example, the frame F5.

このように、検出部25は、複数のフレームを用いて水滴の付着を判定することで、水滴の誤検知を抑制しつつ、検出精度を向上させることができる。なお、枠F4や枠F5の位置や大きさは、各フレームで厳密に一致している必要はなく、所定の誤差を許容するものとする。 In this way, the detection unit 25 can improve the detection accuracy while suppressing erroneous detection of water droplets by determining the adhesion of water droplets using a plurality of frames. It should be noted that the positions and sizes of the frames F4 and F5 do not have to be exactly the same in each frame, and a predetermined error is allowed.

また、同図では、検出部25が3フレーム連続で同一の枠を検出する場合に、水滴を検出するようにしたが、これに限定されるものではなく、2フレーム以下であっても、4フレーム以上であってもよい。 Further, in the figure, when the detection unit 25 detects the same frame for three consecutive frames, the water droplet is detected, but the present invention is not limited to this, and even if the number of frames is 2 or less, 4 It may be more than a frame.

なお、検出部25は、水滴の検出に用いるフレーム数を上記した領域の優先度や、水滴の検出目的に応じて変更することにしてもよい。例えば、検出精度を優先する領域については、フレーム数を多くし、検出速度を優先する領域については、フレーム数を少なくすることもできる。 The detection unit 25 may change the number of frames used for detecting water droplets according to the priority of the above-mentioned region and the purpose of detecting water droplets. For example, the number of frames can be increased in the region where the detection accuracy is prioritized, and the number of frames can be decreased in the region where the detection speed is prioritized.

次に、第1の実施形態に係る付着物検出装置1が実行する処理手順について図8を用いて説明する。図8は、第1の実施形態に係る付着物検出装置1が実行する処理手順を示すフローチャートである。なお、以下に示す処理は、制御部2によって繰り返し実行される。 Next, the processing procedure executed by the deposit detection device 1 according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a processing procedure executed by the deposit detection device 1 according to the first embodiment. The processing shown below is repeatedly executed by the control unit 2.

同図に示すように、まず、画像取得部21は、カメラ10からカメラ画像を取得し、かかるカメラ画像をグレースケール化する(ステップS101)。続いて、抽出部22は、グレースケール画像から各画素のエッジ情報を抽出する(ステップS102)。 As shown in the figure, first, the image acquisition unit 21 acquires a camera image from the camera 10 and grayscales the camera image (step S101). Subsequently, the extraction unit 22 extracts the edge information of each pixel from the grayscale image (step S102).

その後、変換部23は、図3に示したように2値化閾値THaを設定し(ステップS103)、グレースケール画像を2値化する(ステップS104)。 After that, the conversion unit 23 sets the binarization threshold value THa as shown in FIG. 3 (step S103), and binarizes the grayscale image (step S104).

続いて、マッチング部24は、図6に示したように変換部23によって2値化された2値化画像を用いてマッチング処理を行う(ステップS105)。そして、検出部25は、図7A〜図7Dに示したようにカメラ10に付着した水滴を検出する(ステップS106)。 Subsequently, the matching unit 24 performs a matching process using the binarized image binarized by the conversion unit 23 as shown in FIG. 6 (step S105). Then, the detection unit 25 detects water droplets adhering to the camera 10 as shown in FIGS. 7A to 7D (step S106).

上述してきたように、第1の実施形態に係る付着物検出装置1は、各画素のエッジ量に基づいて2値化することで、夜間や昼間において光る水滴を精度よく検出することができる。 As described above, the deposit detection device 1 according to the first embodiment can accurately detect shining water droplets at night or in the daytime by binarizing based on the edge amount of each pixel.

ところで、上述したように、変換部23による変換処理は、2値化処理に限定されない。そこで、次に、第2の実施形態として各画素をエッジの向きに応じて各画素をパラメータに変換する場合について説明する。 By the way, as described above, the conversion process by the conversion unit 23 is not limited to the binarization process. Therefore, next, as a second embodiment, a case where each pixel is converted into a parameter according to the direction of the edge will be described.

(第2の実施形態)
まず、図9を用いて第2の実施形態に係る付着物検出装置1Bの構成について説明する。図9は、第2の実施形態に係る付着物検出装置1Bのブロック図である。なお、以下の説明では、既に説明した部分と同様の部分については、既に説明した部分と同一の符号を付し、重複する説明は省略する。
(Second Embodiment)
First, the configuration of the deposit detection device 1B according to the second embodiment will be described with reference to FIG. FIG. 9 is a block diagram of the deposit detection device 1B according to the second embodiment. In the following description, the same parts as those already described will be designated by the same reference numerals as those already described, and duplicate description will be omitted.

図9に示すように、第2の実施形態に係る付着物検出装置1Bは、制御部2Bと、記憶部3Bとを備える。制御部2Bは、図2に示した変換部23、マッチング部24および検出部25に代えて変換部23B、マッチング部24Bおよび検出部25Bを備える。 As shown in FIG. 9, the deposit detection device 1B according to the second embodiment includes a control unit 2B and a storage unit 3B. The control unit 2B includes a conversion unit 23B, a matching unit 24B, and a detection unit 25B in place of the conversion unit 23, the matching unit 24, and the detection unit 25 shown in FIG.

また、記憶部3Bは、範囲情報34と、パラメータ情報31Bと、テンプレート情報32Bと、検出情報33Bとを記憶する。ここでは、画像取得部21および抽出部22の説明は省略し、変換部23Bから説明する。 Further, the storage unit 3B stores the range information 34, the parameter information 31B, the template information 32B, and the detection information 33B. Here, the description of the image acquisition unit 21 and the extraction unit 22 will be omitted, and the description will be given from the conversion unit 23B.

変換部23Bは、抽出部22から入力される各画素のエッジ情報に基づき、各画素のエッジの向きを算出し、かかるエッジ向きに3次元のパラメータを割り当てることにより、各画素をパラメータ化する。この点の詳細については、図11Aおよび図11Bを用いて後述する。 The conversion unit 23B calculates the direction of the edge of each pixel based on the edge information of each pixel input from the extraction unit 22, and assigns a three-dimensional parameter to the edge direction to parameterize each pixel. Details of this point will be described later with reference to FIGS. 11A and 11B.

また、変換部23Bは、エッジの向きの算出に先立って、上記したエッジ量を算出し、算出したエッジ量に対してフィルタ処理を行う。かかる点の詳細については図10を用いて後述する。 Further, the conversion unit 23B calculates the above-mentioned edge amount and performs a filter process on the calculated edge amount prior to the calculation of the edge direction. Details of this point will be described later with reference to FIG.

マッチング部24Bは、変換部23Bから入力されるパラメータ化されたグレースケール画像と水滴の特徴を示すテンプレートとのマッチング処理を行う。かかるマッチング処理については、図6を用いて既に説明したマッチング処理と同様の処理であるため、ここでの説明は省略する。 The matching unit 24B performs a matching process between the parameterized grayscale image input from the conversion unit 23B and the template showing the characteristics of the water droplets. Since the matching process is the same as the matching process already described with reference to FIG. 6, the description thereof is omitted here.

ここで、マッチング部24Bは、ゼロ平均正規化相互相関(Zero-mean Normalized Cross-Correlation)を用いて類似度を算出する。かかるゼロ平均正規化相互相関では、類似度は−1から+1の値をとる。 Here, the matching unit 24B calculates the degree of similarity using Zero-mean Normalized Cross-Correlation. In such a zero mean normalization cross-correlation, the similarity ranges from -1 to +1.

なお、マッチング部24Bは、例えばSAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)など他の計算手法を用いて類似度を算出することにしてもよい。 The matching unit 24B may calculate the similarity by using another calculation method such as SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference).

検出部25Bは、マッチング部24Bから入力される類似度の値に基づいてカメラ10に付着した水滴を検出する。なお、検出部25Bによる検出処理の詳細については、図14を用いて後述する。 The detection unit 25B detects water droplets adhering to the camera 10 based on the similarity value input from the matching unit 24B. The details of the detection process by the detection unit 25B will be described later with reference to FIG.

次に、図10を用いて変換部23Bによるフィルタ処理の詳細について説明する。図10は、抽出範囲Wを示す図である。なお、同図の縦軸には、エッジ量を示す。また、同図では、抽出範囲Wにハッチング処理を施して示している。 Next, the details of the filtering process by the conversion unit 23B will be described with reference to FIG. FIG. 10 is a diagram showing an extraction range W. The vertical axis of the figure shows the amount of edges. Further, in the figure, the extraction range W is shown by being hatched.

同図に示すように、第2の実施形態に係る付着物検出装置1Bでは、例えば、夜間および昼間で異なる抽出範囲Wを設定する。具体的には、夜間の場合、エッジ量Scからエッジ量Seまでの範囲を抽出範囲W1として設定する。 As shown in the figure, in the deposit detection device 1B according to the second embodiment, for example, different extraction ranges W are set at night and in the daytime. Specifically, in the case of nighttime, the range from the edge amount Sc to the edge amount Se is set as the extraction range W1.

また、昼間の場合、エッジ量Scよりも低いエッジ量Sdからエッジ量Sfまでの範囲を抽出範囲W2として設定する。これは、上記したように、周囲の明るさによらず、水滴のエッジのみを効率よく抽出するためである。 In the daytime, the range from the edge amount Sd lower than the edge amount Sc to the edge amount Sf is set as the extraction range W2. This is because, as described above, only the edges of water droplets are efficiently extracted regardless of the ambient brightness.

このように、フィルタ処理をすることで、水滴以外の不要なエッジを除去することができる。これにより、水滴の検出精度を向上させることができる。 By performing the filtering process in this way, unnecessary edges other than water droplets can be removed. As a result, the accuracy of detecting water droplets can be improved.

なお、抽出範囲W1や抽出範囲W2の値は、シミュレーションや統計等を用いて最適な値を導出することができる。また、変換部23Bは、検出部25Bによる水滴の検出結果をフィードバックして抽出範囲Wを設定することにしてもよい。 The optimum values of the extraction range W1 and the extraction range W2 can be derived by using simulation, statistics, or the like. Further, the conversion unit 23B may set the extraction range W by feeding back the detection result of the water droplet by the detection unit 25B.

例えば、検出部25Bによって水滴が検出されなかった場合、抽出範囲Wが適切に設定されていなかったおそれがある。このため、変換部23Bは、抽出範囲Wを変更して各画素を抽出しなおすことにしてもよい。これにより、水滴の検出漏れを抑制することができるため、水滴の検出精度を向上させることができる。 For example, if water droplets are not detected by the detection unit 25B, the extraction range W may not be set appropriately. Therefore, the conversion unit 23B may change the extraction range W and re-extract each pixel. As a result, it is possible to suppress the detection omission of water droplets, so that the accuracy of detecting water droplets can be improved.

また、記憶部3Bに、夜間および昼間のそれぞれにおいて各画素におけるエッジ量の分布や平均値等の統計学的な値をそれぞれ記憶しておく。そして、変換部23Bは、かかる統計学的な値と抽出したエッジ量を比較することで夜間と昼間とを判別して抽出範囲Wを設定することもできる。 Further, in the storage unit 3B, statistical values such as the distribution of the edge amount and the average value in each pixel are stored in each of the nighttime and the daytime. Then, the conversion unit 23B can set the extraction range W by discriminating between nighttime and daytime by comparing the statistical value with the extracted edge amount.

これにより、周囲の状況にあわせて抽出範囲Wを適切に設定することもできる。なお、制御部2Bに学習機能を備えることとし、制御部2Bによってかかる統計学的な値を導出することにしてもよい。 As a result, the extraction range W can be appropriately set according to the surrounding conditions. The control unit 2B may be provided with a learning function, and the control unit 2B may derive such a statistical value.

次に、図11Aおよび図11Bを用いて変換部23Bによる処理について説明する。図11Aは、エッジのベクトルを示す図である。図11Bは、パラメータ情報31Bの一例を示す図である。 Next, the processing by the conversion unit 23B will be described with reference to FIGS. 11A and 11B. FIG. 11A is a diagram showing an edge vector. FIG. 11B is a diagram showing an example of parameter information 31B.

なお、図11Aでは、X軸方向およびY軸方向におけるエッジ強度を示す。上記したように、変換部23Bは、抽出部22から入力されるX軸方向のエッジ強度およびY軸方向のエッジ強度に基づいて各画素のベクトルを算出する。 Note that FIG. 11A shows the edge strength in the X-axis direction and the Y-axis direction. As described above, the conversion unit 23B calculates the vector of each pixel based on the edge strength in the X-axis direction and the edge strength in the Y-axis direction input from the extraction unit 22.

具体的には、X軸方向およびY軸方向のエッジ強度に基づき、三角関数を用いることで、各画素のベクトルを算出する。以下では、同図に示す算出したベクトルと、正方向側のX軸との成す角度θを、エッジ向きといい、ベクトルの長さLを各画素のエッジ強度という。なお、かかるエッジ強度については、第3の実施形態にて用いられる。 Specifically, the vector of each pixel is calculated by using a trigonometric function based on the edge strength in the X-axis direction and the Y-axis direction. In the following, the angle θ formed by the calculated vector shown in the figure and the X axis on the positive direction side is referred to as the edge direction, and the length L of the vector is referred to as the edge strength of each pixel. The edge strength is used in the third embodiment.

なお、変換部23Bは、全ての画素についてエッジ向きを算出する必要はなく、優先度の低い領域については、所定間隔の画素ごとにエッジ向きを算出するなど、処理を簡略化することにしてもよい。 It should be noted that the conversion unit 23B does not need to calculate the edge orientation for all the pixels, and may simplify the process by calculating the edge orientation for each pixel at a predetermined interval in the low priority region. Good.

続いて、変換部23Bは、図11Bに示すパラメータ情報31Bを用いて算出したエッジ向きをパラメータ化する。ここでは、変換部23Bが、12色相環の色ベクトルを用いてエッジ向きをパラメータ化する場合について説明する。 Subsequently, the conversion unit 23B parameterizes the edge orientation calculated using the parameter information 31B shown in FIG. 11B. Here, a case where the conversion unit 23B parameters the edge orientation using the color vector of the 12 hue circle will be described.

ここで、色ベクトルとは、RGBの色要素に応じて規定されるベクトルであり、RGBから成る3成分の各パラメータを有する。 Here, the color vector is a vector defined according to the color elements of RGB, and has each parameter of three components composed of RGB.

なお、12色相環において各パラメータは、レッド、グリーン、ブルーがそれぞれ10進数で表記すれば、「0」、「128」あるいは「127」、および「255」の3つの値で表される。ここで、12色相環において、補色の関係にあるRGBの各値は、16進数等の2進数表記で、1の補数の関係になる。 In the 12 hue circle, each parameter is represented by three values of "0", "128" or "127", and "255" when red, green, and blue are expressed in decimal numbers. Here, in the 12-hue circle, each RGB value having a complementary color relationship has a one's complement relationship in binary notation such as a hexadecimal number.

すなわち、第2の実施形態に係る変換部23Bでは、対向する角度範囲同士のRGBのそれぞれの値が1の補数の関係を満たすパラメータを用いて各画素を変換する。なお、かかるパラメータは、厳密に1の補数の関係を満たす必要はなく、所定の誤差を許容するものとする。 That is, the conversion unit 23B according to the second embodiment converts each pixel using a parameter in which each of the RGB values of the opposing angle ranges satisfies the one's complement relationship. It should be noted that such a parameter does not have to satisfy the relationship of exactly 1's complement, and a predetermined error is allowed.

具体的には、変換部23Bは、算出したエッジ向きに対応する角度範囲のRGBのパラメータを画素に割り当てる。例えば、エッジ向きが75°から105°の角度範囲となる場合、かかるエッジ向きのパラメータは、水色に対応するRGB(0、255、255)のパラメータが割り当てられる。 Specifically, the conversion unit 23B assigns RGB parameters in the angle range corresponding to the calculated edge orientation to the pixels. For example, when the edge orientation is in the angle range of 75 ° to 105 °, RGB (0, 255, 255) parameters corresponding to light blue are assigned to the edge orientation parameters.

また、エッジ向きが、かかる角度範囲と対向する−75°から−105°の角度範囲に存在する場合、水色の補色である赤色に対応するRGB(255、0、0)が割り当てられることとなる。 Further, when the edge orientation exists in the angle range of −75 ° to −105 ° facing the angle range, RGB (255, 0, 0) corresponding to red, which is the complementary color of light blue, is assigned. ..

また、変換部23Bは、エッジ量が抽出範囲Wから外れた画素に対して白色に対応するRGB(255、255、255)のパラメータを用いる。 Further, the conversion unit 23B uses RGB (255, 255, 255) parameters corresponding to white for pixels whose edge amount is out of the extraction range W.

このように、第2の実施形態に係る付着物検出装置1Bでは、対向するエッジ向き同士が1の補数の関係となるパラメータを用いて各画素を変換する。これにより、対向するエッジ向きの違いを鮮明にすることができる。 As described above, in the deposit detection device 1B according to the second embodiment, each pixel is converted using the parameter in which the opposite edge directions are in the one's complement relationship. This makes it possible to clarify the difference in the orientation of the opposing edges.

また、12色相環の色ベクトルを用いることで、エッジ向きに対応する各角度範囲の違いを鮮明にすることが可能となる。このため、マッチング部24Bによる認識精度を向上させることができる。 Further, by using the color vector of the 12 hue circle, it is possible to clarify the difference in each angle range corresponding to the edge direction. Therefore, the recognition accuracy by the matching unit 24B can be improved.

また、第2の実施形態に係る付着物検出装置1Bでは、エッジ強度によらず、エッジ向きが近ければ、同一のパラメータが割り当てられる。このため、縁のぼやけた水滴すなわち、エッジ強度が弱い水滴であっても、エッジ強度が強い水滴と同等の精度で検出することが可能となる。 Further, in the deposit detection device 1B according to the second embodiment, the same parameters are assigned as long as the edge directions are close to each other, regardless of the edge strength. Therefore, even a water droplet having a blurred edge, that is, a water droplet having a weak edge strength can be detected with the same accuracy as a water droplet having a strong edge strength.

これらのことより、第2の実施形態に係る付着物検出装置1Bでは、従来では検出が困難であったエッジ強度の弱い水滴、すなわち、カメラ画像にぼやけて写る水滴であっても精度よく検出することが可能となる。 Based on these facts, the deposit detection device 1B according to the second embodiment accurately detects even water droplets having a weak edge strength, that is, water droplets that appear blurred in a camera image, which was difficult to detect in the past. It becomes possible.

また、変換部23Bが参照するテーブルは、図11Bに示す例に限られず、例えば、12色のほか、24色など角度範囲をより細かく分割することにしてもよいし、あるいは、9色など角度範囲をより大きく分割することにしてもよい。 Further, the table referred to by the conversion unit 23B is not limited to the example shown in FIG. 11B, and for example, in addition to 12 colors, the angle range such as 24 colors may be further divided, or an angle such as 9 colors may be used. The range may be divided into larger parts.

また、RGBに限らず、例えば、パラメータとして行列を用いるなど、反対のエッジ向き同士が1の補数の関係を満たす他のパラメータを用いることにしてもよい。 Further, the present invention is not limited to RGB, and other parameters may be used, such as using a matrix as a parameter, in which opposite edge directions satisfy the one's complement relationship.

次に、図12を用いて第2の実施形態に係るテンプレートについて説明する。図12は、第2の実施形態に係るテンプレートの模式図である。なお、同図では、説明を簡単にするため、テンプレートを簡略化して示す。 Next, the template according to the second embodiment will be described with reference to FIG. FIG. 12 is a schematic diagram of the template according to the second embodiment. In the figure, the template is simplified for the sake of simplicity.

同図に示すように、第2の実施形態に係るテンプレートでは、水滴を模擬する円が複数の扇状の領域に分割される。そして、扇状の各領域には、円の中心について対向する領域の値が1の補数となる上記した角度範囲に対応するパラメータが割り当てられる。 As shown in the figure, in the template according to the second embodiment, the circle simulating a water droplet is divided into a plurality of fan-shaped regions. Then, each fan-shaped region is assigned a parameter corresponding to the above-mentioned angle range in which the value of the region facing the center of the circle is a complement of 1.

また、同図のaに示すように、水滴の特徴を示す領域以外には、白色と灰色を示すRGBのパラメータが割り当てられる。具体的には、テンプレートの中央部には白色に対応するRGB(255、255、255)のパラメータが割り当てられ、水滴の外部には、灰色に対応するRGB(128、128、128)のパラメータが割り当てられる。 Further, as shown in a in the figure, RGB parameters indicating white and gray are assigned in addition to the region indicating the characteristics of the water droplet. Specifically, RGB (255, 255, 255) parameters corresponding to white are assigned to the central part of the template, and RGB (128, 128, 128) parameters corresponding to gray are assigned to the outside of the water droplet. Assigned.

なお、水滴の中央部および外部の各領域のパラメータは、一例であって、他の色に対応するパラメータを割り当てることとしてもよい。 The parameters of the central portion and the outer regions of the water droplet are merely examples, and parameters corresponding to other colors may be assigned.

また、同図のbに示すように、全ての領域に中央部から放射状に各パラメータが割り当てられたテンプレートを用いることもできる。かかるテンプレートは、厚みが薄く、カメラ画像にぼやけて写る水滴を検出する場合に有効である。 Further, as shown in b of the figure, it is also possible to use a template in which each parameter is assigned radially from the central portion to all the regions. Such a template is effective when detecting water droplets which are thin and appear blurry in a camera image.

また、同図のcに示すように、テンプレートの中心部の白色の領域を大きくすることにしてもよい。かかるテンプレートを用いた場合、エッジが明るく輝く水滴を効率よく検出することができる。また、同図のdに示すように、水滴を示す形状は楕円形状であってもよい。 Further, as shown in c of the figure, the white region in the center of the template may be enlarged. When such a template is used, it is possible to efficiently detect water droplets having bright edges. Further, as shown in d in the figure, the shape indicating the water droplet may be an elliptical shape.

このように、第2の実施形態に係る付着物検出装置1Bでは、反対のエッジ向き同士が1の補数の関係にあるパラメータに変換されたグレースケール画像に対して、かかるパラメータで水滴を示すテンプレートを用いる。 As described above, in the deposit detection device 1B according to the second embodiment, the template showing water droplets with such parameters is obtained for the grayscale image converted into the parameters in which the opposite edge directions are in the one's complement relationship. Is used.

このため、各画素およびテンプレートのそれぞれで各エッジ向きの違いが鮮明となり、マッチング部24Bによる認識精度を向上させることが可能となる。 Therefore, the difference in the direction of each edge becomes clear for each pixel and each template, and the recognition accuracy by the matching unit 24B can be improved.

また、第2の実施形態に係る付着物検出装置1Bは、図4のb〜eで既に説明したように、半弧状のテンプレートを用いることにしてもよい。かかる場合に、図5で既に説明したように、走査位置に応じた部分形状の水滴を示すマッチング処理を行うこともできる。 Further, the deposit detection device 1B according to the second embodiment may use a semi-arc-shaped template as already described with reference to FIGS. 4b to e. In such a case, as already described with reference to FIG. 5, a matching process of showing a partial shape of water droplets according to the scanning position can be performed.

なお、第2の実施形態に係る付着物検出装置1Bでは、端部から中央に向けて輝度が大きくなる場合、すなわち、エッジ向きが端部から中央を向く場合の水滴の特徴を示すテンプレートを用いてマッチング処理を行う。 In the deposit detection device 1B according to the second embodiment, a template showing the characteristics of water droplets when the brightness increases from the end to the center, that is, when the edge direction is from the end to the center is used. Performs matching processing.

しかしながら、これに限らず、中央から端部に向けて輝度が大きくなる場合、すなわち、エッジ向きが中央から端部を向く場合の水滴の特徴を示すテンプレートを用いることにしてもよい。 However, the present invention is not limited to this, and a template showing the characteristics of water droplets when the brightness increases from the center to the edge, that is, when the edge direction is from the center to the edge may be used.

次に、図13を用いて検出部25Bによる検出処理について説明する。図13は、検出閾値の具体例を示す図である。なお、同図の横軸は、類似度の値を示す。 Next, the detection process by the detection unit 25B will be described with reference to FIG. FIG. 13 is a diagram showing a specific example of the detection threshold value. The horizontal axis in the figure shows the value of similarity.

上記したように、第2の実施形態に係る付着物検出装置1Bでは、テンプレートとの類似度が−1から+1の値で算出される。ここで、類似度が+1に近い場合は、テンプレートと類似していることを示す。すなわち、端部から中央に向かって輝度が大きくなる水滴と類似する。 As described above, in the deposit detection device 1B according to the second embodiment, the similarity with the template is calculated by a value of -1 to +1. Here, when the similarity is close to +1 it indicates that it is similar to the template. That is, it is similar to a water droplet whose brightness increases from the end to the center.

また、類似度が−1に近い場合、テンプレートをいわゆるネガポジ反転させたものと類似していることを示す。すなわち、本実施例では、中央から端部に向かって輝度が大きくなる水滴を示す。 Further, when the similarity is close to -1, it indicates that the template is similar to the so-called negative / positive inverted template. That is, in this embodiment, water droplets whose brightness increases from the center to the edges are shown.

このため、図13に示すように、第2の実施形態では、類似度に正と負の両方に検出閾値を設けることにしている。具体的には、同図に示すように、例えば、正の検出閾値を+0.7とし、負の検出閾値を−0.8としている。 Therefore, as shown in FIG. 13, in the second embodiment, the detection thresholds are set for both positive and negative similarities. Specifically, as shown in the figure, for example, the positive detection threshold is +0.7 and the negative detection threshold is −0.8.

そして、検出部25Bは、マッチング部24Bから入力される類似度の値が正の検出閾値以上、すなわち、+0.7以上である場合、または負の検出閾値以下、すなわち、−0.8以下である場合に、カメラ10に水滴が付着していると判定する。 Then, in the detection unit 25B, when the value of the similarity input from the matching unit 24B is equal to or more than the positive detection threshold value, that is, +0.7 or more, or less than or equal to the negative detection threshold value, that is, −0.8 or less. In a certain case, it is determined that water droplets are attached to the camera 10.

このように、第2の実施形態に係る付着物検出装置1Bでは、類似度の値に正および負の検出閾値を設ける。これにより、1種類のテンプレートを用いたマッチング処理によって、輝度が中央から端部に向かって大きくなる水滴および中央から端部に向かって輝度が大きくなる水滴の双方の水滴を検出することができる。 As described above, in the deposit detection device 1B according to the second embodiment, positive and negative detection threshold values are set for the similarity value. Thereby, by the matching process using one type of template, it is possible to detect both water droplets whose brightness increases from the center to the end and water droplets whose brightness increases from the center to the end.

換言すると、処理負荷を維持しつつ、多様な水滴を検出することができる。なお、検出部25Bは、図7A〜図7Dを用いて既に説明した処理を併用して水滴を検出することにしてもよい。 In other words, various water droplets can be detected while maintaining the processing load. The detection unit 25B may detect water droplets in combination with the processes already described with reference to FIGS. 7A to 7D.

また、第2の実施形態に係る付着物検出装置1Bでは、上記したように正の検出閾値を負の検出閾値よりも絶対値が低い値に設定することにしている。これは、類似度が負の場合は、類似度が正の場合に比べて水滴の誤検出が多い傾向があるためである。 Further, in the deposit detection device 1B according to the second embodiment, the positive detection threshold value is set to a value whose absolute value is lower than the negative detection threshold value as described above. This is because when the similarity is negative, the number of false detections of water droplets tends to be higher than when the similarity is positive.

同図に示した検出閾値の各値は、一例であってこれに限定するものではない。例えば、正の検出閾値と、負の検出閾値との絶対値は、同じであってもよいし、正の検出閾値の絶対値を負の検出閾値の絶対値よりも大きくすることにしてもよい。 Each value of the detection threshold value shown in the figure is an example and is not limited to this. For example, the absolute value of the positive detection threshold and the negative detection threshold may be the same, or the absolute value of the positive detection threshold may be larger than the absolute value of the negative detection threshold. ..

次に、図14を用いて第2の実施形態に係る付着物検出装置1Bが実行する処理手順について説明する。図14は、第2の実施形態に係る付着物検出装置1Bが実行する処理手順を示すフローチャートである。 Next, the processing procedure executed by the deposit detection device 1B according to the second embodiment will be described with reference to FIG. FIG. 14 is a flowchart showing a processing procedure executed by the deposit detection device 1B according to the second embodiment.

ここで、第1の実施形態で既に説明したため、ステップS101、ステップS102については、説明を省略し、同図に示すステップS201から説明することとする。 Here, since the description has already been given in the first embodiment, the description of step S101 and step S102 will be omitted, and the description will be given from step S201 shown in the figure.

まず、変換部23Bは、抽出部22から入力されるエッジ情報に基づいて各画素のエッジのベクトルを算出し(ステップS201)、図11Bで説明したようにエッジ向きに基づいて各画素をパラメータ化する(ステップS202)。 First, the conversion unit 23B calculates the edge vector of each pixel based on the edge information input from the extraction unit 22 (step S201), and parameterizes each pixel based on the edge orientation as described in FIG. 11B. (Step S202).

続いて、マッチング部24Bは、パラメータ化されたグレースケール画像とテンプレートとのマッチング処理を行う(ステップS203)。そして、検出部25Bは、図13に示した検出閾値に基づいて水滴を検出する(ステップS204)。 Subsequently, the matching unit 24B performs a matching process between the parameterized grayscale image and the template (step S203). Then, the detection unit 25B detects water droplets based on the detection threshold value shown in FIG. 13 (step S204).

上述してきたように、第2の実施形態に係る付着物検出装置1Bは、各画素のエッジ向きに対応する12色相環の各RGBのパラメータを用いることで、水滴を精度よく検出することができる。 As described above, the deposit detection device 1B according to the second embodiment can accurately detect water droplets by using each RGB parameter of the 12 color wheel corresponding to the edge direction of each pixel. ..

また、第2の実施形態に係る付着物検出装置1Bは、一度のマッチング処理によって中央が輝く水滴と、端部が輝く水滴との双方の水滴を検出することができる。 In addition, the deposit detection device 1B according to the second embodiment can detect both water droplets whose center is shining and water droplets whose edges are shining by one matching process.

(第3の実施形態)
次に、図15〜20を用いて第3の実施形態に係る付着物検出装置1Cについて説明する。第3の実施形態に係る付着物検出装置1Cは、各画素のエッジの向きに応じて各画素を符号に変換し、正規表現を用いてマッチング処理を行うものである。
(Third Embodiment)
Next, the deposit detection device 1C according to the third embodiment will be described with reference to FIGS. 15 to 20. The deposit detection device 1C according to the third embodiment converts each pixel into a code according to the direction of the edge of each pixel, and performs a matching process using a regular expression.

まず、図15を用いて第3の実施形態に係る付着物検出装置1Cの構成について説明する。図15は、第3の実施形態に係る付着物検出装置1Cのブロック図である。 First, the configuration of the deposit detection device 1C according to the third embodiment will be described with reference to FIG. FIG. 15 is a block diagram of the deposit detection device 1C according to the third embodiment.

図15に示すように、第3の実施形態に係る付着物検出装置1Cは、制御部2Cと、記憶部3Cとを備える。制御部2Cは、図2に示した変換部23、マッチング部24および検出部25に代えて変換部23C、マッチング部24Cおよび検出部25Cを備える。また、記憶部3Cは、符号情報31C、テンプレート情報32Cおよび検出情報33Cを記憶する。 As shown in FIG. 15, the deposit detection device 1C according to the third embodiment includes a control unit 2C and a storage unit 3C. The control unit 2C includes a conversion unit 23C, a matching unit 24C, and a detection unit 25C in place of the conversion unit 23, the matching unit 24, and the detection unit 25 shown in FIG. Further, the storage unit 3C stores the code information 31C, the template information 32C, and the detection information 33C.

なお、ここでは、画像取得部21および抽出部22については、図2および図9を用いて既に説明したため省略し、変換部23Cから説明することとする。 Here, since the image acquisition unit 21 and the extraction unit 22 have already been described with reference to FIGS. 2 and 9, they will be omitted and will be described from the conversion unit 23C.

変換部23Cは、抽出部22から入力される各画素のX軸方向およびY軸方向のエッジ強度に基づいて各画素のエッジのベクトルを算出し、エッジ向きをそれぞれ符号化する。かかるベクトルの算出方法については既に図11Aで説明したため、ここでの説明は省略する。 The conversion unit 23C calculates the edge vector of each pixel based on the edge strength of each pixel in the X-axis direction and the Y-axis direction input from the extraction unit 22, and encodes the edge direction, respectively. Since the method of calculating such a vector has already been described with reference to FIG. 11A, the description thereof will be omitted here.

そして、変換部23Cは、各画素を符号化したグレースケール画像をマッチング部24Cに出力する。ここで、第3の実施形態に係る付着物検出装置1Cでは、例えば、複数の画素におけるエッジの代表値を求め、かかる代表値を符号化することにしている。この点の詳細については、図16Aおよび16Bを用いて後述する。 Then, the conversion unit 23C outputs a grayscale image in which each pixel is encoded to the matching unit 24C. Here, in the deposit detection device 1C according to the third embodiment, for example, a representative value of an edge in a plurality of pixels is obtained, and the representative value is encoded. Details of this point will be described later with reference to FIGS. 16A and 16B.

マッチング部24Cは、変換部23Cから入力される符号化されたグレースケール画像と水滴の特徴を示す符号パターンとの正規表現を用いたマッチング処理を行う。ここで、正規表現とは、符号列の集合を一つの符号で表したものである。 The matching unit 24C performs a matching process using a regular expression of the coded grayscale image input from the conversion unit 23C and the code pattern indicating the characteristics of the water droplets. Here, the regular expression is a set of code strings represented by a single code.

マッチング部24Cは、正規表現を用いてマッチング処理を行うため、例えば、上記したような類似度の算出など煩雑な処理を必要としない。このため、処理負荷を抑えつつ、水滴を検出することができる。 Since the matching unit 24C performs matching processing using a regular expression, it does not require complicated processing such as calculation of similarity as described above. Therefore, water droplets can be detected while suppressing the processing load.

なお、水滴の特徴を示す符号パターンは、テンプレート情報32Cに記憶される。また、かかる符号パターンの詳細については、図17Aを用いて後述する。また、マッチング部24Cによる処理の詳細については、図17Bを用いて後述する。 The code pattern indicating the characteristics of the water droplet is stored in the template information 32C. The details of such a code pattern will be described later with reference to FIG. 17A. The details of the processing by the matching unit 24C will be described later with reference to FIG. 17B.

検出部25Cは、マッチング部24Cが抽出した符号パターンに基づいてカメラ10に付着した水滴を検出する。なお、検出部25Cによる検出処理については、図18および19を用いて後述する。 The detection unit 25C detects water droplets adhering to the camera 10 based on the code pattern extracted by the matching unit 24C. The detection process by the detection unit 25C will be described later with reference to FIGS. 18 and 19.

次に、図16Aおよび図16Bを用いて変換部23Cによる符号化処理について説明する。図16Aおよび図16Bは、変換部23Cによる処理を説明する図である。 Next, the coding process by the conversion unit 23C will be described with reference to FIGS. 16A and 16B. 16A and 16B are diagrams illustrating processing by the conversion unit 23C.

まず、図16Aを用いて代表値を算出する画素について説明する。ここでは、8×8ピクセルの画素をセルといい、3×3セルをブロックという。また、ブロックの中央のセルを注目セルという。 First, a pixel for which a representative value is calculated will be described with reference to FIG. 16A. Here, a pixel of 8 × 8 pixels is called a cell, and a 3 × 3 cell is called a block. The cell in the center of the block is called the cell of interest.

変換部23Cは、ブロックごとに各画素のエッジ向きおよびエッジ強度を示すヒストグラムを作成する。かかるヒストグラムについては、図16Bを用いて説明する。ここで、変換部23Cは、注目セルにおける中央の座標のエッジ向きをブロックにおけるヒストグラムから導出する。 The conversion unit 23C creates a histogram showing the edge orientation and edge strength of each pixel for each block. Such a histogram will be described with reference to FIG. 16B. Here, the conversion unit 23C derives the edge orientation of the central coordinate in the cell of interest from the histogram in the block.

そして、変換部23Cは、1つのブロックにおいて注目セルの代表値を導出すると、ブロックを1つのセル分ずらしてヒストグラムを作成し、かかるブロックにおける注目セルの代表値を算出していく。 Then, when the conversion unit 23C derives the representative value of the cell of interest in one block, the conversion unit 23C shifts the block by one cell to create a histogram, and calculates the representative value of the cell of interest in the block.

つまり、第3の実施形態に係る付着物検出装置1Cでは、複数の画素ごとに代表値を算出することで、データ量を削減することができる。このため、マッチング部24Cによるマッチング処理を簡略化することができる。なお、同図に示す例では、セルが8×8ピクセルであるため、データ量は1/64に削減されることとなる。 That is, in the deposit detection device 1C according to the third embodiment, the amount of data can be reduced by calculating the representative value for each of a plurality of pixels. Therefore, the matching process by the matching unit 24C can be simplified. In the example shown in the figure, since the cell is 8 × 8 pixels, the amount of data is reduced to 1/64.

なお、図16Aに示したブロックおよびセルのピクセル数は一例であって、セルおよびブロックのピクセル数は、任意に設定することができる。この際、検出したい水滴の大きさに応じて各セルのピクセル数を変更することもできる。 The number of pixels of the block and the cell shown in FIG. 16A is an example, and the number of pixels of the cell and the block can be arbitrarily set. At this time, the number of pixels of each cell can be changed according to the size of the water droplet to be detected.

例えば、小さい水滴を検出したい場合、セルのピクセル数を少なく設定し、大きい水滴を検出したい場合は、セルのピクセル数を多く設定する。これにより、検出したい大きさの水滴を効率よく検出することができる。 For example, if you want to detect small water droplets, set a small number of pixels in the cell, and if you want to detect large water droplets, set a large number of pixels in the cell. This makes it possible to efficiently detect water droplets of the size to be detected.

また、変換部23Cは、単にセルごとにヒストグラムを作成し、かかるヒストグラムに基づいて各セルの代表値を算出することにしてもよい。なお、変換部23Cは、代表値を算出せず、全ての画素を符号化することにしてもよい。 Further, the conversion unit 23C may simply create a histogram for each cell and calculate the representative value of each cell based on the histogram. Note that the conversion unit 23C may encode all the pixels without calculating the representative value.

次に、図16Bを用いてヒストグラムについて説明する。なお、同図では、縦軸にエッジ強度を示し、横軸にエッジ向きの階級を示す。同図に示すように、第3の実施形態に係る付着物検出装置1Cでは、例えば、エッジ向きを20°ごとに18段階の各階級に割り当ててヒストグラムを作成する。 Next, the histogram will be described with reference to FIG. 16B. In the figure, the vertical axis shows the edge strength, and the horizontal axis shows the class for the edge. As shown in the figure, in the deposit detection device 1C according to the third embodiment, for example, the edge orientation is assigned to each class of 18 stages every 20 ° to create a histogram.

具体的には、変換部23Cは、ブロック内の各画素のエッジ強度をエッジ向きに対応する階級に加算していくことで、ブロックにおけるヒストグラムを作成する。続いて、変換部23Cは、作成したヒストグラムからエッジ強度の和が最大となる階級を求める。 Specifically, the conversion unit 23C creates a histogram in the block by adding the edge strength of each pixel in the block to the class corresponding to the edge direction. Subsequently, the conversion unit 23C obtains the class that maximizes the sum of the edge intensities from the created histogram.

同図に示す例では、80〜100°の階級が最大の値をとる場合を示している。このとき、変換部23Cは、かかる階級においてエッジ強度の和が閾値以上である場合に、かかる階級を代表値とする。 In the example shown in the figure, the case where the class of 80 to 100 ° takes the maximum value is shown. At this time, the conversion unit 23C uses such a class as a representative value when the sum of the edge intensities is equal to or greater than the threshold value in such a class.

同図に示す例では、80〜100°の階級においてエッジ強度の和が閾値を超えているため、上記の条件を満たす。このため、かかるブロックにおける注目セルの階級は、80〜100°となる。 In the example shown in the figure, since the sum of the edge intensities exceeds the threshold value in the class of 80 to 100 °, the above condition is satisfied. Therefore, the class of the cell of interest in such a block is 80 to 100 °.

続いて、変換部23Cは、注目セルを階級に応じて割り当てられた符号に変換する。ここで、各階級には、0〜9およびA〜Hの18種類の符号がそれぞれ割り当てられる。なお、0〜9およびA〜Hは、0°から360°まで20度刻みの各階級に割り当てられる符号である。また、代表値が閾値を超えなかった場合、すなわち、エッジ強度が低いセルには、Zの符号が割り当てられる。 Subsequently, the conversion unit 23C converts the cell of interest into a code assigned according to the class. Here, 18 types of codes 0 to 9 and A to H are assigned to each class. Note that 0 to 9 and A to H are codes assigned to each class from 0 ° to 360 ° in increments of 20 degrees. Further, when the representative value does not exceed the threshold value, that is, the cell having a low edge strength is assigned the sign Z.

このようにして、変換部23Cは、全てのセルについて符号化を行う。これにより、符号化されたグレースケール画像において、符号が格子状に配列されることとなる。なお、変換部23Cは、上記した代表値を算出する以外に、他の統計学的な算出方法を用いて代表値を算出することにしてもよい。 In this way, the conversion unit 23C encodes all the cells. As a result, the codes are arranged in a grid pattern in the coded grayscale image. In addition to calculating the representative value described above, the conversion unit 23C may calculate the representative value by using another statistical calculation method.

また、同図では、エッジ向きを18階級に分類する場合について説明したが、これに限られず、18階級より少なくする、あるいは、多くすることにしてもよい。また、同図では、符号がA〜HおよびZである場合を示したが、符号として、平仮名や数字など、他の文字、または図形等を用いることにしてもよい。 Further, in the figure, the case where the edge orientation is classified into 18 classes has been described, but the present invention is not limited to this, and the number may be less than or more than 18 classes. Further, in the figure, the cases where the symbols are A to H and Z are shown, but other characters such as hiragana and numbers, figures, and the like may be used as the symbols.

また、変換部23Cは、例えば、一つのブロックで閾値を超える複数の階級が存在した場合、かかる複数の階級に対応する符号をグレースケール画像に関連付けてマッチング部24Cに出力することにしてもよい。 Further, for example, when there are a plurality of classes exceeding the threshold value in one block, the conversion unit 23C may output the codes corresponding to the plurality of classes to the matching unit 24C in association with the grayscale image. ..

換言すると、変換部23Cは、複数のエッジ向きの情報をグレースケール画像に関連付けることにしてもよい。かかる場合、水滴を検出するためのデータ量が増えるため、より精密に水滴を検出することが可能となる。 In other words, the conversion unit 23C may associate a plurality of edge orientation information with the grayscale image. In such a case, since the amount of data for detecting water droplets increases, it becomes possible to detect water droplets more accurately.

次に、図17Aおよび17Bを用いて第3の実施形態に係るマッチング部24Cによる処理について説明する。図17Aは、第3の実施形態に係るテンプレートの一例を示す模式図である。図17Bは、マッチング部24Cによるマッチング処理の一例を示す図である。 Next, the processing by the matching unit 24C according to the third embodiment will be described with reference to FIGS. 17A and 17B. FIG. 17A is a schematic view showing an example of the template according to the third embodiment. FIG. 17B is a diagram showing an example of matching processing by the matching unit 24C.

なお、図17Aでは、視覚的に分かりやすくするために、テンプレートを上記した符号ではなく、実際のエッジ向きを模式的に示す。図17Aに示すように、第3の実施形態に係る付着物検出装置1Cでは、テンプレートして水滴の特徴を示す符号列である符号パターンを有する。具体的には、例えば、上辺パターン、下辺パターン、左辺パターン、右辺パターンを有する。 In addition, in FIG. 17A, in order to make it visually easy to understand, the template is schematically shown with the actual edge orientation instead of the above-mentioned reference numerals. As shown in FIG. 17A, the deposit detection device 1C according to the third embodiment has a code pattern which is a code string indicating the characteristics of water droplets as a template. Specifically, it has, for example, an upper side pattern, a lower side pattern, a left side pattern, and a right side pattern.

ここで、同図に示す各辺のパターンは、水滴を内包または水滴を外包する矩形の各辺を示す。また、同図では、各辺のパターンのエッジ向きが、それぞれ中央に向かう場合について示している。この場合、水滴の輝度が端部から中央に向けて大きくなる、すなわち、中央が明るく端部が暗い水滴の特徴を示す。 Here, the pattern of each side shown in the figure shows each side of a rectangle containing water droplets or externally water droplets. Further, in the figure, the case where the edge direction of each side pattern is directed toward the center is shown. In this case, the brightness of the water droplet increases from the end to the center, that is, the characteristic of the water droplet is that the center is bright and the end is dark.

なお、第3の実施形態に係る付着物検出装置1Cは、水滴の輝度が中央から端部にかけて大きくなる、すなわち、中央が暗く端部が明るい水滴の特徴を示す各辺のパターンを備えることにしてもよい。このようにすることで、多様な水滴を検出することが可能となる。 The deposit detection device 1C according to the third embodiment includes a pattern on each side showing the characteristics of water droplets whose brightness increases from the center to the edges, that is, the center is dark and the edges are bright. You may. By doing so, it becomes possible to detect various water droplets.

なお、同図では、上下左右の4方のパターンを例示したが、斜め方向を含むパターンを用いることもできる。このようにすることで、水滴の検出精度を向上させることができる。 In the figure, four patterns of up, down, left, and right are illustrated, but a pattern including an oblique direction can also be used. By doing so, the accuracy of detecting water droplets can be improved.

また、水滴の特徴を示す符号列は、例えば、弧状に配列された各符号の並びであってもよい。また、マッチング部24Cは、各辺のパターンに応じて正規表現を行う領域を限定することにしてもよい。 Further, the code string indicating the characteristics of the water droplet may be, for example, an array of codes arranged in an arc shape. Further, the matching unit 24C may limit the area where the regular expression is performed according to the pattern of each side.

次に、図17Bを用いてマッチング部24Cによるマッチング処理について説明する。なお、ここでは、説明の便宜上、図17Aに示した上辺パターンをそれぞれA〜Fの符号を用いて示す。また、同図のaおよびbには、変換部23Cによって符号化されたグレースケール画像の一部を模式的に示す。 Next, the matching process by the matching unit 24C will be described with reference to FIG. 17B. Here, for convenience of explanation, the upper side patterns shown in FIG. 17A are shown using reference numerals A to F, respectively. Further, a and b in the figure schematically show a part of the grayscale image encoded by the conversion unit 23C.

同図のaに示すように、マッチング部24Cは、符号パターンがA〜Fの順に順序良く並んでいれば、かかる符号パターンを上辺パターンと一致すると判定する。 As shown in a in the figure, if the code patterns are arranged in the order of A to F, the matching unit 24C determines that the code pattern matches the upper side pattern.

具体的には、マッチング部24Cは、同図のaに示すように、例えば、Aが3回、B、C、DおよびEがそれぞれ2回、そして、Fが3回など繰り返される配列を上辺パターンの各符号の配列順序を満たせば、上辺パターンとして抽出することにしている。 Specifically, as shown in a in the figure, the matching unit 24C has an array in which A is repeated three times, B, C, D and E are repeated twice, and F is repeated three times. If the arrangement order of each code of the pattern is satisfied, it is extracted as the upper side pattern.

これは、水滴の大きさに応じて符号の繰り返し回数が異なるためである。すなわち、水滴が大きいほど、各符号列の長さが多くなるためである。このように、かかる符号の繰り返しを許容することで、1回のマッチング処理で、大きさが異なる複数の水滴を示す符号列を抽出することができる。 This is because the number of times the code is repeated differs depending on the size of the water droplet. That is, the larger the water droplet, the longer the length of each code string. By allowing the repetition of such a code in this way, it is possible to extract a code string indicating a plurality of water droplets having different sizes in one matching process.

したがって、処理負荷を軽減しつつ、水滴を検出することができる。なお、マッチング部24Cは、水滴の大きさに応じて符号列の長さが異なる複数の各辺のパターンを用意し、全てのかかるパターンを用いて符号列を抽出することにしてもよい。 Therefore, water droplets can be detected while reducing the processing load. The matching unit 24C may prepare a plurality of patterns on each side having different lengths of the code strings according to the size of the water droplets, and extract the code strings using all such patterns.

また、水滴は一般的に球状となるため、各符号の繰り返しの回数は、中心から線対称状となるはずである。このため、マッチング部24Cは、抽出した符号列の中で、バランスが悪い符号列を除外することにしている。 Also, since water droplets are generally spherical, the number of repetitions of each code should be line-symmetrical from the center. Therefore, the matching unit 24C decides to exclude the unbalanced code string from the extracted code strings.

具体的には、同図のbに示すように、マッチング部24Cは、例えば、両端に位置するAとFとのバランスを精査する。ここで、同図では、Aが3回繰り返され、Fが10回繰り返される場合を示している。 Specifically, as shown in b in the figure, the matching unit 24C examines, for example, the balance between A and F located at both ends. Here, the figure shows a case where A is repeated 3 times and F is repeated 10 times.

このとき、マッチング部24Cは、AおよびFの個数が2倍以上異なる場合に、配列順序を満たす場合であっても、かかる符号列パターンを除外することにしている。このようにすることで、水滴以外の不要な符号パターンの誤抽出を防ぐことができ、水滴の誤検出を抑えることができる。 At this time, the matching unit 24C excludes such a code string pattern even when the arrangement order is satisfied when the numbers of A and F are different by two times or more. By doing so, it is possible to prevent erroneous extraction of unnecessary code patterns other than water droplets, and it is possible to suppress erroneous detection of water droplets.

また、マッチング部24Cでは、例えば、抽出した符号列が閾値より長い場合、かかる符号列をマッチングから除外することもできる。これは、符号列が長い場合、水滴である可能性が低いためである。このため、水滴の誤検出を抑えることができる。なお、かかる閾値は、統計等によって最適な値を予め導出しておくものとする。 Further, in the matching unit 24C, for example, when the extracted code string is longer than the threshold value, such a code string can be excluded from the matching. This is because if the code string is long, it is unlikely that it is a water droplet. Therefore, erroneous detection of water droplets can be suppressed. It should be noted that the optimum value of such a threshold value shall be derived in advance by statistics or the like.

次に、図18を用いて第3の実施形態に係る検出部25Cによる検出処理について説明する。図18は、第3の実施形態に係る検出部25Cによる検出処理を説明する図である。なお、同図では、図17Aと同様に、符号に代えて実際のエッジ向きを模式的に示す。 Next, the detection process by the detection unit 25C according to the third embodiment will be described with reference to FIG. FIG. 18 is a diagram illustrating a detection process by the detection unit 25C according to the third embodiment. In the same figure, as in FIG. 17A, the actual edge orientation is schematically shown instead of the reference numerals.

また、ここでは、マッチング部24Cによって最初に上辺パターンが抽出された場合について説明する。まず、検出部25Cは、上辺パターンの幅に基づき、略正方形状の検出領域R1を設定する。 Further, here, the case where the upper side pattern is first extracted by the matching unit 24C will be described. First, the detection unit 25C sets a substantially square detection region R1 based on the width of the upper side pattern.

続いて、マッチング部24Cによって検出領域R1から逸脱した位置に右辺パターンが抽出されたものとする。このとき、検出部25Cは右辺パターンの検出領域R2の中心座標が検出領域R1内にあれば、双方の検出領域R1およびR2を統合する処理を行う。 Subsequently, it is assumed that the right-hand side pattern is extracted by the matching unit 24C at a position deviating from the detection region R1. At this time, if the center coordinates of the detection region R2 of the right-hand side pattern are within the detection region R1, the detection unit 25C performs a process of integrating both detection regions R1 and R2.

その後、検出部25Cは、例えば、統合した検出領域R3において、下辺パターンまたは左辺パターンが抽出された場合、統合した検出領域R3において水滴を検出する。換言すると、検出部25Cは、検出領域R3において異なる3方向以上の各辺を示すパターンが抽出されることを検出条件(以下、方向条件という)として水滴を検出することにしている。 After that, for example, when the lower side pattern or the left side pattern is extracted in the integrated detection area R3, the detection unit 25C detects water droplets in the integrated detection area R3. In other words, the detection unit 25C detects water droplets under a detection condition (hereinafter, referred to as a direction condition) that a pattern indicating each side of three or more different directions is extracted in the detection region R3.

なお、検出部25Cは、かかる方向条件以外に、例えば、統合した検出領域R3において、各辺を示すパターンが所定回数(例えば、上下左右を含めて4回)以上抽出されたことを水滴の検出条件(以下、回数条件という)とすることにしてもよい。 In addition to the directional condition, the detection unit 25C detects that, for example, in the integrated detection region R3, a pattern indicating each side is extracted a predetermined number of times (for example, four times including up, down, left, and right) or more. It may be a condition (hereinafter referred to as a number-of-times condition).

このように、検出条件として、3方向以上の方向条件や回数条件とすることで、上下左右の全ての辺が抽出されなくとも水滴を検出することとなる。すなわち、カメラ画像から見切れる例えば、半円状の水滴を検出することができる。 In this way, by setting the detection conditions as the direction condition of three or more directions and the number of times condition, water droplets can be detected even if all the upper, lower, left, and right sides are not extracted. That is, for example, a semicircular water droplet that can be seen off from the camera image can be detected.

なお、例えば、水滴を検出する領域に応じて方向条件を変更することにしてもよい。例えば、カメラ画像の中央の領域については、方向条件を4方向に設定する。これにより、水滴の検出精度を向上させることができる。 In addition, for example, the directional condition may be changed according to the region where water droplets are detected. For example, for the central region of the camera image, the direction conditions are set to four directions. As a result, the accuracy of detecting water droplets can be improved.

また、例えば、カメラ画像の4隅の領域については、方向条件を2回に設定する。これにより、カメラ画像の4隅に写る見切れた扇状の水滴を検出することが可能となる。 Further, for example, for the regions at the four corners of the camera image, the direction condition is set to twice. This makes it possible to detect the fan-shaped water droplets that are cut off at the four corners of the camera image.

なお、同図では、上辺パターンの検出領域R1内に検出領域R2の中心座標がおさまる場合に、検出領域を統合する場合について示したが、これに限定されるものではない。すなわち、検出領域R1および検出領域R2の少なくとも一部が重なっていれば双方の検出領域を統合することにしてもよい。 In the figure, a case where the detection area is integrated when the center coordinates of the detection area R2 are within the detection area R1 of the upper side pattern is shown, but the present invention is not limited to this. That is, if at least a part of the detection area R1 and the detection area R2 overlap, both detection areas may be integrated.

また、統合した検出領域R3を、検出領域R1および検出領域R2の論理積とすることにしてもよいし、検出領域の論理和とすることにしてもよい。また、同図では、検出領域R1および検出領域R2が矩形状である場合を示したが、これに限られず、検出領域を円形状など他の形状とすることにしてもよい。 Further, the integrated detection area R3 may be the logical product of the detection area R1 and the detection area R2, or may be the logical sum of the detection areas. Further, in the figure, the case where the detection area R1 and the detection area R2 have a rectangular shape is shown, but the present invention is not limited to this, and the detection area may have another shape such as a circular shape.

なお、検出部25Cは、図7Dで既に説明したように、複数フレームにおける検出結果に基づいて水滴を検出することにしてもよい。 Note that the detection unit 25C may detect water droplets based on the detection results in a plurality of frames, as already described in FIG. 7D.

次に、図19を用いて検出部25Cによる検出条件の除外処理について説明する。図19は、検出条件から除外する条件を示す図である。また、同図には、グレースケール画像の一部を拡大し、エッジ向きを模式的に示す。 Next, the exclusion process of the detection condition by the detection unit 25C will be described with reference to FIG. FIG. 19 is a diagram showing conditions to be excluded from the detection conditions. Further, in the figure, a part of the grayscale image is enlarged to schematically show the edge orientation.

なお、同図に示す長さa1は、長さa2の例えば、1.5倍である。すなわち、長さa2は、長さa1の2/3の値となる。ここで、例えば、グレースケール画像の左2/3の領域(同図に示す破線より左側の領域)には、カメラ10に水滴が付着していなくても左辺パターンが抽出されやすい傾向がある。 The length a1 shown in the figure is, for example, 1.5 times the length a2. That is, the length a2 is a value of 2/3 of the length a1. Here, for example, in the left two-thirds region of the grayscale image (the region on the left side of the broken line shown in the figure), the left side pattern tends to be easily extracted even if water droplets are not attached to the camera 10.

このため、検出部25Cは、かかる領域において複数個の左辺パターンが抽出され、他の辺を示すパターンが抽出されなかった場合、上記した回数条件を満たす場合であっても、例外的に検出対象から除外する。 Therefore, the detection unit 25C is exceptionally a detection target even when the above-mentioned number of times condition is satisfied when a plurality of left side patterns are extracted in such a region and patterns indicating other sides are not extracted. Exclude from.

これにより、水滴の誤検出を抑えることができる。なお、ここでは、左辺パターンを例に挙げて説明したが、他の辺のパターンについても同様である。 As a result, erroneous detection of water droplets can be suppressed. Although the left side pattern has been described as an example here, the same applies to the patterns on the other sides.

次に、図20を用いて第3の実施形態に係る付着物検出装置1Cが実行する処置手順について説明する。図20は、第3の実施形態に係る付着物検出装置1Cが実行する処理手順を示すフローチャートである。ここでは、ステップS101およびステップS102については、既に説明したため省略し、同図に示すステップS301から説明する。 Next, the treatment procedure executed by the deposit detection device 1C according to the third embodiment will be described with reference to FIG. FIG. 20 is a flowchart showing a processing procedure executed by the deposit detection device 1C according to the third embodiment. Here, steps S101 and S102 will be omitted because they have already been described, and will be described from step S301 shown in the figure.

まず、変換部23Cは、抽出部22によって抽出されたエッジ情報に基づいて図16Aおよび図16Bに示したようにヒストグラムを作成し代表値を算出する(ステップS301)。その後、変換部23Cは、セルごとに代表値を符号化する符号化処理を行う(ステップS302)。 First, the conversion unit 23C creates a histogram as shown in FIGS. 16A and 16B based on the edge information extracted by the extraction unit 22, and calculates a representative value (step S301). After that, the conversion unit 23C performs a coding process for coding the representative value for each cell (step S302).

続いて、マッチング部24Cは、符号化されたグレースケール画像に正規表現を用いてマッチング処理を行う(ステップS303)。そして、検出部25Cは、図18に示したように水滴を検出する(ステップS304)。 Subsequently, the matching unit 24C performs a matching process on the encoded grayscale image using a regular expression (step S303). Then, the detection unit 25C detects water droplets as shown in FIG. 18 (step S304).

上述してきたように、第3の実施形態に係る付着物検出装置1Cでは、各画素を符号化し、正規表現を用いてマッチング処理を行う。これにより、マッチング処理を簡略化して行うことができる。つまり、処理負荷を抑えつつ、精度よく水滴を検出することができる。 As described above, in the deposit detection device 1C according to the third embodiment, each pixel is encoded and a matching process is performed using a regular expression. As a result, the matching process can be simplified. That is, water droplets can be detected accurately while suppressing the processing load.

また、第3の実施形態に係る付着物検出装置1Cでは、マッチング処理に正規表現を用いることにより、大きさの異なる水滴や、カメラ画像から見切れる水滴の検出精度を向上させることができる。 Further, in the deposit detection device 1C according to the third embodiment, by using a regular expression for the matching process, it is possible to improve the detection accuracy of water droplets having different sizes and water droplets that can be seen from the camera image.

なお、第1〜第3の実施形態に係る付着物検出装置1、1Bおよび1Cを適宜組み合わせて用いることもできる。例えば、図16Aに示した代表値の算出方法を第1および第2の実施形態に用いることにしてもよい。 It should be noted that the deposit detection devices 1, 1B and 1C according to the first to third embodiments can also be used in appropriate combinations. For example, the method of calculating the representative value shown in FIG. 16A may be used in the first and second embodiments.

また、第1〜第3の実施形態に係る付着物検出装置1、1Bおよび1Cでは、水滴を検出する目的に応じて、カメラ10からカメラ画像を取得するフレーム間隔を変更することもできる。例えば、車両の後進時に、カメラ画像を運転者に提示する場合、できるだけ早く水滴を検知する必要がある。 Further, in the deposit detection devices 1, 1B and 1C according to the first to third embodiments, the frame interval for acquiring a camera image from the camera 10 can be changed according to the purpose of detecting water droplets. For example, when presenting a camera image to the driver when the vehicle is moving backward, it is necessary to detect water droplets as soon as possible.

このため、かかる場合に、カメラ10によって撮像されたフレームを全て取得し、かかる全てのフレームから水滴を検出する。一方、例えば、検出目的が自動駐車等のセンシング用途である場合、例えば、数フレーム毎にカメラ画像を取得することにしてもよい。 Therefore, in such a case, all the frames imaged by the camera 10 are acquired, and water droplets are detected from all the frames. On the other hand, for example, when the detection purpose is a sensing application such as automatic parking, the camera image may be acquired every few frames, for example.

また、かかる場合に、1フレーム毎にリアカメラ→フロントカメラ→右カメラ→左カメラなどカメラ画像を取得するカメラ10を切り替えて取得することにしてもよい。 Further, in such a case, the camera 10 for acquiring the camera image such as the rear camera → the front camera → the right camera → the left camera may be switched and acquired for each frame.

また、第1〜第3の実施形態に係る付着物検出装置1、1Bおよび1Cでは、カメラ画像の解像度を変更して水滴の検出処理を行うことにしてもよい。例えば、解像度を落として水滴の検出を行う場合、検出処理の処理負荷を軽減することができる。なお、かかる解像度を水滴の検出目的に応じて変更することもできる。 Further, in the deposit detection devices 1, 1B and 1C according to the first to third embodiments, the resolution of the camera image may be changed to perform the water droplet detection process. For example, when the resolution is lowered to detect water droplets, the processing load of the detection process can be reduced. The resolution can be changed according to the purpose of detecting water droplets.

(第4の実施形態)
次に、第4の実施形態として、これまで説明してきた付着物検出装置1、1Bおよび1Cの機能を含んで構成され、付着物の検出から付着物を除去するまでの全体処理を制御する除去制御装置50の構成について、図21〜図25を用いて説明する。
(Fourth Embodiment)
Next, as a fourth embodiment, the removal is configured to include the functions of the deposit detection devices 1, 1B and 1C described so far, and controls the entire process from the detection of the deposit to the removal of the deposit. The configuration of the control device 50 will be described with reference to FIGS. 21 to 25.

図21は、本実施形態に係る付着物除去システム100のブロック図である。なお、図21では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。 FIG. 21 is a block diagram of the deposit removing system 100 according to the present embodiment. In FIG. 21, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.

換言すれば、図21に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in FIG. 21 is a functional concept and does not necessarily have to be physically configured as shown. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or part of the functional blocks are functionally or physically distributed in arbitrary units according to various loads and usage conditions. -It is possible to integrate and configure.

また、図22Aは、付着物検出部61からの通知内容の一例を示す図である。また、図22Bは、検出情報DB(データベース)71に含まれる検出エリアDaに関するデータ内容の一例を示す図である。また、図22Cは、検出エリアDaの状態の説明図である。 Further, FIG. 22A is a diagram showing an example of the content of notification from the deposit detection unit 61. Further, FIG. 22B is a diagram showing an example of data contents related to the detection area Da included in the detection information DB (database) 71. Further, FIG. 22C is an explanatory diagram of the state of the detection area Da.

図21に示すように、付着物除去システム100は、カメラ10と、付着物除去装置11と、除去制御装置50とを含む。カメラ10および付着物除去装置11については既に述べたため、ここでの説明を省略する。 As shown in FIG. 21, the deposit removing system 100 includes a camera 10, a deposit removing device 11, and a removal control device 50. Since the camera 10 and the deposit removing device 11 have already been described, the description thereof will be omitted here.

除去制御装置50は、制御部60と、記憶部70とを備える。制御部60は、複数の付着物検出部61と、除外部62と、アルゴリズム間重なり判定部63と、フレーム間重なり判定部64と、付着判定部65と、除去要否判定部66と、指示部67とを備える。 The removal control device 50 includes a control unit 60 and a storage unit 70. The control unit 60 instructs the plurality of deposit detection units 61, the exclusion unit 62, the algorithm-to-algorithm overlap determination unit 63, the inter-frame overlap determination unit 64, the adhesion determination unit 65, and the removal necessity determination unit 66. A unit 67 is provided.

記憶部70は、ハードディスクドライブや不揮発性メモリ、レジスタといった記憶デバイスであって、検出情報DB71を記憶する。 The storage unit 70 is a storage device such as a hard disk drive, a non-volatile memory, or a register, and stores the detection information DB 71.

制御部60は、除去制御装置50全体を制御する。複数の付着物検出部61は、それぞれカメラ10からカメラ画像を1フレーム分ずつ取得し、それぞれに対応付けられた検出アルゴリズムを用いてカメラ画像の中から付着物が存在すると推定される検出エリアDaを抽出する。また、付着物検出部61は、抽出した検出エリアDaを除外部62へ通知する。 The control unit 60 controls the entire removal control device 50. Each of the plurality of deposit detection units 61 acquires a camera image for one frame from the camera 10, and uses a detection algorithm associated with each of the detection areas Da in which it is estimated that deposits are present in the camera image. Is extracted. Further, the deposit detection unit 61 notifies the exclusion unit 62 of the extracted detection area Da.

ここで、付着物検出部61からの通知内容には、図22Aに示すように、例えば矩形で抽出された検出エリアDaの左上座標(x,y)と、幅wと、高さhとが含まれる。 Here, as shown in FIG. 22A, the notification content from the deposit detection unit 61 includes, for example, the upper left coordinates (x, y) of the detection area Da extracted in a rectangular shape, the width w, and the height h. included.

除外部62は、付着物検出部61から通知される検出エリアDaのそれぞれについて画像解析を行い、かかる検出エリアDaに存在すると推定される付着物が本当に付着物であるか否かを判定する。 The exclusion unit 62 performs image analysis on each of the detection areas Da notified from the deposit detection unit 61, and determines whether or not the deposits presumed to exist in the detection area Da are really deposits.

また、除外部62は、その判定結果により付着物であると判定される検出エリアDaについては、かかる検出エリアDaをアルゴリズム間重なり判定部63へ通知する。一方、除外部62は、その判定結果により付着物でないと判定される検出エリアDaについては、アルゴリズム間重なり判定部63への通知を行わず、後段の処理対象から除外する。このように、無用の画像領域を除外することにより、付着物の検出の精度を高められるとともに、後段の処理負荷を軽減することができる。 Further, the exclusion unit 62 notifies the inter-algorithm overlap determination unit 63 of the detection area Da that is determined to be an deposit based on the determination result. On the other hand, the exclusion unit 62 does not notify the inter-algorithm overlap determination unit 63 of the detection area Da that is determined to be non-adhesive based on the determination result, and excludes the detection area Da from the processing target in the subsequent stage. By excluding the useless image area in this way, the accuracy of detecting the deposits can be improved and the processing load in the subsequent stage can be reduced.

例えば、除外部62は、検出エリアDaのエッジ強度、輝度および彩度のそれぞれにつき、「弱」、「中」、「強」の3階級で分類されたヒストグラムを生成する。そして、除外部62は、生成した各ヒストグラムにおける階級それぞれの度数の割合に基づいて付着物であるか否かを判定し、付着物でないと判定される検出エリアDaを除外する。 For example, the exclusion unit 62 generates a histogram classified into three classes of “weak”, “medium”, and “strong” for each of the edge intensity, brightness, and saturation of the detection area Da. Then, the exclusion unit 62 determines whether or not it is a deposit based on the ratio of the frequency of each class in each of the generated histograms, and excludes the detection area Da that is determined not to be a deposit.

アルゴリズム間重なり判定部63は、現フレームでの複数アルゴリズム間での検出エリアDaの重なり、すなわち、付着物検出部61のそれぞれで抽出された検出エリアDa間の重複部分の存否を判定する。また、アルゴリズム間重なり判定部63は、その判定結果を各検出エリアDaの「得点」として反映する。反映結果は、検出情報DB71上で管理される。アルゴリズム間重なり判定部63が実行する判定処理の詳細については、図23A〜図23Dを用いて後述する。 The inter-algorithm overlap determination unit 63 determines the overlap of the detection areas Da between the plurality of algorithms in the current frame, that is, the existence or nonexistence of the overlap portion between the detection areas Da extracted by each of the deposit detection units 61. Further, the inter-algorithm overlap determination unit 63 reflects the determination result as a “score” of each detection area Da. The reflection result is managed on the detection information DB 71. The details of the determination process executed by the inter-algorithm overlap determination unit 63 will be described later with reference to FIGS. 23A to 23D.

フレーム間重なり判定部64は、現フレームに関するアルゴリズム間重なり判定部63の処理結果すべてに対し、過去フレームで抽出済みである検出エリアDaとの重なりの存否を判定する。また、フレーム間重なり判定部64は、その判定結果を各検出エリアDaの「得点」および「状態」に反映する。反映結果は、検出情報DB71上で管理される。 The inter-frame overlap determination unit 64 determines whether or not there is an overlap with the detection area Da extracted in the past frame for all the processing results of the algorithm inter-frame overlap determination unit 63 related to the current frame. Further, the inter-frame overlap determination unit 64 reflects the determination result in the "score" and "state" of each detection area Da. The reflection result is managed on the detection information DB 71.

ここで、検出情報DB71は、図22Bに示すように、例えば「検出エリアID」項目と、「エリア情報」項目と、「得点」項目と、「状態」項目とを含む。「検出エリアID」項目には、検出エリアDaの識別子が格納され、検出情報DB71は、かかる検出エリアIDごとに管理される。 Here, as shown in FIG. 22B, the detection information DB 71 includes, for example, a "detection area ID" item, an "area information" item, a "score" item, and a "state" item. The identifier of the detection area Da is stored in the "detection area ID" item, and the detection information DB 71 is managed for each such detection area ID.

「エリア情報」項目には、図22Aで示した検出エリアDaの左上座標(x,y)や、幅w、高さhなどが格納される。「得点」項目には、検出エリアDaそれぞれの現状の得点が格納される。「状態」項目には、検出エリアDaそれぞれの現状の状態(ステート)が格納される。 In the "area information" item, the upper left coordinates (x, y) of the detection area Da shown in FIG. 22A, the width w, the height h, and the like are stored. In the "score" item, the current score of each detection area Da is stored. The "state" item stores the current state of each detection area Da.

図22Cにステートマシン図として示すように、各検出エリアDaは、「IDLE」、「潜伏」、「観察」、「ペナルティ」という4つの状態に遷移し得る。「IDLE」は、「未検出状態」、すなわち付着物が付着していない状態を指す。「潜伏」は、「付着物付着の可能性あり」の状態を指す。 As shown in FIG. 22C as a state machine diagram, each detection area Da can transition to four states of "IDLE", "latent", "observation", and "penalty". "IDLE" refers to an "undetected state", that is, a state in which no deposits are attached. "Hidden" refers to the state of "possible deposits".

「観察」は、付着物除去装置11による付着物の除去動作が行われた「除去処理後の観察状態」を指す。「ペナルティ」は、「除去処理後も当該エリアで付着物が検出され続けている状態」、すなわち、除去不良か誤検出の状態を指す。 "Observation" refers to the "observation state after the removal process" in which the deposit removal operation is performed by the deposit removal device 11. The "penalty" refers to "a state in which deposits are continuously detected in the area even after the removal process", that is, a state of poor removal or false detection.

フレーム間重なり判定部64は、判定した判定結果に応じ、検出情報DB71上で各検出エリアDaの「得点」を更新し、「状態」を遷移させる。 The inter-frame overlap determination unit 64 updates the "score" of each detection area Da on the detection information DB 71 according to the determination result of the determination, and transitions the "state".

図21の説明に戻る。付着判定部65は、検出情報DB71の検出エリアDaの「状態」と「得点」に応じ、付着物の「付着確定」を判定する。 Returning to the description of FIG. The adhesion determination unit 65 determines the "adhesion confirmation" of the adhered matter according to the "state" and the "score" of the detection area Da of the detection information DB 71.

除去要否判定部66は、付着判定部65によって「付着確定」と判定された場合に、実際に付着物除去装置11に付着物の除去動作を行わせるか否かを判定する。フレーム間重なり判定部64、付着判定部65および除去要否判定部66が実行する処理の詳細については、図24A〜図24Eを用いて後述する。 The removal necessity determination unit 66 determines whether or not to actually cause the deposit removal device 11 to perform the deposit removal operation when the adhesion determination unit 65 determines that the adhesion is confirmed. Details of the processes executed by the frame-to-frame overlap determination unit 64, the adhesion determination unit 65, and the removal necessity determination unit 66 will be described later with reference to FIGS. 24A to 24E.

指示部67は、除去要否判定部66によって、付着物の除去が必要と判定された場合に、付着物除去装置11に除去動作を行わせる指示信号を生成して、かかる指示信号を付着物除去装置11へ送出する。 When the removal necessity determination unit 66 determines that the removal of the deposit is necessary, the instruction unit 67 generates an instruction signal for causing the deposit removal device 11 to perform the removal operation, and outputs the instruction signal to the deposit. It is sent to the removal device 11.

次に、アルゴリズム間重なり判定部63が実行する判定処理の詳細について、図23A〜図23Dを用いて説明する。図23A〜図23Dは、アルゴリズム間重なり判定部63の処理説明図(その1)〜(その4)である。 Next, the details of the determination process executed by the inter-algorithm overlap determination unit 63 will be described with reference to FIGS. 23A to 23D. 23A to 23D are processing explanatory views (No. 1) to (No. 4) of the inter-algorithm overlap determination unit 63.

上でも既に述べたが、図23Aに示すように、アルゴリズム間重なり判定部63は、現フレームでの複数アルゴリズム間での検出エリアDaの重なりの存否を判定する。具体的には、図23Aに示すように、例えば付着物検出アルゴリズム−1の検出エリアDa−1のすべてと、付着物検出アルゴリズム−2の検出エリアDa−2のすべてとの重なりを判定する。これは、付着物検出アルゴリズム−1と付着物検出アルゴリズム−3との間、または、付着物検出アルゴリズム−2と付着物検出アルゴリズム−3との間についても同様である。 As already described above, as shown in FIG. 23A, the inter-algorithm overlap determination unit 63 determines whether or not the detection area Da overlaps between a plurality of algorithms in the current frame. Specifically, as shown in FIG. 23A, for example, the overlap of all the detection areas Da-1 of the deposit detection algorithm-1 and all the detection areas Da-2 of the deposit detection algorithm-2 is determined. This also applies between the deposit detection algorithm-1 and the deposit detection algorithm-3, or between the deposit detection algorithm-2 and the deposit detection algorithm-3.

なお、図23Bに示すように、例えば検出エリアDa−1と検出エリアDa−2との重なりは、それぞれの重心からの距離dによって判定される。 As shown in FIG. 23B, for example, the overlap between the detection area Da-1 and the detection area Da-2 is determined by the distance d from the respective center of gravity.

そして、図23Cに示すように、アルゴリズム間重なり判定部63は、例えば検出エリアDa−1と検出エリアDa−2との間に重なりがあると判定した場合に、検出エリアDa−1および検出エリアDa−2それぞれの得点に加点する。 Then, as shown in FIG. 23C, when the inter-algorithm overlap determination unit 63 determines that there is an overlap between the detection area Da-1 and the detection area Da-2, for example, the detection area Da-1 and the detection area Da-2. Add points to each Da-2 score.

これにより、重なりが存在しない検出エリアDaに対し、重なりが存在する検出エリアDa−1および検出エリアDa−2の方が、付着物の存在する可能性が高いことを示すことができる。 As a result, it can be shown that the detection area Da-1 and the detection area Da-2 having the overlap are more likely to have the deposits than the detection area Da where the overlap does not exist.

また、図23Dに示すように、例えば検出エリアDa−1および検出エリアDa−2に重なりが存在する場合に、アルゴリズム間重なり判定部63は、これら検出エリアDa−1および検出エリアDa−2のエリア情報を更新する。 Further, as shown in FIG. 23D, for example, when the detection area Da-1 and the detection area Da-2 have overlaps, the inter-algorithm overlap determination unit 63 of the detection area Da-1 and the detection area Da-2 Update area information.

例えば図23Dの(a)に示すように、検出エリアDa−1を優先して、検出エリアDa−1にエリア情報を統合する。また、図23Dの(b)に示すように、逆に検出エリアDa−2を優先して、検出エリアDa−2にエリア情報を統合する。 For example, as shown in FIG. 23D (a), the detection area Da-1 is prioritized and the area information is integrated into the detection area Da-1. Further, as shown in FIG. 23D (b), conversely, the detection area Da-2 is prioritized and the area information is integrated into the detection area Da-2.

また、図23Dの(c)に示すように、論理積をとって、重なり部分のみの検出エリアDa−Aにエリア情報を統合する。また、図23Dの(d)に示すように、検出エリアDa−1および検出エリアDa−2の論理和に対応する検出エリアDa−Sにエリア情報を統合してもよい。 Further, as shown in FIG. 23D (c), the area information is integrated into the detection area Da-A having only the overlapping portion by taking a logical product. Further, as shown in FIG. 23D (d), the area information may be integrated into the detection area Da-S corresponding to the logical sum of the detection area Da-1 and the detection area Da-2.

また、図23Dの(e)に示すように、検出エリアDa−1および検出エリアDa−2のいずれをも含むように拡張した検出エリアDa−Eにエリア情報を統合してもよい。 Further, as shown in FIG. 23D (e), the area information may be integrated into the detection area Da-E expanded so as to include both the detection area Da-1 and the detection area Da-2.

次に、フレーム間重なり判定部64、付着判定部65および除去要否判定部66が実行する処理の詳細について、図24A〜図24Eを用いて説明する。図24A〜図24Cは、フレーム間重なり判定部64の処理説明図(その1)〜(その3)である。 Next, the details of the processes executed by the frame-to-frame overlap determination unit 64, the adhesion determination unit 65, and the removal necessity determination unit 66 will be described with reference to FIGS. 24A to 24E. 24A to 24C are processing explanatory views (No. 1) to (No. 3) of the frame-to-frame overlap determination unit 64.

また、図24Dは、フレーム間重なり判定部64および付着判定部65の処理説明図である。また、図24Eは、除去要否判定部66の処理説明図である。 Further, FIG. 24D is a processing explanatory view of the frame-to-frame overlap determination unit 64 and the adhesion determination unit 65. Further, FIG. 24E is a processing explanatory view of the removal necessity determination unit 66.

上でも既に述べたが、図24Aに示すように、フレーム間重なり判定部64は、現フレームに関するアルゴリズム間重なり判定部63の処理結果すべてに対し、過去フレームで抽出済みである各検出エリアDaとの重なりの存否を判定する。 As already described above, as shown in FIG. 24A, the inter-frame overlap determination unit 64 sets each detection area Da that has been extracted in the past frame for all the processing results of the inter-algorithm overlap determination unit 63 related to the current frame. Judge the existence or nonexistence of the overlap of.

具体的には、図24Bに示すように、現フレームの検出エリアDa−Cのすべてと、過去フレームの検出エリアDa−Pのすべてとの重なりを判定する。なお、重なりについての考え方は、アルゴリズム間重なり判定部63の場合と同様であってよい。 Specifically, as shown in FIG. 24B, it is determined that all of the detection areas Da-C of the current frame and all of the detection areas Da-P of the past frame overlap. The concept of overlap may be the same as in the case of the inter-algorithm overlap determination unit 63.

そして、図24Bに示すように、フレーム間重なり判定部64は、現フレームの検出エリアDa−Cと過去フレームの検出エリアDa−Pとの間に重なりがあると判定した場合に、検出エリアDa−Cおよび検出エリアDa−Pそれぞれの得点に加点する。 Then, as shown in FIG. 24B, when the inter-frame overlap determination unit 64 determines that there is an overlap between the detection area Da-C of the current frame and the detection area Da-P of the past frame, the detection area Da Points are added to the scores of -C and detection area Da-P.

これにより、フレーム間重なり判定部64は、例えば、フレームを隔ててなおカメラ10のほぼ同一の領域に存在する付着物を示すことができる。 As a result, the frame-to-frame overlap determination unit 64 can indicate, for example, deposits existing in substantially the same region of the camera 10 across the frames.

一方、図24Cに示すように、フレーム間重なり判定部64は、過去フレームの検出エリアDa−Pにつき、現フレームの検出エリアDa−Cのいずれとも重なりが存在しないものについては、得点を減点する。 On the other hand, as shown in FIG. 24C, the inter-frame overlap determination unit 64 deducts points for the detection area Da-P of the past frame if there is no overlap with any of the detection areas Da-C of the current frame. ..

また、フレーム間重なり判定部64は、現フレームの検出エリアDa−Cにつき、過去フレームの検出エリアDa−Pのいずれとも重なりが存在しないものについては、新規の検出エリアDaであるとして、検出情報DB71へ新規登録する。 Further, the inter-frame overlap determination unit 64 considers that the detection area Da-C of the current frame has no overlap with any of the detection areas Da-P of the past frame as a new detection area Da, and detects the detection information. Newly register in DB71.

新規登録される検出エリアDaは、図24Dに示すように、「潜伏」状態となり、所定の得点を付与される。そして、かかる「潜伏」状態から、前述の「加点」や「減点」を経ることで変化する検出エリアDaの得点に応じ、フレーム間重なり判定部64および付着判定部65は、検出エリアDaの状態を遷移させる。 As shown in FIG. 24D, the newly registered detection area Da is in the "latent" state and is given a predetermined score. Then, according to the score of the detection area Da that changes from the "latent" state through the above-mentioned "point addition" and "point deduction", the frame-to-frame overlap determination unit 64 and the adhesion determination unit 65 are in the state of the detection area Da. To transition.

例えば、図24Dに示すように、フレーム間重なり判定部64は、「潜伏」状態にある検出エリアDaの得点が所定点以下となった場合、かかる検出エリアDaの状態を「潜伏」から「IDLE」へ遷移させる(ステップS11)。これにより、例えば流れ落ちるなどして移動し、除去するまでもない雨滴等の付着物に対し、除去処理を行ってしまう誤反応を防止することができる。 For example, as shown in FIG. 24D, when the score of the detection area Da in the “latent” state becomes equal to or less than a predetermined point, the inter-frame overlap determination unit 64 changes the state of the detection area Da from “latent” to “IDLE”. (Step S11). As a result, it is possible to prevent an erroneous reaction in which the deposits such as raindrops that move by flowing down and need not be removed are removed.

また、「潜伏」状態にある検出エリアDaの得点が所定点以上となった場合、付着判定部65は、当該エリアに対する付着物の付着を確定(付着確定)させる(ステップS12)。 Further, when the score of the detection area Da in the "latent" state becomes a predetermined point or more, the adhesion determination unit 65 confirms (determines the adhesion) the adhesion of the deposit to the area (step S12).

また、付着判定部65は、付着確定後、「潜伏」状態にあるすべての検出エリアDaを「観察」状態へ遷移させる(ステップS13)。これは、仮に1つの検出エリアDaの付着確定に応じて除去処理が行われた場合、付着確定されていなかった「潜伏」状態の他の検出エリアDaについても、通常であれば付着物は除去されたと推定されるためである。 Further, the adhesion determination unit 65 shifts all the detection area Das in the “latent” state to the “observation” state after the adhesion is confirmed (step S13). This means that if the removal process is performed according to the confirmation of adhesion of one detection area Da, the deposits are normally removed even for the other detection area Da in the "latent" state where the adhesion has not been confirmed. This is because it is presumed that it was done.

なお、フレーム間重なり判定部64は、除去処理が行われて「観察」状態にある検出エリアDaの得点が所定点以上となった場合、検出エリアDaを「ペナルティ」状態へ遷移させる(ステップS14)。これにより、除去処理後も付着物が検出され続けている除去不良または誤検出を把握することができる。 The inter-frame overlap determination unit 64 shifts the detection area Da to the "penalty" state when the removal process is performed and the score of the detection area Da in the "observation" state becomes a predetermined point or more (step S14). ). As a result, it is possible to grasp the removal failure or false detection in which the deposits are continuously detected even after the removal treatment.

また、フレーム間重なり判定部64は、「観察」状態または「ペナルティ」状態にある検出エリアDaの得点が所定点以下となった場合、検出エリアDaを「IDLE」状態へ遷移させる(ステップS15)。 Further, when the score of the detection area Da in the “observation” state or the “penalty” state becomes equal to or less than a predetermined point, the frame-to-frame overlap determination unit 64 shifts the detection area Da to the “IDLE” state (step S15). ..

なお、図24Dにおいて「加点」および「減点」を示している矢印の傾きを調整することによって、付着確定までの反応速度を制御してもよい。例えば加点量および減点量を大きくして上記矢印の傾きを急にすることによって、付着物の検出から除去処理までの反応速度を上げることができる。 The reaction rate until the adhesion is confirmed may be controlled by adjusting the slopes of the arrows indicating "point addition" and "point deduction" in FIG. 24D. For example, by increasing the amount of points added and the amount of points deducted and making the inclination of the arrow steep, the reaction speed from the detection of the deposit to the removal process can be increased.

また、付着確定がなされた検出エリアDaであっても、あえて除去動作を行わないようにしてもよい。例えば、除去要否判定部66は、図24Eに示すように、付着確定がなされた検出エリアDaが、画面の外周にほぼ沿ったスキップ領域に存在するならば、除去処理の実行を不要と判定することができる。 Further, even in the detection area Da where the adhesion is confirmed, the removal operation may be intentionally not performed. For example, as shown in FIG. 24E, the removal necessity determination unit 66 determines that the removal process does not need to be executed if the detection area Da for which the adhesion is confirmed exists in the skip area substantially along the outer circumference of the screen. can do.

このように、搭乗者の視認や運転動作に影響の少ない画像領域に付着した付着物についてはその除去処理自体をスキップすることで、システム全体の処理負荷を軽減することができる。 In this way, the processing load of the entire system can be reduced by skipping the removal processing itself for the deposits adhering to the image area that have little influence on the passenger's visual recognition and driving operation.

次に、本実施形態に係る付着物除去システム100が実行する処理手順について、図25を用いて説明する。図25は、付着物除去システム100が実行する処理手順を示すフローチャートである。 Next, the processing procedure executed by the deposit removing system 100 according to the present embodiment will be described with reference to FIG. FIG. 25 is a flowchart showing a processing procedure executed by the deposit removing system 100.

まず、複数の付着物検出部61が、それぞれ1フレーム分のカメラ画像を取得する(ステップS401)。そして、例えば付着物検出部61aは、付着物検出アルゴリズム−1を用いて検出エリアDa−1を抽出する(ステップS402)。 First, the plurality of deposit detection units 61 each acquire a camera image for one frame (step S401). Then, for example, the deposit detection unit 61a extracts the detection area Da-1 using the deposit detection algorithm-1 (step S402).

また、例えば付着物検出部61bは、付着物検出アルゴリズム−2を用いて検出エリアDa−2を抽出する(ステップS403)。また、例えば付着物検出部61cは、付着物検出アルゴリズム−3を用いて検出エリアDa−3を抽出する(ステップS404)。 Further, for example, the deposit detection unit 61b extracts the detection area Da-2 using the deposit detection algorithm-2 (step S403). Further, for example, the deposit detection unit 61c extracts the detection area Da-3 using the deposit detection algorithm-3 (step S404).

そして、除外部62が、付着物検出部61によって抽出され、通知される検出エリアDaのそれぞれにつき、除外処理を行う(ステップS405)。すなわち、除外部62は、検出エリアDaに存在すると推定される付着物が本当に付着物であるか否かを判定し、付着物でなければ、これに対応する検出エリアDaを後段の処理対象から除外する。 Then, the exclusion unit 62 performs an exclusion process for each of the detection areas Da extracted and notified by the deposit detection unit 61 (step S405). That is, the exclusion unit 62 determines whether or not the deposit presumed to exist in the detection area Da is really a deposit, and if it is not a deposit, the detection area Da corresponding to the deposit is removed from the processing target in the subsequent stage. exclude.

なお、かかる除外処理自体は、例えば省略されてもよい。これにより、システム全体に対する処理負荷を軽減することができる。 The exclusion process itself may be omitted, for example. As a result, the processing load on the entire system can be reduced.

つづいて、アルゴリズム間重なり判定部63が、アルゴリズム間重なり判定処理を行う(ステップS406)。すなわち、アルゴリズム間重なり判定部63は、現フレームでの複数アルゴリズム間での検出エリアDaの重なりの存否を判定し、その判定結果に応じて検出エリアDaの得点を更新する。 Subsequently, the inter-algorithm overlap determination unit 63 performs the inter-algorithm overlap determination process (step S406). That is, the inter-algorithm overlap determination unit 63 determines whether or not the detection area Da overlaps between the plurality of algorithms in the current frame, and updates the score of the detection area Da according to the determination result.

そして、フレーム間重なり判定部64が、フレーム間重なり判定処理を行う(ステップS407)。すなわち、フレーム間重なり判定部64は、アルゴリズム間重なり判定部63の処理結果すべてに対し、過去フレームで抽出済みである各検出エリアDaとの重なりの存否を判定し、その判定結果に応じて検出エリアDaの得点および状態を更新する。 Then, the inter-frame overlap determination unit 64 performs the inter-frame overlap determination process (step S407). That is, the inter-frame overlap determination unit 64 determines whether or not there is an overlap with each detection area Da extracted in the past frame for all the processing results of the inter-algorithm overlap determination unit 63, and detects according to the determination result. Update the score and status of Area Da.

そして、付着判定部65が、付着判定処理を行う(ステップS408)。すなわち、付着判定部65は、フレーム間重なり判定部64によって更新された検出情報DB71の検出エリアDaの得点および状態に応じ、付着物の付着確定を判定する。 Then, the adhesion determination unit 65 performs the adhesion determination process (step S408). That is, the adhesion determination unit 65 determines the adhesion determination of the adhered matter according to the score and the state of the detection area Da of the detection information DB 71 updated by the frame-to-frame overlap determination unit 64.

そして、除去要否判定部66が、付着判定部65によって「付着確定」と判定された場合に、実際に付着物除去装置11による付着物の除去が必要か否かを判定する(ステップS409)。 Then, when the removal necessity determination unit 66 determines that the adhesion determination unit 65 has “determined adhesion”, it determines whether or not it is actually necessary to remove the deposits by the deposit removal device 11 (step S409). ..

ここで、「除去要」であると判定された場合(ステップS409,Yes)、指示部67が、付着物除去装置11へ指示信号を送出して、付着物除去装置11に除去動作を行わせる除去処理を実行する(ステップS410)。一方、「除去要」でないと判定された場合(ステップS409,No)、指示部67は、除去処理を実行しない。 Here, when it is determined that "removal is required" (step S409, Yes), the instruction unit 67 sends an instruction signal to the deposit removal device 11 to cause the deposit removal device 11 to perform the removal operation. The removal process is executed (step S410). On the other hand, if it is determined that "removal is not required" (step S409, No), the instruction unit 67 does not execute the removal process.

そして、制御部60が、処理終了イベントがあるか否かを判定する(ステップS411)。処理終了イベントは、例えばIGオフやACCオフなどに対応する。ここで、処理終了イベントがないと判定された場合(ステップS411,No)、ステップS401からの処理を繰り返す。また、処理終了イベントがあると判定された場合(ステップS411,Yes)、付着物除去システム100は、処理を終了する。 Then, the control unit 60 determines whether or not there is a processing end event (step S411). The processing end event corresponds to, for example, IG off or ACC off. Here, when it is determined that there is no processing end event (steps S411, No), the processing from step S401 is repeated. If it is determined that there is a processing end event (steps S411, Yes), the deposit removing system 100 ends the processing.

上述してきたように、第4の実施形態では、複数の付着物検出アルゴリズムを用いてカメラ10に付着した水滴を判定する。このため、水滴の誤検出を抑えるとともに、水滴の検出精度の信頼性を向上させることができる。 As described above, in the fourth embodiment, a plurality of deposit detection algorithms are used to determine water droplets adhering to the camera 10. Therefore, it is possible to suppress erroneous detection of water droplets and improve the reliability of water droplet detection accuracy.

ところで、上述した実施形態では、付着物検出装置1、1Bおよび1Cが、カメラ画像Lの各画素の輝度の勾配をエッジ情報として抽出する場合について説明したが、これに限定されるものではない。 By the way, in the above-described embodiment, the case where the deposit detection devices 1, 1B and 1C extract the gradient of the brightness of each pixel of the camera image L as edge information has been described, but the present invention is not limited to this.

付着物検出装置1、1Bおよび1Cは、カメラ画像Lの各画素の彩度の勾配をエッジ情報として抽出し、かかるエッジ情報に基づいてカメラ10に付着した水滴を検出することもできる。かかる場合に、付着物検出装置1、1Bおよび1Cは、カメラ10に付着する泥や砂等が混じった濁った水滴を精度よく検出することが可能となる。 The deposit detection devices 1, 1B and 1C can also extract the saturation gradient of each pixel of the camera image L as edge information and detect water droplets adhering to the camera 10 based on the edge information. In such a case, the deposit detection devices 1, 1B and 1C can accurately detect turbid water droplets mixed with mud, sand and the like adhering to the camera 10.

具体的には、例えば、付着物検出装置1、1Bおよび1Cの抽出部22は、HSV色空間に基づく場合、カメラ画像Lの各画素のR、G、Bの最大値をImax、最小値をIminとしたときに、彩度(S)=(Imax−Imin)/Imaxにより彩度を抽出することができる。 Specifically, for example, when the extraction unit 22 of the deposit detection devices 1, 1B and 1C is based on the HSV color space, the maximum values of R, G and B of each pixel of the camera image L are set to Imax and the minimum values are set to the minimum value. When Imin is set, the saturation can be extracted by saturation (S) = (Imax-Imin) / Imax.

また、HSL色空間に基づく場合は、抽出部22は、明度(L)=(Imax+Imin)/2とし、L≦0.5のとき、彩度(S)=(Imax−Imin)/(Imax+Imin)、L>0.5のとき、彩度(S)=(Imax−Imin)/(2−Imax−Imin)により彩度を抽出することができる。 Further, when based on the HSL color space, the extraction unit 22 sets the brightness (L) = (Imax + Imin) / 2, and when L ≦ 0.5, the saturation (S) = (Imax-Imin) / (Imax + Imin). , L> 0.5, the saturation can be extracted by saturation (S) = (Imax-Imin) / (2-Imax-Imin).

続いて、第1の実施形態に係る変換部23は、X軸方向およびY軸方向の彩度をそれぞれ2乗した後に加算した値を各画素の彩度に基づくエッジ量として算出する。そして、変換部23は、かかるエッジ量と、図3に示したように2値化閾値THaとを比較することで、カメラ画像Lの各画素を2値化することができる。なお、かかる2値化閾値THaは、彩度用に最適化されたものを使用することができる。 Subsequently, the conversion unit 23 according to the first embodiment calculates the value obtained by squaring the saturations in the X-axis direction and the Y-axis direction and then adding them as the edge amount based on the saturation of each pixel. Then, the conversion unit 23 can binarize each pixel of the camera image L by comparing the edge amount with the binarization threshold value THa as shown in FIG. As the binarization threshold value THa, one optimized for saturation can be used.

その後、付着物検出装置1は、マッチング部24および検出部25による既に説明した処理を行うことで、カメラ10に付着した濁った水滴を精度よく検出することができる。 After that, the deposit detection device 1 can accurately detect the turbid water droplets adhering to the camera 10 by performing the processes already described by the matching unit 24 and the detection unit 25.

また、第2の実施形態に係る変換部23Bは、各画素の彩度に基づくエッジの向きを算出し、かかるエッジ向きに図11Aおよび図11Bに示した3次元のパラメータを割り当てることにより、各画素をパラメータ化することができる。 Further, the conversion unit 23B according to the second embodiment calculates the direction of the edge based on the saturation of each pixel, and assigns the three-dimensional parameters shown in FIGS. 11A and 11B to the edge direction. Pixels can be parameterized.

続いて、マッチング部24Bは、図12に示したテンプレートを用いてマッチング処理を行う。このとき、濁った水滴であれば、彩度が中央に向けて大きくなる。このため、検出部25Bは、マッチング部24Bによって算出されたゼロ平均正規化相互相関の値が図13に示した正の検出閾値を超える場合にのみ、濁った水滴を検出することができる。 Subsequently, the matching unit 24B performs a matching process using the template shown in FIG. At this time, if the water droplets are muddy, the saturation increases toward the center. Therefore, the detection unit 25B can detect turbid water droplets only when the value of the zero average normalized cross-correlation calculated by the matching unit 24B exceeds the positive detection threshold shown in FIG.

すなわち、第2の実施形態に係る付着物検出装置1Bは、濁った水滴を検出する場合に、正の検出閾値のみを設定することで、濁った水滴の誤検出を抑制することができる。 That is, the deposit detection device 1B according to the second embodiment can suppress erroneous detection of turbid water droplets by setting only a positive detection threshold value when detecting turbid water droplets.

また、第3の実施形態に係る変換部23Cは、彩度の勾配の向きについて図16Aおよび図16Bに示したようにカメラ画像Lの各画素を符号化する。そして、マッチング部24Cは、正規表現を用いたマッチング処理により、水滴を示す符号列を抽出する。 Further, the conversion unit 23C according to the third embodiment encodes each pixel of the camera image L with respect to the direction of the saturation gradient as shown in FIGS. 16A and 16B. Then, the matching unit 24C extracts a code string indicating a water droplet by a matching process using a regular expression.

そして、検出部25Cは、マッチング部24Cによって抽出された符号列に基づいてカメラ10に付着した濁った水滴を検出する。このとき、上記したように、濁った水滴であれば、彩度が中央に向かって大きくなる。 Then, the detection unit 25C detects turbid water droplets adhering to the camera 10 based on the code string extracted by the matching unit 24C. At this time, as described above, if the water droplet is turbid, the saturation increases toward the center.

このため、検出部25Cは、マッチング部24Cによって抽出された符号列に基づいて中央に向かって彩度が大きくなる符号列のパターンを検出することで、濁った水滴を精度よく検出することができる。 Therefore, the detection unit 25C can accurately detect turbid water droplets by detecting the pattern of the code string whose saturation increases toward the center based on the code string extracted by the matching unit 24C. ..

このように、付着物検出装置1、1Bおよび1Cは、エッジ情報として各画素の輝度に代えて、彩度を用いることで濁った水滴を精度よく検出することが可能となる。なお、付着物検出装置1、1Bおよび1Cは、例えば、輝度が中央に向かって大きくなる水滴と、彩度が中央に向かって大きくなる濁った水滴とを1回のマッチング処理により同時に検出するようにしてもよい。 As described above, the deposit detection devices 1, 1B and 1C can accurately detect turbid water droplets by using saturation instead of the brightness of each pixel as edge information. The deposit detection devices 1, 1B and 1C simultaneously detect, for example, water droplets whose brightness increases toward the center and turbid water droplets whose saturation increases toward the center by a single matching process. It may be.

また、上記した実施形態では、付着物検出装置1、1Bおよび1C、付着物除去システム100をいずれも車載用のカメラ10に適用する場合について示したが、例えば、建物の内外や路地等に設定される監視/防犯カメラなどのその他の種類のカメラに適用してもよい。 Further, in the above-described embodiment, the case where the deposit detection devices 1, 1B and 1C and the deposit removal system 100 are all applied to the in-vehicle camera 10 has been shown, but for example, they are set inside or outside the building or in an alley. It may be applied to other types of cameras such as surveillance / security cameras.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な様態は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲および、その均等物によって定義される統括的な発明の概念の精神または範囲から逸脱することなく、様々な変化が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments described and described above. Therefore, various changes are possible without departing from the spirit or scope of the overall concept of the invention as defined by the appended claims and their equivalents.

1、1B、1C 付着物検出装置
10 カメラ(撮像装置)
11 付着物除去装置
21 画像取得部
22 抽出部
23、23B、23C 変換部
24、24B、24C マッチング部
25、25B、25C 検出部
50 除去制御装置
61 付着物検出部
62 除外部
63 アルゴリズム間重なり判定部
64 フレーム間重なり判定部
65 付着判定部
66 除去要否判定部
67 指示部
100 付着物除去システム
1,1B, 1C deposit detection device
10 Camera (imaging device)
11 Adhesion removal device
21 Image acquisition section
22 Extraction unit 23, 23B, 23C Conversion unit 24, 24B, 24C Matching unit 25, 25B, 25C Detection unit
50 Removal control device
61 Adhesion detector
62 Exclusion part
63 Overlap judgment unit between algorithms
64 Frame overlap judgment unit
65 Adhesion judgment unit
66 Removal necessity judgment unit
67 Indicator
100 deposit removal system

Claims (3)

CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)で構成される撮像素子を有する撮像装置によって周囲の照度が変化する周囲環境下で撮像された撮像画像に含まれる各画素のエッジ情報を抽出する抽出部と、
前記抽出部によって抽出された前記エッジ情報に基づいて前記各画素を所定のデータ形式に変換する変換部と、
前記変換部によって前記データ形式に変換された前記各画素と、水滴を示す当該データ形式のテンプレートとのマッチング処理を行うマッチング部と、
前記マッチング部によるマッチング結果に基づいて前記撮像装置に付着した水滴を検出する検出部と
を備え、
前記変換部は、
前記抽出部によって抽出された前記エッジ情報に基づいて前記各画素のエッジの向きを算出し、当該エッジの向きにそれぞれ対応する符号を割り当てることにより、前記各画素を符号に変換し、
前記マッチング部は、
前記変換部によって前記符号に変換された前記各画素と、前記水滴を示す符号列との正規表現を用いたマッチング処理を行う
ことを特徴とする付着物検出装置。
Extracts the edge information of each pixel contained in an image taken in an ambient environment where the ambient illuminance changes by an image sensor having an image sensor composed of a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor). Extraction unit and
A conversion unit that converts each pixel into a predetermined data format based on the edge information extracted by the extraction unit, and a conversion unit.
A matching unit that performs matching processing between each pixel converted into the data format by the conversion unit and a template of the data format indicating water droplets.
It is provided with a detection unit that detects water droplets adhering to the image pickup apparatus based on the matching result by the matching unit.
The conversion unit
The direction of the edge of each pixel is calculated based on the edge information extracted by the extraction unit, and each pixel is converted into a code by assigning a code corresponding to the direction of the edge.
The matching unit
A deposit detection device, characterized in that a matching process is performed using a regular expression of each pixel converted into the code by the conversion unit and a code string indicating the water droplet.
前記マッチング部は、
前記変換部によって符号化された前記各画素から、前記符号列により規定された配列順序を満たし、各符号を少なくとも一つ以上含む前記符号の配列を前記符号列として抽出すること
を特徴とする請求項に記載の付着物検出装置。
The matching unit
A claim characterized in that an array of the codes satisfying the arrangement order defined by the code strings and containing at least one of the codes is extracted as the code strings from the pixels encoded by the conversion unit. Item 2. The deposit detection device according to Item 1 .
CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)で構成される撮像素子を有する撮像装置によって周囲の照度が変化する周囲環境下で撮像された撮像画像に含まれる各画素のエッジ情報を抽出する抽出工程と、
前記抽出工程によって抽出された前記エッジ情報に基づいて前記各画素を所定のデータ形式に変換する変換工程と、
前記変換工程によって前記データ形式に変換された前記各画素と、水滴を示す当該データ形式のテンプレートとのマッチング処理を行うマッチング工程と、
前記マッチング工程によるマッチング結果に基づいて前記撮像装置に付着した水滴を検出する検出工程と
を含み、
前記変換工程は、
前記抽出工程によって抽出された前記エッジ情報に基づいて前記各画素のエッジ強度を算出し、前記撮像装置の周囲環境に応じて異なる値をとる2値化閾値と当該エッジ強度とを比較することで前記各画素を2値化する
ことを特徴とする付着物検出方法。
Extracts the edge information of each pixel contained in an image taken in an ambient environment where the ambient illuminance changes by an image sensor having an image sensor composed of a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor). Extraction process and
A conversion step of converting each pixel into a predetermined data format based on the edge information extracted by the extraction step, and a conversion step.
A matching step of performing matching processing between each pixel converted into the data format by the conversion step and a template of the data format indicating water droplets.
Including a detection step of detecting water droplets adhering to the image pickup apparatus based on the matching result of the matching step.
The conversion step is
By calculating the edge strength of each pixel based on the edge information extracted by the extraction step and comparing the edge strength with a binarization threshold that takes a different value according to the surrounding environment of the imaging device. A method for detecting deposits, which comprises binarizing each pixel.
JP2017031488A 2016-10-24 2017-02-22 Adhesion detection device, deposit detection method Active JP6817104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/723,588 US10552706B2 (en) 2016-10-24 2017-10-03 Attachable matter detection apparatus and attachable matter detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016208071 2016-10-24
JP2016208071 2016-10-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020215105A Division JP7122364B2 (en) 2016-10-24 2020-12-24 Deposit detection device, deposit detection method

Publications (2)

Publication Number Publication Date
JP2018072312A JP2018072312A (en) 2018-05-10
JP6817104B2 true JP6817104B2 (en) 2021-01-20

Family

ID=62115089

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017031488A Active JP6817104B2 (en) 2016-10-24 2017-02-22 Adhesion detection device, deposit detection method
JP2020215105A Active JP7122364B2 (en) 2016-10-24 2020-12-24 Deposit detection device, deposit detection method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020215105A Active JP7122364B2 (en) 2016-10-24 2020-12-24 Deposit detection device, deposit detection method

Country Status (1)

Country Link
JP (2) JP6817104B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7234630B2 (en) 2018-12-28 2023-03-08 株式会社デンソーテン Deposit detection device
JP7175188B2 (en) * 2018-12-28 2022-11-18 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7230507B2 (en) * 2018-12-28 2023-03-01 株式会社デンソーテン Deposit detection device
JP7206909B2 (en) * 2018-12-28 2023-01-18 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7283081B2 (en) 2019-01-07 2023-05-30 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7205234B2 (en) * 2019-01-07 2023-01-17 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7426987B2 (en) * 2019-03-26 2024-02-02 株式会社小糸製作所 Photography system and image processing device
JP7172931B2 (en) 2019-09-20 2022-11-16 株式会社デンソーテン Attached matter detection device and attached matter detection method
JP7188336B2 (en) 2019-09-20 2022-12-13 株式会社デンソーテン Attached matter detection device and attached matter detection method

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04188745A (en) * 1990-11-22 1992-07-07 Toshiba Corp Pattern inspecting device
JP3362191B2 (en) * 1994-09-30 2003-01-07 オムロン株式会社 Method and apparatus for indicating coordinates of circular inspection target area and inspection apparatus using the apparatus
JP2008004123A (en) * 1995-09-13 2008-01-10 Fujifilm Corp Specific shape region extraction device and method, specific region extraction device and method, and copy condition decision device and method
JPH10148681A (en) * 1996-11-15 1998-06-02 Mitsuba Corp Method for detecting raindrops
JP2000149019A (en) * 1998-11-10 2000-05-30 Omron Corp Circular object discriminating device
JP4438363B2 (en) * 2002-12-27 2010-03-24 株式会社ニコン Image processing apparatus and image processing program
JP4326999B2 (en) * 2003-08-12 2009-09-09 株式会社日立製作所 Image processing system
JP2010014494A (en) * 2008-07-02 2010-01-21 Denso Corp Foreign matter detector, foreign matter detecting program, foreign matter removing device, and on-vehicle communications apparatus
JP2010061581A (en) * 2008-09-05 2010-03-18 Sharp Corp Image processing apparatus
JP5047115B2 (en) * 2008-10-14 2012-10-10 セコム株式会社 Moving object tracking device
JP2010184057A (en) * 2009-02-13 2010-08-26 Fujifilm Corp Image processing method and device
JP2012185774A (en) * 2011-03-08 2012-09-27 Ricoh Co Ltd Image processing device, image processing method, image forming apparatus, program, and recording medium
JP2013190416A (en) * 2012-02-13 2013-09-26 Ricoh Co Ltd Deposit detection device and in-vehicle equipment controller including the same
JP5759950B2 (en) * 2012-08-24 2015-08-05 日立オートモティブシステムズ株式会社 In-vehicle camera device
JP5974902B2 (en) * 2013-01-08 2016-08-23 マツダ株式会社 Raindrop detector
JP6121013B2 (en) * 2016-02-17 2017-04-26 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2018072312A (en) 2018-05-10
JP2021051802A (en) 2021-04-01
JP7122364B2 (en) 2022-08-19

Similar Documents

Publication Publication Date Title
JP6817104B2 (en) Adhesion detection device, deposit detection method
US10552706B2 (en) Attachable matter detection apparatus and attachable matter detection method
JP6755161B2 (en) Adhesion detection device and deposit detection method
TWI494899B (en) Method for in-image periodic noise reparation
CN112513676B (en) Depth acquisition device, depth acquisition method, and recording medium
CN111046741A (en) Method and device for identifying lane line
CN113327252A (en) Method and system for object detection
JP7206909B2 (en) Attached matter detection device and attached matter detection method
JP2009276910A (en) Image processor, method and program
JP2018142828A (en) Deposit detector and deposit detection method
JP6375911B2 (en) Curve mirror detector
US20210089818A1 (en) Deposit detection device and deposit detection method
JP2020098389A (en) Road sign recognition device and program thereof
JP7283081B2 (en) Attached matter detection device and attached matter detection method
US10997743B2 (en) Attachable matter detection apparatus
US10970592B2 (en) Adhering substance detection apparatus and adhering substance detection method
JP5447162B2 (en) Mobile object identification apparatus, computer program, and mobile object identification method
US11393128B2 (en) Adhered substance detection apparatus
JP5447164B2 (en) Mobile object identification apparatus, computer program, and mobile object identification method
JP7175188B2 (en) Attached matter detection device and attached matter detection method
JP7359541B2 (en) Image processing device and image processing method
WO2017017140A1 (en) Method for capturing an object on a road in the environment of a motor vehicle, camera system and motor vehicle using the same
JP7059649B2 (en) Deposit detection device and deposit detection method
CN110020575B (en) Vehicle detection device and method and electronic equipment
JP2021052235A (en) Deposit detection device and deposit detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200131

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201224

R150 Certificate of patent or registration of utility model

Ref document number: 6817104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250