JP2019128797A - Attached matter detector and attached matter detection method - Google Patents

Attached matter detector and attached matter detection method Download PDF

Info

Publication number
JP2019128797A
JP2019128797A JP2018010057A JP2018010057A JP2019128797A JP 2019128797 A JP2019128797 A JP 2019128797A JP 2018010057 A JP2018010057 A JP 2018010057A JP 2018010057 A JP2018010057 A JP 2018010057A JP 2019128797 A JP2019128797 A JP 2019128797A
Authority
JP
Japan
Prior art keywords
region
pixel group
unit
integrated
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018010057A
Other languages
Japanese (ja)
Inventor
山本 大輔
Daisuke Yamamoto
大輔 山本
信徳 朝山
Nobutoku Asayama
信徳 朝山
修久 池田
Nobuhisa Ikeda
修久 池田
河野 貴
Takashi Kono
貴 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018010057A priority Critical patent/JP2019128797A/en
Priority to US16/217,743 priority patent/US10789502B2/en
Publication of JP2019128797A publication Critical patent/JP2019128797A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To suppress omissions of attached matter detection.SOLUTION: An attached matter detector pertaining to an embodiment comprises a first extraction unit, a second extraction unit, and a detection unit. The first extraction unit extracts a first pixel group in which the luminance gradient of each pixel included in a captured image captured by an imaging device faces outward from a prescribed center region. The second extraction unit extracts a second pixel group in which the luminance gradient of each pixel faces inward toward the center region. The detection unit combines the first pixel group extracted by the first extraction unit and the second pixel group extracted by the second extraction unit and detects attached matter that adheres to the imaging device.SELECTED DRAWING: Figure 1B

Description

本発明は、付着物検出装置および付着物検出方法に関する。   The present invention relates to an attached matter detection device and an attached matter detection method.

従来、例えば、車両に取り付けられたカメラのレンズに付着した付着物をかかるカメラによって撮像された撮像画像から検出する付着物検出装置がある(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, for example, there is an adhering matter detection device that detects an adhering matter adhering to a lens of a camera attached to a vehicle from a captured image taken by the camera (see, for example, Patent Document 1).

特開2010−14494号公報JP, 2010-14494, A

しかしながら、従来技術では、付着物として水滴を検出する場合、水滴の背景画像等によっては水滴を検出することができず、付着物の検出漏れを抑制する点で改善の余地があった。   However, in the prior art, when a water droplet is detected as a deposit, the water droplet can not be detected depending on the background image of the water droplet and the like, and there is room for improvement in the point of suppressing the detection leak of the deposit.

本発明は、上記に鑑みてなされたものであって、付着物の検出漏れを抑制することができる付着物検出装置および付着物検出方法を提供することを目的とする。   The present invention has been made in view of the above, and it is an object of the present invention to provide a deposit detection apparatus and a deposit detection method capable of suppressing detection leak of the deposit.

上述した課題を解決し、目的を達成するために、実施形態に係る付着物検出装置は、第1抽出部と、第2抽出部と、検出部とを備える。前記第1抽出部は、撮像装置によって撮像された撮像画像に含まれる各画素の輝度勾配が所定の中心領域から外向きの第1画素群を抽出する。前記第2抽出部は、前記各画素の輝度勾配が前記中心領域に向かって内向きの第2画素群を抽出する。前記検出部は、前記第1抽出部によって抽出された前記第1画素群と前記第2抽出部によって抽出された前記第2画素群とを組み合わせて前記撮像装置に付着した付着物を検出する。   In order to solve the problems described above and achieve the object, the attached matter detection device according to the embodiment includes a first extraction unit, a second extraction unit, and a detection unit. The first extraction unit extracts a first pixel group in which the luminance gradient of each pixel included in the captured image captured by the imaging device is outward from a predetermined central region. The second extraction unit extracts a second pixel group in which the luminance gradient of each pixel is inward toward the central region. The detection unit combines the first pixel group extracted by the first extraction unit and the second pixel group extracted by the second extraction unit to detect an attached substance attached to the imaging device.

本発明によれば、付着物の検出漏れを抑制することができる。   ADVANTAGE OF THE INVENTION According to this invention, the detection leak of a deposit | attachment can be suppressed.

図1Aは、付着物検出装置の搭載例を示す図である。FIG. 1A is a diagram illustrating a mounting example of an attached matter detection apparatus. 図1Bは、付着物検出方法の概要を示す図である。FIG. 1B is a diagram showing an outline of the deposit detection method. 図2は、付着物検出装置のブロック図である。FIG. 2 is a block diagram of the attached matter detection device. 図3Aは、変換部による処理の具体例を示す図(その1)である。FIG. 3A is a diagram (part 1) illustrating a specific example of processing by the conversion unit. 図3Bは、変換部による処理の具体例を示す図(その2)である。FIG. 3B is a second diagram illustrating a specific example of processing performed by the conversion unit. 図3Cは、変換部による処理の具体例を示す図(その3)である。FIG. 3C is a third diagram illustrating a specific example of the process performed by the conversion unit. 図4Aは、第1画素群の具体例を示す図である。FIG. 4A is a diagram showing a specific example of the first pixel group. 図4Bは、第2画素群の具体例を示す図である。FIG. 4B is a diagram showing a specific example of the second pixel group. 図4Cは、第1画素群の配列順序の具体例を示す図である。FIG. 4C is a diagram illustrating a specific example of the arrangement order of the first pixel group. 図5Aは、生成部による処理の具体例を示す図(その1)である。FIG. 5A is a diagram (part 1) illustrating a specific example of processing by the generation unit. 図5Bは、生成部による処理の具体例を示す図(その2)である。FIG. 5B is a second diagram illustrating a specific example of processing performed by the generation unit. 図6Aは、決定部による処理の具体例を示す図(その1)である。FIG. 6A is a diagram (part 1) illustrating a specific example of a process performed by the determination unit. 図6Bは、決定部による処理の具体例を示す図(その2)である。FIG. 6B is a diagram (part 2) illustrating a specific example of processing by the determination unit. 図7は、確定部による処理の具体例を示す図である。FIG. 7 is a diagram showing a specific example of processing by the determination unit. 図8は、付着物検出装置が実行する処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure performed by the attached matter detection device.

以下、添付図面を参照して実施形態に係る付着物検出装置および付着物検出方法について詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。   Hereinafter, the attached matter detection device and the attached matter detection method according to the embodiment will be described in detail with reference to the attached drawings. Note that the present invention is not limited by the embodiments described below.

まず、図1Aおよび図1Bを用いて実施形態に係る付着物検出装置および付着物検出方法の概要について説明する。図1Aは、付着物検出装置の搭載例を示す図である。図1Bは、付着物検出方法の概要を示す図である。   First, the outline | summary of the deposit | attachment detection apparatus and deposit | attachment detection method which concern on embodiment is demonstrated using FIG. 1A and FIG. 1B. FIG. 1A is a diagram illustrating a mounting example of an attached matter detection apparatus. FIG. 1B is a diagram showing an outline of the deposit detection method.

図1Aに示すように、付着物検出装置1は、車両Cに搭載される。また、付着物検出装置1は、車両Cに搭載された撮像装置であるカメラ10によって撮像された撮像画像Lからカメラ10のレンズ(図示略)に付着した付着物Fを検出する。   As shown in FIG. 1A, the deposit detection device 1 is mounted on a vehicle C. Further, the attached matter detection device 1 detects the attached matter F attached to the lens (not shown) of the camera 10 from the captured image L captured by the camera 10 which is an imaging device mounted on the vehicle C.

カメラ10によって撮像された撮像画像Lは、例えば、車両Cの白線検知や自動運転のための各種センシングに用いられる。なお、同図に示す例では、車両Cが、互いに異なる方向を撮像する4つのカメラ10を備える場合について示している。   The captured image L captured by the camera 10 is used for, for example, white line detection of the vehicle C and various types of sensing for automatic driving. In the example shown in the figure, a case where the vehicle C includes four cameras 10 that capture images in different directions is illustrated.

ここで、カメラ10は、車両Cの車外に配置されるため、カメラ10のレンズには、水滴やごみなどの付着物Fが付着するおそれがある。   Here, since the camera 10 is disposed outside the vehicle C, the lens F of the camera 10 may have the attached matter F such as water droplets or dust attached thereto.

ところで、従来技術では、付着物として水滴を検出する場合、撮像画像において水滴の中心から外側に向けて明るくなる領域もしくは暗くなる領域の一方に基づいて撮像画像から水滴を検出していた。   By the way, in the prior art, when detecting a water droplet as a deposit, the water droplet is detected from the captured image on the basis of one of a region brightened from the center of the droplet outward and a region darkened in the captured image.

しかしながら、従来技術においては、例えば、水滴の背景画像等によってはかかる水滴を検出することができない場合があった。   However, in the prior art, for example, such a water droplet may not be detected depending on a background image of the water droplet.

具体的には、図1Bの撮像画像Lに示すように、例えば、水滴Rの背景に停止線等が含まれる場合、かかる水滴Rは、中心から外側に向けて輝度が明るくなる領域と、暗くなる領域とが混ざり合う場合がある。従来技術では、かかる水滴を検出することができず、水滴の検出漏れが生じる恐れがある。   Specifically, as shown in the captured image L of FIG. 1B, for example, when a stop line or the like is included in the background of the water droplet R, the water droplet R is darkened with a region where the brightness is brighter from the center to the outside And mixed regions. In the prior art, such water droplets cannot be detected, and there is a possibility that detection of water droplets may be missed.

そこで、実施形態に係る付着物検出方法では、撮像画像Lにおいて外側に向けて輝度が明るくなる領域と、輝度が外側に向けて暗くなる領域とそれぞれ抽出し、双方の領域を組み合わせて水滴Rを検出する。   Therefore, in the attached matter detection method according to the embodiment, in the captured image L, a region in which the brightness is bright toward the outside and a region in which the brightness is dark toward the outside are respectively extracted, and the water droplets R are combined To detect.

具体的には、図1Bに示すように、実施形態に係る付着物検出方法では、まず、撮像画像Lに含まれる各画素から第1画素群P1および第2画素群P2を抽出する(ステップS1)。なお、同図では、各画素の中心点を黒丸で示し、中心点から延びる線の向きが輝度勾配を示す。   Specifically, as shown in FIG. 1B, in the attached matter detection method according to the embodiment, first, the first pixel group P1 and the second pixel group P2 are extracted from each pixel included in the captured image L (step S1) ). In the figure, the center point of each pixel is indicated by a black circle, and the direction of a line extending from the center point indicates the luminance gradient.

例えば、第1画素群P1は、輝度勾配が所定の中心領域から外向きの画素の集合であり、第2画素群P2は、輝度勾配が上記の中心領域に向かって内向きの画素の集合である。   For example, the first pixel group P1 is a group of pixels whose luminance gradient is directed outward from a predetermined central region, and the second pixel group P2 is a group of pixels whose luminance gradient is directed toward the central region. is there.

つまり、実施形態に係る付着物検出方法では、中心から外向きに明るくなる水滴Rの特徴を第1画素群P1として抽出し、中心に向かって内向きに明るくなる水滴Rの特徴を第2画素群P2として抽出する。   That is, in the attached matter detection method according to the embodiment, the feature of the water droplet R brightened outward from the center is extracted as the first pixel group P1, and the feature of the water droplet R brightened inward toward the center is the second pixel Extract as group P2.

続いて、実施形態に係る付着物検出方法では、第1画素群P1と第2画素群P2との組み合わせに基づいて付着物Fを検出する(ステップS2)。例えば、付着物検出方法では、撮像画像Lにおいて第1画素群P1および第2画素群P2で囲まれた領域を付着物Fとして検出する。   Subsequently, in the attached matter detection method according to the embodiment, the attached matter F is detected based on the combination of the first pixel group P1 and the second pixel group P2 (step S2). For example, in the attached matter detection method, a region surrounded by the first pixel group P1 and the second pixel group P2 in the captured image L is detected as the attached matter F.

つまり、付着物検出方法では、中心から外向きに明るくなる水滴Rの特徴と、中心に向かって内向きに明るくなる水滴Rの特徴とを組み合わせて一つの水滴Rを検出する。   That is, in the attached matter detection method, one water droplet R is detected by combining the feature of the water droplet R brightening outward from the center and the feature of the water droplet R brightening inward toward the center.

これにより、1つの水滴Rに中心から外側に輝度が明るくなる領域と、暗くなる領域とが混ざり合う場合であってもかかる水滴Rを検出することが可能となる。   This makes it possible to detect such water droplets R even in the case where a region where the brightness is bright from the center to the outside and a region where the brightness is dark are mixed in one water droplet R.

また、実施形態に係る付着物検出方法では、第1画素群P1および第2画素群P2の一方に囲まれた領域について中心から外側に向けて輝度が明るくなるもしくは暗くなる水滴Rとして検出することも可能である。   Further, in the attached matter detection method according to the embodiment, a region surrounded by one of the first pixel group P1 and the second pixel group P2 is detected as a water droplet R whose brightness is brightened or darkened from the center to the outside. Is also possible.

したがって、実施形態に係る付着物検出方法によれば、付着物Fの検出漏れを抑制することが可能となる。   Therefore, according to the adhering matter detection method according to the embodiment, it is possible to suppress the detection omission of the adhering matter F.

次に、図2を用いて実施形態に係る付着物検出装置1の構成について説明する。図2は、付着物検出装置1のブロック図である。なお、図2には、カメラ10および車両制御装置15を併せて示す。   Next, the structure of the deposit | attachment detection apparatus 1 which concerns on embodiment is demonstrated using FIG. FIG. 2 is a block diagram of the attached matter detection device 1. In FIG. 2, the camera 10 and the vehicle control device 15 are shown together.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、例えば車両Cの周囲を撮像する。カメラ10によって撮像された撮像画像Lは、付着物検出装置1へ出力される。   The camera 10 includes an imaging element such as, for example, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and images, for example, the surroundings of the vehicle C. The captured image L captured by the camera 10 is output to the attached matter detection apparatus 1.

車両制御装置15は、車両Cの自動運転や自動駐車制御や運転アシスト(例えば、PCS(Pre-crash Safety System)やAEB(Advanced Emergency Braking System)など)の車両制御を行う。なお、車両制御装置15は、自動駐車制御を行う自動駐車制御部と別体であってもよい。   The vehicle control device 15 performs vehicle control of automatic driving of the vehicle C, automatic parking control, and driving assistance (for example, PCS (Pre-crash Safety System), AEB (Advanced Emergency Braking System), etc.). The vehicle control device 15 may be separate from an automatic parking control unit that performs automatic parking control.

例えば、車両制御装置15は、付着物検出装置1を介して入力される撮像画像Lから障害物や白線を検出し、検出結果に基づいて上記の車両制御を行うことができる。   For example, the vehicle control device 15 can detect an obstacle or a white line from the captured image L input via the attached matter detection device 1, and can perform the vehicle control based on the detection result.

付着物検出装置1は、制御部2および記憶部3を備える。制御部2は、変換部21と、第1抽出部22と、第2抽出部23と、検出部24と、確定部25とを備える。制御部2は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。   The attached matter detection apparatus 1 includes a control unit 2 and a storage unit 3. The control unit 2 includes a conversion unit 21, a first extraction unit 22, a second extraction unit 23, a detection unit 24, and a determination unit 25. The control unit 2 includes, for example, a computer having a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a hard disk drive (HDD), an input / output port, and various circuits.

コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の変換部21、第1抽出部22、第2抽出部23、検出部24および確定部25として機能する。   The CPU of the computer functions as, for example, the converter 21, the first extractor 22, the second extractor 23, the detector 24, and the determiner 25 of the control unit 2 by reading and executing the program stored in the ROM. To do.

また、制御部2の変換部21、第1抽出部22、第2抽出部23、検出部24および確定部25の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。   In addition, at least one or all or all of the conversion unit 21, the first extraction unit 22, the second extraction unit 23, the detection unit 24, and the determination unit 25 of the control unit 2 may be implemented as an application specific integrated circuit (ASIC) or an FPGA (field programmable) It can also be configured by hardware such as Gate Array).

また、記憶部3は、たとえば、RAMやHDDに対応する。RAMやHDDは、生成条件情報31、決定条件情報32および点数情報33や各種プログラムの情報を記憶することができる。なお、付着物検出装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。   The storage unit 3 corresponds to, for example, a RAM or an HDD. The RAM and HDD can store generation condition information 31, determination condition information 32, score information 33, and information on various programs. In addition, the deposit | attachment detection apparatus 1 is good also as acquiring the above-mentioned program and various information via the other computer and portable recording medium which were connected by the wired or wireless network.

制御部2の変換部21は、撮像画像Lに含まれる各画素を各画素の輝度勾配に対応する符号に変換する。まず、変換部21は、カメラ10から入力される撮像画像Lをグレースケール化することによりグレースケール画像へ変換する。グレースケール化とは、撮像画像Lにおける各画素の輝度に応じて白から黒までの各階調で表現する処理である。   The conversion unit 21 of the control unit 2 converts each pixel included in the captured image L into a code corresponding to the luminance gradient of each pixel. First, the conversion unit 21 converts the captured image L input from the camera 10 into a grayscale image by converting it to a grayscale. Gray scale conversion is a process of expressing each gradation from white to black according to the luminance of each pixel in the captured image L.

続いて、変換部21は、グレースケール画像に対してソベルフィルタを用いることで、各画素のX軸方向およびY軸方向に対するエッジ強度を抽出する。次に、変換部21は、それぞれのエッジ強度から輝度勾配を算出し、各画素を対応する符号に変換する。   Subsequently, the conversion unit 21 extracts edge intensities in the X-axis direction and the Y-axis direction of each pixel by using a Sobel filter on the gray scale image. Next, the conversion unit 21 calculates a luminance gradient from each edge strength, and converts each pixel into a corresponding code.

図3A〜図3Cは、変換部21による処理の具体例を示す図である。なお、図3Aでは、X軸方向およびY軸方向におけるエッジ強度を示す。変換部21は、各画素についてX軸方向のエッジ強度およびY軸方向のエッジ強度から実際のエッジ強度Sおよびエッジの向きθを算出する。   3A to 3C are diagrams illustrating specific examples of processing performed by the conversion unit 21. FIG. 3A shows edge strengths in the X-axis direction and the Y-axis direction. The conversion unit 21 calculates the actual edge strength S and the edge direction θ from the edge strength in the X-axis direction and the edge strength in the Y-axis direction for each pixel.

図3Aに示すように、X軸方向のエッジ強度およびY軸方向のエッジ強度をそれぞれ1つの辺とする矩形の対角線がエッジ強度Sとなり、かかる対角線とX軸との成す角度がエッジの向きθとなる。かかるエッジの向きθが輝度勾配となる。   As shown in FIG. 3A, the diagonal of the rectangle having edge strength in the X-axis direction and edge strength in the Y-axis direction as one side is the edge strength S, and the angle between the diagonal and the X-axis is the edge direction θ It becomes. The direction θ of the edge is a brightness gradient.

また、本実施形態において変換部21は、複数の画素を統合して輝度勾配を算出する。言い換えれば、変換部21は、撮像画像Lを複数の領域に分割し、領域毎に輝度勾配に対応する符号に変換する。   In the present embodiment, the conversion unit 21 calculates a luminance gradient by integrating a plurality of pixels. In other words, the conversion unit 21 divides the captured image L into a plurality of regions and converts the images into codes corresponding to the luminance gradient for each region.

図3Bは、統合する画素の具体例を示す図である。変換部21は、図3Bに示すブロックごとに、ブロックの中央に位置する注目セルの輝度勾配を算出する。ここで、ブロックとは、例えば、3×3セルの画素の集合であり、セルは、4×4ピクセル(画素)の集合である。   FIG. 3B is a diagram illustrating a specific example of pixels to be integrated. The conversion unit 21 calculates the luminance gradient of the cell of interest located at the center of each block shown in FIG. 3B. Here, the block is, for example, a set of pixels of 3 × 3 cells, and a cell is a set of 4 × 4 pixels (pixels).

つまり、同図に示す例では、1ブロックは、12×12ピクセルの集合となる。ここで、変換部21は、ブロック毎に、注目セルの輝度勾配の代表値を算出する。具体的には、変換部21は、図3Cに示すように、ブロック毎にヒストグラムを作成し、かかるヒストグラムに基づき、注目セルの代表値を算出する。   That is, in the example shown in the figure, one block is a set of 12 × 12 pixels. Here, the conversion unit 21 calculates a representative value of the luminance gradient of the target cell for each block. Specifically, as illustrated in FIG. 3C, the conversion unit 21 creates a histogram for each block, and calculates a representative value of the cell of interest based on the histogram.

具体的には、図3Cに示すように、変換部21は、輝度勾配を所定間隔で複数の階級に分類し、ブロックに含まれる各画素の輝度勾配と合致する階級に各画素のエッジ強度を加算していく。なお、同図に示す例では、階級が20°ごとに分類される場合について示している。   Specifically, as shown in FIG. 3C, the conversion unit 21 classifies the luminance gradient into a plurality of classes at predetermined intervals, and sets the edge intensity of each pixel to a class that matches the luminance gradient of each pixel included in the block. Add. In the example shown in the figure, the case is shown where the class is classified every 20 °.

そして、変換部21は、エッジ強度の総和が最も高い階級を注目セルの輝度勾配として算出する。このとき、変換部21は、かかる総和が閾値以上である場合に、かかる階級を代表値とする。言い換えれば、総和が閾値以下となる注目セルについては、代表値が割り当てられないこととなる。   Then, the conversion unit 21 calculates the class having the highest sum of the edge strengths as the luminance gradient of the target cell. At this time, when the sum is equal to or greater than a threshold, the conversion unit 21 sets the class as a representative value. In other words, a representative value is not assigned to a cell of interest for which the sum is equal to or less than the threshold.

つまり、ブロックに含まれる各画素のエッジ強度が低い場合や、かかる各画素の輝度勾配にバラつきがある場合、注目セルについては、代表値が割り当てられないこととなる。   That is, when the edge strength of each pixel included in the block is low, or when there is a variation in the luminance gradient of each pixel, a representative value is not allocated to the target cell.

変換部21は、1つの注目セルについて代表値を算出すると、引き続きブロックを1セルずつずらして注目セルを設定し、かかる注目セルに対して代表値を算出する。これにより、変換部21は、各セルについて代表値を算出する。   When the conversion unit 21 calculates a representative value for one target cell, the conversion unit 21 continues to shift the block by one cell to set the target cell, and calculates a representative value for the target cell. Thereby, the conversion unit 21 calculates a representative value for each cell.

そして、変換部21は、各セルを代表値に対応する階級の符号に変換する。これにより、符号化された撮像画像Lでは、符号が格子状に配列することとなる。かかる撮像画像Lは、第1抽出部22へ出力される。   Then, the conversion unit 21 converts each cell into a code of a class corresponding to the representative value. As a result, in the encoded captured image L, the codes are arranged in a lattice. The captured image L is output to the first extraction unit 22.

図2の説明に戻り、第1抽出部22について説明する。第1抽出部22は、撮像画像Lに含まれる各画素の輝度勾配が所定の中心領域から外向きの第1画素群P1を抽出する。また、第2抽出部23は、各画素の輝度勾配が中心領域に向かって内向きの第2画素群P2を抽出する。   Returning to the description of FIG. 2, the first extraction unit 22 will be described. The first extraction unit 22 extracts a first pixel group P1 in which the luminance gradient of each pixel included in the captured image L is outward from a predetermined center region. The second extraction unit 23 extracts a second pixel group P2 in which the luminance gradient of each pixel is inward toward the central region.

第1抽出部22および第2抽出部23は、変換部21によって輝度勾配に応じて符号化された撮像画像Lから所定の配列順序を満たす符号列を第1画素群P1および第2画素群P2としてそれぞれ抽出する。   The first extraction unit 22 and the second extraction unit 23 use the first pixel group P1 and the second pixel group P2 to generate code strings that satisfy a predetermined arrangement order from the captured image L encoded by the conversion unit 21 according to the luminance gradient. Respectively.

ここで、図4A〜図4Cを用いて第1抽出部22および第2抽出部23による処理の具体例について説明する。図4Aは、第1画素群P1の具体例を示す図である。図4Bは、第2画素群P2の具体例を示す図である。図4Cは、第1画素群P1の配列順序の具体例を示す図である。   Here, the specific example of the process by the 1st extraction part 22 and the 2nd extraction part 23 is demonstrated using FIG. 4A-FIG. 4C. FIG. 4A is a diagram illustrating a specific example of the first pixel group P1. FIG. 4B is a diagram illustrating a specific example of the second pixel group P2. FIG. 4C is a diagram illustrating a specific example of the arrangement order of the first pixel group P1.

まず、図4Aおよび図4Bを用いて第1画素群P1および第2画素群P2について説明する。なお、図4Aおよび図4Bでは、視覚的に分かりやすくするため、符号に代えて実際のエッジ向き(輝度勾配)を模式的に示す。   First, the first pixel group P1 and the second pixel group P2 will be described using FIGS. 4A and 4B. In FIG. 4A and FIG. 4B, actual edge orientations (brightness gradients) are schematically shown in place of reference numerals for the purpose of visual intelligibility.

第1抽出部22は、撮像画像Lから上辺パターンPu1、下辺パターンPd1、左辺パターンPl1および右辺パターンPr1の配列順序を満たす符号列をそれぞれ第1画素群P1として抽出する。   The first extraction unit 22 extracts, from the captured image L, code strings that satisfy the arrangement order of the upper side pattern Pu1, the lower side pattern Pd1, the left side pattern Pl1, and the right side pattern Pr1 as a first pixel group P1.

上辺パターンPu1は、中央から端部に向けて明るくなる水滴の上部に対応する符号列の配列順序を示す。下辺パターンPd1は、かかる水滴の下部に対応する符号列の配列順序を示す。また、左辺パターンPl1および右辺パターンPr1は、かかる水滴の左辺および右辺に対応する符号列の配列順序をそれぞれ示す。   The upper side pattern Pu1 indicates the arrangement sequence of the code string corresponding to the upper part of the water droplet that becomes brighter from the center toward the end. The lower side pattern Pd1 indicates the arrangement order of the code string corresponding to the lower part of the water droplet. Further, the left side pattern Pl1 and the right side pattern Pr1 indicate the arrangement order of the code strings corresponding to the left side and the right side of the water droplet, respectively.

一方、図4Bに示すように、第2抽出部23は、撮像画像Lから上辺パターンPu2、下辺パターンPd2、左辺パターンPl2および右辺パターンPr2の配列順序を満たす符号列を第2画素群P2としてそれぞれ抽出する。   On the other hand, as shown in FIG. 4B, the second extraction unit 23 sets a code string satisfying the arrangement order of the upper side pattern Pu2, the lower side pattern Pd2, the left side pattern Pl2 and the right side pattern Pr2 from the captured image L as the second pixel group P2. Extract.

上辺パターンPu2は、中央から端部に向けて暗くなる水滴の上部に対応する符号列の配列順序を示す。下辺パターンPd2は、かかる水滴の下部に対応する符号列の配列順序を示す。また、左辺パターンPl2および右辺パターンPr2は、かかる水滴の左辺および右辺に対応する符号列の配列順序をそれぞれ示す。   The upper side pattern Pu2 indicates the arrangement sequence of the code string corresponding to the upper part of the water droplet that becomes darker from the center toward the end. The lower side pattern Pd2 indicates the arrangement order of the code string corresponding to the lower part of the water droplet. Further, the left side pattern Pl2 and the right side pattern Pr2 indicate the arrangement order of the code strings corresponding to the left side and the right side of the water droplet, respectively.

このように、第1抽出部22は、中央から端部に向かって明るくなる水滴の特徴を示す画素群を第1画素群P1として抽出し、第2抽出部23は、中央から端部に向かって暗くなる画素群を第2画素群P2として抽出する。   As described above, the first extraction unit 22 extracts the pixel group showing the feature of the water droplet which is brightened from the center to the end as the first pixel group P1, and the second extraction unit 23 proceeds from the center to the end A pixel group that becomes dark is extracted as a second pixel group P2.

ところで、第1画素群P1および第2画素群P2は、水滴の大きさに応じて符号列の長さが異なる。例えば、小さい水滴では、大きい水滴よりも各辺の符号列の長さが短くなる。   Incidentally, the first pixel group P1 and the second pixel group P2 have different code string lengths depending on the size of the water droplets. For example, with a small water droplet, the length of the code string on each side is shorter than with a large water droplet.

このため、第1抽出部22および第2抽出部23は、上記の配列順序を満たしていれば、繰り返しを許容して第1画素群P1および第2画素群P2を抽出する。   Therefore, the first extraction unit 22 and the second extraction unit 23 allow repetition to extract the first pixel group P1 and the second pixel group P2, as long as the above arrangement order is satisfied.

具体的には、図4Cに示すように、第1画素群P1の上辺パターンPu1を各符号列(A〜F)で表記した場合、同図aに示すように、A〜Fの順序で配列していれば、各符号の繰り返しを許容する。   Specifically, as shown in FIG. 4C, when the upper side pattern Pu1 of the first pixel group P1 is represented by each code string (A to F), as shown in FIG. 4A, the patterns are arranged in the order of A to F. If so, repeat of each code is permitted.

つまり、第1抽出部22は、Aの右にAもしくはBがあり、Bの右にBもしくはCが存在する等の配列順序を満たしていれば、上辺パターンPu1として抽出することができる。   That is, the first extraction unit 22 can extract the upper side pattern Pu1 if it satisfies the arrangement order such that A or B is to the right of A and B or C is to the right of B.

これにより、大きさが異なる水滴を1回の抽出処理によって抽出することが可能となる。したがって、実施形態に係る付着物検出装置1は、大きさが異なる複数の水滴を1回の処理で抽出することができるので、処理負荷を抑えつつ、水滴の検出漏れを抑制することができる。   This makes it possible to extract water droplets of different sizes by one extraction process. Therefore, since the deposit | attachment detection apparatus 1 which concerns on embodiment can extract the several water droplet from which a magnitude | size differs by one process, it can suppress the detection leak of a water droplet, suppressing process load.

また、水滴は一般的に球状となるため、各符号の繰り返しの回数は、中心から線対称状となるはずである。このため、実施形態に係る付着物検出装置1は、配列順序を満たす符号列の中で、バランスが悪い符号列を除外することも可能である。   In addition, since water drops are generally spherical, the number of repetitions of each symbol should be axisymmetric from the center. For this reason, the deposit | attachment detection apparatus 1 which concerns on embodiment can also exclude a code sequence with a bad balance in the code sequences which satisfy | fill arrangement | sequence order.

同図bに示すように、例えば、両端に位置するAとFとのバランスを精査する。ここで、同図では、Aが3回繰り返され、Fが10回繰り返される場合を示している。   As shown in FIG. 6B, for example, the balance between A and F located at both ends is scrutinized. Here, in the same figure, the case where A is repeated 3 times and F is repeated 10 times is shown.

このとき、付着物検出装置1は、AおよびFの個数が2倍以上異なる場合に、配列順序を満たす場合であっても、かかる符号列を除外する。これにより、水滴の検出精度を向上させることができる。言い換えれば、水滴以外の被写体を水滴として検出することを抑制することができる。   At this time, in the case where the numbers of A and F differ by 2 times or more, the attached matter detection device 1 excludes such a code string even if the arrangement order is satisfied. Thereby, the detection accuracy of a water droplet can be improved. In other words, detection of a subject other than the water droplet as the water droplet can be suppressed.

なお、このとき、同図cに示すように、付着物検出装置1は、バランスが均等となるように、符号列を抽出することにしてもよい。具体的には、中央から3つのFのみを水滴の特徴として検出し、中央から4つ目以降を除外して抽出することにしてもよい。また、ここでは、上辺パターンPu1を例に挙げて説明したが、その他のパターンについても同様である。   At this time, as shown in FIG. 3C, the adhering matter detection apparatus 1 may extract the code string so that the balance is uniform. Specifically, only three Fs from the center may be detected as the characteristics of the water droplets, and the fourth and later may be excluded from the center and extracted. Although the upper side pattern Pu1 has been described as an example here, the same applies to other patterns.

図2の説明に戻り、検出部24について説明する。検出部24は、第1抽出部22によって抽出された第1画素群P1と第2抽出部23によって抽出された第2画素群P2との組み合わせに基づいて1つの付着物を検出する。   Returning to the description of FIG. 2, the detection unit 24 will be described. The detection unit 24 detects one attached substance based on a combination of the first pixel group P1 extracted by the first extraction unit 22 and the second pixel group P2 extracted by the second extraction unit 23.

また、検出部24は、生成部24aと、決定部24bとを備える。生成部24aは、第1画素群P1から中心領域へ延伸する第1領域と、第2画素群P2から中心領域へ延伸する第2領域とを統合した統合領域を生成する。   The detection unit 24 includes a generation unit 24a and a determination unit 24b. The generation unit 24a generates an integrated area in which a first area extending from the first pixel group P1 to the central area and a second area extending from the second pixel group P2 to the central area are integrated.

決定部24bは、生成部24aによって生成された統合領域を構成する第1画素群P1と、第2画素群P2との組み合わせに基づいて当該統合領域を付着物として決定する。   The determination unit 24b determines the integrated region as the adhering matter based on the combination of the first pixel group P1 and the second pixel group P2 that configure the integrated region generated by the generation unit 24a.

ここで、上述したように、検出部24は、中央から端部に向かって明るくなる水滴、中央から端部に向かって暗くなる水滴および双方の特徴を有する水滴を検出することが可能である。   Here, as described above, the detection unit 24 can detect a water droplet that becomes bright from the center to the end, a water droplet that becomes dark from the center to the end, and a water droplet having both features.

本実施形態において、第1画素群P1のみで構成される水滴は、中心から外側に向かって明るくなる水滴であり、第2画素群P2のみで構成される水滴は、中心から外側に向かって暗くなる水滴である。   In the present embodiment, a water droplet constituted only by the first pixel group P1 is a water droplet which becomes bright from the center to the outside, and a water droplet constituted only by the second pixel group P2 is dark from the center to the outside It is a water drop.

また、第1画素群P1および第2画素群P2で構成される水滴は、中心から外側に向かって明るくなる水滴と、中心から外側に向かって暗くなる水滴との特徴を併せ持つ水滴となる。   Further, the water droplet constituted by the first pixel group P1 and the second pixel group P2 is a water droplet having characteristics of a water droplet brightening from the center to the outside and a water droplet darkening from the center to the outside.

検出部24は、第1画素群P1と第2画素群P2とを含む水滴について、第1画素群P1または第2画素群P2の一方から構成される水滴よりも検出条件を強化して検出する。すなわち、検出部24は、第1画素群P1と第2画素群P2とを含む水滴について、第1画素群P1と第1画素群P1とから構成される水滴、及び、第2画素群P2と第2画素群P2とから構成される水滴よりも、検出条件を強化して検出する。   The detection unit 24 detects a water droplet including the first pixel group P1 and the second pixel group P2 with detection conditions strengthened more than a water droplet formed of one of the first pixel group P1 or the second pixel group P2. . That is, for the water droplet including the first pixel group P1 and the second pixel group P2, the detection unit 24 includes the water droplet including the first pixel group P1 and the first pixel group P1, and the second pixel group P2. Detection is performed with a stronger detection condition than a water droplet composed of the second pixel group P2.

これは、第1画素群P1と第2画素群P2とを含む水滴については、第1画素群P1または第2画素群P2の一方から構成される水滴よりも誤検出、すなわち、水滴以外の被写体を水滴と誤って検出する可能性が高いためである。   This is because a water droplet including the first pixel group P1 and the second pixel group P2 is more erroneously detected than a water droplet formed of one of the first pixel group P1 or the second pixel group P2, that is, an object other than the water droplet Is likely to be detected incorrectly as a water drop.

具体的には、生成部24aによる統合領域の生成条件と、決定部24bによる水滴の決定条件を強化することで、上記の誤検出を抑制する。かかる生成条件は、記憶部3に生成条件情報31として記憶され、かかる決定条件は、記憶部3に決定条件情報32として記憶される。   Specifically, the false detection is suppressed by strengthening the generation condition of the integrated region by the generation unit 24a and the determination condition of the water droplet by the determination unit 24b. Such generation conditions are stored as generation condition information 31 in the storage unit 3, and such determination conditions are stored as determination condition information 32 in the storage unit 3.

図5Aおよび図5Bは、生成部24aによる処理の具体例を示す図である。まず、図5Aを用いて第1画素群P1に基づく統合領域Riについて説明する。   FIG. 5A and FIG. 5B are diagrams showing specific examples of processing by the generation unit 24a. First, an integrated region Ri based on the first pixel group P1 will be described using FIG. 5A.

図5Aに示すように、生成部24aは、第1画素群P1の上辺パターンPu1に対応する第1領域Ru1と、第1画素群P1の下辺パターンPd1に対応する第1領域Rd1とを統合することで統合領域Riである単一領域Rioを生成する。   As illustrated in FIG. 5A, the generation unit 24a integrates the first area Ru1 corresponding to the upper side pattern Pu1 of the first pixel group P1 and the first area Rd1 corresponding to the lower side pattern Pd1 of the first pixel group P1. Thus, a single area Rio which is an integrated area Ri is generated.

第1領域Ru1は、上辺パターンPu1の長さを1辺とし、上辺パターンPu1から中心(同図下方向)に延伸させた正方形状の領域であり、第1領域Rd1は、下辺パターンPd1の長さを1辺とし、下辺パターンPd1から中心(同図上方向)に延伸させた正方形状の領域である。   The first region Ru1 is a square region extending from the upper side pattern Pu1 to the center (downward in the figure), with the length of the upper side pattern Pu1 as one side, and the first region Rd1 is a long side of the lower side pattern Pd1. This is a square region having one side and extending from the lower side pattern Pd1 to the center (upward in the figure).

このとき、生成部24aは、第1領域Ru1と、第1領域Rd1との重複率が50%以上であることを単一領域Rioの統合条件とする。また、同図に示すように、単一領域Rioは、第1領域Ru1と、第1領域Ru2とを含むすべての領域となる。すなわち、単一領域Rioは、第1領域Ru1と、第1領域Ru2との論理和となる。   At this time, the generation unit 24a sets the overlapping condition of the first region Ru1 and the first region Rd1 to be 50% or more as an integration condition of the single region Rio. Further, as shown in the figure, the single region Rio is all the regions including the first region Ru1 and the first region Ru2. That is, the single region Rio is a logical sum of the first region Ru1 and the first region Ru2.

一方、図5Bに示すように、第1画素群P1と、第2画素群P2とを含む統合領域Riである混合領域Rimについては、単一領域Rioよりも統合条件が強化される。   On the other hand, as shown in FIG. 5B, with regard to the mixed area Rim which is the integrated area Ri including the first pixel group P1 and the second pixel group P2, the integration condition is strengthened more than the single area Rio.

具体的には、混合領域Rimについては、第1画素群P1の上辺パターンPu1に対応する第1領域Ru1と、第2画素群P2の下辺パターンPd2に対応する第2領域Rd2との重複率が90%以上であることを統合条件とする。   Specifically, for the mixed region Rim, the overlapping ratio between the first region Ru1 corresponding to the upper side pattern Pu1 of the first pixel group P1 and the second region Rd2 corresponding to the lower side pattern Pd2 of the second pixel group P2 is The integration condition is 90% or more.

また、同図に示すように、生成部24aは、第1領域Ru1と、第2領域Rd2とが重複した領域を混合領域Rimとして生成する。すなわち、混合領域Rimは、第1領域Ru1と、第2領域Rd2との論理積となる。   Further, as shown in the figure, the generation unit 24a generates, as a mixed region Rim, a region where the first region Ru1 and the second region Rd2 overlap. That is, the mixed region Rim is a logical product of the first region Ru1 and the second region Rd2.

続いて、図6Aおよび図6Bを用いて決定部24bによる処理の具体例について説明する。図6Aおよび図6Bは、決定部24bによる処理の具体例を示す図である。   Subsequently, a specific example of the process by the determination unit 24b will be described with reference to FIGS. 6A and 6B. FIG. 6A and FIG. 6B are diagrams showing a specific example of processing by the determination unit 24b.

まず、図6Aを用いて単一領域Rioについて付着物と決定する場合の決定条件について説明する。同図に示すように、例えば、決定部24bは、単一領域Rioに3辺以上のパターンが内包される場合に、かかる単一領域Rioを付着物が付着している付着物領域Foとして決定する。   First, the determination condition in the case of determining the deposit as the single region Rio will be described with reference to FIG. 6A. As shown in the figure, for example, when a pattern having three or more sides is included in a single area Rio, the determination unit 24b determines such a single area Rio as a deposit area Fo to which a deposit is attached. To do.

具体的には、単一領域Rioにおける決定条件は、上辺部に上辺パターンPu1が存在する第1条件、下辺部に下辺パターンPd1が存在する第2条件、左辺部に左辺パターンPl1が存在する第3条件、右辺部に右辺パターンPr1が存在する第4条件とした場合に、少なくとも3つの条件を満たすことである。   Specifically, the determination conditions in the single region Rio are the first condition in which the upper side pattern Pu1 exists in the upper side, the second condition in which the lower side pattern Pd1 exists in the lower side, and the first condition in which the left side pattern Pl1 exists in the left side. In the case where the third condition is the fourth condition in which the right side pattern Pr1 exists in the right side portion, at least three conditions are satisfied.

一方、図6Bに示すように、決定部24bは、混合領域Rimについては、混合領域Rimを内包する各辺のパターンが4辺であることを付着物領域Fmの決定条件とする。   On the other hand, as illustrated in FIG. 6B, the determination unit 24b determines that the pattern of each side including the mixed area Rim is four sides in the mixed area Rim as the determination condition of the attached substance area Fm.

つまり、上辺パターンPu1、Pu2の一方が上辺部に存在する第1条件、下辺パターンPd1、Pd2の一方が下辺部に存在する第2条件、左辺パターンPl1、Pl2の一方が左辺部に存在する第3条件、右辺パターンPr1、Pr2の一方が右辺部に存在する第4条件の全てを満たす混合領域Rimについて付着物領域Fmとして決定する。   That is, the first condition that one of the upper side patterns Pu1 and Pu2 exists in the upper side, the second condition that one of the lower side patterns Pd1 and Pd2 exists in the lower side, and the one that one of the left side patterns Pl1 and Pl2 exists in the left side A mixed region Rim that satisfies all the fourth conditions in which one of the three conditions and one of the right side patterns Pr1 and Pr2 is present in the right side portion is determined as the attached matter region Fm.

なお、付着物領域Foは、第1画素群P1または第2画素群P2の一方で構成された領域であり、付着物領域Fmは、第1画素群P1および第2画素群P2の組み合わせで構成された領域である。   The attached matter area Fo is an area formed by one of the first pixel group P1 and the second pixel group P2, and the adhered matter area Fm is formed by a combination of the first pixel group P1 and the second pixel group P2. This is the area that has been

このように、生成部24aは、混合領域Rimの統合条件を単一領域Rioの混合条件よりも強化することで、決定部24bによる混合領域Rimにおける水滴の誤検出を抑制することができる。   As described above, the generation unit 24a can suppress erroneous detection of water droplets in the mixed area Rim by the determination unit 24b by strengthening the integration condition of the mixed area Rim more than the mixing condition of the single area Rio.

また、決定部24bは、混合領域Rimに対する付着物領域Fmの決定条件を単一領域Rioに対する付着物領域Foよりも強化することで、水滴の誤検出を抑制することができる。   Moreover, the determination part 24b can suppress the misdetection of a water droplet by strengthening the determination conditions of the deposit | attachment area | region Fm with respect to the mixing area | region Rim rather than the deposit | attachment area | region Fo with respect to the single area | region Rio.

このように、検出部24は、第1画素群P1と第2画素群P2とを含む水滴について、第1画素群P1または第2画素群P2の一方から構成される水滴よりも条件を強化して検出する。   As described above, the detection unit 24 reinforces the conditions for the water droplets including the first pixel group P1 and the second pixel group P2 as compared to the water droplets configured from one of the first pixel group P1 or the second pixel group P2. To detect.

これにより、実施形態に係る付着物検出装置1は、水滴の誤検出を抑制しつつ、水滴の検出漏れを抑制することが可能となる。   Thereby, the deposit | attachment detection apparatus 1 which concerns on embodiment can suppress the detection leak of a water droplet, suppressing the misdetection of a water droplet.

また、実施形態に係る付着物検出装置1は、円形状の水滴の輪郭部分を捉えるのではなく、水滴に内包される矩形の各辺の特徴を捉えて水滴を検出する。これにより、真円状や楕円形状等にかかわらず、多様な形状の水滴を一度の処理で検出することができる。   Moreover, the deposit | attachment detection apparatus 1 which concerns on embodiment detects a water drop not by catching the outline part of a circular water droplet but by catching the characteristic of each side of the rectangle included in a water drop. This makes it possible to detect water droplets of various shapes in a single process, regardless of the perfect circular shape or the elliptical shape.

図2の説明に戻り、確定部25について説明する。確定部25は、決定部24bによって付着物領域Fo、Fmとして決定された統合領域Riの時系列的な重なりに基づいて付着物領域Fo、Fmを確定する。   Returning to the description of FIG. 2, the determination unit 25 will be described. The determination unit 25 determines the attachment regions Fo and Fm based on the time-series overlap of the integrated regions Ri determined as the attachment regions Fo and Fm by the determination unit 24b.

図7は、確定部25による処理の具体例を示す図である。図7に示すように、確定部25は、付着物領域Foまたは付着物領域Fmとして検出された領域について加点し、付着物領域Foまたは付着物領域Fmとして検出されなかった領域について減点する。   FIG. 7 is a diagram illustrating a specific example of the process performed by the determination unit 25. As illustrated in FIG. 7, the determination unit 25 adds points to the attached matter area Fo or the area detected as the attached matter area Fm, and deducts points from the area not detected as the attached matter area Fo or the attached matter area Fm.

そして、確定部25は、累積値が閾値以上となった領域について付着物領域として確定させる。つまり、連続的に付着物領域Fmまたは付着物領域Foとして検出された領域が付着物領域として確定されることとなる。   Then, the determination unit 25 determines the region where the accumulated value is equal to or more than the threshold value as the attached matter region. That is, the area continuously detected as the deposit area Fm or the deposit area Fo is determined as the deposit area.

このように、確定部25は、時系列的に連続する複数の撮像画像Lに基づいて付着物領域を確定させることで、付着物領域の検出精度を向上させることができる。つまり、確定部25は、1つの撮像画像Lのみで付着物領域として確定しないので、付着物の誤検出を抑制することができる。   As described above, the determination unit 25 can improve the detection accuracy of the attached region by determining the attached region based on the plurality of captured images L that are continuous in time series. That is, since the determination unit 25 does not determine only one captured image L as an attached matter region, it is possible to suppress erroneous detection of the attached matter.

ここで、確定部25は、第1画素群P1または第2画素群P2の一方で構成された付着物領域Foに対して第1画素群P1および第2画素群P2の組み合わせで構成された付着物領域Fmの重み付けを軽くして付着物領域を確定させる。   Here, the determination unit 25 is an appendage configured by a combination of the first pixel group P1 and the second pixel group P2 with respect to the deposit region Fo configured by one of the first pixel group P1 or the second pixel group P2. The weight of the kimono area Fm is reduced to determine the deposit area.

具体的には、確定部25は、付着物領域Foよりも付着物領域Fmに対する得点を低く設定して付着物領域を確定させる。例えば、付着物領域Foが5回検出された場合に付着物領域として確定される場合において、付着物領域Fmが10回検出された場合に、付着物領域として確定される。   Specifically, the determination unit 25 sets the score for the attached matter area Fm lower than that of the attached matter area Fo to determine the attached matter area. For example, when the deposit region Fo is detected five times, the deposit region is determined as the deposit region when the deposit region Fm is detected ten times.

このように、確定部25は、付着物領域Foと付着物領域Fmとで重み付けを変えて付着物領域を確定させることで、付着物領域Fmに基づく誤検出を抑制することができる。なお、付着物領域Foと付着物領域Fmの重み付けについては任意に変更することも可能である。   Thus, the determination unit 25 can suppress erroneous detection based on the attached matter region Fm by changing the weighting between the attached matter region Fo and the attached matter region Fm to determine the attached matter region. The weighting of the attached matter area Fo and the attached matter area Fm can be arbitrarily changed.

また、確定部25は、付着物領域として確定させた場合に、かかる付着物領域をマスクしたマスク画像を生成する。そして、確定部25は、撮像画像Lにマスク画像を重畳して車両制御装置15(図2参照)に出力する。   Further, when the determination unit 25 determines the attachment region, the determination unit 25 generates a mask image in which the attachment region is masked. And the determination part 25 superimposes a mask image on the captured image L, and outputs it to the vehicle control apparatus 15 (refer FIG. 2).

これにより、車両制御装置15は、付着物による誤った各種センシングを抑制することができる。つまり、付着物による誤った車両制御を抑制することが可能となる。例えば、車両制御装置15は、撮像画像L中の付着物の領域が大きいために、自動駐車制御を安全に継続することが困難と判断した場合には、自動駐車制御を停止する。このように、車両制御装置15は、車両の安全が担保された場合にのみ自動駐車制御を行うことで、車両の安全性を向上させることが可能となる。   Thereby, the vehicle control apparatus 15 can suppress various erroneous sensings due to the deposits. That is, it is possible to suppress erroneous vehicle control due to the attached matter. For example, the vehicle control device 15 stops the automatic parking control when it is determined that it is difficult to continue the automatic parking control safely because the area of the deposit in the captured image L is large. Thus, the vehicle control device 15 can improve the safety of the vehicle by performing the automatic parking control only when the safety of the vehicle is ensured.

次に、図8を用いて実施形態に係る付着物検出装置1が実行する処理手順について説明する。図8は、付着物検出装置1が実行する処理手順を示すフローチャートである。   Next, a processing procedure performed by the attached matter detection device 1 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a processing procedure performed by the attached matter detection device 1.

図8に示すように、まず、変換部21は、撮像画像Lを変換し(ステップS101)、第1抽出部22および第2抽出部23は、第1画素群P1および第2画素群P2を抽出する(ステップS102)。   As shown in FIG. 8, first, the conversion unit 21 converts the captured image L (step S101), and the first extraction unit 22 and the second extraction unit 23 convert the first pixel group P1 and the second pixel group P2. Extract (step S102).

続いて、生成部24aは、統合領域Riを生成する(ステップS103)。続いて、決定部24bは、統合領域Riが混合領域Rimであるか否かを判定する(ステップS104)。   Subsequently, the generation unit 24a generates an integrated region Ri (step S103). Subsequently, the determination unit 24b determines whether or not the integrated region Ri is the mixed region Rim (step S104).

ここで、決定部24bは、統合領域Riが混合領域Rimである場合(ステップS104,Yes)、混合領域Rimが4辺で構成されているか否かを判定する(ステップS105)。   Here, when the integrated region Ri is the mixed region Rim (Yes at step S104), the determination unit 24b determines whether the mixed region Rim is configured by four sides (step S105).

そして、決定部24bは、混合領域Rimが4辺で構成されている場合(ステップS105,Yes)、混合領域Rimを付着物領域として決定する(ステップS106)。   Then, when the mixed region Rim includes four sides (Yes at Step S105), the determination unit 24b determines the mixed region Rim as an attachment region (Step S106).

一方、決定部24bは、混合領域Rimが3辺以下で構成されている場合(ステップS105,No)、ステップS106の処理を省略する。また、決定部24bは、統合領域Riが混合領域Rimでない場合(ステップS104,No)、かかる統合領域Riは単一領域Rioであるので、単一領域Rioが3辺以上で構成されているか否かを判定する(ステップS110)。   On the other hand, when the mixed area Rim has three or less sides (No at step S105), the determining unit 24b omits the process at step S106. In addition, when the integrated region Ri is not the mixed region Rim (No in step S104), the determining unit 24b determines whether the single region Rio is configured with three or more sides because the integrated region Ri is a single region Rio. Is determined (step S110).

ここで、決定部24bは、単一領域Rioが3辺以上で構成されている場合(ステップS110,Yes)、ステップS106の処理に移行し、単一領域Rioが2辺以下で構成されている場合(ステップS110,No)、ステップS107の処理に移行する。   Here, when the single area Rio is configured with three or more sides (Yes in step S110), the determination unit 24b proceeds to the process of step S106, and the single area Rio is configured with two or less sides. If it is (Step S110, No), the process proceeds to Step S107.

続いて、確定部25は、決定部24bによって決定された付着物領域に基づいて各領域に対して得点を加点また減点する(ステップS107)。そして、確定部25は、各領域の累計値が閾値より大きいか否かを判定する(ステップS108)。   Subsequently, the determination unit 25 adds or deducts a score for each area based on the attached matter area determined by the determination unit 24b (step S107). Then, the determination unit 25 determines whether the total value of each area is larger than a threshold (step S108).

ここで、確定部25は、累計値が閾値より大きかった場合(ステップS108,Yes)、付着物領域として確定し(ステップS109)、処理を終了する。一方、確定部25は、累計値が閾値以下である場合(ステップS108,No)、ステップS109の処理を省略し、処理を終了する。   Here, when the cumulative value is larger than the threshold value (step S108, Yes), the determination unit 25 determines the attached region (step S109) and ends the process. On the other hand, when the total value is equal to or less than the threshold (No in step S108), the determination unit 25 omits the process of step S109 and ends the process.

上述したように、実施形態に係る付着物検出装置1は、第1抽出部22と、第2抽出部23と、検出部24とを備える。第1抽出部22は、カメラ10(撮像装置の一例)によって撮像された撮像画像Lに含まれる各画素の輝度勾配が所定の中心領域から外向きの第1画素群P1を抽出する。第2抽出部23は、各画素の輝度勾配が中心領域に向かって内向きの第2画素群P2を抽出する。検出部24は、第1抽出部22によって抽出された第1画素群P1と第2抽出部23によって抽出された第2画素群P2とを組み合わせてカメラ10に付着した1つの付着物を検出する。したがって、実施形態に係る付着物検出装置1によれば、付着物の検出漏れを抑制することができる。   As described above, the attached matter detection device 1 according to the embodiment includes the first extraction unit 22, the second extraction unit 23, and the detection unit 24. The first extraction unit 22 extracts a first pixel group P <b> 1 in which the luminance gradient of each pixel included in the captured image L captured by the camera 10 (an example of the imaging device) is outward from a predetermined central region. The second extraction unit 23 extracts a second pixel group P2 in which the luminance gradient of each pixel is inward toward the central region. The detection unit 24 detects one attached matter attached to the camera 10 by combining the first pixel group P1 extracted by the first extraction unit 22 and the second pixel group P2 extracted by the second extraction unit 23. . Therefore, according to the deposit | attachment detection apparatus 1 which concerns on embodiment, the detection leak of a deposit | attachment can be suppressed.

ところで、上記した実施形態では、付着物検出装置1をいずれも車載用のカメラ10に適用する場合について示したが、例えば、建物の内外や路地等に設定される監視/防犯カメラなどのその他の種類のカメラに適用してもよい。   By the way, although the above-mentioned embodiment showed the case where all the adhesion detection devices 1 were applied to camera 10 for vehicles, for example, other things, such as surveillance / crime prevention camera etc. which are set up in the outside of a building, alley It may be applied to different types of cameras.

また、上述した実施形態では、付着物検出装置1が、付着物として水滴を検出する場合について説明したが、これに限定されるものではない。すなわち、水滴に代えてその他の付着物についても適用することも可能である。   Moreover, although embodiment mentioned above demonstrated the case where the adhering matter detection apparatus 1 detected a water droplet as an adhering matter, it is not limited to this. That is, it is also possible to apply to other deposits instead of the water droplets.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 付着物検出装置
21 変換部
22 第1抽出部
23 第2抽出部
24 検出部
24a 生成部
24b 決定部
25 確定部
P1 第1画素群
P2 第2画素群
Ri 統合領域
Rio 単一領域
Rim 混合領域
DESCRIPTION OF SYMBOLS 1 Adherence detection apparatus 21 Conversion part 22 1st extraction part 23 2nd extraction part 24 Detection part 24a Generation part 24b Determination part 25 Determination part P1 1st pixel group P2 2nd pixel group Ri Integrated area Rio Single area | region Rim Mixed area | region

Claims (7)

撮像装置によって撮像された撮像画像に含まれる各画素の輝度勾配が所定の中心領域から外向きの第1画素群を抽出する第1抽出部と、
前記各画素の輝度勾配が前記中心領域に向かって内向きの第2画素群を抽出する第2抽出部と、
前記第1抽出部によって抽出された前記第1画素群と前記第2抽出部によって抽出された前記第2画素群とを組み合わせて前記撮像装置に付着した付着物を検出する検出部と
を備えることを特徴とする付着物検出装置。
A first extraction unit that extracts a first pixel group in which a luminance gradient of each pixel included in a captured image captured by the imaging device is outward from a predetermined center region;
A second extraction unit that extracts a second pixel group in which the luminance gradient of each pixel is directed toward the central region;
A detection unit configured to detect the adhering matter attached to the imaging device by combining the first pixel group extracted by the first extraction unit and the second pixel group extracted by the second extraction unit. An attached matter detection device characterized by
前記検出部は、
前記第1画素群から前記中心領域へ延伸する第1領域と、前記第2画素群から前記中心領域へ延伸する第2領域とを統合した統合領域を生成する生成部と、
前記生成部によって生成された前記統合領域を構成する前記第1画素群と、前記第2画素群との組み合わせに基づいて当該統合領域を前記付着物として決定する決定部と
を備えること
を特徴とする請求項1に記載の付着物検出装置。
The detection unit is
A generating unit that generates an integrated region in which a first region extending from the first pixel group to the central region and a second region extending from the second pixel group to the central region are integrated;
And a determining unit that determines the integrated region as the deposit based on a combination of the first pixel group that forms the integrated region generated by the generating unit and the second pixel group. The attached matter detection device according to claim 1.
前記生成部は、
前記第1領域と前記第2領域とを統合して前記統合領域を生成する場合に、前記第1領域と該第1領域または前記第2領域と該第2領域とを統合して統合領域を生成する場合よりも統合条件を強化すること
を特徴とする請求項2に記載の付着物検出装置。
The generator is
When the integrated region is generated by integrating the first region and the second region, the integrated region is formed by integrating the first region and the first region or the second region and the second region. The adhesion detection device according to claim 2, wherein integration conditions are strengthened more than generation.
前記決定部は、
前記第1領域と前記第2領域とを統合して生成された前記統合領域について、前記第1領域と該第1領域とを統合して生成された前記統合領域または前記第2領域と該第2領域とを統合して生成された前記統合領域よりも付着物の決定条件を強化すること
を特徴とする請求項2または3に記載の付着物検出装置。
The determination unit
For the integrated region generated by integrating the first region and the second region, the integrated region or the second region generated by integrating the first region and the first region and the first region The deposit detection apparatus according to claim 2 or 3, wherein the deposit determination condition is reinforced more than the integrated region generated by integrating two regions.
前記決定部によって付着物として決定された前記統合領域の時系列的な重なりに基づいて前記付着物を確定する確定部
をさらに備え、
前記確定部は、
前記第1領域と前記第2領域とを統合して生成された前記統合領域について、前記第1領域と該第1領域とを統合して生成された前記統合領域または前記第2領域と該第2領域とを統合して生成された前記統合領域よりも重み付けを軽くすること
を特徴とする請求項2、3または4に記載の付着物検出装置。
A determination unit for determining the deposit based on a time-series overlap of the integrated region determined as the deposit by the determination unit;
The determining unit is
For the integrated region generated by integrating the first region and the second region, the integrated region or the second region generated by integrating the first region and the first region and the first region The adhering matter detection device according to claim 2, 3 or 4, wherein the weight is lighter than that of the integrated region generated by integrating the two regions.
前記撮像装置は車両に搭載され、
前記車両は前記撮像画像に基づき該車両の駐車制御を行う駐車制御部
をさらに備え、
前記駐車制御部は、
前記確定部によって付着物が確定された場合に、前記車両の駐車制御を停止する
ことを特徴とする請求項5に記載の付着物検出装置。
The imaging device is mounted on a vehicle,
The vehicle further includes a parking control unit that performs parking control of the vehicle based on the captured image.
The parking control unit
The adhering matter detection apparatus according to claim 5, wherein when the adhering matter is confirmed by the determining unit, parking control of the vehicle is stopped.
撮像装置によって撮像された撮像画像に含まれる各画素の輝度勾配が所定の中心領域から外向きの第1画素群を抽出する第1抽出工程と、
前記各画素の輝度勾配が前記中心領域に向かって内向きの第2画素群を抽出する第2抽出工程と、
前記第1抽出工程によって抽出された前記第1画素群と前記第2抽出工程によって抽出された前記第2画素群とを組み合わせて前記撮像装置に付着した付着物を検出する検出工程と
を含むことを特徴とする付着物検出方法。
A first extraction step of extracting a first pixel group in which a luminance gradient of each pixel included in a captured image captured by the imaging device is outward from a predetermined center region;
A second extraction step of extracting a second pixel group in which the luminance gradient of each pixel is directed toward the central region;
And a detection step of detecting an adhering matter attached to the imaging device by combining the first pixel group extracted by the first extraction step and the second pixel group extracted by the second extraction step. An attached matter detection method characterized by
JP2018010057A 2018-01-24 2018-01-24 Attached matter detector and attached matter detection method Pending JP2019128797A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018010057A JP2019128797A (en) 2018-01-24 2018-01-24 Attached matter detector and attached matter detection method
US16/217,743 US10789502B2 (en) 2018-01-24 2018-12-12 Extraneous-matter detecting apparatus and extraneous-matter detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018010057A JP2019128797A (en) 2018-01-24 2018-01-24 Attached matter detector and attached matter detection method

Publications (1)

Publication Number Publication Date
JP2019128797A true JP2019128797A (en) 2019-08-01

Family

ID=67473093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018010057A Pending JP2019128797A (en) 2018-01-24 2018-01-24 Attached matter detector and attached matter detection method

Country Status (1)

Country Link
JP (1) JP2019128797A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308709B2 (en) 2019-09-20 2022-04-19 Denso Ten Limited Deposit detection device and deposit detection method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254206A (en) * 2005-03-11 2006-09-21 Secom Co Ltd Image signal processing apparatus
JP2006261761A (en) * 2005-03-15 2006-09-28 Secom Co Ltd Image signal processing apparatus
JP2013190416A (en) * 2012-02-13 2013-09-26 Ricoh Co Ltd Deposit detection device and in-vehicle equipment controller including the same
WO2015008566A1 (en) * 2013-07-18 2015-01-22 クラリオン株式会社 Vehicle-mounted device
JP2015095886A (en) * 2013-11-14 2015-05-18 クラリオン株式会社 Surrounding environment recognition device
JP2016033729A (en) * 2014-07-31 2016-03-10 クラリオン株式会社 Surrounding environment recognition device
JP2017138736A (en) * 2016-02-02 2017-08-10 富士通テン株式会社 Image processor and water droplet removal system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254206A (en) * 2005-03-11 2006-09-21 Secom Co Ltd Image signal processing apparatus
JP2006261761A (en) * 2005-03-15 2006-09-28 Secom Co Ltd Image signal processing apparatus
JP2013190416A (en) * 2012-02-13 2013-09-26 Ricoh Co Ltd Deposit detection device and in-vehicle equipment controller including the same
WO2015008566A1 (en) * 2013-07-18 2015-01-22 クラリオン株式会社 Vehicle-mounted device
JP2015095886A (en) * 2013-11-14 2015-05-18 クラリオン株式会社 Surrounding environment recognition device
JP2016033729A (en) * 2014-07-31 2016-03-10 クラリオン株式会社 Surrounding environment recognition device
JP2017138736A (en) * 2016-02-02 2017-08-10 富士通テン株式会社 Image processor and water droplet removal system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308709B2 (en) 2019-09-20 2022-04-19 Denso Ten Limited Deposit detection device and deposit detection method

Similar Documents

Publication Publication Date Title
US12026904B2 (en) Depth acquisition device and depth acquisition method
US9330446B2 (en) Method and apparatus for processing image
JP6817104B2 (en) Adhesion detection device, deposit detection method
US10789502B2 (en) Extraneous-matter detecting apparatus and extraneous-matter detecting method
KR102173419B1 (en) Adaptive object detection system using detection area extension method of interest
KR20170107269A (en) Apparatus and method for depth image filtering of rgbd camera
JP2019128797A (en) Attached matter detector and attached matter detection method
CN110913209A (en) Camera shielding detection method and device, electronic equipment and monitoring system
JP6375911B2 (en) Curve mirror detector
CN112770021B (en) Camera and filter switching method
JP6113018B2 (en) Object detection device
JP2019128197A (en) Attached matter detector and attached matter detection method
JP2009194786A (en) Object detecting device, and imaging apparatus
US11308709B2 (en) Deposit detection device and deposit detection method
JP5228926B2 (en) Pedestrian detection device
JP6248662B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2020106484A (en) Adhering matter detection device and adhering matter detection method
KR101705876B1 (en) Method for detecting pedestrian candidate and method for recognizing pedestrian using the same
JP6326841B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6225432B2 (en) Image processing apparatus, imaging apparatus, and image processing program
CN117677989A (en) Method and system for parking space detection
EP3611655A1 (en) Object detection based on analysis of a sequence of images
JP2018206435A (en) Image processing apparatus, imaging apparatus, and image processing program
JP2013228914A (en) Railroad crossing detecting device and method for detecting railroad crossing
JP2018060567A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220607