JP7274867B2 - Attached matter detection device and attached matter detection method - Google Patents

Attached matter detection device and attached matter detection method Download PDF

Info

Publication number
JP7274867B2
JP7274867B2 JP2019000522A JP2019000522A JP7274867B2 JP 7274867 B2 JP7274867 B2 JP 7274867B2 JP 2019000522 A JP2019000522 A JP 2019000522A JP 2019000522 A JP2019000522 A JP 2019000522A JP 7274867 B2 JP7274867 B2 JP 7274867B2
Authority
JP
Japan
Prior art keywords
feature amount
unit
adhesion
edge
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019000522A
Other languages
Japanese (ja)
Other versions
JP2020109579A (en
Inventor
修久 池田
信徳 朝山
貴 河野
泰司 谷
大輔 山本
朋和 沖
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019000522A priority Critical patent/JP7274867B2/en
Publication of JP2020109579A publication Critical patent/JP2020109579A/en
Application granted granted Critical
Publication of JP7274867B2 publication Critical patent/JP7274867B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

開示の実施形態は、付着物検出装置および付着物検出方法に関する。 The disclosed embodiments relate to a deposit detection device and a deposit detection method.

従来、車両等に搭載されたカメラによって撮像された撮像画像に基づいて、カメラレンズに付着した付着物を検出する付着物検出装置が知られている。付着物検出装置には、たとえば、時系列の撮像画像の差分に基づいて付着物を検出するものがある(たとえば、特許文献1参照)。 2. Description of the Related Art Conventionally, there has been known an adhering matter detection device that detects an adhering matter adhering to a camera lens based on an image captured by a camera mounted on a vehicle or the like. 2. Description of the Related Art For example, there is an attached matter detection device that detects an attached matter based on a difference between time-series captured images (see, for example, Patent Document 1).

特開2012-038048号公報JP 2012-038048 A

しかしながら、上述した従来技術には、付着物の検出精度を向上させるうえで、さらなる改善の余地がある。 However, the conventional technology described above has room for further improvement in terms of improving the detection accuracy of adhering matter.

実施形態の一態様は、上記に鑑みてなされたものであって、付着物の検出精度を向上させることができる付着物検出装置および付着物検出方法を提供することを目的とする。 One aspect of the embodiments has been made in view of the above, and an object thereof is to provide an adhering matter detection device and an adhering matter detection method capable of improving the detection accuracy of an adhering matter.

実施形態の一態様に係る付着物検出装置は、制御部を備える。前記制御部は、撮像画像に含まれる所定数の画素からなるセル毎に、該セルに含まれる各画素のエッジベクトルに基づく角度特徴量を所定の角度範囲毎で分類したエッジ向きを前記セル毎に抽出する。また、前記制御部は、定数の前記セルからなる所定の領域である単位領域毎の領域特徴量として、隣接し、かつ、前記エッジ向きが逆向きである前記セルの組み合わせの個数、および、該組み合わせに含まれる各セルのエッジ強度の総和を算出する。また、前記制御部は、出された前記領域特徴量を、前記個数および前記総和を各次元とする特徴量空間へマッピングし、前記特徴量空間におけるマッピングされた前記領域特徴量の位置に基づいて前記単位領域における付着物の付着状態を推定する。 An attached matter detection device according to an aspect of an embodiment includes a control unit . For each cell consisting of a predetermined number of pixels included in the captured image, the control unit classifies an edge direction obtained by classifying an angle feature amount based on an edge vector of each pixel included in the cell for each predetermined angle range for each cell. Extract to Further, the control unit controls the number of combinations of the cells adjacent to each other and having the opposite edge directions as a region feature amount for each unit region, which is a predetermined region composed of a predetermined number of the cells, and A sum of edge strengths of each cell included in the combination is calculated. Further, the control unit maps the calculated area feature amount to a feature amount space having the number and the sum as each dimension, and performs mapping based on the position of the mapped area feature amount in the feature amount space. to estimate the adhesion state of the adhering matter in the unit area.

実施形態の一態様によれば、付着物の検出精度を向上させることができる。 According to one aspect of the embodiment, it is possible to improve the detection accuracy of adhering matter.

図1Aは、実施形態に係る付着物検出方法の概要説明図(その1)である。FIG. 1A is a schematic explanatory diagram (part 1) of an attached matter detection method according to an embodiment; 図1Bは、実施形態に係る付着物検出方法の概要説明図(その2)である。FIG. 1B is a schematic explanatory diagram (part 2) of the attached matter detection method according to the embodiment; 図1Cは、実施形態に係る付着物検出方法の概要説明図(その3)である。FIG. 1C is a schematic explanatory diagram (part 3) of the attached matter detection method according to the embodiment; 図1Dは、実施形態に係る付着物検出方法の概要説明図(その4)である。FIG. 1D is a schematic explanatory diagram (part 4) of the attached matter detection method according to the embodiment; 図2は、実施形態に係る付着物検出装置のブロック図である。FIG. 2 is a block diagram of the attached matter detection device according to the embodiment. 図3は、抽出部の処理内容を示す図(その1)である。FIG. 3 is a diagram (part 1) illustrating the processing contents of an extraction unit; 図4は、抽出部の処理内容を示す図(その2)である。FIG. 4 is a diagram (part 2) showing the processing contents of the extraction unit. 図5は、算出部の処理内容を示す図(その1)である。FIG. 5 is a diagram (part 1) illustrating the processing contents of the calculation unit; 図6は、算出部の処理内容を示す図(その2)である。FIG. 6 is a diagram (part 2) illustrating the processing contents of the calculation unit; 図7Aは、マッチング部の処理内容を示す図(その1)である。FIG. 7A is a diagram (part 1) showing the processing contents of a matching unit; 図7Bは、マッチング部の処理内容を示す図(その2)である。FIG. 7B is a diagram (part 2) showing the processing contents of the matching unit; 図7Cは、マッチング部の処理内容を示す図(その3)である。FIG. 7C is a diagram (part 3) showing the processing contents of the matching unit; 図7Dは、マッチング部の処理内容を示す図(その4)である。FIG. 7D is a diagram (part 4) showing the processing contents of the matching unit; 図7Eは、マッチング部の処理内容を示す図(その5)である。FIG. 7E is a diagram (No. 5) showing the processing contents of the matching unit; 図8Aは、判定部の処理内容を示す図(その1)である。FIG. 8A is a diagram (part 1) showing the processing contents of the determination unit; 図8Bは、判定部の処理内容を示す図(その2)である。FIG. 8B is a diagram (part 2) showing the processing contents of the determination unit; 図9は、実施形態に係る付着物検出装置が実行する処理手順を示すフローチャートである。FIG. 9 is a flowchart illustrating a processing procedure executed by the adhering matter detection device according to the embodiment. 図10は、変形例に係る抽出部の処理内容を示す図(その1)である。FIG. 10 is a diagram (part 1) illustrating the processing contents of the extraction unit according to the modification; 図11は、変形例に係る抽出部の処理内容を示す図(その2)である。FIG. 11 is a diagram (part 2) illustrating the processing contents of the extraction unit according to the modification;

以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 DETAILED DESCRIPTION OF THE INVENTION Embodiments of the attached matter detection device and the attached matter detection method disclosed in the present application will be described in detail below with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

まず、図1A~図1Dを用いて、実施形態に係る付着物検出方法の概要について説明する。図1A~図1Dは、実施形態に係る付着物検出方法の概要説明図(その1)~(その4)である。 First, with reference to FIGS. 1A to 1D, an outline of an attached matter detection method according to an embodiment will be described. 1A to 1D are schematic explanatory diagrams (Part 1) to (Part 4) of an attached matter detection method according to an embodiment.

図1Aに示すように、たとえば、車載カメラのレンズ表面の大半に雪が付着した状態で撮像された撮像画像Iがあるものとする。以下では、実施形態に係る付着物検出方法を適用した付着物検出装置1(図2参照)が、かかる撮像画像Iの各画素PXの輝度勾配に関する特徴量(以下、「エッジ特徴量」と言う場合がある)に基づいて、撮像画像Iにおいて所定数の画素PXで分割された単位領域UA毎に、雪の付着状態を検出する場合について説明する。 As shown in FIG. 1A, for example, it is assumed that there is a captured image I captured in a state where most of the surface of the lens of an in-vehicle camera is covered with snow. Below, the attached matter detection apparatus 1 (see FIG. 2) to which the attached matter detection method according to the embodiment is applied detects a feature amount (hereinafter referred to as an "edge feature amount") related to the luminance gradient of each pixel PX of the captured image I. ), the case of detecting the snow adhesion state for each unit area UA divided by a predetermined number of pixels PX in the captured image I will be described.

なお、付着物は、雪に限定されるものではなく、たとえば、色の薄い泥などであってもよい。換言すれば、付着物は、撮像画像Iにおいて、被写体を映らない程度に遮蔽するが、ある程度の光は透過して、光の透過の多少によりわずかな輝度変化を生じさせるものであればよい。 Note that the adhering matter is not limited to snow, and may be, for example, light-colored mud. In other words, the adhering matter blocks the object in the captured image I to such an extent that it does not appear in the image, but allows a certain amount of light to pass therethrough and causes a slight change in luminance depending on how much light is transmitted.

ところで、比較例に係る付着物検出装置として、時系列の撮像画像の差分に基づいて付着物を検出するものがある。しかしながら、かかる技術によれば、たとえばレンズ全体が雪に埋もれた場合等には、時系列上の差分が生じにくくなるため、付着物を検出できないおそれがある。 By the way, as an attached matter detection device according to a comparative example, there is one that detects attached matter based on the difference between time-series captured images. However, according to this technique, when the entire lens is buried in snow, for example, it becomes difficult to generate a time-series difference, so there is a possibility that the adhering matter cannot be detected.

また、同技術によれば、雪に埋もれた撮像画像等では、たとえば、トンネル内を走行中に、トンネル内のライトの光に起因して撮像画像Iにおける部分的な輝度が一時的に高くなる場合があり、かかる場合には、高輝度の領域において各画素のエッジの強度が大きくなるため、付着物が付着していないと誤検出するおそれもあった。 In addition, according to this technique, in a captured image buried in snow, for example, while driving in a tunnel, the brightness of a portion of the captured image I temporarily increases due to the light from the light inside the tunnel. In such a case, the strength of the edge of each pixel increases in a high-brightness region, and there is a risk of erroneous detection that there is no adhering matter.

そこで、実施形態に係る付着物検出方法では、撮像画像Iから抽出される各画素PXッジ特徴量に基づいて付着物を検出することとした。エッジ特徴量は、角度特徴量および強度特徴量を含む。角度特徴量は、各画素のエッジベクトル(輝度勾配)の向き(以下、「エッジ向き」と言う場合がある)である。強度特徴量は、各画素のエッジベクトルの大きさ(以下、「エッジ強度」と言う場合がある)である。 Therefore, in the adhering matter detection method according to the embodiment, the adhering matter is detected based on the feature amount of each pixel PX edge extracted from the captured image I. FIG. The edge features include angle features and strength features. The angle feature amount is the direction of the edge vector (brightness gradient) of each pixel (hereinafter sometimes referred to as "edge direction"). The intensity feature amount is the magnitude of the edge vector of each pixel (hereinafter sometimes referred to as "edge intensity").

なお、実施形態に係る付着物検出方法では、かかるエッジ特徴量を、所定数の画素PXからなるセル100単位で取り扱う。これにより、画像処理における処理負荷の軽減に資することができる。 In addition, in the adhering matter detection method according to the embodiment, such an edge feature amount is handled in units of cells 100 each having a predetermined number of pixels PX. This can help reduce the processing load in image processing.

また、上述の単位領域UAは、かかるセル100の集まりである。そして、実施形態に係る付着物検出方法では、かかるセル100毎に抽出したエッジ特徴量に基づいて、単位領域UA毎の特徴量である領域特徴量を算出することとした。領域特徴量は、換言すれば、単位領域UA毎におけるエッジ特徴量の統計的特徴量である。そのうえで、実施形態に係る付着物検出方法では、算出した領域特徴量の、領域特徴量空間における位置に基づいて、単位領域UA毎における雪の付着状態を推定することとした。 Also, the unit area UA described above is a collection of such cells 100 . Then, in the attached matter detection method according to the embodiment, based on the edge feature amount extracted for each cell 100, the area feature amount, which is the feature amount for each unit area UA, is calculated. The area feature amount is, in other words, a statistical feature amount of the edge feature amount for each unit area UA. In addition, in the adhering matter detection method according to the embodiment, the state of adhering snow in each unit area UA is estimated based on the position of the calculated area feature amount in the area feature amount space.

具体的には、図1Aに示すように、実施形態に係る付着物検出方法では、撮像画像Iにおいて、所定数のセル100が上下方向および左右方向に配列された所定の領域である単位領域UA毎に、まずセル100単位でエッジ特徴量を抽出する(ステップS1)。エッジ特徴量は、上述したようにエッジ向きおよびエッジ強度である。 Specifically, as shown in FIG. 1A, in the attached matter detection method according to the embodiment, in a captured image I, a unit area UA, which is a predetermined area in which a predetermined number of cells 100 are arranged in the vertical direction and the horizontal direction, is detected. Each time, the edge feature amount is first extracted in units of 100 cells (step S1). The edge feature amounts are the edge direction and the edge strength as described above.

セル100のエッジ向きは、図1Aに示すように、所定の角度範囲で分類される各画素PXのベクトル向きの代表値であり、同図の例では、90°の角度範囲毎に区切られた上下左右のいずれかで決定される。また、セル100のエッジ強度は、各画素PXのベクトル強度の代表値である。なお、かかるセル100単位のエッジ特徴量の抽出処理については、図3および図4を用いて後述する。 The edge orientation of the cell 100 is, as shown in FIG. 1A, the representative value of the vector orientation of each pixel PX classified by a predetermined angular range. Either up, down, left, or right is determined. Also, the edge intensity of the cell 100 is the representative value of the vector intensity of each pixel PX. Note that the edge feature amount extraction processing for each cell 100 will be described later with reference to FIGS. 3 and 4. FIG.

つづいて、実施形態に係る付着物検出方法では、ステップS1で抽出したセル100毎のエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する(ステップS2)。具体的には、ステップS2では、まず単位領域UA毎における、セル100のエッジ強度の平均および分散を算出する(ステップS2-1)。 Subsequently, in the attached matter detection method according to the embodiment, an area feature amount for each unit area UA is calculated based on the edge feature amount for each cell 100 extracted in step S1 (step S2). Specifically, in step S2, first, the average and variance of the edge intensity of the cell 100 are calculated for each unit area UA (step S2-1).

また、ステップS2では、単位領域UA毎における、ペア領域の個数およびペア領域のエッジ強度の総和を算出する(ステップS2-2)。ここで、ペア領域は、隣接し、エッジ向きが互いに逆向きであるセル100の組み合わせである。 In step S2, the number of paired areas and the sum of the edge strengths of the paired areas are calculated for each unit area UA (step S2-2). Here, a pair region is a combination of adjacent cells 100 whose edge directions are opposite to each other.

図1Aの例では、2つのセル100が上下方向に隣接するペア領域200aと、左右方向に隣接するペア領域200bとを示している。なお、ペア領域200aおよびペア領域200bを特に区別しない場合、以下では、ペア領域200と総称する。 The example of FIG. 1A shows a pair region 200a in which two cells 100 are adjacent in the vertical direction and a pair region 200b in which the cells are adjacent in the horizontal direction. In the following, when the pair region 200a and the pair region 200b are not particularly distinguished, they are collectively referred to as the pair region 200. FIG.

そして、実施形態に係る付着物検出方法では、算出した単位領域UA毎の領域特徴量を、領域特徴量の各要素を各次元とする領域特徴量空間にマッピングし、領域特徴量空間における領域特徴量の位置に基づいて付着物である雪の付着状態を推定する(ステップS3)。 Then, in the attached matter detection method according to the embodiment, the calculated area feature amount for each unit area UA is mapped to an area feature amount space having each element of the area feature amount as each dimension, and the area feature amount in the area feature amount space is mapped. Based on the position of the amount, the adhesion state of the snow, which is the adhesion matter, is estimated (step S3).

たとえば、実施形態に係る付着物検出方法では、図1Bに示すように、エッジ強度の平均、および、エッジ強度の分散を各次元とする2次元空間における位置に基づいて、雪の付着状態を、「付着」、「非付着」、または、「判定難」のいずれかとして推定する。 For example, in the attached matter detection method according to the embodiment, as shown in FIG. Estimated as either "adhesive", "non-adherent", or "difficult to judge".

また、たとえば、実施形態に係る付着物検出方法では、図1Cに示すように、ペア領域200の個数、および、ペア領域200のエッジ強度の総和を各次元とする2次元空間における位置に基づいて、雪の付着状態を、「付着」または「非付着」のいずれかとして推定する。 Further, for example, in the attached matter detection method according to the embodiment, as shown in FIG. , estimates the snow adhesion state as either "adhered" or "non-adhered".

ここで、図1Dに示すように、「付着」は、単位領域UA(7,8)に見られる「雪に埋もれている」状態である。また、「非付着」は、単位領域UA(4,11)に見られる「背景が見えている」状態である。また、「判定難」は、単位領域UA(3,7)に見られる「白飛び等で見えない」状態である。 Here, as shown in FIG. 1D, "adhesion" is the state of "buried in snow" seen in the unit area UA(7,8). "Non-attachment" is the state of "the background is visible" seen in the unit area UA (4, 11). "Difficult to determine" is the state of "not visible due to overexposure, etc." seen in the unit area UA(3,7).

なお、図1Bおよび図1Cに示した各領域特徴量空間の例は、撮像画像Iの多量のサンプルデータに基づいて、予めかかるサンプルデータの各単位領域UAの領域特徴量を算出し、実際の付着状態に応じて標本点を色分けしつつ、各空間にマッピングしたものである。したがって、各付着状態を区切る各閾値(図中の点線参照)は、たとえば標本点の色の分かれ目等に応じて規定されている。なお、図1Bおよび図1Cでは、閾値を直線で区切って規定しているが、説明の便宜上のものであり、標本点の色の分かれ目に沿う形状の曲線によって規定されてもよい。 1B and 1C, based on a large amount of sample data of the captured image I, the area feature amount of each unit area UA of the sample data is calculated in advance, and the actual The sample points are color-coded according to the adhesion state and mapped in each space. Therefore, each threshold value (see the dotted line in the figure) that separates each adhesion state is defined according to, for example, the separation of the colors of the sample points. In FIGS. 1B and 1C, the thresholds are defined by separating them with straight lines, but for convenience of explanation, they may be defined by curved lines that follow the color divisions of the sample points.

また、図1Cに示したペア領域200の個数とは、セル100が上下方向に隣接するペア領域200aの数と、左右方向に隣接するペア領域200bの数の合計値である。また、ペア領域200のエッジ強度の総和とは、ペア領域200に含まれるセル100すべてのエッジ強度を合計した値である。かかるペア領域200の個数や、エッジ強度の総和の算出方法については、図5および図6を用いて後述する。 The number of paired regions 200 shown in FIG. 1C is the sum of the number of vertically adjacent paired regions 200a and the number of horizontally adjacent paired regions 200b. The sum of the edge strengths of the paired regions 200 is the sum of the edge strengths of all the cells 100 included in the paired regions 200 . The number of pair regions 200 and the method of calculating the sum of edge strengths will be described later with reference to FIGS. 5 and 6. FIG.

たとえば、「非付着」の状態では、道路上の白線やガードレール、建物の輪郭等により、ペア領域200が比較的多く抽出され、また、セル100のエッジ強度も大きくなる。このため、ペア領域200のエッジ強度の総和も比較的大きくなる。一方で、「付着」の状態では、単位領域UAの輝度が一様で、かつ、セル100のエッジ強度も小さくなるため、抽出されるペア領域200の個数は比較的少なくなり、また、ペア領域200のエッジ強度の総和も比較的小さくなる。 For example, in the "non-attached" state, a relatively large number of pair regions 200 are extracted due to white lines on roads, guardrails, outlines of buildings, etc., and the edge strength of cells 100 is also high. Therefore, the sum of the edge strengths of the paired regions 200 is also relatively large. On the other hand, in the “adhered” state, the brightness of the unit area UA is uniform and the edge strength of the cell 100 is small, so the number of pair areas 200 to be extracted is relatively small, and the pair areas 200 are extracted. The sum of 200 edge strengths is also relatively small.

そこで、かかる点に着目して、図1Cに示したように、撮像画像Iのサンプルデータに基づいて、ペア領域200の個数、および、ペア領域200のエッジ強度の総和を各次元とする領域特徴量空間を生成し、かかる空間にステップS2で算出する領域特徴量をマッピングすれば、その位置に基づいて、単位領域UA毎の付着物の付着状態を「付着」または「非付着」のいずれかとして推定することができる。 Focusing on this point, as shown in FIG. 1C, based on the sample data of the captured image I, region feature By generating an amount space and mapping the area feature amount calculated in step S2 in this space, the adherence state of the adhering matter for each unit area UA can be either "adhered" or "non-adhered" based on the position. can be estimated as

また、図1Bに示したエッジ強度の平均、および、エッジ強度の分散は、統計的見地に基づくものである。換言すれば、多量のサンプルデータに基づき、単位領域UA毎の実際の付着状態に対応するエッジ強度の平均および分散を学習し、かかる学習の結果に基づいて状態を判別するものと言える。 Also, the average edge strength and the variance of edge strength shown in FIG. 1B are based on statistical considerations. In other words, based on a large amount of sample data, the mean and variance of edge strength corresponding to the actual adhesion state of each unit area UA are learned, and the state is discriminated based on the learning result.

そこで、かかる点に着目して、図1Bに示したように、撮像画像Iのサンプルデータに基づいて、エッジ強度の平均、および、エッジ強度の分散を各次元とする領域特徴量空間を生成し、かかる空間にステップS2で算出する領域特徴量をマッピングすれば、その位置に基づいて、単位領域UA毎の付着物の付着状態を「付着」、「非付着」、または、「判定難」のいずれかとして推定することができる。 Therefore, focusing on this point, as shown in FIG. 1B, based on the sample data of the captured image I, a region feature amount space is generated in which each dimension is the average edge strength and the variance of the edge strength. If the area feature amount calculated in step S2 is mapped in this space, the adherence state of the adhering matter for each unit area UA can be classified as "adhered", "non-adhered", or "difficult to determine" based on the position. can be estimated as either

したがって、実施形態に係る付着物検出方法によれば、付着物の検出精度を向上させることができる。 Therefore, according to the adhering matter detection method according to the embodiment, the adhering matter detection accuracy can be improved.

なお、上述した付着物検出方法において推定した推定結果に対し、たとえば上述のエッジ特徴量に基づいて実行するマッチング処理のマッチング結果を加味した判定を行い、さらなる検出精度の向上を図ることとしてもよい。また、撮像画像Iの過去のフレーム分の判定結果を加味することとしてもよい。これらの点の詳細については、図7A~図8Bを用いた説明で後述する。 It should be noted that the estimation result estimated in the above-described adhering matter detection method may be subjected to a determination that takes into consideration the matching result of the matching process executed based on the above-described edge feature amount, for example, to further improve the detection accuracy. . Further, the judgment results for the past frames of the captured image I may be added. Details of these points will be described later with reference to FIGS. 7A to 8B.

また、図1Aでは、セル100毎に1種類のエッジ向きの代表値を抽出する場合を示したが、たとえば、角度範囲が異なるエッジ向きの代表値をさらに抽出することで、セル100毎に2種類、あるいは、2種類以上のエッジ向きを割り当ててもよい。なお、2種類のエッジ向きの代表値を抽出する場合については、図10および図11を用いた説明で後述する。 FIG. 1A shows a case where one type of edge orientation representative value is extracted for each cell 100. However, for example, by further extracting edge orientation representative values with different angle ranges, two A type or more than one type of edge orientation may be assigned. A case of extracting representative values of two types of edge directions will be described later with reference to FIGS. 10 and 11. FIG.

以下、上述した実施形態に係る付着物検出方法を適用した付着物検出装置1の構成例について、さらに具体的に説明する。 Hereinafter, a configuration example of the adhering matter detection device 1 to which the adhering matter detection method according to the above-described embodiment is applied will be described more specifically.

図2は、実施形態に係る付着物検出装置1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。 FIG. 2 is a block diagram of the adhering matter detection device 1 according to the embodiment. In addition, in FIG. 2, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.

換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific forms of distribution and integration of each functional block are not limited to those shown in the figure, and all or part of them can be functionally or physically distributed in arbitrary units according to various loads and usage conditions.・It is possible to integrate and configure.

図2に示すように、実施形態に係る付着物検出装置1は、記憶部2と、制御部3とを備える。また、付着物検出装置1は、カメラ10と、各種機器50とに接続される。 As shown in FIG. 2 , the attached matter detection device 1 according to the embodiment includes a storage unit 2 and a control unit 3 . Also, the adhering matter detection device 1 is connected to the camera 10 and various devices 50 .

なお、図2では、付着物検出装置1が、カメラ10および各種機器50とは別体で構成される場合を示したが、これに限らず、カメラ10および各種機器50の少なくとも一方と一体に構成されてもよい。 Although FIG. 2 shows the case where the adhering matter detection device 1 is configured separately from the camera 10 and the various devices 50, the present invention is not limited to this. may be configured.

カメラ10は、たとえば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。カメラ10は、たとえば、車両の前後方、側方の様子を撮像可能な位置にそれぞれ設けられ、撮像された撮像画像Iを付着物検出装置1へ出力する。 The camera 10 is, for example, an in-vehicle camera that includes a lens such as a fisheye lens and an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is provided at a position capable of capturing images of the front, rear, and sides of the vehicle, for example, and outputs the captured image I to the adhering matter detection device 1 .

各種機器50は、付着物検出装置1の検出結果を取得して、車両の各種制御を行う機器である。各種機器50は、たとえば、カメラ10のレンズに付着物が付着していることやユーザへの付着物の拭き取り指示を通知する表示装置、流体や気体等をレンズへ向けて噴射して付着物を除去する除去装置、および、自動運転等を制御する車両制御装置などを含む。 The various devices 50 are devices that acquire detection results of the adhering matter detection device 1 and perform various vehicle controls. The various devices 50 include, for example, a display device that notifies the user that there is a deposit on the lens of the camera 10 and instructs the user to wipe off the deposit; It includes a removal device that removes, and a vehicle control device that controls automatic driving and the like.

記憶部2は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、閾値情報21と、テンプレート情報22と、判定履歴情報23とを記憶する。 The storage unit 2 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disc. In the example of FIG. Template information 22 and determination history information 23 are stored.

閾値情報21は、後述する推定部34が実行する推定処理において用いられる閾値に関する情報である。ここに言う閾値は、図1Bおよび図1Cに破線で示した、各領域特徴量空間における閾値に対応する。 The threshold information 21 is information about a threshold used in estimation processing executed by the estimation unit 34, which will be described later. The threshold referred to here corresponds to the threshold in each region feature amount space indicated by dashed lines in FIGS. 1B and 1C.

テンプレート情報22は、後述するマッチング部35が実行するマッチング処理において用いられるテンプレートに関する情報である。判定履歴情報23は、所定の過去のnフレーム分の撮像画像Iにおける付着物検出の判定履歴に関する情報である。 The template information 22 is information about templates used in matching processing executed by the matching unit 35, which will be described later. The determination history information 23 is information relating to the determination history of adhering matter detection in the captured image I for predetermined past n frames.

制御部3は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、付着物検出装置1内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部3は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。 The control unit 3 is a controller, and various programs stored in a storage device inside the adhering matter detection apparatus 1 operate in the RAM by means of, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). It is realized by being executed as a region. Also, the control unit 3 can be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部3は、取得部31と、抽出部32と、算出部33と、推定部34と、マッチング部35と、判定部36とを有し、以下に説明する情報処理の機能や作用を実現または実行する。 The control unit 3 includes an acquisition unit 31, an extraction unit 32, a calculation unit 33, an estimation unit 34, a matching unit 35, and a determination unit 36, and implements the information processing functions and actions described below. or run.

取得部31は、カメラ10で撮像された撮像画像Iを取得する。取得部31は、取得した撮像画像Iにおける各画素を輝度に応じて白から黒までの各階調に変換するグレースケール化処理を行うとともに、各画素について平滑化処理を行って、抽出部32へ出力する。なお、平滑化処理にはたとえば、平均化フィルタや、ガウシアンフィルタ等の任意の平滑化フィルタを用いることができる。また、グレースケール化処理や、平滑化処理については、省略されてもよい。 The acquisition unit 31 acquires the captured image I captured by the camera 10 . The acquisition unit 31 performs grayscaling processing for converting each pixel in the acquired captured image I into each gradation from white to black according to the luminance, and performs smoothing processing on each pixel, and outputs the data to the extraction unit 32. Output. Any smoothing filter such as an averaging filter or a Gaussian filter can be used for the smoothing process. Also, the grayscaling process and the smoothing process may be omitted.

抽出部32は、取得部31から取得した撮像画像Iのセル100毎に、エッジ特徴量を抽出する。ここで、図3および図4を用いて、抽出部32による抽出処理について具体的に説明する。 The extraction unit 32 extracts an edge feature amount for each cell 100 of the captured image I acquired from the acquisition unit 31 . Here, extraction processing by the extraction unit 32 will be specifically described with reference to FIGS. 3 and 4. FIG.

図3および図4は、抽出部32の処理内容を示す図(その1)および(その2)である。図3に示すように、抽出部32は、まず、各画素PXにつきエッジ検出処理を行って、X軸方向(撮像画像Iの左右方向)のエッジexの強度と、Y軸方向(撮像画像Iの上下方向)のエッジeyの強度とを検出する。エッジ検出処理には、たとえば、Sobelフィルタや、Prewittフィルタ等の任意のエッジ検出フィルタを用いることができる。 3 and 4 are diagrams (part 1) and (part 2) showing the processing contents of the extraction unit 32. FIG. As shown in FIG. 3, the extraction unit 32 first performs edge detection processing for each pixel PX, and determines the intensity of the edge ex in the X-axis direction (horizontal direction of the captured image I) and the intensity of the edge ex in the Y-axis direction (the captured image I and the strength of the edge ey in the vertical direction of ). Any edge detection filter such as a Sobel filter or a Prewitt filter can be used for edge detection processing.

つづいて、抽出部32は、検出したX軸方向のエッジexの強度と、Y軸方向のエッジeyの強度とに基づき、三角関数を用いることでエッジベクトルVを算出し、かかるエッジベクトルVとX軸とがなす角度θであるエッジ向きと、エッジベクトルVの長さLであるエッジ強度を抽出する。 Subsequently, the extraction unit 32 calculates an edge vector V using a trigonometric function based on the detected intensity of the edge ex in the X-axis direction and the intensity of the detected edge ey in the Y-axis direction, and calculates the edge vector V and The edge direction, which is the angle θ formed with the X axis, and the edge strength, which is the length L of the edge vector V, are extracted.

つづいて、抽出部32は、算出した各画素PXのエッジベクトルVに基づき、セル100におけるエッジ向きの代表値を抽出する。具体的には、図4の上段に示すように、抽出部32は、セル100における各画素PXのエッジベクトルVのエッジ向き-180°~180°を、90°毎の上下左右4方向である角度分類(0)~(3)に分類する。 Subsequently, the extraction unit 32 extracts the representative value of the edge direction in the cell 100 based on the calculated edge vector V of each pixel PX. Specifically, as shown in the upper part of FIG. 4, the extracting unit 32 extracts the edge direction of the edge vector V of each pixel PX in the cell 100 from −180° to 180° in four directions of up, down, left, and right at every 90°. It is classified into angle classifications (0) to (3).

より具体的には、抽出部32は、画素PXのエッジ向きが、-45°以上45°未満の角度範囲である場合には角度分類(0)に分類し、45°以上135°未満の角度範囲である場合には角度分類(1)に分類し、135°以上180°未満、または-180°以上-135°未満の角度範囲である場合には角度分類(2)に分類し、-135°以上-45°未満の角度範囲である場合には角度分類(3)に分類する。 More specifically, the extraction unit 32 classifies the edge direction of the pixel PX into the angle category (0) when the angle range is −45° or more and less than 45°, and the angle of 45° or more and less than 135° If it is in the range, it is classified into angle classification (1), and if it is in the angle range of 135° or more and less than 180°, or -180° or more and less than -135°, it is classified into angle classification (2), and -135 If the angle range is greater than or equal to degrees and less than -45 degrees, it is classified as angle classification (3).

そして、図4の下段に示すように、抽出部32は、各セル100について、角度分類(0)~(3)を各階級とするヒストグラムを生成する。そして、抽出部32は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する角度分類(図4の例では、角度分類(1))を、セル100におけるエッジ向きの代表値として抽出する。 Then, as shown in the lower part of FIG. 4, the extracting unit 32 generates a histogram with angle classifications (0) to (3) for each class for each cell 100. FIG. Then, when the frequency of the class with the highest frequency in the generated histogram is equal to or greater than a predetermined threshold value THa, the extraction unit 32 performs an angle classification corresponding to the class (angle classification (1) in the example of FIG. 4). is extracted as the representative value of the edge orientation in the cell 100 .

前述のヒストグラムの度数は、セル100内における各画素PXのうち、同一の角度範囲に分類された画素PXのエッジ強度を足し合わせて算出する。具体的に、角度分類(0)の階級におけるヒストグラムの度数について考える。たとえば、角度分類(0)に分類された画素PXが3つあるとし、それぞれの画素PXにおけるエッジ強度を10,20,30とする。この場合、角度分類(0)の階級におけるヒストグラムの度数は、10+20+30=60と算出される。 The frequency of the histogram described above is calculated by adding together the edge intensities of the pixels PX classified into the same angular range among the pixels PX in the cell 100 . Specifically, consider the histogram frequency in the class of angle classification (0). For example, assume that there are three pixels PX classified into angle classification (0), and the edge strengths of the pixels PX are 10, 20, and 30, respectively. In this case, the frequency of the histogram in the class of angle classification (0) is calculated as 10+20+30=60.

このようにして算出されたヒストグラムに基づき、抽出部32はセル100におけるエッジ強度の代表値を抽出する。具体的に、かかるエッジ強度の代表値は、ヒストグラムにおいて最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する度数をセル100のエッジ強度とする。すなわち、抽出部32におけるエッジ強度の代表値の抽出処理は、エッジ向きの代表値に対応した、セル100内におけるエッジの強さに関する特徴を抽出する処理とも言える。 Based on the histogram calculated in this way, the extraction unit 32 extracts the representative value of the edge strength in the cell 100 . Specifically, when the frequency of the class with the highest frequency in the histogram is equal to or greater than a predetermined threshold THa, the representative value of the edge strength is the edge strength of the cell 100 corresponding to the class. That is, the process of extracting the representative value of the edge strength in the extraction unit 32 can be said to be the process of extracting the feature related to the strength of the edge in the cell 100 corresponding to the representative value of the edge direction.

一方、抽出部32は、最も度数が高い階級の度数が所定の閾値THa未満である場合は、かかるセル100のエッジ向きについては、「無効」、換言すれば、「エッジ向きの代表値なし」として取り扱う。これにより、各画素PXのエッジ向きのばらつきが大きい場合に、特定のエッジ向きを代表値として抽出してしまうことを防止できる。 On the other hand, if the frequency of the class with the highest frequency is less than the predetermined threshold value THa, the extraction unit 32 determines that the edge direction of the cell 100 is “invalid”, in other words, “there is no edge direction representative value”. treated as As a result, it is possible to prevent a specific edge orientation from being extracted as a representative value when there is a large variation in the edge orientation of each pixel PX.

なお、図3および図4で示した抽出部32の処理内容は、あくまで一例であって、エッジ向きの代表値を抽出可能であれば、処理内容は任意であってよい。たとえば、セル100における各画素PXのエッジ向きの平均値を算出し、かかる平均値に対応する角度分類(0)~(3)をエッジ向きの代表値としてもよい。 The processing contents of the extraction unit 32 shown in FIGS. 3 and 4 are merely examples, and the processing contents may be arbitrary as long as the representative value of the edge direction can be extracted. For example, the average value of the edge orientation of each pixel PX in the cell 100 may be calculated, and the angle classifications (0) to (3) corresponding to the average value may be used as the representative values of the edge orientation.

また、図4では、4×4の計16個の画素PXを1つのセル100とする場合を示したが、セル100における画素PXの数は、任意に設定されてよく、また、3×5等のように、上下方向および左右方向の画素PXの数が異なってもよい。 In addition, although FIG. 4 shows a case where a total of 16 pixels PX (4×4) are defined as one cell 100, the number of pixels PX in the cell 100 may be set arbitrarily. For example, the number of pixels PX in the vertical direction and the horizontal direction may be different.

図2に戻り、つづいて算出部33について説明する。算出部33は、抽出部32によって抽出されたセル100毎のエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する。 Returning to FIG. 2, the calculation unit 33 will be described. The calculation unit 33 calculates the area feature amount for each unit area UA based on the edge feature amount for each cell 100 extracted by the extraction unit 32 .

具体的には、算出部33は、単位領域UA毎のエッジ強度の平均値および分散値を算出する。また、算出部33は、単位領域UA毎のペア領域200の個数およびエッジ強度の総和を算出する。 Specifically, the calculation unit 33 calculates the average value and variance value of the edge strength for each unit area UA. The calculation unit 33 also calculates the number of pair regions 200 and the sum of edge strengths for each unit region UA.

ここで、算出部33によるペア領域200の個数およびエッジ強度の総和の算出処理について、図5および図6を用いて説明する。図5および図6は、算出部33の処理内容を示す図(その1)および(その2)である。 Calculation processing of the number of pair regions 200 and the sum of edge strengths by the calculation unit 33 will now be described with reference to FIGS. 5 and 6. FIG. 5 and 6 are diagrams (part 1) and (part 2) showing the processing contents of the calculation unit 33. FIG.

なお、図5では、2つのペア領域200が、セル100を共有していない場合を示し、図6では、2つのペア領域200が、セル100を共有している場合を示している。 5 shows the case where the two pair regions 200 do not share the cell 100, and FIG. 6 shows the case where the two pair regions 200 share the cell 100. As shown in FIG.

図5に示すように、算出部33は、単位領域UAの左右方向および上下方向に配列された複数のセル100について、左右方向および上下方向に走査し、ペア領域200を探索する。すなわち、算出部33は、単位領域UAにおけるセル100のうち、隣接し、エッジ向きが互いに逆向きであるセル100同士をペア領域200として抽出する。 As shown in FIG. 5 , the calculation unit 33 scans the plurality of cells 100 arranged in the horizontal direction and the vertical direction of the unit area UA in the horizontal direction and the vertical direction to search for the pair area 200 . That is, the calculation unit 33 extracts, as the pair area 200, the cells 100 that are adjacent to each other and whose edge directions are opposite to each other among the cells 100 in the unit area UA.

そして、算出部33は、抽出されたペア領域200の個数、および、ペア領域200におけるエッジ強度の総和を算出する。なお、図5に示すように、算出部33は、抽出されたたとえば2つのペア領域200がセル100を共有していない場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる4つのセル100のエッジ強度を合計した値として算出する。 Calculation unit 33 then calculates the number of extracted pair regions 200 and the sum of edge strengths in pair regions 200 . Note that, as shown in FIG. 5, the calculation unit 33 calculates the number of the pair regions 200 as two when, for example, the two pair regions 200 extracted do not share the cell 100, and the sum of the edge strengths is calculated as follows. It is calculated as a sum of the edge strengths of the four cells 100 included in the two pair regions 200 .

また、図6に示すように、算出部33は、抽出されたたとえば2つのペア領域200がセル100を共有している場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる3つのセル100のエッジ強度を合計した値として算出する。 Further, as shown in FIG. 6 , if, for example, two paired regions 200 that are extracted share a cell 100, the calculation unit 33 calculates the number of paired regions 200 as two, and calculates the sum of the edge strengths as follows: It is calculated as a sum of the edge strengths of the three cells 100 included in the two pair regions 200 .

図2の説明に戻る。そして、算出部33は、算出した単位領域UA毎の領域特徴量を推定部34へ出力する。推定部34は、算出部33によって算出された単位領域UA毎の領域特徴量を上述した領域特徴量空間へマッピングし、マッピングされた領域特徴量の位置および閾値情報21に基づいて単位領域UA毎の付着物の付着状態を推定する。付着状態については、図1B~図1Dを用いて上述したため、ここでの説明は省略する。また、推定部34は、推定した推定結果を判定部36へ出力する。 Returning to the description of FIG. Then, the calculation unit 33 outputs the calculated area feature amount for each unit area UA to the estimation unit 34 . The estimating unit 34 maps the area feature amount for each unit area UA calculated by the calculating unit 33 to the above-described area feature amount space, and based on the position of the mapped area feature amount and the threshold information 21, for each unit area UA Estimate the adhesion state of the deposits. Since the attachment state has been described above with reference to FIGS. 1B to 1D, description thereof will be omitted here. The estimation unit 34 also outputs the estimated result to the determination unit 36 .

マッチング部35は、抽出部32によって抽出されたセル100のエッジ特徴量と、テンプレート情報22に含まれる所定のテンプレートとをマッチングするマッチング処理を実行する。 The matching unit 35 performs matching processing for matching the edge feature amount of the cell 100 extracted by the extracting unit 32 and a predetermined template included in the template information 22 .

ここで、マッチング部35によるマッチング処理の処理内容について、図7A~図7Eを用いて説明する。図7A~図7Eは、マッチング部35の処理内容を示す図(その1)~(その5)である。なお、図7A、図7C~図7Eに示す不定形のハッチング部分は、撮像画像Iにおいて所定のエッジ特徴量を有するパターン部分であるものとする。 Here, the processing contents of the matching processing by the matching unit 35 will be described with reference to FIGS. 7A to 7E. 7A to 7E are diagrams (part 1) to (part 5) showing the processing contents of the matching unit 35. FIG. 7A and 7C to 7E are assumed to be pattern portions having a predetermined edge feature amount in the captured image I. FIG.

マッチング部35は、抽出部32によって抽出されたセル100のエッジ特徴量のうちのエッジ向きを用いて、所定のテンプレートと一致する所定の探索パターンを探索する。図7Aに示すように、探索方向は左右方向および上下方向である。 The matching unit 35 searches for a predetermined search pattern that matches a predetermined template, using the edge direction of the edge feature amount of the cell 100 extracted by the extraction unit 32 . As shown in FIG. 7A, the search directions are the horizontal direction and the vertical direction.

たとえば、マッチング部35は、「注目する角度分類の両サイドに逆向きの角度分類が現れないこと」を条件として探索パターンを探索する。具体的には、注目する角度分類を角度分類(1)として左右方向に探索した場合に、図7Bに示すように、たとえば開始位置は「角度分類が逆向きでない」角度分類(2)のセル100-1に隣接する角度分類(1)のセル100-2が開始位置となる。 For example, the matching unit 35 searches for a search pattern under the condition that "an opposite angle classification does not appear on both sides of the angle classification of interest". Specifically, when the target angle classification is angle classification (1) and the search is performed in the horizontal direction, as shown in FIG. Cell 100-2 of angle classification (1) adjacent to 100-1 is the starting position.

そして、角度分類(1)の配列がつづき、「角度分類が逆向きでない」角度分類(0)のセル100-4が現れた場合、かかるセル100-4に隣接する角度分類(1)のセル100-3が終了位置となる。かかる場合、図7Bの例ではマッチ長は「8」となる。なお、マッチング部35は、このように探索パターンとの一致があった場合、その位置とマッチ長とを保持しておく。 Then, when the array of angle classification (1) continues and a cell 100-4 of angle classification (0) "angle classification is not reversed" appears, a cell of angle classification (1) adjacent to the cell 100-4 appears. 100-3 is the end position. In such a case, the match length is "8" in the example of FIG. 7B. Incidentally, when there is a match with the search pattern in this way, the matching unit 35 holds the position and the match length.

また、図7Bに示した探索パターンでの一致があった場合、開始位置と終了位置には、角度分類4種のうち、隣り合う分類間での輝度変化が見られることになる。 Also, if there is a match in the search pattern shown in FIG. 7B, a change in luminance between adjacent classifications among the four angle classifications will be seen at the start position and the end position.

そして、マッチング部35は、図7Cに示すように、左右方向と上下方向で探索パターンの一致が交わる際には、その交点に対応する単位領域UAに対応する記憶情報として、角度分類別に水平マッチ長および上下マッチ長の積を累積加算する。 Then, as shown in FIG. 7C, when matching search patterns intersect in the left-right direction and the up-down direction, the matching unit 35 stores horizontal matching data for each angle classification as stored information corresponding to the unit area UA corresponding to the crossing point. Accumulate the product of the length and the upper and lower match lengths.

具体的に図7Bおよび図7Cの例に沿った場合、マッチング部35は、図7Dに示すように、当該単位領域の角度分類(1)に紐づけて、5×8を累積加算する。また、図示していないが、マッチング部35は、同じく当該単位領域の角度分類(1)に紐づけて、交点の数も累積加算する。 Specifically, in accordance with the examples of FIGS. 7B and 7C, the matching unit 35 cumulatively adds 5×8 in association with the angle classification (1) of the unit area, as shown in FIG. 7D. Also, although not shown, the matching unit 35 also cumulatively adds the number of intersections in association with the angle classification (1) of the unit area.

こうしたマッチング処理を繰り返し、マッチング部35は、図7Eに示すように、当該単位領域UAの角度分類(0)~(3)に紐づく累積加算結果のうち、3種以上が所定の閾値以上であった場合、当該単位領域UAの付着状態は「付着」と判定する。また、かかる判定条件を満たさなければ「非付着」と判定する。なお、図7A~図7Eに示したマッチング処理の処理内容はあくまで一例であって、処理内容を限定するものではない。 By repeating such matching processing, the matching unit 35 determines that three or more of the cumulative addition results associated with the angle classifications (0) to (3) of the unit area UA are equal to or greater than a predetermined threshold, as shown in FIG. 7E. If there is, the adhesion state of the unit area UA is determined to be "adhesion". Also, if the determination condition is not satisfied, it is determined as "non-adhesion". Note that the processing contents of the matching processing shown in FIGS. 7A to 7E are merely examples, and the processing contents are not limited.

図2の説明に戻る。マッチング部35は、マッチング結果を判定部36へ出力する。判定部36は、推定部34による推定結果、および、マッチング部35によるマッチング結果に基づいて総合的に単位領域UA毎の付着状態を判定し、判定結果を各種機器50へ出力する。 Returning to the description of FIG. The matching section 35 outputs the matching result to the determination section 36 . The determination unit 36 comprehensively determines the adhesion state for each unit area UA based on the estimation result by the estimation unit 34 and the matching result by the matching unit 35 , and outputs the determination result to various devices 50 .

ここで、判定部36による判定処理の処理内容について、図8Aおよび図8Bを用いて説明する。図8Aおよび図8Bは、判定部36の処理内容を示す図(その1)および(その2)である。 Here, the processing contents of the determination processing by the determination unit 36 will be described with reference to FIGS. 8A and 8B. 8A and 8B are diagrams (part 1) and (part 2) showing the processing contents of the determination unit 36. FIG.

図8Aに示すように、判定部36は、推定部34による推定結果に対し、マッチング部35によるマッチング結果を加味するとともに、さらに処理中の撮像画像Iに対し、直近nフレーム分の過去の撮像画像I’における判定結果をさらに加味した判定処理を行う。 As shown in FIG. 8A , the determining unit 36 adds the matching result of the matching unit 35 to the estimation result of the estimating unit 34, and further adds the matching result of the matching unit 35 to the captured image I being processed. Determination processing is performed in which the determination result of the image I' is further taken into consideration.

具体的には、図8Bに示すように、判定部36は、推定部34による推定結果が「非付着」である場合、マッチング部35によるマッチング結果に関わらず、「非付着」と判定する。これにより、マッチング結果で「付着」と判定されている場合の誤検出を抑制することができる。 Specifically, as shown in FIG. 8B , when the estimation result by the estimation unit 34 is “non-adhesion”, the determination unit 36 determines “non-adhesion” regardless of the matching result by the matching unit 35 . As a result, it is possible to suppress erroneous detection when it is determined as "attachment" in the matching result.

また、判定部36は、推定部34による推定結果が「付着」であり、マッチング部35によるマッチング結果が「付着」である場合、「付着」と判定する。 Further, when the estimation result by the estimation unit 34 is "attachment" and the matching result by the matching unit 35 is "attachment", the determination unit 36 determines "attachment".

また、判定部36は、推定部34による推定結果が「付着」であるが、マッチング部35によるマッチング結果が「非付着」である場合、過去nフレームで「付着」の判定があり、その判定後、1度も「非付着」の判定がない場合は、「付着」と判定する。 Further, when the estimation result by the estimation unit 34 is "attachment" but the matching result by the matching unit 35 is "non-attachment", the determination unit 36 determines "attachment" in the past n frames. If there is no determination of "non-adherence" after that, it is determined to be "adherence".

また、判定部36は、推定部34による推定結果が「判定難」である場合、マッチング部35によるマッチング結果に関わらず、過去nフレームで「付着」の判定があり、その判定後、1度も「非付着」の判定がない場合は、「付着」と判定する。 Further, when the estimation result by the estimation unit 34 is “difficult to determine”, the determination unit 36 determines “attachment” in the past n frames regardless of the matching result by the matching unit 35. If there is no determination of "non-adhesion" in either case, it is determined as "adhesion".

このように過去の撮像画像I’における判定結果を加味することで、処理中の撮像画像Iで判定が難しい場合であっても、一旦「付着」と判定された領域に対し、それを否定する「非付着」の判定がなければ、たとえば周囲の他の単位領域UAと同等に「付着」であるとの判定が可能となる。これにより、未検出を抑制し、検出精度を向上させることができる。 In this way, by taking into consideration the determination result of the past captured image I', even if the determination is difficult with the captured image I being processed, the area once determined to be "attached" is denied. If there is no determination of "non-adhesion", for example, it is possible to determine "adhesion" in the same manner as other surrounding unit areas UA. Thereby, non-detection can be suppressed and the detection accuracy can be improved.

次に、図9を用いて、実施形態に係る付着物検出装置1が実行する処理手順について説明する。図9は、実施形態に係る付着物検出装置1が実行する処理手順を示すフローチャートである。なお、図9では、1フレーム分のカメラ画像についての処理手順を示している。 Next, a processing procedure executed by the adhering matter detection device 1 according to the embodiment will be described with reference to FIG. 9 . FIG. 9 is a flow chart showing a processing procedure executed by the adhering matter detection device 1 according to the embodiment. Note that FIG. 9 shows the processing procedure for one frame of camera image.

図9に示すように、まず、取得部31が、撮像画像Iを取得する(ステップS101)。あわせて取得部31は、撮像画像Iに対してグレースケール化処理および平滑化処理を施す。 As shown in FIG. 9, first, the acquisition unit 31 acquires a captured image I (step S101). In addition, the acquisition unit 31 performs grayscaling processing and smoothing processing on the captured image I. FIG.

つづいて、抽出部32が、撮像画像Iのセル100毎のエッジ特徴量を抽出する(ステップS102)。そして、算出部33が、抽出部32によって抽出されたエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する(ステップS103)。 Subsequently, the extraction unit 32 extracts the edge feature amount for each cell 100 of the captured image I (step S102). Then, the calculation unit 33 calculates the area feature amount for each unit area UA based on the edge feature amount extracted by the extraction unit 32 (step S103).

そして、推定部34が、算出部33によって算出された領域特徴量を領域特徴量空間にマッピングし、領域特徴量の位置を判定する(ステップS104)。ここで、かかる位置が「非付着」を示す場合(ステップS104,「非付着」)、判定部36がこれに基づいて「非付着」と判定し(ステップS105)、処理を終了する。 Then, the estimation unit 34 maps the area feature amount calculated by the calculation unit 33 to the area feature amount space, and determines the position of the area feature amount (step S104). Here, if the position indicates "non-adhesion" (step S104, "non-adhesion"), the determination unit 36 determines "non-adhesion" based on this (step S105), and the process is terminated.

また、領域特徴量の位置が「付着」を示す場合(ステップS104,「付着」)、判定部36が、マッチング部35によるマッチング結果において「付着」であるか否かを判定する(ステップS106)。 Further, when the position of the region feature value indicates "attachment" (step S104, "attachment"), the determination unit 36 determines whether or not the matching result of the matching unit 35 indicates "attachment" (step S106). .

ここで、マッチング結果において「付着」である場合(ステップS106,「付着」)、判定部36は「付着」と判定し(ステップS107)、処理を終了する。一方、マッチング結果において「非付着」である場合(ステップS106,「非付着」)、ステップS108へ制御を移す。また、領域特徴量の位置が「判定難」を示す場合も(ステップS104,「判定難」)、ステップS108へ制御を移す。 Here, if the matching result is "adhesion" (step S106, "adhesion"), the determination unit 36 determines "adhesion" (step S107), and ends the process. On the other hand, if the matching result is "non-adhesion" (step S106, "non-adhesion"), control is transferred to step S108. Further, when the position of the area feature value indicates "difficult to determine" (step S104, "difficult to determine"), the control is transferred to step S108.

ステップS108では、判定部36が、過去フレームを含めた条件に該当するか否かを判定する(図8B参照)。ここで、該当する場合(ステップS108,Yes)、判定部36は「付着」と判定し(ステップS109)、処理を終了する。一方、該当しない場合(ステップS108,No)、判定部36は「非付着」と判定し(ステップS110)、処理を終了する。 In step S108, the determination unit 36 determines whether or not the condition including the past frame is met (see FIG. 8B). Here, if applicable (step S108, Yes), the determination unit 36 determines "attachment" (step S109), and terminates the process. On the other hand, if not applicable (step S108, No), the determination unit 36 determines "non-adhesion" (step S110), and terminates the process.

上述してきたように、実施形態に係る付着物検出装置1は、抽出部32と、算出部33と、推定部34とを備える。抽出部32は、撮像画像Iに含まれる所定数の画素PXからなるセル100毎に、かかるセル100に含まれる各画素PXのエッジベクトルVに基づくエッジ特徴量を抽出する。算出部33は、抽出部32によって抽出されたエッジ特徴量に基づいて、所定数のセル100からなる所定の領域である単位領域UA毎の領域特徴量を算出する。推定部34は、算出部33によって算出された領域特徴量を、領域特徴量の各要素を各次元とする特徴量空間へマッピングし、マッピングされた領域特徴量の位置に基づいて単位領域UAにおける付着物の付着状態を推定する。 As described above, the attached matter detection device 1 according to the embodiment includes the extraction unit 32, the calculation unit 33, and the estimation unit . The extraction unit 32 extracts an edge feature amount based on the edge vector V of each pixel PX included in each cell 100 including a predetermined number of pixels PX included in the captured image I. The calculation unit 33 calculates an area feature amount for each unit area UA, which is a predetermined area including a predetermined number of cells 100, based on the edge feature amount extracted by the extraction unit 32. FIG. The estimation unit 34 maps the area feature amount calculated by the calculation unit 33 to a feature amount space having each element of the area feature amount as each dimension, and based on the position of the mapped area feature amount in the unit area UA Estimate the state of adherence of adherents.

したがって、実施形態に係る付着物検出装置1によれば、付着物の検出精度を向上させることができる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, the adhering matter detection accuracy can be improved.

また、抽出部32は、上記エッジ特徴量に含まれる角度特徴量を所定の角度範囲毎で分類したエッジ向きをセル100毎に抽出する。算出部33は、隣接し、かつ、上記エッジ向きが逆向きであるセル100のペア領域200(「組み合わせ」の一例に相当)の個数、および、ペア領域200に含まれる各セル100のエッジ強度の総和を領域特徴量として算出する。推定部34は、上記個数および上記総和を各次元とする特徴量空間における領域特徴量の位置に基づいて、付着物の付着状態を推定する。 The extracting unit 32 also extracts, for each cell 100, the edge direction obtained by classifying the angle feature amount included in the edge feature amount for each predetermined angle range. The calculation unit 33 calculates the number of pair regions 200 (corresponding to an example of a “combination”) of cells 100 that are adjacent to each other and have opposite edge directions, and the edge strength of each cell 100 included in the pair regions 200. is calculated as the area feature amount. The estimating unit 34 estimates the adherence state of the adhering matter based on the position of the region feature amount in the feature amount space whose dimensions are the number and the sum.

したがって、実施形態に係る付着物検出装置1によれば、たとえばカメラ10のレンズへ付着する雪などの検出精度を向上させることができる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, it is possible to improve the detection accuracy of, for example, snow adhering to the lens of the camera 10 .

また、算出部33は、単位領域UAに含まれる各セル100のエッジ強度の平均、および、分散を領域特徴量として算出する。また、推定部34は、上記平均および上記分散を各次元とする特徴量空間における領域特徴量の位置に基づいて、付着物の付着状態を推定する。 The calculation unit 33 also calculates the average and variance of the edge strength of each cell 100 included in the unit area UA as area feature amounts. The estimating unit 34 also estimates the attachment state of the adhering matter based on the position of the region feature amount in the feature amount space whose dimensions are the average and the variance.

したがって、実施形態に係る付着物検出装置1によれば、統計的見地に基づき、たとえばカメラ10のレンズへ付着する雪などの検出精度を向上させることができる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, it is possible to improve the detection accuracy of, for example, snow adhering to the lens of the camera 10 based on the statistical viewpoint.

また、推定部34は、領域特徴量の位置に基づいて、付着物の付着状態を、付着、非付着、または、判定難に分類する。 Also, the estimation unit 34 classifies the attachment state of the attached matter into attached, non-attached, or difficult to determine, based on the position of the region feature amount.

したがって、実施形態に係る付着物検出装置1によれば、カメラ10のレンズへ雪などが付着した場合の付着状態を適切に分類することができる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, it is possible to appropriately classify the adhering state when snow or the like adheres to the lens of the camera 10 .

また、実施形態に係る付着物検出装置1は、判定部36をさらに備える。判定部36は、推定部34による推定結果、および、マッチング部35によるマッチング結果(「推定部とは異なるアルゴリズムによる判定結果」の一例に相当)に基づいて、付着物の付着状態を判定する。また、判定部36は、上記推定結果において非付着である場合に、上記マッチング結果に関わらず、非付着と判定する。 Further, the adhering matter detection device 1 according to the embodiment further includes a determination unit 36 . The determination unit 36 determines the attachment state of the adhering matter based on the estimation result by the estimation unit 34 and the matching result by the matching unit 35 (corresponding to an example of "determination result by an algorithm different from that of the estimation unit"). Further, when the estimation result indicates non-adhesion, the determination unit 36 determines non-adhesion regardless of the matching result.

したがって、実施形態に係る付着物検出装置1によれば、推定部34による推定結果、および、マッチング部35によるマッチング結果を組み合わせた総合的な判定により、付着物の誤検出を抑制することができる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, it is possible to suppress erroneous detection of adhering matter by comprehensive determination combining the estimation result of the estimating unit 34 and the matching result of the matching unit 35. .

また、判定部36は、上記推定結果において付着であり、かつ、上記マッチング結果において非付着である場合に、過去の所定期間中に付着の判定があるとともに、かかる判定の後に非付着の判定がない場合は、付着と判定する。 In addition, when the estimation result indicates adhesion and the matching result indicates non-adhesion, the judgment unit 36 determines that adhesion has occurred during a predetermined period in the past, and after such judgment, non-adhesion has been judged. If not, it is judged as adhered.

したがって、実施形態に係る付着物検出装置1によれば、処理中の撮像画像Iに基づく上記マッチング結果のみによっては未検出となるケースを抑制することができる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, it is possible to suppress the case where an object is not detected only by the matching result based on the captured image I being processed.

また、判定部36は、上記推定結果において判定難である場合に、過去の所定期間中に付着の判定があるとともに、かかる判定の後に非付着の判定がない場合は、付着と判定する。 Further, when the determination result is difficult to determine, the determination unit 36 determines that there is adhesion when there is determination of adhesion during a predetermined period in the past and there is no determination of non-adhesion after this determination.

したがって、実施形態に係る付着物検出装置1によれば、上記推定結果のみによっては判定が難しく、未検出となるケースを抑制することができる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, it is difficult to make a determination based only on the estimation result, and it is possible to suppress cases in which an object is not detected.

(変形例に係る抽出部32)
なお、上述した実施形態では、1つのセル100について、1種類のエッジ向きの代表値を抽出する場合を示したが、1つのセル100について、2種類以上のエッジ向きの代表値を割り当ててもよい。かかる点について、図10および図11を用いて説明する。
(Extraction unit 32 according to modification)
In the above-described embodiment, the case of extracting one type of edge orientation representative value for one cell 100 has been described, but two or more types of edge orientation representative values may be assigned to one cell 100. good. This point will be described with reference to FIGS. 10 and 11. FIG.

図10および図11は、変形例に係る抽出部32の処理内容を示す図(その1)および(その2)である。なお、図10および図11では、角度範囲が異なる2種類のエッジ向きの代表値を抽出する場合の処理内容について説明する。 10 and 11 are diagrams (part 1) and (part 2) showing the processing contents of the extraction unit 32 according to the modification. In addition, FIG. 10 and FIG. 11 explain the processing contents in the case of extracting the representative values of two types of edge orientations with different angular ranges.

図10に示すように、抽出部32は、第1角度範囲によって分類されるエッジ向きの第1代表値、および、第1角度範囲とは異なる第2角度範囲によって分類されるエッジ向きの第2代表値をセル100毎に決定する。 As shown in FIG. 10, the extraction unit 32 extracts a first representative value of edge orientations classified by the first angle range, and a second representative value of edge orientations classified by a second angle range different from the first angle range. A representative value is determined for each cell 100 .

具体的には、抽出部32は、セル100における各画素PXのエッジベクトルVのエッジ向き-180°~180°を、90°毎の第1角度範囲で分割した上下左右4方向である角度分類(0)~(3)に分類するとともに、第1角度範囲とは異なる第2角度範囲で分割した斜め4方向である角度分類(4)~(7)に分類する。 Specifically, the extracting unit 32 divides the edge direction of the edge vector V of each pixel PX in the cell 100 from −180° to 180° into first angle ranges of 90° each, and divides the angle into four directions, namely, up, down, left, and right. In addition to being classified into (0) to (3), it is classified into angle classifications (4) to (7), which are four oblique directions divided by a second angle range different from the first angle range.

より具体的には、抽出部32は、画素PXのエッジ向きが、-45°以上45°未満の角度範囲である場合には角度分類(0)に分類し、45°以上135°未満の角度範囲である場合には角度分類(1)に分類し、135°以上180°未満、または-180°以上-135°未満の角度範囲である場合には角度分類(2)に分類し、-135°以上-45°未満の角度範囲である場合には角度分類(3)に分類する。 More specifically, the extraction unit 32 classifies the edge orientation of the pixel PX into the angle category (0) when the angle range is −45° or more and less than 45°, If it is in the range, it is classified into angle classification (1), and if it is in the angle range of 135° or more and less than 180°, or -180° or more and less than -135°, it is classified into angle classification (2), and -135 If the angle range is greater than or equal to degrees and less than -45 degrees, it is classified as angle classification (3).

さらに、抽出部32は、画素PXのエッジ向きが、0°以上90°未満の角度範囲である場合には角度分類(4)に分類し、90°以上180°未満の角度範囲である場合には角度分類(5)に分類し、180°以上-90°未満の角度範囲である場合には角度分類(6)に分類し、-90°以上0°未満の角度範囲である場合には角度分類(7)に分類する。 Furthermore, the extraction unit 32 classifies the edge direction of the pixel PX into the angle classification (4) when it is in the angle range of 0° or more and less than 90°, and when it is in the angle range of 90° or more and less than 180° is classified into angle classification (5), if it is in the angle range of 180° or more and less than -90°, it is classified into angle classification (6), and if it is in the angle range of -90° or more and less than 0°, the angle It is classified into classification (7).

そして、図10の下段に示すように、抽出部32は、各セル100について、角度分類(0)~(3)を各階級とするヒストグラムと、角度分類(4)~(7)を各階級とするヒストグラムとを生成する。そして、抽出部32は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応するたとえば角度分類(0)をエッジ向きの第1代表値とし、たとえば角度分類(4)をエッジ向きの第2代表値として抽出する。 Then, as shown in the lower part of FIG. 10, for each cell 100, the extracting unit 32 creates a histogram with angle classifications (0) to (3) in each class, and angle classifications (4) to (7) in each class. and generate a histogram with Then, when the frequency of the class with the highest frequency in the generated histogram is equal to or greater than a predetermined threshold value THa, the extraction unit 32 sets, for example, the angle classification (0) corresponding to this class as the first representative value of the edge direction. , for example, the angle classification (4) is extracted as the second representative value of the edge orientation.

そして、図11に示すように、抽出部32は、隣接するセル100において、エッジ向きの第1代表値、および、第2代表値の少なくとも一方が互いに逆向きである場合、かかる隣接するセル100をペア領域200として抽出する。 Then, as shown in FIG. 11 , when at least one of the edge orientation first representative value and the edge orientation second representative value is opposite to each other in adjacent cells 100, the extraction unit 32 are extracted as the pair region 200 .

つまり、抽出部32は、各セル100において、エッジ向きの第1代表値および第2代表値を抽出することで、1種類のエッジ向きのみでは抽出できなかったペア領域200を抽出することが可能となる。 In other words, the extraction unit 32 extracts the first representative value and the second representative value of the edge orientation in each cell 100, thereby extracting the pair region 200 that could not be extracted with only one type of edge orientation. becomes.

すなわち、たとえば、エッジ向きが140°の画素PXと、エッジ向きが-40°の画素PXとについて、第1角度範囲では逆向きとはならないが、第2角度範囲では逆向きとなることで、セル100におけるエッジ向きの変化をより高精度に検出することが可能となる。 That is, for example, for a pixel PX with an edge orientation of 140° and a pixel PX with an edge orientation of −40°, the orientation is not opposite in the first angle range, but the orientation is opposite in the second angle range. It becomes possible to detect a change in edge direction in the cell 100 with higher accuracy.

なお、上述した実施形態および変形例では、-180°~180°を90°毎の角度範囲で分割した4方向に角度分類する場合を示したが、角度範囲は90°に限定されず、たとえば60°毎の角度範囲で分割した6方向に角度分類してもよい。 In addition, in the above-described embodiment and modification, the case of classifying the angles into four directions obtained by dividing −180° to 180° into angular ranges of 90° is shown, but the angular range is not limited to 90°. The angles may be classified into six directions divided by angle ranges of 60°.

また、第1角度範囲および第2角度範囲でそれぞれの角度範囲の幅が異なってもよい。たとえば、第1角度範囲では90°毎で角度分類し、第2角度範囲では、60°毎で角度分類してもよい。また、第1角度範囲および第2角度範囲では、角度範囲の角度の境界を45°ずらしたが、ずらす角度が45°を超える、もしくは、45°未満であってもよい。 Also, the width of each angle range may be different between the first angle range and the second angle range. For example, in the first angle range, the angles may be classified in units of 90°, and in the second angle range, the angles may be classified in units of 60°. Also, in the first angle range and the second angle range, the angle boundaries of the angle ranges are shifted by 45°, but the shifted angle may be more than 45° or less than 45°.

また、上述した実施形態では、車載カメラで撮像された撮像画像Iを例に挙げたが、撮像画像Iは、たとえば、防犯カメラや、街灯等に設置されたカメラで撮像された撮像画像Iであってもよい。つまり、カメラのレンズに付着物が付着する可能性があるカメラで撮像された撮像画像Iであればよい。 Further, in the above-described embodiment, the captured image I captured by an in-vehicle camera is taken as an example. There may be. In other words, any captured image I captured by a camera in which there is a possibility that an adhering substance may adhere to the lens of the camera may be used.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 付着物検出装置
2 記憶部
3 制御部
10 カメラ
21 閾値情報
22 テンプレート情報
23 判定履歴情報
31 取得部
32 抽出部
33 算出部
34 推定部
35 マッチング部
36 判定部
50 各種機器
100 セル
200 ペア領域
I 撮像画像
PX 画素
UA 単位領域
1 adhering matter detection device 2 storage unit 3 control unit 10 camera 21 threshold information 22 template information 23 determination history information 31 acquisition unit 32 extraction unit 33 calculation unit 34 estimation unit 35 matching unit 36 determination unit 50 various devices 100 cell 200 pair region I Captured image PX Pixel UA Unit area

Claims (7)

制御部を備える付着物検出装置であって、
前記制御部は、
撮像画像に含まれる所定数の画素からなるセル毎に、該セルに含まれる各画素のエッジベクトルに基づく角度特徴量を所定の角度範囲毎で分類したエッジ向きを前記セル毎に抽出
定数の前記セルからなる所定の領域である単位領域毎の領域特徴量として、隣接し、かつ、前記エッジ向きが逆向きである前記セルの組み合わせの個数、および、該組み合わせに含まれる各セルのエッジ強度の総和を算出
出された前記領域特徴量を、前記個数および前記総和を各次元とする特徴量空間へマッピングし、前記特徴量空間におけるマッピングされた前記領域特徴量の位置に基づいて前記単位領域における付着物の付着状態を推定する
とを特徴とする付着物検出装置。
A deposit detection device comprising a control unit,
The control unit
extracting , for each cell composed of a predetermined number of pixels included in a captured image, an edge orientation obtained by classifying an angle feature amount based on an edge vector of each pixel included in the cell for each predetermined angle range, and
The number of combinations of the cells adjacent to each other and having opposite edge directions, and each cell included in the combination, as a region feature amount for each unit region, which is a predetermined region composed of a predetermined number of the cells. Calculate the sum of the edge strengths of
The calculated area feature amount is mapped onto a feature amount space having dimensions of the number and the sum total , and the attached matter in the unit area is determined based on the position of the mapped area feature amount in the feature amount space. Estimate the adhesion state of
An adhering matter detection device characterized by:
前記制御部は、
前記単位領域に含まれる各セルのエッジ強度の平均、および、分散を前記領域特徴量として算出し、
記平均および前記分散を各次元とする前記特徴量空間における前記領域特徴量の位置に基づいて、前記付着物の付着状態を推定する
ことを特徴とする請求項に記載の付着物検出装置。
The control unit
calculating the average and variance of the edge strength of each cell included in the unit area as the area feature amount;
2. The adhering matter detection apparatus according to claim 1 , wherein the adhering state of the adhering matter is estimated based on the position of the area feature amount in the feature amount space having the mean and the variance as respective dimensions. .
前記制御部は、
前記領域特徴量の位置に基づいて、前記付着物の付着状態を、付着、非付着、または、判定難に分類する
ことを特徴とする請求項1たはに記載の付着物検出装置。
The control unit
3. The adhering matter detection device according to claim 1 , wherein the adhering state of the adhering matter is classified into adhering, non-adhering, or difficult to determine based on the position of the region feature amount.
前記制御部はさらに、
前記付着物の付着状態の推定結果、および、前記付着物の付着状態の推定とは異なるアルゴリズムによる判定結果に基づいて、前記付着物の付着状態を判定
記推定結果において非付着である場合に、前記判定結果に関わらず、非付着と判定する
ことを特徴とする請求項1、2または3に記載の付着物検出装置。
The control unit further
Determining the adhesion state of the adhesion matter based on the estimation result of the adhesion state of the adhesion matter and the determination result by an algorithm different from the estimation of the adhesion state of the adhesion matter ,
4. The adhering matter detection device according to claim 1, wherein when the estimation result indicates non-adherence, the non-adherence is determined regardless of the determination result.
前記制御部は、
前記推定結果において付着であり、かつ、前記判定結果において非付着である場合に、過去の所定期間中に付着の判定があるとともに、該判定の後に非付着の判定がない場合は、付着と判定する
ことを特徴とする請求項に記載の付着物検出装置。
The control unit
If the estimation result indicates adhesion and the determination result indicates non-adhesion, and there was an adhesion determination during a predetermined period in the past, and there is no non-adhesion determination after the determination, it is determined that there is adhesion. The adhering matter detection device according to claim 4 , characterized in that:
前記制御部は、
前記推定結果において判定難である場合に、過去の所定期間中に付着の判定があるとともに、該判定の後に非付着の判定がない場合は、付着と判定する
ことを特徴とする請求項またはに記載の付着物検出装置。
The control unit
5. If it is difficult to determine in the estimation result, there is a determination of adhesion during a predetermined period in the past, and if there is no determination of non-adhesion after the determination, it is determined that there is adhesion. 6. The attachment detection device according to 5 .
撮像画像に含まれる所定数の画素からなるセル毎に、該セルに含まれる各画素のエッジベクトルに基づく角度特徴量を所定の角度範囲毎で分類したエッジ向きを前記セル毎に抽出することと、
定数の前記セルからなる所定の領域である単位領域毎の領域特徴量として、隣接し、かつ、前記エッジ向きが逆向きである前記セルの組み合わせの個数、および、該組み合わせに含まれる各セルのエッジ強度の総和を算出することと、
出された前記領域特徴量を、前記個数および前記総和を各次元とする特徴量空間へマッピングし、前記特徴量空間におけるマッピングされた前記領域特徴量の位置に基づいて前記単位領域における付着物の付着状態を推定すること
を含むことを特徴とする付着物検出方法。
extracting , for each cell composed of a predetermined number of pixels included in a captured image, an edge direction obtained by classifying an angle feature amount based on an edge vector of each pixel included in the cell by a predetermined angle range for each cell; ,
The number of combinations of the cells adjacent to each other and having opposite edge directions, and each cell included in the combination, as a region feature amount for each unit region, which is a predetermined region composed of a predetermined number of the cells. calculating the sum of the edge strengths of
The calculated area feature amount is mapped onto a feature amount space having dimensions of the number and the sum total , and the attached matter in the unit area is determined based on the position of the mapped area feature amount in the feature amount space. A deposit detection method, comprising : estimating the adhesion state of
JP2019000522A 2019-01-07 2019-01-07 Attached matter detection device and attached matter detection method Active JP7274867B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019000522A JP7274867B2 (en) 2019-01-07 2019-01-07 Attached matter detection device and attached matter detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019000522A JP7274867B2 (en) 2019-01-07 2019-01-07 Attached matter detection device and attached matter detection method

Publications (2)

Publication Number Publication Date
JP2020109579A JP2020109579A (en) 2020-07-16
JP7274867B2 true JP7274867B2 (en) 2023-05-17

Family

ID=71570223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019000522A Active JP7274867B2 (en) 2019-01-07 2019-01-07 Attached matter detection device and attached matter detection method

Country Status (1)

Country Link
JP (1) JP7274867B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196531A1 (en) * 2021-03-16 2022-09-22 Kabushiki Kaisha Toshiba Water treatment control system using an imaging device and lighting device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076156A (en) 1999-09-03 2001-03-23 Mitsubishi Electric Corp Device for monitoring image
JP2006350413A (en) 2005-06-13 2006-12-28 Fuji Xerox Co Ltd Image processor, edge detecting device, image processing method, edge detecting method, and its program
JP2013211807A (en) 2012-03-30 2013-10-10 Brother Ind Ltd Image processing device and program
WO2015072272A1 (en) 2013-11-14 2015-05-21 クラリオン株式会社 Surrounding environment recognition device
JP2017138736A (en) 2016-02-02 2017-08-10 富士通テン株式会社 Image processor and water droplet removal system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3470375B2 (en) * 1993-03-09 2003-11-25 株式会社明電舎 Image recognition device
JP3587029B2 (en) * 1997-10-03 2004-11-10 三菱電機株式会社 Image inspection method and image inspection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076156A (en) 1999-09-03 2001-03-23 Mitsubishi Electric Corp Device for monitoring image
JP2006350413A (en) 2005-06-13 2006-12-28 Fuji Xerox Co Ltd Image processor, edge detecting device, image processing method, edge detecting method, and its program
JP2013211807A (en) 2012-03-30 2013-10-10 Brother Ind Ltd Image processing device and program
WO2015072272A1 (en) 2013-11-14 2015-05-21 クラリオン株式会社 Surrounding environment recognition device
JP2017138736A (en) 2016-02-02 2017-08-10 富士通テン株式会社 Image processor and water droplet removal system

Also Published As

Publication number Publication date
JP2020109579A (en) 2020-07-16

Similar Documents

Publication Publication Date Title
JP7259676B2 (en) Attached matter detection device and attached matter detection method
JP7230507B2 (en) Deposit detection device
JP2012048484A (en) Image processing apparatus, image processing method, and program
Niksaz Automatic traffic estimation using image processing
EP3855215A1 (en) Depth acquisition device, depth-acquiring method and program
WO2019013252A1 (en) Vehicle surroundings recognition device
JP7206909B2 (en) Attached matter detection device and attached matter detection method
JP7274867B2 (en) Attached matter detection device and attached matter detection method
JP7234630B2 (en) Deposit detection device
JP7205234B2 (en) Attached matter detection device and attached matter detection method
JP7200893B2 (en) Attached matter detection device and attached matter detection method
JP7283081B2 (en) Attached matter detection device and attached matter detection method
JP7156225B2 (en) Attached matter detection device and attached matter detection method
JP7200894B2 (en) Attached matter detection device and attached matter detection method
JP7172931B2 (en) Attached matter detection device and attached matter detection method
JP7172930B2 (en) Attached matter detection device and attached matter detection method
JP2021050932A (en) Attached matter detection device and attached matter detection method
US11568547B2 (en) Deposit detection device and deposit detection method
JP7234884B2 (en) Attached matter detection device and attached matter detection method
JP7175188B2 (en) Attached matter detection device and attached matter detection method
JP7172932B2 (en) Attached matter detection device and attached matter detection method
JP7234886B2 (en) Attached matter detection device and attached matter detection method
JP7234885B2 (en) Attached matter detection device and attached matter detection method
JP2020095625A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7274867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150