JP7172932B2 - Attached matter detection device and attached matter detection method - Google Patents

Attached matter detection device and attached matter detection method Download PDF

Info

Publication number
JP7172932B2
JP7172932B2 JP2019172212A JP2019172212A JP7172932B2 JP 7172932 B2 JP7172932 B2 JP 7172932B2 JP 2019172212 A JP2019172212 A JP 2019172212A JP 2019172212 A JP2019172212 A JP 2019172212A JP 7172932 B2 JP7172932 B2 JP 7172932B2
Authority
JP
Japan
Prior art keywords
unit
determination
edge
matter detection
buried
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019172212A
Other languages
Japanese (ja)
Other versions
JP2021050935A (en
Inventor
大輔 山本
信徳 朝山
修久 池田
泰司 谷
貴 河野
大輔 塩田
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019172212A priority Critical patent/JP7172932B2/en
Publication of JP2021050935A publication Critical patent/JP2021050935A/en
Application granted granted Critical
Publication of JP7172932B2 publication Critical patent/JP7172932B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示の実施形態は、付着物検出装置および付着物検出方法に関する。 The disclosed embodiments relate to a deposit detection device and a deposit detection method.

従来、車両等に搭載されたカメラによって撮像された撮像画像に基づいて、カメラレンズに付着した付着物を検出する付着物検出装置が知られている。付着物検出装置には、たとえば、時系列の撮像画像の差分に基づいて付着物を検出するものがある(たとえば、特許文献1参照)。 2. Description of the Related Art Conventionally, there has been known an adhering matter detection device that detects an adhering matter adhering to a camera lens based on an image captured by a camera mounted on a vehicle or the like. 2. Description of the Related Art For example, there is an attached matter detection device that detects an attached matter based on a difference between time-series captured images (see, for example, Patent Document 1).

特開2012-038048号公報JP 2012-038048 A

しかしながら、上述した従来技術には、付着物の検出性能を向上させるうえで、さらなる改善の余地がある。 However, the conventional technology described above has room for further improvement in terms of improving the performance of detecting adhering matter.

実施形態の一態様は、上記に鑑みてなされたものであって、付着物の検出性能を向上させることができる付着物検出装置および付着物検出方法を提供することを目的とする。 One aspect of the embodiments has been made in view of the above, and an object thereof is to provide an adhering matter detection device and an adhering matter detection method capable of improving the performance of detecting an adhering matter.

実施形態の一態様に係る付着物検出装置は、算出部と、判定部と、設定部とを備える。前記算出部は、撮像画像に含まれる所定数の画素からなる単位領域毎に、各画素のエッジベクトルに基づく領域特徴量を算出する。前記判定部は、前記領域特徴量に基づいて付着物によるカメラの埋もれ状態を仮判定するとともに、直近分を含む所定数の過去分の仮判定履歴において所定の確定条件が成立した場合に、該当する前記埋もれ状態を確定結果として確定させる。前記設定部は、前記カメラが搭載された車両がイグニッションオンされた場合に、該イグニッションオンの直後に、前記確定条件の成立が早まるように所定の初期値を前記仮判定履歴に設定する。前記設定部は、前記車両が停車中である場合に、前記確定条件の成立が早まるように該確定条件を緩和する。 An attached matter detection device according to an aspect of an embodiment includes a calculation unit, a determination unit, and a setting unit. The calculation unit calculates an area feature amount based on an edge vector of each pixel for each unit area made up of a predetermined number of pixels included in the captured image. The determination unit provisionally determines whether or not the camera is obscured by the adhering matter based on the region feature amount, and when a predetermined confirmation condition is satisfied in a predetermined number of past provisional determination histories including the most recent history, The burial state is determined as a determination result. The setting unit sets a predetermined initial value in the temporary determination history immediately after the ignition is turned on when the vehicle equipped with the camera is turned on so that the determination condition is quickly established. The setting unit, when the vehicle is stopped, relaxes the confirmation condition so that the confirmation condition is established more quickly.

実施形態の一態様によれば、付着物の検出性能を向上させることができる。 According to one aspect of the embodiment, it is possible to improve the detection performance of adhering matter.

図1Aは、実施形態に係る付着物検出方法の概要説明図(その1)である。FIG. 1A is a schematic explanatory diagram (part 1) of an attached matter detection method according to an embodiment; 図1Bは、実施形態に係る付着物検出方法の概要説明図(その2)である。FIG. 1B is a schematic explanatory diagram (part 2) of the attached matter detection method according to the embodiment; 図1Cは、実施形態に係る付着物検出方法の概要説明図(その3)である。FIG. 1C is a schematic explanatory diagram (part 3) of the attached matter detection method according to the embodiment; 図1Dは、実施形態に係る付着物検出方法の概要説明図(その4)である。FIG. 1D is a schematic explanatory diagram (part 4) of the attached matter detection method according to the embodiment; 図1Eは、実施形態に係る付着物検出方法の概要説明図(その5)である。FIG. 1E is a schematic explanatory diagram (No. 5) of the attached matter detection method according to the embodiment; 図2は、実施形態に係る付着物検出装置のブロック図である。FIG. 2 is a block diagram of the attached matter detection device according to the embodiment. 図3は、算出部の処理内容を示す図(その1)である。FIG. 3 is a diagram (part 1) illustrating the processing contents of the calculation unit; 図4は、算出部の処理内容を示す図(その2)である。FIG. 4 is a diagram (part 2) illustrating the processing contents of the calculation unit; 図5は、算出部の処理内容を示す図(その3)である。FIG. 5 is a diagram (part 3) showing the processing contents of the calculation unit; 図6は、算出部の処理内容を示す図(その4)である。FIG. 6 is a diagram (part 4) showing the processing contents of the calculation unit. 図7は、算出部の処理内容を示す図(その5)である。FIG. 7 is a diagram (No. 5) showing the processing contents of the calculation unit. 図8は、算出部の処理内容を示す図(その6)である。FIG. 8 is a diagram (No. 6) showing the processing contents of the calculation unit. 図9は、算出部の処理内容を示す図(その7)である。FIG. 9 is a diagram (No. 7) showing the processing contents of the calculation unit. 図10は、算出部の処理内容を示す図(その8)である。FIG. 10 is a diagram (No. 8) showing the processing contents of the calculation unit. 図11は、算出部の処理内容を示す図(その9)である。FIG. 11 is a diagram (No. 9) showing the processing contents of the calculation unit. 図12は、算出部の処理内容を示す図(その10)である。FIG. 12 is a diagram (No. 10) illustrating the processing contents of the calculation unit; 図13は、設定部の処理内容を示す図である。FIG. 13 is a diagram showing the processing contents of the setting unit. 図14は、実施形態に係る付着物検出装置が実行する処理手順を示すフローチャートである。FIG. 14 is a flowchart illustrating a processing procedure executed by the adhering matter detection device according to the embodiment;

以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 DETAILED DESCRIPTION OF THE INVENTION Embodiments of the attached matter detection device and the attached matter detection method disclosed in the present application will be described in detail below with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

まず、図1A~図1Eを用いて、実施形態に係る付着物検出方法の概要について説明する。図1A~図1Eは、実施形態に係る付着物検出方法の概要説明図(その1)~(その5)である。 First, with reference to FIGS. 1A to 1E, an overview of the attached matter detection method according to the embodiment will be described. 1A to 1E are schematic explanatory diagrams (part 1) to (part 5) of an attached matter detection method according to an embodiment.

図1Aに示すように、たとえば、車載カメラのレンズ表面に雪が付着した状態で撮像された撮像画像Iがあるものとする。以下では、実施形態に係る付着物検出方法を適用した付着物検出装置1(図2参照)が、かかる撮像画像Iの各画素の輝度勾配に関する特徴量(以下、「エッジ特徴量」と言う場合がある)に基づいて、雪によって車載カメラのレンズの大半が埋もれている状態(以下、「埋もれ状態」と言う場合がある)を検出する場合を例に挙げる。 As shown in FIG. 1A, for example, there is a captured image I captured with snow adhering to the lens surface of an in-vehicle camera. In the following, the attached matter detection apparatus 1 (see FIG. 2) to which the attached matter detection method according to the embodiment is applied detects a feature amount (hereinafter referred to as an "edge feature amount") related to the luminance gradient of each pixel of the captured image I. An example of detecting a state in which most of the lens of an in-vehicle camera is buried in snow (hereinafter sometimes referred to as a “buried state”) will be taken as an example.

具体的には、図1Aに示すように、付着物検出装置1は、撮像画像Iの所定の注目領域であるROI(Region Of Interest)から算出される各画素PXのエッジ特徴量に基づいて、雪の付着状態を検出する。エッジ特徴量は、角度特徴量および強度特徴量を含む。角度特徴量は、各画素PXのエッジベクトル(輝度勾配)の向き(以下、「エッジ向き」と言う場合がある)である。強度特徴量は、各画素PXのエッジベクトルの大きさ(以下、「エッジ強度」と言う場合がある)である。 Specifically, as shown in FIG. 1A, the adhering matter detection device 1 is based on the edge feature amount of each pixel PX calculated from an ROI (Region Of Interest), which is a predetermined region of interest in the captured image I, Detects the state of snow adhesion. The edge features include angle features and strength features. The angle feature amount is the orientation of the edge vector (brightness gradient) of each pixel PX (hereinafter sometimes referred to as "edge orientation"). The intensity feature amount is the magnitude of the edge vector of each pixel PX (hereinafter sometimes referred to as "edge intensity").

なお、付着物検出装置1は、画像処理における処理負荷を軽減するため、かかるエッジ特徴量を、所定数の画素PXからなるセル100単位で取り扱う。これにより、画像処理における処理負荷の軽減に資することができる。また、ROIを構成する単位領域UAは、かかるセル100の集まりである。 In order to reduce the processing load in image processing, the adhering matter detection apparatus 1 handles such edge feature amounts in units of cells 100 each having a predetermined number of pixels PX. This can help reduce the processing load in image processing. A unit area UA that constitutes the ROI is a collection of such cells 100 .

つづいて、付着物検出装置1は、かかるセル100毎に算出したエッジ特徴量に基づいて、単位領域UA毎の特徴量である領域特徴量を算出する。領域特徴量は、言わば単位領域UA毎におけるエッジ特徴量の統計的特徴量であり、たとえばペア領域の個数およびペア領域のエッジ強度の総和を含む。ここで、ペア領域は、隣接し、エッジ向きが互いに逆向きであるセル100の組み合わせである。 Subsequently, the adhering matter detection apparatus 1 calculates an area feature amount, which is a feature amount for each unit area UA, based on the edge feature amount calculated for each cell 100 . The area feature amount is, so to speak, a statistical feature amount of the edge feature amount for each unit area UA, and includes, for example, the number of pair areas and the sum of edge strengths of the pair areas. Here, a pair region is a combination of adjacent cells 100 whose edge directions are opposite to each other.

そのうえで、付着物検出装置1は、かかる領域特徴量に基づいて、単位領域UA毎に付着物の付着状態を判定する。そして、付着物検出装置1は、その単位領域UA毎の判定結果に基づき、レンズの埋もれ状態を判定する。 Then, the adhering matter detection device 1 determines the adhering state of the adhering matter for each unit area UA based on the area feature amount. Then, the adhering matter detection device 1 determines the buried state of the lens based on the determination result for each unit area UA.

より具体的には、図1Aに示すように、付着物検出装置1は、撮像画像Iにおいて、所定数のセル100が上下方向および左右方向に配列された所定の領域である単位領域UA毎に、まずセル100単位でエッジ特徴量を算出する(ステップS1)。エッジ特徴量は、上述したようにエッジ向きおよびエッジ強度である。 More specifically, as shown in FIG. 1A, the adhering matter detection device 1 detects a predetermined number of cells 100 in a captured image I for each unit area UA, which is a predetermined area in which cells 100 are arranged vertically and horizontally. First, an edge feature amount is calculated in units of 100 cells (step S1). The edge feature amounts are the edge direction and the edge strength as described above.

セル100のエッジ向きは、図1Aに示すように、所定の角度範囲で角度分類される各画素PXのベクトル向きの代表値であり、図1Aの例では、90°の角度範囲毎に区切られた上下左右のいずれかで決定される。また、セル100のエッジ強度は、各画素PXのベクトル強度の代表値である。なお、かかるセル100単位のエッジ特徴量の算出処理については、図3および図4を用いて後述する。 The edge orientation of the cell 100 is, as shown in FIG. 1A, a representative value of the vector orientation of each pixel PX that is classified into a predetermined angular range. It is determined by either up, down, left, or right. Also, the edge intensity of the cell 100 is the representative value of the vector intensity of each pixel PX. Note that the processing for calculating the edge feature amount for each cell 100 will be described later with reference to FIGS. 3 and 4. FIG.

つづいて、付着物検出装置1は、ステップS1で算出したセル100毎のエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する(ステップS2)。そして、付着物検出装置1は、算出した領域特徴量に基づいて単位領域UA毎の付着状態(「付着」か「非付着」か)を判定する(ステップS3)。 Subsequently, the adhering matter detection device 1 calculates an area feature amount for each unit area UA based on the edge feature amount for each cell 100 calculated in step S1 (step S2). Then, the adhering matter detection apparatus 1 determines the adhering state (“attached” or “non-adhered”) for each unit area UA based on the calculated area feature amount (step S3).

そして、たとえばROI内の付着率が一定以上になれば、付着物検出装置1は、車載カメラのレンズの大半が埋もれている「埋もれ」であると仮判定する(ステップS4)。ここで、付着率は、たとえばROI内において「付着」と判定された単位領域UAである付着箇所の面積率である。 Then, for example, when the adherence rate in the ROI reaches a certain level or more, the adhering matter detection device 1 tentatively determines that most of the lens of the vehicle-mounted camera is "buried" (step S4). Here, the adhesion rate is, for example, the area ratio of the adhesion portion, which is the unit area UA determined to be "adhered" within the ROI.

また、「仮判定」とは、付着物検出装置1は、1フレーム分の処理結果だけによらず、過去の判定履歴の内容を加味した総合的な判断によって判定結果を確定させるため、ステップS4の段階では「仮判定」と表現している。 Further, the "temporary determination" means that the adhering matter detection apparatus 1 finalizes the determination result not only based on the processing result for one frame but also based on comprehensive determination taking into consideration the contents of the past determination history. At the stage of , it is expressed as "provisional judgment".

ここで、かかる仮判定の内容は、図1Bに示すように、仮判定フラグによって示される。仮判定フラグは、値としてたとえば「1」、「-1」、「0」をとりうる。 Here, the content of such provisional determination is indicated by a provisional determination flag, as shown in FIG. 1B. The temporary determination flag can take values such as "1", "-1", and "0".

値「1」の意味は、「埋もれ」である。かかる「1」は、たとえば付着率が40%以上である場合に設定される。また、値「-1」の意味は、「埋もれでない」である。かかる「-1」は、たとえば付着率が30%未満である場合に設定される。また、値「0」の意味は、「キープ」である。かかる「0」は、たとえば付着率が上記以外である場合または判定困難である場合等に設定される。 The meaning of the value "1" is "buried". Such "1" is set, for example, when the adhesion rate is 40% or more. Also, the meaning of the value "-1" is "not buried". Such "-1" is set, for example, when the adhesion rate is less than 30%. Also, the meaning of the value "0" is "keep". Such "0" is set, for example, when the adhesion rate is other than the above or when determination is difficult.

そして、付着物検出装置1は、図1Cに示すように、処理中の撮像画像Iを直近分として含む、所定数(ここでは、たとえば9)の過去フレーム分の仮判定フラグの履歴に基づいて埋もれ状態を確定させる。かかる仮判定フラグの履歴を「判定履歴情報」と言う。 Then, as shown in FIG. 1C, the adhering matter detection apparatus 1 is based on the history of the provisional determination flags for a predetermined number (here, for example, 9) of past frames including the captured image In being processed as the most recent one. to confirm the buried state. The history of such provisional determination flags is called "determination history information".

図1Dに示すように、付着物検出装置1は、かかる判定履歴情報の履歴9個中、5個以上が「1」であれば、埋もれ状態を「埋もれ」と確定させ、仮判定フラグに対する本判定フラグである「埋もれフラグ」をオンする。 As shown in FIG. 1D, when five or more of the nine determination history information are "1", the adhering matter detection apparatus 1 confirms the buried state as "buried", Turn on the "buried flag" which is a judgment flag.

また、付着物検出装置1は、かかる履歴9個中、5個以上が「-1」であれば、埋もれ状態を「埋もれでない」と確定させ、「埋もれフラグ」をオフする。なお、以下では、かかる履歴9個中、5個以上の成立条件を、「5/9条件」と言う場合がある。 Further, if five or more of the nine histories are "-1", the attached matter detection device 1 determines the buried state as "not buried" and turns off the "buried flag". In the following description, a condition that satisfies 5 or more of the 9 histories may be referred to as a "5/9 condition".

このため、埋もれ状態は、通常は「埋もれ」の仮判定から最短でも5フレームは状態の安定を待った後に、埋もれフラグをオンする動作となる。これにより、埋もれ状態の判定結果が不安定化するのを防止することができる。 Therefore, in the buried state, the buried flag is turned on after waiting for at least five frames to stabilize from the provisional determination of "buried". As a result, it is possible to prevent the buried state determination result from becoming unstable.

ただし、車両のIG(イグニッション)オンに際しては、たとえば駐車中だった車両に対する積雪等の影響が考えられるため、通常よりもレスポンスよく埋もれ状態の確定結果が通知されることが好ましい。 However, when the IG (ignition) of the vehicle is turned on, for example, the parked vehicle may be affected by accumulated snow or the like, so it is preferable to be notified of the confirmation result of the buried state with better response than usual.

そこで、図1Eに示すように、実施形態に係る付着物検出方法では、車両のIGオンに際して、判定履歴情報の直近分から過去分へ向けて所定個数分(ここでは、2個)、初期値として「1」を設定することとした。 Therefore, as shown in FIG. 1E, in the attached object detection method according to the embodiment, when the ignition of the vehicle is turned on, a predetermined number (here, two) of the determination history information is set as an initial value from the latest to the past. It was decided to set "1".

すると、図1Eに示すように、これにより、IGオン後、最短3フレーム目で「埋もれ」との確定が可能となる。すなわち、実施形態に係る付着物検出方法では、車両のIGオンに際しては、埋もれ状態の判定結果の確定条件の成立が早まるように、判定履歴情報に所定の初期値を設定することとした。 Then, as shown in FIG. 1E, it is possible to determine "buried" at the shortest third frame after the IG is turned on. That is, in the attached object detection method according to the embodiment, when the ignition of the vehicle is turned on, a predetermined initial value is set in the determination history information so that the determination condition for the determination result of the buried state is quickly established.

これにより、実施形態に係る付着物検出方法によれば、付着物の検出性能を向上させることができる。 As a result, the adhering matter detection method according to the embodiment can improve the adhering matter detection performance.

なお、図1Eに示した例では、判定履歴情報に対する初期値の設定によって、埋もれ状態の判定結果の確定条件の成立を早めることとしたが、確定条件そのもの(たとえば、前述の5/9条件)を緩和することとしてもよい。かかる例については、図13を用いて後述する。 In the example shown in FIG. 1E, by setting the initial value for the determination history information, the confirmation condition for the determination result of the burial state is set earlier. may be relaxed. Such an example will be described later with reference to FIG.

以下、上述した実施形態に係る付着物検出方法を適用した付着物検出装置1の構成例について、さらに具体的に説明する。 Hereinafter, a configuration example of the adhering matter detection device 1 to which the adhering matter detection method according to the above-described embodiment is applied will be described more specifically.

図2は、実施形態に係る付着物検出装置1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。 FIG. 2 is a block diagram of the adhering matter detection device 1 according to the embodiment. In addition, in FIG. 2, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.

換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific forms of distribution and integration of each functional block are not limited to those shown in the figure, and all or part of them can be functionally or physically distributed in arbitrary units according to various loads and usage conditions.・It is possible to integrate and configure.

図2に示すように、実施形態に係る付着物検出装置1は、記憶部2と、制御部3とを備える。また、付着物検出装置1は、カメラ10と、IGスイッチ20と、車速センサ30と、各種機器50とに接続される。 As shown in FIG. 2 , the attached matter detection device 1 according to the embodiment includes a storage unit 2 and a control unit 3 . The attached matter detection device 1 is also connected to the camera 10 , the IG switch 20 , the vehicle speed sensor 30 and various devices 50 .

なお、図2では、付着物検出装置1が、カメラ10、IGスイッチ20、車速センサ30および各種機器50とは別体で構成される場合を示したが、これに限らず、カメラ10、IGスイッチ20、車速センサ30および各種機器50の少なくともいずれかと一体に構成されてもよい。 Although FIG. 2 shows the case where the adhering matter detection device 1 is configured separately from the camera 10, the IG switch 20, the vehicle speed sensor 30, and the various devices 50, the present invention is not limited to this. At least one of the switch 20 , the vehicle speed sensor 30 and the various devices 50 may be configured integrally.

カメラ10は、たとえば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。カメラ10は、たとえば、車両の前後方、側方の様子を撮像可能な位置にそれぞれ設けられ、撮像された撮像画像Iを付着物検出装置1へ出力する。 The camera 10 is, for example, an in-vehicle camera that includes a lens such as a fisheye lens and an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is provided at a position capable of capturing images of the front, rear, and sides of the vehicle, for example, and outputs the captured image I to the adhering matter detection device 1 .

IGスイッチ20は、イグニッションスイッチである。車速センサ30は、車両の車速を検出するセンサである。 The IG switch 20 is an ignition switch. The vehicle speed sensor 30 is a sensor that detects the vehicle speed of the vehicle.

各種機器50は、付着物検出装置1の検出結果を取得して、車両の各種制御を行う機器である。各種機器50は、たとえば、カメラ10のレンズに付着物が付着していることやユーザへの付着物の拭き取り指示を通知する表示装置、流体や気体等をレンズへ向けて噴射して付着物を除去する除去装置、および、自動運転等を制御する車両制御装置などを含む。 The various devices 50 are devices that acquire detection results of the adhering matter detection device 1 and perform various vehicle controls. The various devices 50 include, for example, a display device that notifies the user that there is a deposit on the lens of the camera 10 and instructs the user to wipe off the deposit; It includes a removal device that removes, and a vehicle control device that controls automatic driving and the like.

記憶部2は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、判定履歴情報21と、テンプレート情報22と、閾値情報23とを記憶する。 The storage unit 2 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. , template information 22 and threshold information 23 are stored.

判定履歴情報21は、図1Dおよび図1Eに示した判定履歴情報に該当する。テンプレート情報22は、後述する算出部33が実行するマッチング処理において用いられるテンプレートに関する情報である。閾値情報23は、後述する判定部34が実行する判定処理において用いられる閾値に関する情報である。 The determination history information 21 corresponds to the determination history information shown in FIGS. 1D and 1E. The template information 22 is information about a template used in matching processing executed by the calculation unit 33, which will be described later. The threshold information 23 is information about a threshold used in determination processing executed by the determination unit 34, which will be described later.

制御部3は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、付着物検出装置1内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部3は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。 The control unit 3 is a controller, and various programs stored in a storage device inside the adhering matter detection apparatus 1 operate in the RAM by means of, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). It is realized by being executed as a region. Also, the control unit 3 can be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部3は、取得部31と、設定部32と、算出部33と、判定部34とを有し、以下に説明する情報処理の機能や作用を実現または実行する。 The control unit 3 includes an acquisition unit 31, a setting unit 32, a calculation unit 33, and a determination unit 34, and implements or executes information processing functions and actions described below.

取得部31は、カメラ10で撮像された撮像画像Iを取得する。取得部31は、取得した撮像画像Iにおける各画素を輝度に応じて白から黒までの各階調に変換するグレースケール化処理を行うとともに、各画素について平滑化処理を行って、算出部33へ出力する。なお、平滑化処理にはたとえば、平均化フィルタや、ガウシアンフィルタ等の任意の平滑化フィルタを用いることができる。また、グレースケール化処理や、平滑化処理については、省略されてもよい。 The acquisition unit 31 acquires the captured image I captured by the camera 10 . The acquisition unit 31 performs grayscaling processing for converting each pixel in the acquired captured image I into each gradation from white to black according to the luminance, and performs smoothing processing for each pixel, and outputs the data to the calculation unit 33. Output. Any smoothing filter such as an averaging filter or a Gaussian filter can be used for the smoothing process. Also, the grayscaling process and the smoothing process may be omitted.

また、取得部31は、IGスイッチ20または車速センサ30からの入力信号に基づいて、車両の状況を取得する。また、取得部31は、取得した車両の状況を設定部32へ通知する。 Acquisition unit 31 also acquires the status of the vehicle based on an input signal from IG switch 20 or vehicle speed sensor 30 . In addition, the obtaining unit 31 notifies the setting unit 32 of the obtained vehicle status.

設定部32は、取得部31から通知された車両の状況に基づいて、判定履歴情報21を設定する。設定部32は、車両の状況としてたとえばIGスイッチ20を介してIGオンが通知された場合に、判定履歴情報21の直近分から過去分へ向けて所定個数分(図1Eに示した例では2個)、初期値として「1」を設定する。 The setting unit 32 sets the determination history information 21 based on the vehicle condition notified from the acquisition unit 31 . For example, when IG ON is notified via IG switch 20 as the state of the vehicle, setting unit 32 sets a predetermined number (two in the example shown in FIG. 1E) of determination history information 21 from the latest to the past. ), and set "1" as the initial value.

なお、設定部32は、車両の状況としてたとえば車速センサ30を介して車両の停車中が通知された場合に、埋もれ状態の確定条件の成立が早まるように、前述の5/9条件を緩和させることもできる。後述する判定部34は、かかる設定部32による条件の変更に応じつつ、埋もれ状態を確定させることとなる。かかる点については、図13を用いた説明で後述する。 When the vehicle is notified, for example, that the vehicle is stopped via the vehicle speed sensor 30, the setting unit 32 relaxes the above-mentioned 5/9 condition so as to hasten the establishment of the buried state determination condition. can also The determination unit 34, which will be described later, determines the buried state while responding to the condition change by the setting unit 32. FIG. This point will be described later in the description using FIG. 13 .

算出部33は、取得部31から取得した撮像画像Iのセル100毎に、エッジ特徴量を算出する。ここで、図3および図4を用いて、算出部33によるエッジ特徴量の算出処理について具体的に説明する。 The calculation unit 33 calculates an edge feature amount for each cell 100 of the captured image I acquired from the acquisition unit 31 . Here, the calculation processing of the edge feature amount by the calculation unit 33 will be specifically described with reference to FIGS. 3 and 4. FIG.

図3および図4は、算出部33の処理内容を示す図(その1)および(その2)である。図3に示すように、算出部33は、まず、各画素PXにつきエッジ検出処理を行って、X軸方向(撮像画像Iの左右方向)のエッジexの強度と、Y軸方向(撮像画像Iの上下方向)のエッジeyの強度とを検出する。エッジ検出処理には、たとえば、Sobelフィルタや、Prewittフィルタ等の任意のエッジ検出フィルタを用いることができる。 3 and 4 are diagrams (part 1) and (part 2) showing the processing contents of the calculation unit 33. FIG. As shown in FIG. 3, the calculation unit 33 first performs edge detection processing for each pixel PX, and determines the intensity of the edge ex in the X-axis direction (horizontal direction of the captured image I) and the intensity of the edge ex in the Y-axis direction (the captured image I and the strength of the edge ey in the vertical direction of ). Any edge detection filter such as a Sobel filter or a Prewitt filter can be used for edge detection processing.

つづいて、算出部33は、検出したX軸方向のエッジexの強度と、Y軸方向のエッジeyの強度とに基づき、三角関数を用いることでエッジベクトルVを算出し、かかるエッジベクトルVとX軸とがなす角度θであるエッジ向きと、エッジベクトルVの長さLであるエッジ強度を算出する。 Subsequently, the calculation unit 33 calculates an edge vector V using a trigonometric function based on the detected intensity of the edge ex in the X-axis direction and the intensity of the detected edge ey in the Y-axis direction. The edge orientation, which is the angle θ formed with the X axis, and the edge strength, which is the length L of the edge vector V, are calculated.

つづいて、算出部33は、算出した各画素PXのエッジベクトルVに基づき、セル100におけるエッジ向きの代表値を抽出する。具体的には、図4の上段に示すように、算出部33は、セル100における各画素PXのエッジベクトルVのエッジ向き-180°~180°を、90°毎の上下左右4方向である角度分類(0)~(3)(以下、「上下左右4分類」と言う場合がある)に分類する。 Subsequently, the calculation unit 33 extracts a representative value of the edge direction in the cell 100 based on the calculated edge vector V of each pixel PX. Specifically, as shown in the upper part of FIG. 4, the calculation unit 33 calculates the edge direction of the edge vector V of each pixel PX in the cell 100 from −180° to 180° in four directions of up, down, left, and right at every 90°. It is classified into angle classifications (0) to (3) (hereinafter sometimes referred to as "up, down, left, and right four classifications").

より具体的には、算出部33は、画素PXのエッジ向きが、-45°以上45°未満の角度範囲である場合には角度分類(0)に分類し、45°以上135°未満の角度範囲である場合には角度分類(1)に分類し、135°以上180°未満、または-180°以上-135°未満の角度範囲である場合には角度分類(2)に分類し、-135°以上-45°未満の角度範囲である場合には角度分類(3)に分類する。 More specifically, the calculation unit 33 classifies the edge direction of the pixel PX into the angle category (0) when the angle range is −45° or more and less than 45°, If it is in the range, it is classified into angle classification (1), and if it is in the angle range of 135° or more and less than 180°, or -180° or more and less than -135°, it is classified into angle classification (2), and -135 If the angle range is greater than or equal to degrees and less than -45 degrees, it is classified as angle classification (3).

そして、図4の下段に示すように、算出部33は、各セル100について、角度分類(0)~(3)を各階級とするヒストグラムを生成する。そして、算出部33は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する角度分類(図4の例では、角度分類(1))を、セル100におけるエッジ向きの代表値として抽出する。 Then, as shown in the lower part of FIG. 4, the calculation unit 33 generates a histogram for each cell 100 with angle classifications (0) to (3) as each class. Then, when the frequency of the class with the highest frequency in the generated histogram is equal to or greater than a predetermined threshold value THa, the calculation unit 33 performs an angle classification corresponding to the class (angle classification (1) in the example of FIG. 4). is extracted as the representative value of the edge orientation in the cell 100 .

前述のヒストグラムの度数は、セル100内における各画素PXのうち、同一の角度範囲に分類された画素PXのエッジ強度を足し合わせて算出する。具体的に、角度分類(0)の階級におけるヒストグラムの度数について考える。たとえば、角度分類(0)に分類された画素PXが3つあるとし、それぞれの画素PXにおけるエッジ強度を10,20,30とする。この場合、角度分類(0)の階級におけるヒストグラムの度数は、10+20+30=60と算出される。 The frequency of the histogram described above is calculated by adding together the edge intensities of the pixels PX classified into the same angular range among the pixels PX in the cell 100 . Specifically, consider the histogram frequency in the class of angle classification (0). For example, assume that there are three pixels PX classified into angle classification (0), and the edge strengths of the pixels PX are 10, 20, and 30, respectively. In this case, the frequency of the histogram in the class of angle classification (0) is calculated as 10+20+30=60.

このようにして算出されたヒストグラムに基づき、算出部33はセル100におけるエッジ強度の代表値を算出する。具体的に、かかるエッジ強度の代表値は、ヒストグラムにおいて最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する度数をセル100のエッジ強度とする。すなわち、算出部33におけるエッジ強度の代表値の算出処理は、エッジ向きの代表値に対応した、セル100内におけるエッジの強さに関する特徴を算出する処理とも言える。 Based on the histogram calculated in this manner, the calculator 33 calculates the representative value of the edge strength in the cell 100 . Specifically, when the frequency of the class with the highest frequency in the histogram is equal to or greater than a predetermined threshold THa, the representative value of the edge strength is the edge strength of the cell 100 corresponding to the class. That is, the calculation processing of the representative value of the edge strength in the calculation unit 33 can also be said to be processing of calculating the feature related to the strength of the edge in the cell 100 corresponding to the representative value of the edge direction.

一方、算出部33は、最も度数が高い階級の度数が所定の閾値THa未満である場合は、かかるセル100のエッジ向きについては、「無効」、換言すれば、「エッジ向きの代表値なし」として取り扱う。これにより、各画素PXのエッジ向きのばらつきが大きい場合に、特定のエッジ向きを代表値として算出してしまうことを防止できる。 On the other hand, when the frequency of the class with the highest frequency is less than the predetermined threshold value THa, the calculation unit 33 determines that the edge direction of the cell 100 is “invalid”, in other words, “there is no edge direction representative value”. treated as As a result, it is possible to prevent a specific edge orientation from being calculated as a representative value when there is a large variation in the edge orientation of each pixel PX.

なお、図3および図4で示した算出部33の処理内容は、あくまで一例であって、エッジ向きの代表値を算出可能であれば、処理内容は任意であってよい。たとえば、セル100における各画素PXのエッジ向きの平均値を算出し、かかる平均値に対応する角度分類(0)~(3)をエッジ向きの代表値としてもよい。 Note that the processing contents of the calculation unit 33 shown in FIGS. 3 and 4 are merely examples, and the processing contents may be arbitrary as long as the representative value of the edge direction can be calculated. For example, the average value of the edge orientation of each pixel PX in the cell 100 may be calculated, and the angle classifications (0) to (3) corresponding to the average value may be used as the representative values of the edge orientation.

また、図4では、4×4の計16個の画素PXを1つのセル100とする場合を示したが、セル100における画素PXの数は、任意に設定されてよく、また、3×5等のように、上下方向および左右方向の画素PXの数が異なってもよい。 In addition, although FIG. 4 shows a case where a total of 16 pixels PX (4×4) are defined as one cell 100, the number of pixels PX in the cell 100 may be set arbitrarily. For example, the number of pixels PX in the vertical direction and the horizontal direction may be different.

図2の説明に戻る。また、算出部33は、算出したセル100毎のエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する。 Returning to the description of FIG. Further, the calculation unit 33 calculates an area feature amount for each unit area UA based on the calculated edge feature amount for each cell 100 .

まず、算出部33は、領域特徴量として、単位領域UA毎における輝度平均、セル100のエッジ強度の平均および分散を算出する。また、算出部33は、領域特徴量として、ペア領域200の個数およびエッジ強度の総和を算出する。 First, the calculation unit 33 calculates the average brightness for each unit area UA, and the average and variance of the edge strength of the cell 100 as area feature amounts. The calculation unit 33 also calculates the sum of the number of pair regions 200 and the edge strength as the region feature amount.

ここで、ペア領域200の個数およびエッジ強度の総和を算出する場合について、図5および図6を用いて説明する。図5および図6は、算出部33の処理内容を示す図(その3)および(その4)である。 Here, a case of calculating the number of pair regions 200 and the sum of edge strengths will be described with reference to FIGS. 5 and 6. FIG. 5 and 6 are diagrams (part 3) and (part 4) showing the processing contents of the calculation unit 33. FIG.

なお、図5では、2つのペア領域200が、セル100を共有していない場合を示し、図6では、2つのペア領域200が、セル100を共有している場合を示している。 5 shows the case where the two pair regions 200 do not share the cell 100, and FIG. 6 shows the case where the two pair regions 200 share the cell 100. As shown in FIG.

図5に示すように、算出部33は、単位領域UAの左右方向および上下方向に配列された複数のセル100について、左右方向および上下方向に走査し、ペア領域200を探索する。すなわち、算出部33は、単位領域UAにおけるセル100のうち、隣接し、エッジ向きが互いに逆向きであるセル100同士をペア領域200として抽出する。 As shown in FIG. 5 , the calculation unit 33 scans the plurality of cells 100 arranged in the horizontal direction and the vertical direction of the unit area UA in the horizontal direction and the vertical direction to search for the pair area 200 . That is, the calculation unit 33 extracts, as the pair area 200, the cells 100 that are adjacent to each other and whose edge directions are opposite to each other among the cells 100 in the unit area UA.

そして、算出部33は、抽出されたペア領域200の個数、および、ペア領域200におけるエッジ強度の総和を算出する。なお、図5に示すように、算出部33は、抽出されたたとえば2つのペア領域200がセル100を共有していない場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる4つのセル100のエッジ強度を合計した値として算出する。 Calculation unit 33 then calculates the number of extracted pair regions 200 and the sum of edge strengths in pair regions 200 . Note that, as shown in FIG. 5, the calculation unit 33 calculates the number of the pair regions 200 as two when, for example, the two pair regions 200 extracted do not share the cell 100, and the sum of the edge strengths is calculated as follows. It is calculated as a sum of the edge strengths of the four cells 100 included in the two pair regions 200 .

また、図6に示すように、算出部33は、抽出されたたとえば2つのペア領域200がセル100を共有している場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる3つのセル100のエッジ強度を合計した値として算出する。 Further, as shown in FIG. 6 , if, for example, two paired regions 200 that are extracted share a cell 100, the calculation unit 33 calculates the number of paired regions 200 as two, and calculates the sum of the edge strengths as follows: It is calculated as a sum of the edge strengths of the three cells 100 included in the two pair regions 200 .

なお、算出部33は、上述した「上下左右4分類」の角度分類だけでなく、たとえば「斜め4分類」の角度分類に基づいて、1つのセル100について2種類以上のエッジ向きの代表値を割り当て、領域特徴量を算出してもよい。かかる点について、図7および図8を用いて説明する。図7および図8は、算出部33の処理内容を示す図(その5)および(その6)である。 Note that the calculation unit 33 calculates representative values of two or more types of edge orientations for one cell 100 based on not only the above-described "upper, lower, left, and right 4 categories" but also, for example, the "diagonal 4 categories" angle classification. Assignment and area feature amount may be calculated. This point will be described with reference to FIGS. 7 and 8. FIG. 7 and 8 are diagrams (part 5) and (part 6) showing the processing contents of the calculation unit 33. FIG.

算出部33は、「上下左右4分類」を第1の角度分類とし、これに基づくエッジ向きの代表値を第1代表値とすれば、図7に示すように、「斜め4分類」を第2の角度分類とし、これに基づくエッジ向きの代表値を第2代表値として算出することができる。 If the calculation unit 33 sets the "top, bottom, left, and right four categories" as the first angle classification and sets the representative value of the edge orientation based on this as the first representative value, then as shown in FIG. 2, and the representative value of the edge orientation based on this can be calculated as the second representative value.

かかる場合、算出部33は、セル100における各画素PXのエッジベクトルVのエッジ向き-180°~180°を、第2の角度分類により、90°毎の斜め4方向である角度分類(4)~(7)に分類する。 In this case, the calculation unit 33 classifies the edge direction of the edge vector V of each pixel PX in the cell 100 from −180° to 180° into angle classification (4), which is four oblique directions at every 90°, by the second angle classification. to (7).

より具体的には、算出部33は、画素PXのエッジ向きが、0°以上90°未満の角度範囲である場合には角度分類(4)に分類し、90°以上180°未満の角度範囲である場合には角度分類(5)に分類し、-180°以上-90°未満の角度範囲である場合には角度分類(6)に分類し、-90°以上0°未満の角度範囲である場合には角度分類(7)に分類する。 More specifically, the calculation unit 33 classifies the edge direction of the pixel PX into the angle category (4) when it is in the angle range of 0° or more and less than 90°, If it is, it is classified into angle classification (5), if it is in the angle range of -180 ° or more and less than -90 °, it is classified into angle classification (6), and in the angle range of -90 ° or more and less than 0 ° In some cases, it is classified into angle classification (7).

そして、図4の下段に示したのと同様に、算出部33は、各セル100について、角度分類(4)~(7)を各階級とするヒストグラムを生成する。そして、算出部33は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する角度分類を、セル100におけるエッジ向きの第2代表値として算出する。 Then, in the same manner as shown in the lower part of FIG. 4, the calculation unit 33 generates a histogram with angle classifications (4) to (7) for each class for each cell 100. FIG. Then, when the frequency of the class with the highest frequency in the generated histogram is equal to or greater than a predetermined threshold value THa, the calculation unit 33 sets the angle classification corresponding to this class as the second representative value of the edge direction in the cell 100. calculate.

これにより、図8に示すように、1つのセル100についてそれぞれ2つのエッジ向きの代表値を割り当てることができる。そして、図8に示すように、算出部33は、隣接するセル100において、エッジ向きの第1代表値、および、第2代表値の少なくとも一方が互いに逆向きである場合、かかる隣接するセル100をペア領域200として抽出する。 As a result, as shown in FIG. 8, two edge orientation representative values can be assigned to each cell 100 . Then, as shown in FIG. 8, when at least one of the edge-oriented first representative value and the edge-oriented second representative value is opposite to each other in adjacent cells 100, the calculation unit 33 are extracted as the pair region 200 .

つまり、算出部33は、各セル100において、エッジ向きの第1代表値および第2代表値を算出することで、1種類のエッジ向きのみでは抽出できなかったペア領域200を抽出することが可能となる。 That is, the calculation unit 33 calculates the first representative value and the second representative value of the edge orientation in each cell 100, thereby extracting the pair region 200 that could not be extracted with only one type of edge orientation. becomes.

たとえば、エッジ向きが140°の画素PXと、エッジ向きが-40°の画素PXとについて、第1角度範囲では逆向きとはならないが、第2角度範囲では逆向きとなることで、セル100におけるエッジ向きの変化をより高精度に検出することが可能となる。 For example, a pixel PX with an edge orientation of 140° and a pixel PX with an edge orientation of −40° are not reversed in the first angle range, but are reversed in the second angle range. It becomes possible to detect the change in the edge orientation at the higher accuracy.

また、算出部33は、領域特徴量として、パターンマッチング時の交点の数を算出する。ここで、パターンマッチング時の交点の数を算出する場合について、図9~図12を用いて説明する。 Further, the calculation unit 33 calculates the number of intersections during pattern matching as the region feature amount. Here, a case of calculating the number of intersections during pattern matching will be described with reference to FIGS. 9 to 12. FIG.

図9~図12は、算出部33の処理内容を示す図(その7)~(その10)である。なお、図7、図9および図10に示す不定形のハッチング部分は、撮像画像Iにおいて所定のエッジ特徴量を有するパターン部分であるものとする。 9 to 12 are diagrams (No. 7) to (No. 10) showing the processing contents of the calculation unit 33. FIG. 7, 9, and 10 are assumed to be pattern portions having a predetermined edge feature amount in the captured image I. In FIGS.

算出部33は、算出したセル100のエッジ特徴量のうちのエッジ向きを用いて、所定のテンプレートと一致する所定の探索パターンを探索する。図9に示すように、探索方向は左右方向および上下方向である。 The calculation unit 33 searches for a predetermined search pattern that matches a predetermined template using the edge direction of the calculated edge feature amount of the cell 100 . As shown in FIG. 9, the search directions are the horizontal direction and the vertical direction.

たとえば、算出部33は、「注目する角度分類の両サイドに逆向きの角度分類が現れないこと」を条件として探索パターンを探索する。具体的には、注目する角度分類を角度分類(1)として左右方向に探索した場合に、図10に示すように、たとえば開始位置は「角度分類が逆向きでない」角度分類(2)のセル100-1に隣接する角度分類(1)のセル100-2が開始位置となる。 For example, the calculation unit 33 searches for a search pattern under the condition that "an opposite angle classification does not appear on both sides of the angle classification of interest". Specifically, when the target angle classification is angle classification (1) and the search is performed in the horizontal direction, as shown in FIG. Cell 100-2 of angle classification (1) adjacent to 100-1 is the starting position.

そして、角度分類(1)の配列がつづき、「角度分類が逆向きでない」角度分類(0)のセル100-4が現れた場合、かかるセル100-4に隣接する角度分類(1)のセル100-3が終了位置となる。かかる場合、図10の例ではマッチ長は「8」となる。なお、算出部33は、このように探索パターンとの一致があった場合、その位置とマッチ長とを保持しておく。 Then, when the array of angle classification (1) continues and a cell 100-4 of angle classification (0) "angle classification is not reversed" appears, a cell of angle classification (1) adjacent to the cell 100-4 appears. 100-3 is the end position. In this case, the match length is "8" in the example of FIG. Note that, when there is a match with the search pattern in this way, the calculation unit 33 holds the position and the match length.

また、図10に示した探索パターンでの一致があった場合、開始位置と終了位置には、角度分類4種のうち、隣り合う分類間での輝度変化が見られることになる。 Also, if there is a match in the search pattern shown in FIG. 10, a change in brightness between adjacent categories among the four angle categories will be seen at the start position and the end position.

そして、算出部33は、図11に示すように、左右方向と上下方向で探索パターンの一致が交わる際には、その交点に対応する単位領域UAに対応する記憶情報として、角度分類別に水平マッチ長および上下マッチ長の積を累積加算する。 Then, as shown in FIG. 11, when the matching search patterns intersect in the left-right direction and the up-down direction, the calculation unit 33 stores a horizontal match for each angle classification as stored information corresponding to the unit area UA corresponding to the intersection. Accumulate the product of the length and the upper and lower match lengths.

具体的に図10および図11の例に沿った場合、算出部33は、図12に示すように、当該単位領域の角度分類(1)に紐づけて、5×8を累積加算する。また、図示していないが、算出部33は、同じく当該単位領域の角度分類(1)に紐づけて、交点の数も累積加算する。 10 and 11, the calculation unit 33 cumulatively adds 5×8 in association with the angle classification (1) of the unit area, as shown in FIG. Also, although not shown, the calculation unit 33 also cumulatively adds the number of intersections in association with the angle classification (1) of the unit area.

こうしたマッチング処理を繰り返し、後述する判定部34は、所定の検出条件に基づき、当該単位領域UAの各角度分類(0)~(3)に紐づく累積加算結果のうち、たとえば3種以上が所定の閾値以上であった場合、当該単位領域UAの付着状態は「付着」と判定する。また、かかる判定条件を満たさなければ「非付着」と判定する。なお、図9~図12に示したマッチング処理の処理内容はあくまで一例であって、処理内容を限定するものではない。 Such matching processing is repeated, and the determination unit 34, which will be described later, determines, based on predetermined detection conditions, that, for example, three or more of the cumulative addition results associated with each angle classification (0) to (3) of the unit area UA are predetermined. is equal to or greater than the threshold value, the adhesion state of the unit area UA is determined to be "adhesion". Also, if the determination condition is not satisfied, it is determined as "non-adhesion". Note that the processing contents of the matching processing shown in FIGS. 9 to 12 are merely examples, and the processing contents are not limited.

図2の説明に戻る。そして、算出部33は、算出した単位領域UA毎の領域特徴量を判定部34へ出力する。 Returning to the description of FIG. Then, the calculation unit 33 outputs the calculated area feature amount for each unit area UA to the determination unit 34 .

判定部34は、算出部33によって算出された領域特徴量に基づいて、単位領域UA毎の付着物の付着状態を判定する。また、判定部34は、判定した単位領域UA毎の付着状態に基づいて付着率を算出し、かかる付着率に基づいてカメラ10のレンズの埋もれ状態を判定する。 Based on the area feature amount calculated by the calculation unit 33, the determination unit 34 determines the adherence state of the attached matter for each unit area UA. The determination unit 34 also calculates the adhesion rate based on the determined adhesion state for each unit area UA, and determines the buried state of the lens of the camera 10 based on the adhesion rate.

ここで、判定部34は、単位領域UAの付着状態がそれぞれ「付着」であるか、「非付着」であるかを判定する。そして、判定部34は、その判定結果に基づき、撮像画像Iの所定の注目領域において「付着」とされた単位領域UAの面積率、すなわち付着率を算出する。 Here, the determination unit 34 determines whether the adhesion state of each unit area UA is "adhesion" or "non-adhesion". Then, based on the determination result, the determination unit 34 calculates the area ratio of the unit area UA determined as "attached" in the predetermined target area of the captured image I, that is, the attachment rate.

そして、判定部34は、付着率が一定以上(たとえば40%以上)である場合、「埋もれ」であるとして、上述の仮判定フラグに「1」を設定する。また、判定部34は、付着率が一定未満(たとえば30%未満)である場合、「埋もれでない」として、仮判定フラグに「-1」を設定する。また、判定部34は、付着率が上記以外である場合または判定困難である場合、「キープ」として、仮判定フラグに「0」を設定する。 Then, when the adhesion rate is equal to or higher than a certain value (for example, 40% or higher), the determination unit 34 sets the temporary determination flag to "1" as "buried". Further, when the adhesion rate is less than a certain value (for example, less than 30%), the determination unit 34 sets the provisional determination flag to "-1" as "not buried". Further, when the adhesion rate is other than the above or when the determination is difficult, the determining unit 34 sets the provisional determination flag to "0" as "keep".

そのうえで、判定部34は、判定履歴情報21に基づいて埋もれ状態を確定する。たとえば、判定部34は、前述の5/9条件が成立した場合に、該当するフラグ値を確定結果として埋もれフラグに反映させ、各種機器50へ通知する。判定部34は、たとえば5/9条件をフラグ値「1」が満たせば、埋もれフラグをオンする。また、判定部34は、たとえば5/9条件をフラグ値「-1」が満たせば、埋もれフラグをオフする。 Based on the determination history information 21, the determination unit 34 then determines the buried state. For example, when the above-mentioned 5/9 condition is established, the determination unit 34 reflects the corresponding flag value in the buried flag as the determination result, and notifies the various devices 50 of it. For example, if the flag value "1" satisfies the 5/9 condition, the determination unit 34 turns on the buried flag. Further, the determination unit 34 turns off the buried flag if the flag value "-1" satisfies the 5/9 condition, for example.

ところで、埋もれ状態の確定条件の成立は、上述したIGオンに際しての判定履歴情報21への初期値の設定によって早めることができるが、確定条件そのものを緩和することによっても早めることができる。かかる例について、図13を用いて説明する。図13は、設定部32の処理内容を示す図である。 By the way, establishment of the definite condition for the buried state can be hastened by setting the initial value to the determination history information 21 at the time of IG ON as described above, but it can also be hastened by relaxing the definite condition itself. Such an example will be described with reference to FIG. 13 . FIG. 13 is a diagram showing the processing contents of the setting unit 32. As shown in FIG.

図13に示すように、判定履歴情報21に「1」が続いていた車両が停車中であるものとする。かかる場合、「1=埋もれ」を通知され続けていたユーザが付着物を拭き取ったことが想定される。 As shown in FIG. 13, it is assumed that the vehicle whose determination history information 21 continues with "1" is stopped. In such a case, it is assumed that the user who has been notified of "1=buried" has wiped off the adhering matter.

もし、拭き取りが行われたのであれば、早期に「埋もれでない」ことが確定して通知され、大半が「1」で埋まった判定履歴情報21がクリアされることが好ましい。 If the wiping has been performed, it is preferable that "not buried" is confirmed and notified early, and the determination history information 21 filled with "1" is cleared.

したがって、かかる場合、設定部32は、車両の状況としてたとえば車速センサ30を介して車両の停車中が通知されたならば、拭き取り発生を想定し、前述の5/9条件を3/5条件(5履歴中、3個以上)へ変更する。 Therefore, in such a case, the setting unit 32 assumes that wiping will occur if the vehicle is notified, for example, that the vehicle is stopped via the vehicle speed sensor 30, and changes the 5/9 condition described above to the 3/5 condition ( 5 history, 3 or more).

すると、これにより、変更後、判定部34によって最短3フレーム目で「埋もれでない」との確定が可能となる。すなわち、実施形態に係る付着物検出方法では、車両の停車中に際しては、埋もれ状態の判定結果の確定条件の成立が早まるように、確定条件を緩和することとした。 As a result, after the change, the determining unit 34 can determine that "not buried" at the shortest third frame. That is, in the attached matter detection method according to the embodiment, when the vehicle is stopped, the confirmation condition is relaxed so that the establishment of the confirmation condition for the buried state determination result is hastened.

これにより、実施形態に係る付着物検出方法によれば、付着物の検出性能を向上させることができる。 As a result, the adhering matter detection method according to the embodiment can improve the adhering matter detection performance.

また、設定部32は、確定条件の緩和後、「埋もれでない」と確定されたならば、判定履歴情報21を「0」でクリアする。なお、かかるクリア後、設定部32は、緩和した確定条件を元に戻すとよい。 Further, the setting unit 32 clears the judgment history information 21 to "0" if it is confirmed that the item is "not hidden" after the confirmation condition is relaxed. In addition, after such clearing, the setting unit 32 may restore the relaxed confirmation condition.

なお、判定履歴情報21に「1」が続いていた車両が停車中であったとしても、実際に拭き取りが行われるとは限らない。ただし、仮に拭き取りが行われなかったとしても、確定条件の緩和で早期に「埋もれ」が確定されるので、埋もれ状態の判定処理そのものに支障はない。 Note that even if the vehicle whose judgment history information 21 continues to be "1" is stopped, it is not always the case that the wiping is actually performed. However, even if the wiping is not performed, since the "buried" state is confirmed early due to relaxation of the confirmation condition, there is no problem in the process of determining the buried state.

次に、図14を用いて、実施形態に係る付着物検出装置1が実行する処理手順について説明する。図14は、実施形態に係る付着物検出装置1が実行する処理手順を示すフローチャートである。なお、図14では、1フレーム分の撮像画像Iについての処理手順を示している。 Next, a processing procedure executed by the adhering matter detection device 1 according to the embodiment will be described with reference to FIG. 14 . FIG. 14 is a flow chart showing a processing procedure executed by the adhering matter detection device 1 according to the embodiment. Note that FIG. 14 shows the processing procedure for the captured image I for one frame.

図14に示すように、まず、取得部31が、車両の状況を取得する(ステップS101)。ここで、IGオン直後である場合(ステップS102,Yes)、設定部32が、確定条件の成立が早まるように判定履歴情報21へ初期値を設定し(ステップS103)、ステップS106へ移行する。 As shown in FIG. 14, first, the acquisition unit 31 acquires the vehicle status (step S101). Here, if it is immediately after the IG is turned on (step S102, Yes), the setting unit 32 sets an initial value to the determination history information 21 so as to hasten the establishment of the determination condition (step S103), and the process proceeds to step S106.

また、IGオン直後でない場合で(ステップS102,No)、車両が停車中である場合(ステップS104,Yes)、設定部32が、確定条件の成立が早まるように確定条件を緩和する(ステップS105)。 Further, if it is not immediately after the IG is turned on (step S102, No) and the vehicle is stopped (step S104, Yes), the setting unit 32 relaxes the confirmation condition so that the establishment of the confirmation condition is hastened (step S105). ).

なお、車両が停車中でない場合(ステップS104,No)、そのままステップS106へ移行する。 If the vehicle is not stopped (step S104, No), the process proceeds directly to step S106.

そして、取得部31が、撮像画像Iを取得する(ステップS106)。あわせて取得部31は、撮像画像Iに対してグレースケール化処理および平滑化処理を施す。 Then, the acquiring unit 31 acquires the captured image I (step S106). In addition, the acquisition unit 31 performs grayscaling processing and smoothing processing on the captured image I. FIG.

つづいて、算出部33が、撮像画像Iのセル100毎のエッジ特徴量を算出する(ステップS107)。また、算出部33は、算出したエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する(ステップS108)。 Subsequently, the calculation unit 33 calculates the edge feature amount for each cell 100 of the captured image I (step S107). Further, the calculation unit 33 calculates the area feature amount for each unit area UA based on the calculated edge feature amount (step S108).

そして、判定部34が、算出部33によって算出された領域特徴量に基づいて単位領域UA毎の付着状態を判定し(ステップS109)、判定した付着状態および判定履歴情報21に基づいて埋もれ状態を確定する(ステップS110)。 Then, the determination unit 34 determines the adhesion state for each unit area UA based on the area feature amount calculated by the calculation unit 33 (step S109), and determines the buried state based on the determined adhesion state and the determination history information 21. Confirm (step S110).

そして、判定部34は、確定結果を各種機器50へ通知して(ステップS111)、処理を終了する。なお、図14では図示を略しているが、車両が停車中で緩和された確定条件に基づいて埋もれ状態が確定された場合は、設定部32が判定履歴情報21を「0」でクリアすることとなる。 Then, the determination unit 34 notifies the various devices 50 of the determination result (step S111), and ends the process. Although not shown in FIG. 14, when the buried state is determined based on the relaxed determination condition while the vehicle is stopped, the setting unit 32 clears the determination history information 21 to "0". becomes.

上述してきたように、実施形態に係る付着物検出装置1は、算出部33と、判定部34と、設定部32とを備える。算出部33は、撮像画像Iに含まれる所定数の画素PXからなる単位領域UA毎に、各画素PXのエッジベクトルに基づく領域特徴量を算出する。判定部34は、上記領域特徴量に基づいて付着物によるカメラ10の埋もれ状態を仮判定するとともに、直近分を含む所定数の過去分の仮判定履歴である判定履歴情報21において所定の確定条件が成立した場合に、該当する上記埋もれ状態を確定結果として確定させる。設定部32は、カメラ10が搭載された車両がIGオンされた場合に、かかるIGオンの直後に、上記確定条件の成立が早まるように所定の初期値を判定履歴情報21に設定する。 As described above, the adhering matter detection device 1 according to the embodiment includes the calculator 33 , the determiner 34 , and the setter 32 . The calculation unit 33 calculates, for each unit area UA made up of a predetermined number of pixels PX included in the captured image I, an area feature amount based on the edge vector of each pixel PX. The determination unit 34 provisionally determines whether or not the camera 10 is covered by the adhering matter based on the area feature amount, and also determines whether or not the determination history information 21, which is a predetermined number of past provisional determination histories including the most recent history, has a predetermined confirmation condition. is established, the above buried state is determined as a determination result. The setting unit 32 sets a predetermined initial value in the determination history information 21 so that the determination condition is quickly established immediately after the IG is turned on when the vehicle equipped with the camera 10 is turned on.

したがって、実施形態に係る付着物検出装置1によれば、付着物の検出性能を向上させることができる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, it is possible to improve the adhering matter detection performance.

また、設定部32は、IGオンの直後に上記初期値を設定する場合に、判定履歴情報21の直近分から過去分へ向けて所定個数分、上記初期値を設定する。 Further, when setting the initial value immediately after the IG is turned on, the setting unit 32 sets the initial value by a predetermined number from the latest to the past in the determination history information 21 .

したがって、実施形態に係る付着物検出装置1によれば、IGオンの直後の埋もれ状態判定の応答性能を向上させることができる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, it is possible to improve the response performance of buried state determination immediately after the IG is turned on.

また、設定部32は、IGオンの直後に上記初期値を設定する場合に、カメラ10が埋もれていることを示すフラグ値「1」を前記初期値として設定する。 Further, when setting the initial value immediately after the IG is turned on, the setting unit 32 sets the flag value "1" indicating that the camera 10 is buried as the initial value.

したがって、実施形態に係る付着物検出装置1によれば、IGオンの直後の「埋もれ」検出の応答性能を向上させることができる。 Therefore, according to the attached matter detection device 1 according to the embodiment, it is possible to improve the response performance of the "buried" detection immediately after the IG is turned on.

また、設定部32は、車両が停車中である場合に、上記確定条件の成立が早まるようにかかる確定条件を緩和する。 In addition, the setting unit 32 relaxes the determination conditions so that the determination conditions are established more quickly when the vehicle is stopped.

したがって、実施形態に係る付着物検出装置1によれば、ユーザが拭き取りを行ったことが想定される場合に、早期に「埋もれでない」ことを確定して通知することができる。また、これに伴い、早期に判定履歴情報21をクリアすることが可能となる。 Therefore, according to the adhering matter detection device 1 according to the embodiment, when it is assumed that the user has wiped off, it is possible to quickly confirm that the object is "not buried" and notify the user. Further, along with this, it becomes possible to clear the determination history information 21 at an early stage.

なお、上述した実施形態では、IGオンに際して判定履歴情報21に初期値を設定する場合の設定個数が2個である場合を例に挙げたが、パラメータとして調整可能な数値であり、1であってもよいし、3以上であってもよい。 In the above-described embodiment, the case where two initial values are set in the determination history information 21 when the ignition is turned on is taken as an example. , or 3 or more.

また、上述した実施形態では、判定履歴情報21が直近分を含む過去9フレーム分であることとしたが、複数であればよく、フレーム数を限定するものではない。また、上述した5/9条件や3/5条件もあくまで一例であり、確定条件の内容を限定するものではない。 Also, in the above-described embodiment, the determination history information 21 is the past nine frames including the most recent frame, but the number of frames is not limited as long as it is plural. Also, the 5/9 condition and the 3/5 condition described above are only examples, and do not limit the content of the determination condition.

また、上述した実施形態では、-180°~180°を90°毎の角度範囲で分割した4方向に角度分類する場合を示したが、角度範囲は90°に限定されず、たとえば60°毎の角度範囲で分割した6方向に角度分類してもよい。 Further, in the above-described embodiment, the case of classifying the angles into four directions by dividing −180° to 180° into angular ranges of 90° is shown, but the angular range is not limited to 90°, for example, every 60°. The angles may be classified into six directions divided by the angle range of .

また、第1の角度分類および第2の角度分類でそれぞれの角度範囲の幅が異なってもよい。たとえば、第1の角度分類では90°毎で角度分類し、第2の角度分類では、60°毎で角度分類してもよい。また、第1の角度分類および第2の角度分類では、角度範囲の角度の境界を45°ずらしたが、ずらす角度が45°を超える、もしくは、45°未満であってもよい。 Also, the width of each angle range may be different between the first angle classification and the second angle classification. For example, in the first angle classification, angles may be classified by 90°, and in the second angle classification, angles may be classified by 60°. Also, in the first angle classification and the second angle classification, the angle boundary of the angle range is shifted by 45°, but the shifted angle may be more than 45° or less than 45°.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 付着物検出装置
2 記憶部
3 制御部
10 カメラ
21 判定履歴情報
22 テンプレート情報
23 閾値情報
31 取得部
32 設定部
33 算出部
34 判定部
50 各種機器
100 セル
200 ペア領域
I 撮像画像
PX 画素
UA 単位領域
Reference Signs List 1 adhering matter detection device 2 storage unit 3 control unit 10 camera 21 determination history information 22 template information 23 threshold information 31 acquisition unit 32 setting unit 33 calculation unit 34 determination unit 50 various devices 100 cell 200 pair region I captured image PX pixel UA unit region

Claims (4)

撮像画像に含まれる所定数の画素からなる単位領域毎に、各画素のエッジベクトルに基づく領域特徴量を算出する算出部と、
前記領域特徴量に基づいて付着物によるカメラの埋もれ状態を仮判定するとともに、直近分を含む所定数の過去分の仮判定履歴において所定の確定条件が成立した場合に、該当する前記埋もれ状態を確定結果として確定させる判定部と、
前記カメラが搭載された車両がイグニッションオンされた場合に、該イグニッションオンの直後に、前記確定条件の成立が早まるように所定の初期値を前記仮判定履歴に設定する設定部と
を備え
前記設定部は、
前記車両が停車中である場合に、前記確定条件の成立が早まるように該確定条件を緩和することを特徴とする付着物検出装置。
a calculation unit that calculates an area feature amount based on an edge vector of each pixel for each unit area made up of a predetermined number of pixels included in a captured image;
Based on the area feature amount, the camera is tentatively determined to be buried due to adhering matter, and when a predetermined confirmation condition is satisfied in a predetermined number of past temporary determination histories including the most recent history, the corresponding buried state is determined. a determination unit for determining as a determination result;
a setting unit that sets a predetermined initial value to the temporary determination history immediately after the ignition is turned on when the vehicle equipped with the camera is turned on, so that the confirmation condition is quickly established ,
The setting unit
An attached matter detection device characterized in that, when the vehicle is stopped, the confirmation condition is relaxed so that the establishment of the confirmation condition is hastened .
前記設定部は、
前記イグニッションオンの直後に前記初期値を設定する場合に、前記仮判定履歴の直近分から過去分へ向けて所定個数分、前記初期値を設定する
ことを特徴とする請求項1に記載の付着物検出装置。
The setting unit
The deposit according to claim 1, wherein when the initial value is set immediately after the ignition is turned on, a predetermined number of the initial values are set from the latest to the past in the temporary determination history. detection device.
前記設定部は、
前記イグニッションオンの直後に前記初期値を設定する場合に、前記カメラが埋もれていることを示すフラグ値を前記初期値として設定する
ことを特徴とする請求項1または2に記載の付着物検出装置。
The setting unit
3. The adhering matter detection device according to claim 1, wherein when the initial value is set immediately after the ignition is turned on, a flag value indicating that the camera is buried is set as the initial value. .
撮像画像に含まれる所定数の画素からなる単位領域毎に、各画素のエッジベクトルに基づく領域特徴量を算出する算出工程と、
前記領域特徴量に基づいて付着物によるカメラの埋もれ状態を仮判定するとともに、直近分を含む所定数の過去分の仮判定履歴において所定の確定条件が成立した場合に、該当する前記埋もれ状態を確定結果として確定させる判定工程と、
前記カメラが搭載された車両がイグニッションオンされた場合に、該イグニッションオンの直後に、前記確定条件の成立が早まるように所定の初期値を前記仮判定履歴に設定し、前記車両が停車中である場合に、前記確定条件の成立が早まるように該確定条件を緩和する設定工程と、
を含むことを特徴とする付着物検出方法
a calculation step of calculating an area feature value based on an edge vector of each pixel for each unit area made up of a predetermined number of pixels included in the captured image;
Based on the area feature amount, the camera is tentatively determined to be buried due to adhering matter, and when a predetermined confirmation condition is satisfied in a predetermined number of past temporary determination histories including the most recent history, the corresponding buried state is determined. A judgment step of confirming as a confirmation result;
When the ignition of the vehicle equipped with the camera is turned on, immediately after the ignition is turned on, a predetermined initial value is set in the temporary determination history so that the establishment of the confirmation condition is hastened, and the vehicle is stopped. a setting step of relaxing the definite condition so that the establishment of the definite condition is hastened in some cases;
A deposit detection method , comprising :
JP2019172212A 2019-09-20 2019-09-20 Attached matter detection device and attached matter detection method Active JP7172932B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019172212A JP7172932B2 (en) 2019-09-20 2019-09-20 Attached matter detection device and attached matter detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019172212A JP7172932B2 (en) 2019-09-20 2019-09-20 Attached matter detection device and attached matter detection method

Publications (2)

Publication Number Publication Date
JP2021050935A JP2021050935A (en) 2021-04-01
JP7172932B2 true JP7172932B2 (en) 2022-11-16

Family

ID=75157554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019172212A Active JP7172932B2 (en) 2019-09-20 2019-09-20 Attached matter detection device and attached matter detection method

Country Status (1)

Country Link
JP (1) JP7172932B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008019795A (en) 2006-07-13 2008-01-31 Toyota Motor Corp Failure determining device of negative pressure generating device
WO2019003314A1 (en) 2017-06-27 2019-01-03 本田技研工業株式会社 Notification system and control method therefor, vehicle, and program
JP2019029901A (en) 2017-08-01 2019-02-21 トヨタ自動車株式会社 Surrounding environment monitoring device
JP2019128798A (en) 2018-01-24 2019-08-01 株式会社デンソーテン Adhered matter detection apparatus and adhered matter detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008019795A (en) 2006-07-13 2008-01-31 Toyota Motor Corp Failure determining device of negative pressure generating device
WO2019003314A1 (en) 2017-06-27 2019-01-03 本田技研工業株式会社 Notification system and control method therefor, vehicle, and program
JP2019029901A (en) 2017-08-01 2019-02-21 トヨタ自動車株式会社 Surrounding environment monitoring device
JP2019128798A (en) 2018-01-24 2019-08-01 株式会社デンソーテン Adhered matter detection apparatus and adhered matter detection method

Also Published As

Publication number Publication date
JP2021050935A (en) 2021-04-01

Similar Documents

Publication Publication Date Title
JP7259676B2 (en) Attached matter detection device and attached matter detection method
JP3651387B2 (en) White line detector
TWI494899B (en) Method for in-image periodic noise reparation
JP5975598B2 (en) Image processing apparatus, image processing method, and program
JP7230507B2 (en) Deposit detection device
JP7206909B2 (en) Attached matter detection device and attached matter detection method
US9189701B2 (en) Object detection apparatus, object detection method, storage medium, and integrated circuit
JP7200893B2 (en) Attached matter detection device and attached matter detection method
JP7283081B2 (en) Attached matter detection device and attached matter detection method
JP7234630B2 (en) Deposit detection device
JP7172932B2 (en) Attached matter detection device and attached matter detection method
JP7205234B2 (en) Attached matter detection device and attached matter detection method
JP7274867B2 (en) Attached matter detection device and attached matter detection method
JP2021050932A (en) Attached matter detection device and attached matter detection method
JP7172931B2 (en) Attached matter detection device and attached matter detection method
JP7243546B2 (en) Attached matter detection device and attached matter detection method
JP7156225B2 (en) Attached matter detection device and attached matter detection method
JP7156224B2 (en) Attached matter detection device and attached matter detection method
JP7172930B2 (en) Attached matter detection device and attached matter detection method
EP3329419A1 (en) Method for capturing an object on a road in the environment of a motor vehicle, camera system and motor vehicle using the same
JP7234884B2 (en) Attached matter detection device and attached matter detection method
JP7234885B2 (en) Attached matter detection device and attached matter detection method
JP7234886B2 (en) Attached matter detection device and attached matter detection method
JP2020108060A (en) Deposit detector and deposit detection method
JP7265693B2 (en) Attached matter detection device and attached matter detection method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150