JP2021050933A - Attached matter detector and attached matter detecting method - Google Patents
Attached matter detector and attached matter detecting method Download PDFInfo
- Publication number
- JP2021050933A JP2021050933A JP2019172210A JP2019172210A JP2021050933A JP 2021050933 A JP2021050933 A JP 2021050933A JP 2019172210 A JP2019172210 A JP 2019172210A JP 2019172210 A JP2019172210 A JP 2019172210A JP 2021050933 A JP2021050933 A JP 2021050933A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- unit
- adhesion
- deposit
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
開示の実施形態は、付着物検出装置および付着物検出方法に関する。 The disclosed embodiments relate to a deposit detection device and a deposit detection method.
従来、車両等に搭載されたカメラによって撮像された撮像画像に基づいて、カメラレンズに付着した付着物を検出する付着物検出装置が知られている。付着物検出装置には、たとえば、時系列の撮像画像の差分に基づいて付着物を検出するものがある(たとえば、特許文献1参照)。 Conventionally, there is known a deposit detection device that detects deposits adhering to a camera lens based on an image captured by a camera mounted on a vehicle or the like. Some deposit detection devices detect deposits based on, for example, differences in captured images over time (see, for example, Patent Document 1).
しかしながら、上述した従来技術には、付着物の検出精度を向上させるうえで、さらなる改善の余地がある。 However, there is room for further improvement in the above-mentioned prior art in improving the detection accuracy of deposits.
実施形態の一態様は、上記に鑑みてなされたものであって、付着物の検出精度を向上させることができる付着物検出装置および付着物検出方法を提供することを目的とする。 One aspect of the embodiment is made in view of the above, and an object of the present invention is to provide a deposit detection device and a deposit detection method capable of improving the detection accuracy of deposits.
実施形態の一態様に係る付着物検出装置は、算出部と、検出部と、判定部とを備える。前記算出部は、撮像画像に含まれる所定数の画素からなる単位領域毎に、各画素のエッジベクトルに基づく領域特徴量を算出する。前記検出部は、前記領域特徴量に基づく第1の検出条件に沿って前記単位領域への付着物の付着状態を検出する。前記判定部は、前記検出部の検出結果に基づいて、カメラのレンズに対する付着物の付着率を判定する。また、前記検出部は、前記判定部によって前記付着率が一定以上であると判定された場合に、前記領域特徴量に基づく前記第1の検出条件および第2の検出条件に沿ってそれぞれ付着物の付着状態を検出する。 The deposit detection device according to one aspect of the embodiment includes a calculation unit, a detection unit, and a determination unit. The calculation unit calculates a region feature amount based on the edge vector of each pixel for each unit region composed of a predetermined number of pixels included in the captured image. The detection unit detects the state of adhesion of the deposit to the unit region according to the first detection condition based on the region feature amount. The determination unit determines the adhesion rate of deposits to the lens of the camera based on the detection result of the detection unit. Further, when the determination unit determines that the adhesion rate is equal to or higher than a certain level, the detection unit has an adhering substance according to the first detection condition and the second detection condition based on the region feature amount, respectively. Detects the adhesion state of.
実施形態の一態様によれば、付着物の検出精度を向上させることができる。 According to one aspect of the embodiment, the accuracy of detecting deposits can be improved.
以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of the deposit detection device and the deposit detection method disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited to the embodiments shown below.
まず、図1A〜図1Cを用いて、実施形態に係る付着物検出方法の概要について説明する。図1A〜図1Cは、実施形態に係る付着物検出方法の概要説明図(その1)〜(その3)である。 First, the outline of the deposit detection method according to the embodiment will be described with reference to FIGS. 1A to 1C. 1A to 1C are schematic explanatory views (No. 1) to (No. 3) of the deposit detection method according to the embodiment.
図1Aに示すように、たとえば、車載カメラのレンズ表面に雪が付着した状態で時系列に撮像された撮像画像I1〜I4があるものとする。以下では、実施形態に係る付着物検出方法を適用した付着物検出装置1(図2参照)が、かかる撮像画像I1〜I4の各画素の輝度勾配に関する特徴量(以下、「エッジ特徴量」と言う場合がある)に基づいて、雪によって車載カメラのレンズの大半が埋もれている状態を検出する場合を例に挙げる。なお、撮像画像I1〜I4を総称する場合、単に撮像画像Iと言う。 As shown in FIG. 1A, for example, it is assumed that there are captured images I1 to I4 captured in time series with snow attached to the lens surface of the in-vehicle camera. In the following, the deposit detection device 1 (see FIG. 2) to which the deposit detection method according to the embodiment is applied is referred to as a feature amount related to the brightness gradient of each pixel of the captured images I1 to I4 (hereinafter, “edge feature amount”). Based on (sometimes referred to as), the case of detecting a state in which most of the lenses of an in-vehicle camera are buried by snow is taken as an example. When the captured images I1 to I4 are generically referred to, they are simply referred to as captured images I.
具体的には、付着物検出装置1は、撮像画像Iから算出される各画素PX(図4参照)のエッジ特徴量に基づいて、雪の付着状態を検出する。エッジ特徴量は、角度特徴量および強度特徴量を含む。角度特徴量は、各画素PXのエッジベクトル(輝度勾配)の向き(以下、「エッジ向き」と言う場合がある)である。強度特徴量は、各画素PXのエッジベクトルの大きさ(以下、「エッジ強度」と言う場合がある)である。
Specifically, the
なお、付着物検出装置1は、画像処理における処理負荷を軽減するため、かかるエッジ特徴量を、所定数の画素PXからなるセル100(図4参照)単位で取り扱う。これにより、画像処理における処理負荷の軽減に資することができる。また、図1Aに示す単位領域UAは、かかるセル100の集まりである。
The
そして、付着物検出装置1は、かかるセル100毎に算出したエッジ特徴量に基づいて、単位領域UA毎の特徴量である領域特徴量を算出する。領域特徴量は、言わば単位領域UA毎におけるエッジ特徴量の統計的特徴量であり、たとえば輝度平均や、エッジ強度の平均、エッジ強度の分散、ペア領域の個数、ペア領域のエッジ強度の総和等を含む。ここで、ペア領域は、隣接し、エッジ向きが互いに逆向きであるセル100の組み合わせである。そのうえで、付着物検出装置1は、かかる領域特徴量に基づいて、単位領域UA毎に付着物の付着状態を検出する。
Then, the
より具体的には、図1Aに示すように、付着物検出装置1は、撮像画像Iにおいて、算出された領域特徴量に基づき、単位領域UA毎に所定の検出条件に沿って付着状態(「付着」か「非付着」か)を検出する(たとえば、図中の撮像画像I1参照)。
More specifically, as shown in FIG. 1A, the
そして、たとえば撮像画像I2に示すように、付着率が一定以上になれば、付着物検出装置1は、車載カメラのレンズの大半が埋もれていると判定し、埋もれフラグをオンにする。ここで、付着率は、たとえば撮像画像I中の所定の注目領域において「付着」と検出された付着箇所の面積率である。また、埋もれフラグは、レンズが埋もれているかいないかを示すフラグであり、埋もれていると判定された場合にはオンが、埋もれていないと判定された場合にはオフが設定される。
Then, for example, as shown in the captured image I2, when the adhesion rate exceeds a certain level, the
ところで、雪は環境の変化に応じ、たとえば解けるなど態様が変化するが、付着し始めの雪と解けてきた雪は特徴が異なるため、同一の検出条件で検出することは困難である。このため、たとえば撮像画像I3に破線の矩形部分として示すように、解け落ち箇所が発生した場合、撮像画像I1,I2で付着箇所を検出できた検出条件では、かかる解け落ち箇所を付着箇所として検出することはできない。 By the way, the mode of snow changes according to changes in the environment, such as melting, but it is difficult to detect snow under the same detection conditions because the characteristics of snow that has begun to adhere and snow that has melted are different. Therefore, for example, as shown by the rectangular portion of the broken line in the captured image I3, when a melt-off portion occurs, the melt-off portion is detected as the adhesion portion under the detection conditions in which the adhesion portion can be detected in the captured images I1 and I2. You can't.
したがって、非付着箇所が増加することとなり、付着率が低下するため、付着物検出装置1は、埋もれフラグをオフすることとなる。
Therefore, the number of non-adherent portions increases and the adhesion rate decreases, so that the
ただし、本来望ましい埋もれフラグのオフタイミングは、たとえば撮像画像I4に示すように、解け落ちが進行し、車載カメラの視認性がある程度確保されたタイミングであるはずである。 However, the originally desirable off-timing of the buried flag should be a timing at which the in-vehicle camera is secured to some extent as the unraveling progresses, as shown in, for example, the captured image I4.
このため、埋もれフラグがオンされた後、解けてきた雪の付着状態をあわせて検出することによって、埋もれフラグの安定化を図ることが付着物の検出精度の向上に資することとなる。 Therefore, after the burial flag is turned on, stabilizing the burial flag by detecting the adhesion state of the melted snow also contributes to the improvement of the detection accuracy of the deposit.
そこで、実施形態に係る付着物検出方法では、第1の検出条件に沿って検出された付着物によってレンズの大半が埋もれていると判定された後、第1の検出条件および第2の検出条件に沿ってそれぞれ付着物を検出することとした。 Therefore, in the deposit detection method according to the embodiment, after it is determined that most of the lens is buried by the deposits detected according to the first detection condition, the first detection condition and the second detection condition It was decided to detect deposits along the lines.
具体的には、図1Bに示すように、実施形態に係る付着物検出方法では、付着率が一定以上となり、埋もれフラグがオンされたならば、単位領域UA毎に第1の検出条件および第2の検出条件に沿ってそれぞれ付着状態を検出する。 Specifically, as shown in FIG. 1B, in the deposit detection method according to the embodiment, if the adhesion rate is equal to or higher than a certain level and the burial flag is turned on, the first detection condition and the first detection condition and the first detection condition for each unit region UA. The adhesion state is detected according to the detection conditions of 2.
ここで、第1の検出条件は、図1Aに所定の検出条件として示した、付着し解け始める前の雪を検出するための検出条件である。第2の検出条件は、付着してはいるが、解け始めた後の雪を検出するための検出条件である。 Here, the first detection condition is a detection condition for detecting snow before it adheres and begins to melt, which is shown as a predetermined detection condition in FIG. 1A. The second detection condition is a detection condition for detecting snow that has adhered but has begun to melt.
そして、実施形態に係る付着物検出方法では、前述の付着率は、第1の検出条件および第2の検出条件に沿ってそれぞれ検出された付着箇所の合算値に基づいて算出される。これにより、一旦埋もれフラグがオンされた後の付着率の低下を抑え、埋もれフラグを安定化して、ある程度解け落ちが進行した望ましいタイミングで埋もれフラグをオフすることが可能となる。 Then, in the deposit detection method according to the embodiment, the above-mentioned adhesion rate is calculated based on the total value of the adhesion locations detected according to the first detection condition and the second detection condition, respectively. As a result, it is possible to suppress a decrease in the adhesion rate after the burial flag is turned on, stabilize the burial flag, and turn off the burial flag at a desired timing when the burial flag has progressed to some extent.
したがって、実施形態に係る付着物検出方法によれば、付着物の検出精度を向上させることができる。 Therefore, according to the deposit detection method according to the embodiment, the deposit detection accuracy can be improved.
なお、図1Cに示すように、第1の検出条件および第2の検出条件は、単位領域UA毎に算出される領域特徴量に含まれる各種の要素に基づいて設定される。第1の検出条件は、通常の付着箇所の特徴、たとえば単位領域UAにおいて、弱エッジであり、角度分類のまとまりが大きく、角度分類の偏りが多く、ペア領域の出現頻度が低い、といった特徴を検出可能に予め設定される。 As shown in FIG. 1C, the first detection condition and the second detection condition are set based on various elements included in the region feature amount calculated for each unit region UA. The first detection condition is the characteristics of the normal attachment point, for example, in the unit region UA, the weak edge, the cohesiveness of the angle classification is large, the angle classification is biased, and the appearance frequency of the pair region is low. It is preset so that it can be detected.
一方、第2の検出条件は、解け落ち箇所の特徴、たとえば単位領域UAにおいて、強エッジであり、角度分類のまとまりが細かく、角度分類の偏りが少なく、ペア領域の出現頻度が高い、といった特徴を検出可能に予め設定される。 On the other hand, the second detection condition is a feature of the unraveled portion, for example, a strong edge in the unit region UA, a fine cohesiveness of the angle classification, a small bias of the angle classification, and a high frequency of appearance of the pair region. Is preset so that it can be detected.
なお、角度分類は、所定の角度範囲で分類される各画素PXのベクトル向きの代表値である、セル100のエッジ向きに対応する。かかる角度分類を含むエッジ特徴量および領域特徴量の算出処理については、図3〜図16を用いて後述する。
The angle classification corresponds to the edge orientation of the
以下、上述した実施形態に係る付着物検出方法を適用した付着物検出装置1の構成例について、さらに具体的に説明する。
Hereinafter, a configuration example of the
図2は、実施形態に係る付着物検出装置1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
FIG. 2 is a block diagram of the
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component shown in FIG. 2 is a functional concept and does not necessarily have to be physically configured as shown in the figure. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or part of it is functionally or physically distributed in arbitrary units according to various loads and usage conditions. -It is possible to integrate and configure.
図2に示すように、実施形態に係る付着物検出装置1は、記憶部2と、制御部3とを備える。また、付着物検出装置1は、カメラ10と、各種機器50とに接続される。
As shown in FIG. 2, the
なお、図2では、付着物検出装置1が、カメラ10および各種機器50とは別体で構成される場合を示したが、これに限らず、カメラ10および各種機器50の少なくとも一方と一体に構成されてもよい。
Note that FIG. 2 shows a case where the
カメラ10は、たとえば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。カメラ10は、たとえば、車両の前後方、側方の様子を撮像可能な位置にそれぞれ設けられ、撮像された撮像画像Iを付着物検出装置1へ出力する。
The
各種機器50は、付着物検出装置1の検出結果を取得して、車両の各種制御を行う機器である。各種機器50は、たとえば、カメラ10のレンズに付着物が付着していることやユーザへの付着物の拭き取り指示を通知する表示装置、流体や気体等をレンズへ向けて噴射して付着物を除去する除去装置、および、自動運転等を制御する車両制御装置などを含む。
The
記憶部2は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、テンプレート情報21と、推定情報22と、条件情報23と、判定履歴情報24とを記憶する。
The
テンプレート情報21は、後述する算出部32が実行するマッチング処理において用いられるテンプレートに関する情報である。推定情報22は、後述する領域特徴量の各要素を各次元とする領域特徴量空間に関する情報である。かかる推定情報22は、後述する算出部32が算出する領域特徴量に基づいて付着状態を推定させる推定モデルと言い換えてもよい。
The
条件情報23は、後述する検出部33が実行する検出処理において用いられる検出条件に関する情報であり、たとえば上述した第1の検出条件および第2の検出条件を含む。判定履歴情報24は、所定の過去のnフレーム分の撮像画像Iにおける付着物検出の判定履歴に関する情報である。
The
制御部3は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、付着物検出装置1内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部3は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
The
制御部3は、取得部31と、算出部32と、検出部33と、判定部34とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
The
取得部31は、カメラ10で撮像された撮像画像Iを取得する。取得部31は、取得した撮像画像Iにおける各画素を輝度に応じて白から黒までの各階調に変換するグレースケール化処理を行うとともに、各画素について平滑化処理を行って、算出部32へ出力する。なお、平滑化処理にはたとえば、平均化フィルタや、ガウシアンフィルタ等の任意の平滑化フィルタを用いることができる。また、グレースケール化処理や、平滑化処理については、省略されてもよい。
The
算出部32は、取得部31から取得した撮像画像Iのセル100毎に、エッジ特徴量を算出する。ここで、図3および図4を用いて、算出部32によるエッジ特徴量の算出処理について具体的に説明する。
The
図3および図4は、算出部32の処理内容を示す図(その1)および(その2)である。図3に示すように、算出部32は、まず、各画素PXにつきエッジ検出処理を行って、X軸方向(撮像画像Iの左右方向)のエッジexの強度と、Y軸方向(撮像画像Iの上下方向)のエッジeyの強度とを検出する。エッジ検出処理には、たとえば、Sobelフィルタや、Prewittフィルタ等の任意のエッジ検出フィルタを用いることができる。
3 and 4 are diagrams (No. 1) and (No. 2) showing the processing contents of the
つづいて、算出部32は、検出したX軸方向のエッジexの強度と、Y軸方向のエッジeyの強度とに基づき、三角関数を用いることでエッジベクトルVを算出し、かかるエッジベクトルVとX軸とがなす角度θであるエッジ向きと、エッジベクトルVの長さLであるエッジ強度を算出する。
Subsequently, the
つづいて、算出部32は、算出した各画素PXのエッジベクトルVに基づき、セル100におけるエッジ向きの代表値を抽出する。具体的には、図4の上段に示すように、算出部32は、セル100における各画素PXのエッジベクトルVのエッジ向き−180°〜180°を、90°毎の上下左右4方向である角度分類(0)〜(3)(以下、「上下左右4分類」と言う場合がある)に分類する。
Subsequently, the
より具体的には、算出部32は、画素PXのエッジ向きが、−45°以上45°未満の角度範囲である場合には角度分類(0)に分類し、45°以上135°未満の角度範囲である場合には角度分類(1)に分類し、135°以上180°未満、または−180°以上−135°未満の角度範囲である場合には角度分類(2)に分類し、−135°以上−45°未満の角度範囲である場合には角度分類(3)に分類する。
More specifically, when the edge orientation of the pixel PX is in the angle range of −45 ° or more and less than 45 °, the
そして、図4の下段に示すように、算出部32は、各セル100について、角度分類(0)〜(3)を各階級とするヒストグラムを生成する。そして、算出部32は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する角度分類(図4の例では、角度分類(1))を、セル100におけるエッジ向きの代表値として抽出する。
Then, as shown in the lower part of FIG. 4, the
前述のヒストグラムの度数は、セル100内における各画素PXのうち、同一の角度範囲に分類された画素PXのエッジ強度を足し合わせて算出する。具体的に、角度分類(0)の階級におけるヒストグラムの度数について考える。たとえば、角度分類(0)に分類された画素PXが3つあるとし、それぞれの画素PXにおけるエッジ強度を10,20,30とする。この場合、角度分類(0)の階級におけるヒストグラムの度数は、10+20+30=60と算出される。
The frequency of the above-mentioned histogram is calculated by adding the edge intensities of the pixel PXs classified in the same angle range among the pixel PXs in the
このようにして算出されたヒストグラムに基づき、算出部32はセル100におけるエッジ強度の代表値を算出する。具体的に、かかるエッジ強度の代表値は、ヒストグラムにおいて最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する度数をセル100のエッジ強度とする。すなわち、算出部32におけるエッジ強度の代表値の算出処理は、エッジ向きの代表値に対応した、セル100内におけるエッジの強さに関する特徴を算出する処理とも言える。
Based on the histogram calculated in this way, the
一方、算出部32は、最も度数が高い階級の度数が所定の閾値THa未満である場合は、かかるセル100のエッジ向きについては、「無効」、換言すれば、「エッジ向きの代表値なし」として取り扱う。これにより、各画素PXのエッジ向きのばらつきが大きい場合に、特定のエッジ向きを代表値として算出してしまうことを防止できる。
On the other hand, when the frequency of the highest frequency class is less than the predetermined threshold value THa, the
なお、図3および図4で示した算出部32の処理内容は、あくまで一例であって、エッジ向きの代表値を算出可能であれば、処理内容は任意であってよい。たとえば、セル100における各画素PXのエッジ向きの平均値を算出し、かかる平均値に対応する角度分類(0)〜(3)をエッジ向きの代表値としてもよい。
The processing content of the
また、図4では、4×4の計16個の画素PXを1つのセル100とする場合を示したが、セル100における画素PXの数は、任意に設定されてよく、また、3×5等のように、上下方向および左右方向の画素PXの数が異なってもよい。
Further, in FIG. 4, a case where a total of 16 pixel PXs of 4 × 4 is regarded as one
図2の説明に戻る。また、算出部32は、算出したセル100毎のエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する。
Returning to the description of FIG. Further, the
まず、算出部32は、領域特徴量として、単位領域UA毎における輝度平均、セル100のエッジ強度の平均および分散を算出する。また、算出部32は、領域特徴量として、ペア領域200の個数およびエッジ強度の総和を算出する。
First, the
ここで、ペア領域200の個数およびエッジ強度の総和を算出する場合について、図5および図6を用いて説明する。図5および図6は、算出部32の処理内容を示す図(その3)および(その4)である。
Here, a case of calculating the total number of pair regions 200 and the edge strength will be described with reference to FIGS. 5 and 6. 5 and 6 are diagrams (No. 3) and (No. 4) showing the processing contents of the
なお、図5では、2つのペア領域200が、セル100を共有していない場合を示し、図6では、2つのペア領域200が、セル100を共有している場合を示している。
Note that FIG. 5 shows a case where the two pair areas 200 do not share the
図5に示すように、算出部32は、単位領域UAの左右方向および上下方向に配列された複数のセル100について、左右方向および上下方向に走査し、ペア領域200を探索する。すなわち、算出部32は、単位領域UAにおけるセル100のうち、隣接し、エッジ向きが互いに逆向きであるセル100同士をペア領域200として抽出する。
As shown in FIG. 5, the
そして、算出部32は、抽出されたペア領域200の個数、および、ペア領域200におけるエッジ強度の総和を算出する。なお、図5に示すように、算出部32は、抽出されたたとえば2つのペア領域200がセル100を共有していない場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる4つのセル100のエッジ強度を合計した値として算出する。
Then, the
また、図6に示すように、算出部32は、抽出されたたとえば2つのペア領域200がセル100を共有している場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる3つのセル100のエッジ強度を合計した値として算出する。
Further, as shown in FIG. 6, when the extracted two pair areas 200 share the
なお、算出部32は、上述した「上下左右4分類」の角度分類だけでなく、たとえば「斜め4分類」の角度分類に基づいて、1つのセル100について2種類以上のエッジ向きの代表値を割り当て、領域特徴量を算出してもよい。かかる点について、図7および図8を用いて説明する。図7および図8は、算出部32の処理内容を示す図(その5)および(その6)である。
In addition, the
算出部32は、「上下左右4分類」を第1の角度分類とし、これに基づくエッジ向きの代表値を第1代表値とすれば、図7に示すように、「斜め4分類」を第2の角度分類とし、これに基づくエッジ向きの代表値を第2代表値として算出することができる。
If the
かかる場合、算出部32は、セル100における各画素PXのエッジベクトルVのエッジ向き−180°〜180°を、第2の角度分類により、90°毎の斜め4方向である角度分類(4)〜(7)に分類する。
In such a case, the
より具体的には、算出部32は、画素PXのエッジ向きが、0°以上90°未満の角度範囲である場合には角度分類(4)に分類し、90°以上180°未満の角度範囲である場合には角度分類(5)に分類し、−180°以上−90°未満の角度範囲である場合には角度分類(6)に分類し、−90°以上0°未満の角度範囲である場合には角度分類(7)に分類する。
More specifically, when the edge orientation of the pixel PX is in the angle range of 0 ° or more and less than 90 °, the
そして、図4の下段に示したのと同様に、算出部32は、各セル100について、角度分類(4)〜(7)を各階級とするヒストグラムを生成する。そして、算出部32は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する角度分類を、セル100におけるエッジ向きの第2代表値として算出する。
Then, as shown in the lower part of FIG. 4, the
これにより、図8に示すように、1つのセル100についてそれぞれ2つのエッジ向きの代表値を割り当てることができる。そして、図8に示すように、算出部32は、隣接するセル100において、エッジ向きの第1代表値、および、第2代表値の少なくとも一方が互いに逆向きである場合、かかる隣接するセル100をペア領域200として抽出する。
As a result, as shown in FIG. 8, two edge-oriented representative values can be assigned to each
つまり、算出部32は、各セル100において、エッジ向きの第1代表値および第2代表値を算出することで、1種類のエッジ向きのみでは抽出できなかったペア領域200を抽出することが可能となる。
That is, the
たとえば、エッジ向きが140°の画素PXと、エッジ向きが−40°の画素PXとについて、第1角度範囲では逆向きとはならないが、第2角度範囲では逆向きとなることで、セル100におけるエッジ向きの変化をより高精度に検出することが可能となる。
For example, a pixel PX having an edge orientation of 140 ° and a pixel PX having an edge orientation of −40 ° are not opposite in the first angle range, but are opposite in the second angle range, so that the
なお、算出部32は、このように算出した単位領域UA毎の領域特徴量を、後述する判定部34に対し、領域特徴量の各要素を各次元とする領域特徴量空間にマッピングさせ、領域特徴量空間における領域特徴量の位置に基づいて付着物である雪の付着状態を推定させることができる。
In addition, the
かかる点について、図9および図10を用いて説明する。図9および図10は、算出部32の処理内容を示す図(その7)および(その8)である。
This point will be described with reference to FIGS. 9 and 10. 9 and 10 are diagrams (No. 7) and (No. 8) showing the processing contents of the
たとえば、算出部32は、図9に示すように、エッジ強度の平均、および、エッジ強度の分散を各次元とする2次元空間における位置に基づいて、雪の付着状態を、「付着」、「非付着」、または、「判定難」のいずれかとして推定させることができる。
For example, as shown in FIG. 9, the
また、たとえば、算出部32は、図10に示すように、ペア領域200の個数、および、ペア領域200のエッジ強度の総和を各次元とする2次元空間における位置に基づいて、雪の付着状態を、「付着」または「非付着」のいずれかとして推定させることができる。
Further, for example, as shown in FIG. 10, the
ここで、「付着」は、背景が見えない、雪に埋もれている状態である。また、「非付着」は、背景が見えている状態である。また、「判定難」は、白飛び等で見えない状態である。 Here, "adhesion" is a state in which the background cannot be seen and is buried in snow. In addition, "non-adhesive" is a state in which the background is visible. In addition, "difficult to judge" is a state in which it cannot be seen due to overexposure or the like.
なお、図9および図10に示した各領域特徴量空間の例は、撮像画像Iの多量のサンプルデータに基づいて、予めかかるサンプルデータの各単位領域UAの領域特徴量を算出し、実際の付着状態に応じて標本点を色分けしつつ、各空間にマッピングしたものである。したがって、各付着状態を区切る各閾値(図中の点線参照)は、たとえば標本点の色の分かれ目等に応じて規定されている。なお、図9および図10では、閾値を直線で区切って規定しているが、説明の便宜上のものであり、標本点の色の分かれ目に沿う形状の曲線によって規定されてもよい。 In the example of each region feature space shown in FIGS. 9 and 10, the region feature of each unit region UA of the sample data is calculated in advance based on a large amount of sample data of the captured image I, and the actual region feature is calculated. The sample points are color-coded according to the adhesion state and mapped to each space. Therefore, each threshold value (see the dotted line in the figure) that separates each adhesion state is defined according to, for example, the color division of the sample points. Although the threshold values are defined by separating them with straight lines in FIGS. 9 and 10, they may be defined by a curve having a shape along the color division of the sample points for convenience of explanation.
たとえば、「非付着」の状態では、道路上の白線やガードレール、建物の輪郭等により、ペア領域200が比較的多く抽出され、また、セル100のエッジ強度も大きくなる。このため、ペア領域200のエッジ強度の総和も比較的大きくなる。一方で、「付着」の状態では、単位領域UAの輝度が一様で、かつ、セル100のエッジ強度も小さくなるため、抽出されるペア領域200の個数は比較的少なくなり、また、ペア領域200のエッジ強度の総和も比較的小さくなる。
For example, in the "non-adherent" state, a relatively large amount of the pair area 200 is extracted due to white lines on the road, guardrails, contours of buildings, and the like, and the edge strength of the
そこで、かかる点に着目し、図10に示したように、予め撮像画像Iのサンプルデータに基づいて、ペア領域200の個数、および、ペア領域200のエッジ強度の総和を各次元とする領域特徴量空間を生成し、かかる空間に算出した領域特徴量をマッピングすれば、その位置に基づいて、単位領域UA毎の付着物の付着状態を「付着」または「非付着」のいずれかとして推定させることができる。 Therefore, paying attention to this point, as shown in FIG. 10, a region feature in which the number of pair regions 200 and the sum of the edge strengths of the pair regions 200 are set as each dimension based on the sample data of the captured image I in advance. If a quantity space is generated and the calculated region feature amount is mapped to such a space, the adhesion state of the deposit for each unit region UA is estimated as either "adhesion" or "non-adhesion" based on the position. be able to.
また、図9に示したエッジ強度の平均、および、エッジ強度の分散は、統計的見地に基づくものである。換言すれば、多量のサンプルデータに基づき、単位領域UA毎の実際の付着状態に対応するエッジ強度の平均および分散を学習し、かかる学習の結果に基づいて状態を判別するものと言える。 Further, the average edge strength and the dispersion of the edge strength shown in FIG. 9 are based on statistical viewpoints. In other words, it can be said that the average and variance of the edge strength corresponding to the actual adhesion state for each unit region UA are learned based on a large amount of sample data, and the state is determined based on the result of such learning.
そこで、かかる点に着目し、図9に示したように、予め撮像画像Iのサンプルデータに基づいて、エッジ強度の平均、および、エッジ強度の分散を各次元とする領域特徴量空間を生成し、かかる空間に算出した領域特徴量をマッピングすれば、その位置に基づいて、単位領域UA毎の付着物の付着状態を「付着」、「非付着」、または、「判定難」のいずれかとして推定させることができる。 Therefore, paying attention to this point, as shown in FIG. 9, based on the sample data of the captured image I in advance, a region feature space having the average edge strength and the dispersion of the edge strength as each dimension is generated. If the calculated region feature amount is mapped to such a space, the adhered state of the adhered matter for each unit region UA is set as either "adhered", "non-adhered", or "difficult to judge" based on the position. Can be estimated.
したがって、実施形態に係る算出部32によれば、付着物の検出精度を向上させることができる。
Therefore, according to the
また、算出部32は、領域特徴量として、パターンマッチング時の交点の数を算出する。ここで、パターンマッチング時の交点の数を算出する場合について、図11〜図14を用いて説明する。
Further, the
図11〜図14は、算出部32の処理内容を示す図(その9)〜(その12)である。なお、図11、図13および図14に示す不定形のハッチング部分は、撮像画像Iにおいて所定のエッジ特徴量を有するパターン部分であるものとする。
11 to 14 are diagrams (No. 9) to (No. 12) showing the processing contents of the
算出部32は、算出したセル100のエッジ特徴量のうちのエッジ向きを用いて、所定のテンプレートと一致する所定の探索パターンを探索する。図11に示すように、探索方向は左右方向および上下方向である。
The
たとえば、算出部32は、「注目する角度分類の両サイドに逆向きの角度分類が現れないこと」を条件として探索パターンを探索する。具体的には、注目する角度分類を角度分類(1)として左右方向に探索した場合に、図12に示すように、たとえば開始位置は「角度分類が逆向きでない」角度分類(2)のセル100−1に隣接する角度分類(1)のセル100−2が開始位置となる。
For example, the
そして、角度分類(1)の配列がつづき、「角度分類が逆向きでない」角度分類(0)のセル100−4が現れた場合、かかるセル100−4に隣接する角度分類(1)のセル100−3が終了位置となる。かかる場合、図12の例ではマッチ長は「8」となる。なお、算出部32は、このように探索パターンとの一致があった場合、その位置とマッチ長とを保持しておく。
Then, when the array of the angle classification (1) continues and the cell 100-4 of the angle classification (0) in which "the angle classification is not in the opposite direction" appears, the cell of the angle classification (1) adjacent to the cell 100-4 appears. 100-3 is the end position. In such a case, the match length is "8" in the example of FIG. When there is a match with the search pattern in this way, the
また、図12に示した探索パターンでの一致があった場合、開始位置と終了位置には、角度分類4種のうち、隣り合う分類間での輝度変化が見られることになる。 Further, when there is a match in the search pattern shown in FIG. 12, the brightness changes between the adjacent classifications among the four types of angle classifications can be seen at the start position and the end position.
そして、算出部32は、図13に示すように、左右方向と上下方向で探索パターンの一致が交わる際には、その交点に対応する単位領域UAに対応する記憶情報として、角度分類別に水平マッチ長および上下マッチ長の積を累積加算する。
Then, as shown in FIG. 13, when the search patterns match in the left-right direction and the up-down direction, the
具体的に図12および図13の例に沿った場合、算出部32は、図14に示すように、当該単位領域の角度分類(1)に紐づけて、5×8を累積加算する。また、図示していないが、算出部32は、同じく当該単位領域の角度分類(1)に紐づけて、交点の数も累積加算する。
Specifically, according to the examples of FIGS. 12 and 13, as shown in FIG. 14, the
こうしたマッチング処理を繰り返し、後述する検出部33は、所定の検出条件に基づき、当該単位領域UAの各角度分類(0)〜(3)に紐づく累積加算結果のうち、たとえば3種以上が所定の閾値以上であった場合、当該単位領域UAの付着状態は「付着」と判定する。また、かかる判定条件を満たさなければ「非付着」と判定する。なお、図11〜図14に示したマッチング処理の処理内容はあくまで一例であって、処理内容を限定するものではない。
By repeating such a matching process, the
また、算出部32は、領域特徴量として、角度分類の変化回数の総和を算出する。ここで、角度分類の変化回数の総和を算出する場合について、図15および図16を用いて説明する。図15および図16は、算出部32の処理内容を示す図(その13)および(その14)である。
Further, the
図15に示すように、算出部32は、角度分類画像の単位領域UA毎に、単位領域UA内に左右方向および上下方向に配列されたセル100の角度分類の変化回数を算出する。
As shown in FIG. 15, the
具体的に、同図に示すように、セル100−1,100−2,100−3,100−4の配列があり、エッジ向きである角度分類は順に、(0)、(1)、(1)、(2)であったものとする。 Specifically, as shown in the figure, there is an array of cells 100-1, 100-2, 100-3, 100-4, and the angle classifications for the edges are (0), (1), and (1), in order. It is assumed that it was 1) and (2).
かかる場合、算出部32は、セル100−1からセル100−2を走査するに際して、角度分類が(0)から(1)へ変化するので、角度分類(0),(1)の変化回数をそれぞれ+1する。また、算出部32は、同配列において、セル100−3からセル100−4へ走査するに際して、角度分類が(1)から(2)へ変化するので、角度分類(1),(2)の変化回数をそれぞれ+1する。
In such a case, when the
算出部32は、このように単位領域UA毎におけるセル100の角度分類の変化回数をカウントし、図16に示すように、「上下左右4分類」および「斜め4分類」のそれぞれにおける角度分類別の変化回数の総和を算出する。
In this way, the
図2の説明に戻る。また、算出部32は、算出した単位領域UA毎の領域特徴量を検出部33へ出力する。
Returning to the description of FIG. Further, the
検出部33は、算出部32によって算出された単位領域UA毎の領域特徴量に基づき、条件情報に含まれる所定の検出条件に沿って単位領域UA毎の付着状態を検出する。
The
具体的には、検出部33は、埋もれフラグがオフである場合、すなわち前回のフレームでレンズが埋もれていないと判定されている場合、第1の検出条件に沿って単位領域UA毎の付着状態を検出する。
Specifically, when the buried flag is off, that is, when it is determined that the lens is not buried in the previous frame, the
また、検出部33は、埋もれフラグがオフでない場合、すなわち前回のフレームでレンズが埋もれていると判定されている場合、第1の検出条件および第2の検出条件に沿ってそれぞれ単位領域UA毎の付着状態を検出する。
Further, when the buried flag is not turned off, that is, when it is determined that the lens is buried in the previous frame, the
なお、検出部33は、推定情報22を用いた推定結果、算出部32によるマッチング結果、および、判定履歴情報24に含まれる過去のフレーム分の検出結果に基づいて、総合的に単位領域UA毎の付着状態を検出することができる。
The
たとえば、検出部33は、算出部32により算出された領域特徴量を推定情報22へ入力することによって得られる推定結果に対し、算出部32によるマッチング結果を加味した検出処理を行う。
For example, the
具体的には、検出部33は、推定結果が「非付着」である場合、マッチング結果に関わらず、「非付着」として検出する。これにより、マッチング結果で「付着」と判定されている場合の誤検出を抑制することができる。
Specifically, when the estimation result is "non-adhesive", the
また、検出部33は、推定結果が「付着」であり、マッチング結果が「付着」である場合、「付着」として検出する。
Further, when the estimation result is "adhesion" and the matching result is "adhesion", the
また、検出部33は、推定結果が「付着」であるが、マッチング結果が「非付着」である場合、過去nフレームで「付着」との検出結果があり、かかる検出後、1度も「非付着」との検出結果がない場合は、「付着」として検出する。
Further, when the estimation result is "adhesion" but the matching result is "non-adhesion", the
また、検出部33は、推定結果が「判定難」である場合、マッチング結果に関わらず、過去nフレームで「付着」との検出結果があり、かかる検出後、1度も「非付着」との検出結果がない場合は、「付着」として検出する。
Further, when the estimation result is "difficult to determine", the
このように、総合的に単位領域UA毎の付着状態を検出することによって、付着物の検出精度を向上させることができる。 In this way, the accuracy of detecting the adhered matter can be improved by comprehensively detecting the adhered state for each unit region UA.
そして、検出部33は、検出結果を判定部34へ出力する。判定部34は、検出部33の検出結果に基づいて付着率を算出し、かかる付着率に基づいてカメラ10のレンズが埋もれているか否かを判定する。
Then, the
ここで、図17は、判定部34の処理内容を示す図である。図17に示すように、判定部34は、付着率の算出に際して、第1の検出条件に沿って検出された付着箇所の数と、第2の検出条件に沿って検出された付着箇所の数とを合算する。
Here, FIG. 17 is a diagram showing the processing contents of the
そして、判定部34は、かかる合算値に基づいて、所定の注目領域における付着箇所の面積率、すなわち付着率を算出する。そして、判定部34は、付着率が一定以上である場合、レンズが埋もれていると判定して、埋もれフラグをオンにする。また、判定部34は、付着率が一定以上でない場合、レンズが埋もれていないと判定して、埋もれフラグをオフにする。
Then, the
図2の説明に戻る。そして、判定部34は、判定した判定結果を各種機器50へ通知する。
Returning to the description of FIG. Then, the
次に、図18を用いて、実施形態に係る付着物検出装置1が実行する処理手順について説明する。図18は、実施形態に係る付着物検出装置1が実行する処理手順を示すフローチャートである。なお、図18では、1フレーム分の撮像画像Iについての処理手順を示している。
Next, the processing procedure executed by the
図18に示すように、まず、取得部31が、撮像画像Iを取得する(ステップS101)。あわせて取得部31は、撮像画像Iに対してグレースケール化処理および平滑化処理を施す。
As shown in FIG. 18, first, the
つづいて、算出部32が、撮像画像Iのセル100毎のエッジ特徴量を算出するとともに、算出したエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する(ステップS102)。
Subsequently, the
そして、検出部33が、埋もれフラグがオフであるか否かを判定する(ステップS103)。ここで、埋もれフラグがオフである場合(ステップS103,Yes)、すなわち前回のフレームでレンズが埋もれていないと判定されている場合、検出部33は、第1の検出条件に沿って単位領域UA毎の付着状態を検出する(ステップS104)。
Then, the
一方、埋もれフラグがオフでない場合(ステップS103,No)、すなわち前回のフレームでレンズが埋もれていると判定されている場合、検出部33は、第1の検出条件および第2の検出条件に沿ってそれぞれ単位領域UA毎の付着状態を検出する(ステップS105)。
On the other hand, when the buried flag is not turned off (step S103, No), that is, when it is determined that the lens is buried in the previous frame, the
そして、判定部34が、検出部33の検出結果に基づいて、付着率が一定以上であるか否かを判定する(ステップS106)。ここで、付着率が一定以上である場合(ステップS106,Yes)、判定部34は、レンズが埋もれていると判定し、埋もれフラグをオンにする(ステップS107)。
Then, the
また、付着率が一定以上でない場合(ステップS106,No)、判定部34は、レンズが埋もれていないと判定し、埋もれフラグをオフにする(ステップS108)。
If the adhesion rate is not equal to or higher than a certain level (step S106, No), the
そして、判定部34は、判定結果を各種機器50へ通知して(ステップS109)、処理を終了する。
Then, the
上述してきたように、実施形態に係る付着物検出装置1は、算出部32と、検出部33と、判定部34とを備える。算出部32は、撮像画像Iに含まれる所定数の画素PXからなる単位領域UA毎に、各画素PXのエッジベクトルに基づく領域特徴量を算出する。検出部33は、上記領域特徴量に基づく第1の検出条件に沿って単位領域UAへの付着物の付着状態を検出する。判定部34は、検出部33の検出結果に基づいて、カメラ10のレンズに対する付着物の付着率を判定する。また、検出部33は、判定部34によって付着率が一定以上であると判定された場合に、上記領域特徴量に基づく第1の検出条件および第2の検出条件に沿ってそれぞれ付着物の付着状態を検出する。
As described above, the
したがって、実施形態に係る付着物検出装置1によれば、付着物の検出精度を向上させることができる。
Therefore, according to the
また、判定部34は、第1の検出条件に沿って付着物の付着箇所として検出された単位領域UA、および、第2の検出条件に沿って付着物の付着箇所として検出された単位領域UAを合算して付着率を算出する。
Further, the
したがって、実施形態に係る付着物検出装置1によれば、付着物の態様が変化したことによる付着率の低下を抑え、埋もれフラグを安定化させることができる。
Therefore, according to the
また、付着物は雪であって、検出部33は、レンズに付着して解け始める前の雪の付着状態を第1の検出条件に沿って検出し、レンズに付着してはいるが解け始めた後の雪の付着状態を第2の検出条件に沿って検出する。
Further, the deposit is snow, and the
したがって、実施形態に係る付着物検出装置1によれば、雪が付着してはいるが解け始めたことによる付着率の低下を抑え、埋もれフラグを安定化させることができる。
Therefore, according to the
なお、上述した実施形態では、−180°〜180°を90°毎の角度範囲で分割した4方向に角度分類する場合を示したが、角度範囲は90°に限定されず、たとえば60°毎の角度範囲で分割した6方向に角度分類してもよい。 In the above-described embodiment, the case where −180 ° to 180 ° is divided into four directions divided by an angle range of 90 ° is shown, but the angle range is not limited to 90 °, for example, every 60 °. The angle may be classified into 6 directions divided by the angle range of.
また、第1の角度分類および第2の角度分類でそれぞれの角度範囲の幅が異なってもよい。たとえば、第1の角度分類では90°毎で角度分類し、第2の角度分類では、60°毎で角度分類してもよい。また、第1の角度分類および第2の角度分類では、角度範囲の角度の境界を45°ずらしたが、ずらす角度が45°を超える、もしくは、45°未満であってもよい。 Further, the width of each angle range may be different between the first angle classification and the second angle classification. For example, in the first angle classification, the angle may be classified by 90 °, and in the second angle classification, the angle may be classified by 60 °. Further, in the first angle classification and the second angle classification, the boundary of the angle in the angle range is shifted by 45 °, but the shifting angle may be more than 45 ° or less than 45 °.
また、上述した実施形態では、車載カメラで撮像された撮像画像Iを例に挙げたが、撮像画像Iは、たとえば、防犯カメラや、街灯等に設置されたカメラで撮像された撮像画像Iであってもよい。つまり、カメラのレンズに付着物が付着する可能性があるカメラで撮像された撮像画像Iであればよい。 Further, in the above-described embodiment, the captured image I captured by the in-vehicle camera is taken as an example, but the captured image I is, for example, the captured image I captured by a security camera, a camera installed in a street light, or the like. There may be. That is, it may be the captured image I captured by the camera in which deposits may adhere to the lens of the camera.
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and variations can be easily derived by those skilled in the art. For this reason, the broader aspects of the invention are not limited to the particular details and representative embodiments expressed and described as described above. Therefore, various modifications can be made without departing from the spirit or scope of the general concept of the invention as defined by the appended claims and their equivalents.
1 付着物検出装置
2 記憶部
3 制御部
10 カメラ
21 テンプレート情報
22 推定情報
23 条件情報
24 判定履歴情報
31 取得部
32 算出部
33 検出部
34 判定部
50 各種機器
100 セル
200 ペア領域
I 撮像画像
PX 画素
UA 単位領域
1
Claims (4)
前記領域特徴量に基づく第1の検出条件に沿って前記単位領域への付着物の付着状態を検出する検出部と、
前記検出部の検出結果に基づいて、カメラのレンズに対する付着物の付着率を判定する判定部と
を備え、
前記検出部は、
前記判定部によって前記付着率が一定以上であると判定された場合に、前記領域特徴量に基づく前記第1の検出条件および第2の検出条件に沿ってそれぞれ付着物の付着状態を検出する
ことを特徴とする付着物検出装置。 A calculation unit that calculates a region feature amount based on the edge vector of each pixel for each unit region consisting of a predetermined number of pixels included in the captured image.
A detection unit that detects the state of adhesion of deposits to the unit region according to the first detection condition based on the region feature amount, and
A determination unit for determining the adhesion rate of deposits to the lens of the camera based on the detection result of the detection unit is provided.
The detection unit
When the determination unit determines that the adhesion rate is equal to or higher than a certain level, the adhesion state of the deposit is detected according to the first detection condition and the second detection condition based on the region feature amount, respectively. A deposit detection device characterized by.
前記第1の検出条件に沿って付着物の付着箇所として検出された前記単位領域、および、前記第2の検出条件に沿って付着物の付着箇所として検出された前記単位領域を合算して前記付着率を算出する
ことを特徴とする請求項1に記載の付着物検出装置。 The determination unit
The unit region detected as an adhering portion of the deposit according to the first detection condition and the unit region detected as the adhering portion of the deposit according to the second detection condition are added together. The deposit detection device according to claim 1, wherein the adhesion rate is calculated.
前記検出部は、
前記レンズに付着して解け始める前の雪の付着状態を前記第1の検出条件に沿って検出し、前記レンズに付着してはいるが解け始めた後の雪の付着状態を前記第2の検出条件に沿って検出する
ことを特徴とする請求項1または2に記載の付着物検出装置。 The deposit is snow,
The detection unit
The snow adhesion state before the lens adheres to the lens and begins to melt is detected according to the first detection condition, and the snow adhesion state after the lens adheres to the lens but begins to melt is detected by the second detection condition. The deposit detection device according to claim 1 or 2, wherein the detection is performed according to the detection conditions.
前記領域特徴量に基づく第1の検出条件に沿って前記単位領域への付着物の付着状態を検出する検出工程と、
前記検出工程の検出結果に基づいて、カメラのレンズに対する付着物の付着率を判定する判定工程と
を含み、
前記検出工程は、
前記判定工程によって前記付着率が一定以上であると判定された場合に、前記領域特徴量に基づく前記第1の検出条件および第2の検出条件に沿ってそれぞれ付着物の付着状態を検出する
ことを特徴とする付着物検出方法。 A calculation process for calculating a region feature amount based on the edge vector of each pixel for each unit region consisting of a predetermined number of pixels included in the captured image, and a calculation process.
A detection step of detecting the state of adhesion of deposits to the unit region according to the first detection condition based on the region feature amount, and
Including a determination step of determining the adhesion rate of deposits to the lens of the camera based on the detection result of the detection step.
The detection step is
When it is determined by the determination step that the adhesion rate is equal to or higher than a certain level, the adhesion state of the deposit is detected according to the first detection condition and the second detection condition based on the region feature amount, respectively. A method for detecting deposits, which comprises.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019172210A JP7172930B2 (en) | 2019-09-20 | 2019-09-20 | Attached matter detection device and attached matter detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019172210A JP7172930B2 (en) | 2019-09-20 | 2019-09-20 | Attached matter detection device and attached matter detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021050933A true JP2021050933A (en) | 2021-04-01 |
JP7172930B2 JP7172930B2 (en) | 2022-11-16 |
Family
ID=75157508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019172210A Active JP7172930B2 (en) | 2019-09-20 | 2019-09-20 | Attached matter detection device and attached matter detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7172930B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010014494A (en) * | 2008-07-02 | 2010-01-21 | Denso Corp | Foreign matter detector, foreign matter detecting program, foreign matter removing device, and on-vehicle communications apparatus |
JP2014030188A (en) * | 2012-07-03 | 2014-02-13 | Clarion Co Ltd | Lens attached substance detection apparatus, lens attached substance detection method, and vehicle system |
JP2019133333A (en) * | 2018-01-30 | 2019-08-08 | 株式会社デンソーテン | Adhesion detection apparatus and adhesion detection method |
-
2019
- 2019-09-20 JP JP2019172210A patent/JP7172930B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010014494A (en) * | 2008-07-02 | 2010-01-21 | Denso Corp | Foreign matter detector, foreign matter detecting program, foreign matter removing device, and on-vehicle communications apparatus |
JP2014030188A (en) * | 2012-07-03 | 2014-02-13 | Clarion Co Ltd | Lens attached substance detection apparatus, lens attached substance detection method, and vehicle system |
JP2019133333A (en) * | 2018-01-30 | 2019-08-08 | 株式会社デンソーテン | Adhesion detection apparatus and adhesion detection method |
Also Published As
Publication number | Publication date |
---|---|
JP7172930B2 (en) | 2022-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7259676B2 (en) | Attached matter detection device and attached matter detection method | |
US9536155B2 (en) | Marking line detection system and marking line detection method of a distant road surface area | |
JP3780922B2 (en) | Road white line recognition device | |
JP3651387B2 (en) | White line detector | |
JP2007234019A (en) | Vehicle image area specifying device and method for it | |
JP7230507B2 (en) | Deposit detection device | |
JP7206909B2 (en) | Attached matter detection device and attached matter detection method | |
KR101501851B1 (en) | Apparatus and method for lane detection using hough transformation at optimized accumulator cells | |
US11354794B2 (en) | Deposit detection device and deposit detection method | |
JP7234630B2 (en) | Deposit detection device | |
US10997743B2 (en) | Attachable matter detection apparatus | |
JP7310526B2 (en) | Obstacle identification device and obstacle identification program | |
JP7283081B2 (en) | Attached matter detection device and attached matter detection method | |
JP7274867B2 (en) | Attached matter detection device and attached matter detection method | |
JP2021050932A (en) | Attached matter detection device and attached matter detection method | |
JP2021050933A (en) | Attached matter detector and attached matter detecting method | |
JP7172931B2 (en) | Attached matter detection device and attached matter detection method | |
US11568547B2 (en) | Deposit detection device and deposit detection method | |
JP7175188B2 (en) | Attached matter detection device and attached matter detection method | |
JP2021051377A (en) | Attached matter detection device and attached matter detection method | |
JP7172932B2 (en) | Attached matter detection device and attached matter detection method | |
JP7234884B2 (en) | Attached matter detection device and attached matter detection method | |
Pan et al. | Fast road detection based on a dual-stage structure | |
JP2021051379A (en) | Attached matter detection device and attached matter detection method | |
JP2021051378A (en) | Attached matter detection device and attached matter detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7172930 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |