JP2020109595A - 付着物検出装置および付着物検出方法 - Google Patents

付着物検出装置および付着物検出方法 Download PDF

Info

Publication number
JP2020109595A
JP2020109595A JP2019000794A JP2019000794A JP2020109595A JP 2020109595 A JP2020109595 A JP 2020109595A JP 2019000794 A JP2019000794 A JP 2019000794A JP 2019000794 A JP2019000794 A JP 2019000794A JP 2020109595 A JP2020109595 A JP 2020109595A
Authority
JP
Japan
Prior art keywords
area
score
edge
adhering matter
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019000794A
Other languages
English (en)
Other versions
JP7283081B2 (ja
Inventor
修久 池田
Nobuhisa Ikeda
修久 池田
信徳 朝山
Nobutoku Asayama
信徳 朝山
河野 貴
Takashi Kono
貴 河野
谷 泰司
Taiji Tani
泰司 谷
山本 大輔
Daisuke Yamamoto
大輔 山本
朋和 沖
Tomokazu Oki
朋和 沖
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019000794A priority Critical patent/JP7283081B2/ja
Priority to US16/564,794 priority patent/US11037266B2/en
Publication of JP2020109595A publication Critical patent/JP2020109595A/ja
Application granted granted Critical
Publication of JP7283081B2 publication Critical patent/JP7283081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/52Elements optimising image sensor operation, e.g. for electromagnetic interference [EMI] protection or temperature control by heat transfer or cooling elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Abstract

【課題】付着物を早期に検出すること。【解決手段】実施形態に係る付着物検出装置は、算出部と、判定部とを備える。算出部は、撮像装置によって撮像された撮像画像の各画素領域におけるエッジ強度に基づいて所定の対象領域を分割した分割領域のスコアを算出する。判定部は、算出部によって算出されたスコアに基づいて対象領域が撮像装置のレンズに付着物が付着した付着物領域か否かを判定する。【選択図】図2

Description

本発明は、付着物検出装置および付着物検出方法に関する。
従来、車両等に搭載されたカメラによって撮像された撮像画像に基づいて、カメラレンズに付着した付着物を検出する付着物検出装置が知られている。付着物検出装置には、例えば、時系列の撮像画像の差分に基づいて付着物を検出するものがある(例えば、特許文献1参照)。
特開2012−038048号公報
しかしながら、従来技術では、付着物を早期に検出する点で改善の余地があった。
本発明は、上記に鑑みてなされたものであって、付着物を早期に検出することができる付着物検出装置および付着物検出方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る付着物検出装置は、算出部と、判定部とを備える。前記算出部は、撮像装置によって撮像された撮像画像の各画素領域におけるエッジ強度に基づいて所定の対象領域を分割した分割領域のスコアを算出する。前記判定部は、前記算出部によって算出された前記スコアに基づいて前記対象領域が前記撮像装置のレンズに付着物が付着した付着物領域か否かを判定する。
本発明によれば、付着物を早期に検出することができる。
図1は、付着物検出方法の概要を示す図である。 図2は、付着物検出装置の構成を示すブロック図である。 図3は、算出部の処理内容を示す図である。 図4は、算出部の処理内容を示す図である。 図5は、算出部の処理内容を示す図である。 図6は、アルゴリズム実行部の処理内容を示す図である。 図7は、アルゴリズム実行部の処理内容を示す図である。 図8は、アルゴリズム実行部の処理内容を示す図である。 図9は、アルゴリズム実行部の処理内容を示す図である。 図10は、判定部による処理内容を示す図である。 図11は、付着物検出装置が実行する付着物の検出処理の処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。
まず、図1を用いて、実施形態に係る付着物検出方法の概要について説明する。図1は、実施形態に係る付着物検出方法の概要を示す図である。なお、図1には、例えば、車載カメラのレンズ全面に雪が付着した状態で撮像された撮像画像Iを示している。実施形態に係る付着物検出方法は、付着物検出装置1(図2参照)によって実行され、車載カメラで撮像された撮像画像Iに基づいてカメラのレンズに付着した付着物を検出する。
なお、付着物は、雪に限定されるものではなく、例えば、色が薄い泥等でもよい。換言すれば、付着物は、撮像画像Iにおいて、被写体が映らない程度に遮蔽するが、ある程度の光は透過して、光の透過の多少によりわずかな輝度変化を生じさせるものであればよい。なお、図1に示す撮像画像Iは、カメラのレンズが雪で覆われた状態で撮像された画像である。
ここで、従来の付着物検出装置では、時系列の撮像画像の差分に基づいて付着物を検出する技術があった。しかしながら、従来の技術では、例えば、レンズ全体が雪に埋もれた場合等、画像間の差分が生じにくくなるため、付着物を検出できないおそれがあった。
そこで、実施形態に係る付着物検出方法では、1枚の撮像画像Iから検出されるエッジ強度を利用して付着物を検出する。具体的には、図1に示すように、実施形態に係る付着物検出装置1は、まず、撮像画像Iの対象領域100に含まれる各画素領域のエッジ強度に基づいて対象領域100のスコアを算出する(ステップS1)。
図1に示す例では、対象領域100が、撮像画像Iにおける周縁部を除いた領域であり、付着物領域の検出する対象となる領域である。なお、図1に示す対象領域100は、一例であり、任意に変更することができる。また、1つの撮像画像Iに複数の対象領域100を設定することも可能である。
また、図1に示すように、実施形態に係る付着物検出方法では、対象領域100が、複数の分割領域Saに分割され、分割領域Sa毎にスコアを算出する。なお、分割領域Saは、例えば、40×40の1600画素であるが、対象領域100を分割するものであれば、1画素やその他の画素数であってもよい。
ところで、撮像画像Iにおいて、カメラのレンズが雪で覆われている領域(以下、雪埋もれ領域と記載する)は、背景画像がぼやけて表示されるため、エッジが緩やかに変化するという特徴を有する。
このため、雪埋もれ領域に含まれる画素は、エッジ強度が比較的低い低エッジ画素となる。一方、雪埋もれ領域以外の領域(以下、背景領域と記載する)に含まれる画素のエッジ強度は、背景画像によってエッジ強度にバラつきが生じる。
すなわち、分割領域Saにおける各画素のエッジ強度が低いほど、雪埋もれ領域である可能性が高く、分割領域Saにおけるエッジ強度が高いほど、背景領域である可能性が高くなる。
実施形態に係る付着物検出方法では、この点に着目し、各分割領域Saのスコアを算出する。例えば、各分割領域Saをさらに小さな画素領域に分割し、各画素領域のエッジ強度に応じた得点を算出し、分割領域Sa毎の得点の総和に基づいて各分割領域Saのスコアを算出する。画素領域は例えば4×4の16画素である。したがって、この例では、分割領域Saは10×10の100画素領域を有する。なお、画素領域は1画素やその他の画素数で構成されてもよい。
例えば、実施形態に係る付着物検出方法では、エッジ強度が閾値を超える画素領域を得点「1点」とし、エッジ強度が閾値以下である画素領域を得点「0点」として算出する。この場合、分割領域Saにおいて「0点」の画素が多いほど、雪埋もれ領域である可能性が高くなる。なお、かかる得点の詳細については、図4を用いて後述する。
続いて、実施形態に係る付着物検出方法では、各分割領域Saにおける得点の総和が閾値を超える場合に、スコアを「0pt」として算出し、各分割領域Saの得点の総和が閾値を下回る場合に、スコアを「1pt」として算出する。
すなわち、上記の例において、雪が付着している可能性が高い分割領域Saのスコアが「1pt」であり、雪が付着している可能性が低い分割領域Saのスコアが「0pt」となる。
そして、実施形態に係る付着物検出方法では、ステップS1にて算出したスコアに基づいて対象領域100が付着物領域か否かを判定する(ステップS2)。例えば、実施形態に係る付着物検出方法では、対象領域100におけるスコアの総和が閾値を超える場合に、対象領域100を付着物領域として雪埋もれ領域として判定する。
このように、実施形態に係る付着物検出方法では、エッジ強度に応じたスコアを算出し、算出したスコアに基づいて付着物領域することで、画像間に差分が生じない場合であっても付着物を高精度に検出できる。したがって、実施形態に係る付着物検出方法によれば、付着物を早期に検出することができる。
次に、図2を用いて、実施形態に係る付着物検出装置1の構成について説明する。図2は、実施形態に係る付着物検出装置1の構成を示すブロック図である。図2に示すように、実施形態に係る付着物検出装置1は、カメラ10と、各種機器50とに接続される。なお、図2では、付着物検出装置1は、カメラ10と、各種機器50とは別体で構成される場合を示したが、これに限らず、カメラ10および各種機器50の少なくとも一方と一体で構成されてもよい。
カメラ10は、たとえば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。カメラ10は、例えば、車両の前後方、側方の様子を撮像可能な位置にそれぞれ設けられ、撮像された撮像画像Iを付着物検出装置1へ出力する。
各種機器50は、付着物検出装置1の検出結果を取得して、車両の各種制御を行う機器である。各種機器50は、例えば、カメラ10のレンズに付着物していることや、ユーザによる付着物の拭き取り指示を通知する表示装置や、流体や気体等をレンズに向かって噴射して付着物を除去する除去装置、自動運転等を制御する車両制御装置を含む。
図2に示すように、実施形態に係る付着物検出装置1は、制御部2と、記憶部3とを備える。制御部2は、画像取得部21と、算出部22と、アルゴリズム実行部23と、判定部24とを備える。記憶部3は、スコア情報31および閾値情報32を記憶する。
ここで、付着物検出装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の画像取得部21、算出部22、アルゴリズム実行部23および判定部24として機能する。
また、制御部2の画像取得部21、算出部22、アルゴリズム実行部23および判定部24の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、スコア情報31、閾値情報32や、各種プログラムの情報等を記憶することができる。なお、付着物検出装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
スコア情報31は、分割領域Sa毎のスコアに関する情報である。例えば、後述するスコア画像200、200−1がスコア情報31として記憶部3に記憶される。また、閾値情報32は、付着物領域の判定に用いる各種閾値に関する情報である。
制御部2は、撮像画像Iの対象領域100を分割した各分割領域Saにおけるスコアを各画素領域におけるエッジ強度に基づいて算出するとともに、スコアに基づいて付着物領域を検出する。例えば、付着物領域の判定に用いる各種閾値が閾値情報32として記憶部3に記憶される。
画像取得部21は、カメラ10で撮像された撮像画像Iを取得する。画像取得部21は、取得した撮像画像Iにおける各画素を輝度に応じて白から黒までの各階調に変換するグレースケール化処理を行うとともに、各画素について平滑化処理を行って、アルゴリズム実行部23へ出力する。なお、平滑化処理には、例えば、平均化フィルタや、ガウシアンフィルタ等の任意の平滑化フィルタを用いることができる。また、グレースケール化処理や、平滑化処理については、省略されてもよい。
算出部22は、撮像画像Iの各画素領域におけるエッジ強度に基づいて所定の対象領域100を分割した分割領域Saのスコアを算出する。本実施形態において、算出部22は、エッジ強度に応じた得点を画素領域毎に算出し、分割領域Sa毎における得点の総和に基づいてスコアを算出する。画素領域とは、分割領域Saと同じかさらに小さい領域である。つまり、分割領域Saは、少なくとも一つの画素領域を有する領域である。また、画素領域は少なくとも一つの画素を有する領域である。具体的には、本実施例では画素領域は4×4画素の計16画素の矩形領域として設定する。また分割領域Saは10×10画素領域の計100画素領域(=1600画素)の矩形領域として設定する。
図3〜図5は、算出部22の処理内容を示す図である。図3に示すように、算出部22は、まず、エッジ検出処理を行って、X軸方向(撮像画像Iの左右方向)のエッジexの強度と、Y軸方向(撮像画像Iの上下方向)のエッジeyの強度とを検出する。エッジ検出処理には、例えば、Sobelフィルタや、Prewittフィルタ等の任意のエッジ検出フィルタを用いることができる。
続いて、算出部22は、検出したX軸方向のエッジexの強度と、Y軸方向のエッジeyの強度に基づき、三角関数を用いることで、画素PXのエッジの角度およびエッジ強度の情報を含むベクトルVを算出する。具体的には、ベクトルVにおけるエッジの角度は、ベクトルVと正方向側のX軸との成す角度θで表され、エッジの強度は、ベクトルVの長さLに基づき表される。画素領域におけるエッジ強度は、画素領域が有する画素PXのエッジの強さに基づき算出される。例えば平均値などである。
続いて、算出部22は、図4に示すエッジ閾値The1、エッジ閾値The2に基づき、エッジ強度に応じた得点を画素領域毎に算出する。図4に示す例では、エッジ強度がエッジ閾値The1よりも大きい画素領域の得点が「2点」、エッジ強度がエッジ閾値The1〜エッジ閾値The2の範囲に収まる画素領域の得点が「1点」、エッジ強度がエッジ閾値The2未満の画素領域の得点が「0点」である場合を示す。
また、エッジ強度がエッジ閾値The1を超える画素領域は、エッジ強度が強く雪埋もれ領域である可能性が低い画素領域であり、背景領域である可能性が高い画素領域である。また、エッジ強度がエッジ閾値The2未満の画素領域は、エッジ強度が低く、雪埋もれ領域である可能性が高い領域であり、背景領域である可能性が低い画素領域である。
エッジ強度がエッジ閾値The1〜エッジ閾値The2の範囲に収まる画素領域は、エッジ強度が中程度の中エッジ画素であり、雪埋もれ領域および背景領域である可能性が、強エッジ画素領域と低エッジ画素領域の中間となる画素領域である。
算出部22は、図4に示すエッジ閾値The1、エッジ閾値The2に基づき、各画素領域についてエッジ強度に応じた得点を算出する。なお、画素PXのエッジの強度を図3に示す「ex+ey」として求めた場合、例えば、エッジ閾値The1は、「8192」であり、エッジ閾値The2は、「16384」である。
また、図4では、算出部22が、2つのエッジ閾値The1、エッジ閾値The2に基づいて得点を算出する場合について示したが、エッジ閾値は、1つであっても、3つ以上であってもよい。
続いて、図5に示すように、算出部22は、分割領域Saにおける各画素領域Paの得点の総和を求め、得点の総和に応じて、分割領域Saのスコアを算出する。上述のように、得点が高いほど、雪埋もれ領域である可能性が低いため、得点の総和が高いほど、雪埋もれ領域である可能性が低くなる。
また、例えば、分割領域Saが10×10の100画素領域Paで構成される場合、算出部22は、得点の総和が10点未満である分割領域Saのスコアを「2pt」、得点の総和が10点〜30点未満の範囲の分割領域Saのスコアを「1pt」、得点の総和が30点以上の分割領域Saのスコアを「0pt」として算出する。
そして、算出部22は、全ての分割領域Saにスコアを紐付けたスコア画像200を生成し、後述する判定部24へ渡す。なお、スコアの算出方法は、上記の例に限られず、任意に変更することができる。例えば、算出部22は、分割領域Saにおける各画素領域Paのエッジ強度の平均値に基づいてスコアを算出することにしてもよい。
このように、算出部22は、各画素領域Paのエッジ強度を得点に変換し、各分割領域Saにおける得点の総和に基づいて各分割領域Saのスコアを算出する。これにより、各分割領域Saにおいて、局所的に雪埋もれ領域である分割領域Saのスコアを低く算出することができる。
つまり、分割領域Saにおいて、所定数以上の画素領域のエッジ強度が雪埋もれ領域の特徴を示す場合に、スコアを「1」として算出することで、雪埋もれ領域に対するスコアを適切に算出することができる。
図2の説明に戻り、アルゴリズム実行部23について説明する。アルゴリズム実行部23は、算出部22とは異なるアルゴリズムを用いて、各分割領域Saのスコアを算出する。例えば、算出部22が各画素領域のエッジ強度に基づくアルゴリズムにてスコアを算出したのに対して、アルゴリズム実行部23は、各画素領域のエッジ角度に基づいてスコアを算出することができる。
図6〜図9は、アルゴリズム実行部23の処理内容を示す図である。図6に示すように、アルゴリズム実行部23は、算出部22によって算出された各画素PXのベクトルV(図3参照)に基づき、画素領域におけるエッジ代表向きを決定する。具体的には、図6に示すように、アルゴリズム実行部23は、画素領域における各画素PXのベクトルVに基づいて、第1角度範囲を単位とする第1エッジ代表向き、および、第1角度範囲とは異なる第2角度範囲を単位とする第2エッジ代表向きを画素領域毎に決定する。
具体的には、アルゴリズム実行部23は、各画素PXのベクトルVに基づいて、各画素PXを−180°〜180°を90°毎の第1角度範囲で分割した「(0)」〜「(3)」のいずれかの符号、および、第1角度範囲とは分割する角度の境界が異なる第2角度範囲で分割した「(4)」〜「(7)」のいずれかの符号それぞれに分類する。
より具体的には、ベクトルVにおけるエッジの角度が、−45°以上45°未満の角度範囲である場合には符号「(0)」に分類し、45°以上135°未満の角度範囲である場合には符号「(1)」に分類し、135°以上180°未満、または−180°以上−135°未満の角度範囲である場合には符号「(2)」に分類し、−135°以上−45°未満の角度範囲である場合には符号「(3)」に分類する。
さらに、ベクトルVにおけるエッジの角度が、0°以上90°未満の角度範囲である場合には符号「(4)」に分類し、90°以上180°未満の角度範囲である場合には符号「(5)」に分類し、−180°以上−90°未満の角度範囲である場合には符号「(6)」に分類し、−90°以上0°未満の角度範囲である場合には符号「(7)」に分類する。
そして、図6の下段に示すように、アルゴリズム実行部23は、各画素領域について、符号「(0)」〜「(3)」を各階級とするヒストグラムと、符号「(4)」〜「(7)」を各階級とするヒストグラムとを生成する。そして、アルゴリズム実行部23は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する符号「(0)」を第1エッジ代表向きとし、符号「(4)」を第2エッジ代表向きとして決定する。すなわち、アルゴリズム実行部23によるエッジ代表向きの決定処理は、各分割領域Saを符号化する処理ともいえる。
前述のヒストグラムの度数は、画素領域内における各画素PXのうち、同一の角度範囲に分類された画素PXのエッジの強度を足し合わせて算出する。具体的に、符号「(0)」の階級におけるヒストグラムの度数について考える。例えば、符号「(0)」に分類された画素PXが3つあるとし、それぞれの画素PXにおけるエッジ強度を10,20,30とする。この場合、符号「(0)」の階級におけるヒストグラムの度数は、10+20+30=60と算出される。
このようにして算出されたヒストグラムに基づき、アルゴリズム実行部23は画素領域のエッジ強度を決定する。具体的にはエッジ代表強度は、ヒストグラムにおいて最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する度数をエッジ強度とする。すなわち、アルゴリズム実行部23におけるエッジ強度の決定処理は、エッジ代表向きに対応した、画素領域において、同一の方向を向いた画素PXの数を加味したエッジの強さに関する特徴を抽出する処理とも言える。
一方、アルゴリズム実行部23は、最も度数が高い階級の度数が所定の閾値THa未満である場合、かかる画素領域のエッジ代表向きについては、「無効」、換言すれば、「エッジ代表向き無し」として扱う。これにより、各画素PXのエッジの角度のばらつきが大きい場合に、特定のエッジ代表向きを誤って決定してしまうことを防止できる。
このように、アルゴリズム実行部23は、第1角度範囲および第2角度範囲それぞれで異なるエッジ代表向きを素領域に対応付ける。これにより、付着物領域の検出に用いるデータ数を増やすことができるので、付着物領域の検出精度を向上させることができる。
なお、図6で示したエッジ代表向きの決定処理は、一例であって、エッジ代表向きを決定可能な処理であれば、処理内容は任意であってよい。例えば、画素領域における各画素PXのエッジの角度の平均値を算出し、かかる平均値に対応する角度範囲のエッジ代表向きを決定してもよい。
また、算出部22においても、アルゴリズム実行部23の手法で求めた画素領域のエッジ強度を用いてもよい。アルゴリズム実行部23で求める画素領域のエッジ強度は、画素領域において同一の分類方向を向いている画素PXの数が考慮された形でエッジ強度が算出される。そのため、単に画素PXのエッジの強度の代表をとるよりも、大域的なエッジの挙動を反映した特性を有している。雪のような付着物においてはこのような大域的なエッジの挙動、換言すればエッジの変化のかたまり度合を考慮することが効果的であるため、アルゴリズム実行部23の手法で求めた画素領域のエッジ強度を用いることで、より信頼性高く雪埋もれ状態を推定できる。
また、図6では、4×4の計16個の画素PXを1つの画素領域とする場合を示したが、画素領域における画素PXの数は、任意に設定されてよく、また、3×5等のように、上下方向および左右方向の画素PXの数が異なってもよい。
続いて、アルゴリズム実行部23は、所定の走査方向に沿って、同一のエッジ代表向きが連続する配列パターン150を抽出する。具体的には、アルゴリズム実行部23は、撮像画像Iの左右方向および上下方向に2次元配列された複数の画素領域について、左右方向および上下方向に走査し、配列パターン150を抽出する。なお、左右方向および上下方向は、第1の走査方向および第2の走査方向の一例である。また、走査方向は、左右方向および上下方向に限られず、斜め方向であってもよい。
ここで、アルゴリズム実行部23は、走査方向に沿って隣接するエッジ代表向きが、配列パターン150のエッジ代表向きと隣り合う向きである場合に、配列パターン150として抽出する。
具体的には、図7に示すように、アルゴリズム実行部23は、エッジ代表向きが「(1)」である4つの画素領域が連続する場合、かかる4つの画素領域の両隣に位置する分割領域Saのエッジ代表向きを参照し、配列パターン150−1を抽出する。
具体的には、図7の上段に示すように、4つの「(1)」で構成された配列パターンの両隣のエッジ代表向きが、配列パターンのエッジ代表向き「(1)」と隣り合う向きである場合に、アルゴリズム実行部23は、かかる配列パターンを配列パターン150−1として抽出する。
一方、図7の下段に示すように、4つの「(1)」で構成された配列パターンの両隣のエッジ代表向きが、配列パターンのエッジ代表向き「(1)」と逆向きのエッジ代表向き「(3)」である場合、アルゴリズム実行部23は、かかる配列パターンを配列パターン150−1として抽出しない。
これは、上述のように、雪埋もれ領域では、エッジ角が緩やかに変化しやすく、エッジ角が連続的に変化するため、隣り合う分割領域Saが互いに逆向きのエッジ代表向きを取りにくいためである。
つまり、アルゴリズム実行部23は、走査方向に沿って連続的に変化するエッジ代表向きを有する配列パターン150のみを抽出し、走査方向に沿って不規則に変換する配列パターンを抽出対象から除外する。これにより、雪埋もれ領域に対応する配列パターン150の抽出精度を向上させることが可能となる。
また、上述のように、雪埋もれ領域においては、エッジ代表向きが連続的に変化するため、1つの配列パターンの長さが所定範囲に収まるという特徴を有する。このため、アルゴリズム実行部23は、長さが所定範囲に収まる配列パターン150のみを抽出することも可能である。
ここでいう所定範囲とは、例えば、24画素PX(3画素領域)〜100画素PX(25画素領域)であるが、これに限定されるものではなく、任意に変更することができる。
これにより、雪埋もれ領域に対応する配列パターン150のみを抽出することができる。言い換えれば、雪埋もれ領域の特徴に合致しない配列パターンを抽出しないので、付着物領域として雪埋もれ領域の検出精度を向上させることができる。
なお、図7では、左右方向の走査方向であり、第1角度範囲に対応する配列パターン150−1の抽出処理を例に挙げて説明したが、走査方向が上下方向および第2角度範囲に対応するエッジ代表向きの配列パターン150の抽出処理について同様である。
続いて、アルゴリズム実行部23は、アルゴリズム実行部23によって抽出された配列パターン150に基づいて各画素領域のスコアを算出する。具体的には、図8に示すように、アルゴリズム実行部23は、上下方向に沿って、「1」が8個連続する配列パターン150−1と、左右方向に沿って、「1」が7個連続する配列パターン150−1との交点CPを算出する。
続いて、アルゴリズム実行部23は、交点CPを形成する双方の配列パターン150−1の画素領域数の積を算出する。図8に示す例では、積が「8×7=56」である場合を示す。すなわち、各交点CPの積によって、交点CPに対応する同一のエッジ代表向きの集合体の大きさを概算することが可能となる。
各交点CPの積が大きいほど、同一のエッジ代表向きが広範囲に連続して分布していることを意味する。つまり、交点CPの積を求めることで、代表エッジ向きの一塊を容易に算出することができる。
そして、アルゴリズム実行部23は、交点CPにエッジ代表向きおよび、上記の積を示す交点情報を対応付ける。
なお、アルゴリズム実行部23は、交点CPの積に代えて、エッジ代表向きの1つの塊を形成する画素領域の個数をカウントすることにしてもよい。この場合、例えば、左右方向に沿って抽出された配列パターン150−1と、かかる配列パターン150−1と上下方向に隣接する配列パターン150−1との個数の和をエッジ代表向きの1つの塊の大きさとして算出することができる。
続いて、アルゴリズム実行部23は、図9に示すように、注目領域SaTを設定し、注目領域SaTを拡張した拡張領域Eaにおける交点CPに基づいて注目領域SaTが付着物領域か否かを判定する。
ここで、注目領域SaTは、1つの分割領域Saであり、拡張領域Eaは、注目領域SaTの中心とする3×3の分割領域Saである。なお、拡張領域Eaは、注目領域SaTを中心とし、注目領域SaTよりも広い領域であれば、その他の領域であってもよい。
アルゴリズム実行部23は、拡張領域Eaに含まれる交点情報に基づき、注目領域SaTが付着物領域か否かを判定する。具体的には、図9に示すように、第1角度範囲および第2角度範囲のそれぞれに基づく積の和をエッジ代表向き毎に算出する。
図9に示す例では、第1角度範囲に基づくエッジ代表向き「(0)」〜「(3)」の積の和がそれぞれ「80」、「67」、「75」および「58」であり、これらを足し合わせた合計値が「280」である場合を示す。
また、図9に示す例では、第2角度範囲に基づくエッジ代表向き「(4)」〜「(7)」の積の和がそれぞれ「73」、「42」、「18」および「32」であり、これらを足し合わせた合計値が「165」である場合を示す。
アルゴリズム実行部23は、拡張領域Eaにおいて所定の条件を満たす場合に、注目領域SaTのスコアを「1」として算出する。一方、アルゴリズム実行部23は、拡張領域Eaにおいて所定の条件を満たさない場合、注目領域SaTのスコアを「0」として算出する。
ここで、所定の条件とは、拡張領域Eaにおいて、全種類のエッジ代表向きの交点CPがあり、かつ、第1角度範囲における積の合計値および第2角度範囲における積の合計値がいずれも所定の閾値を超えることを示す。
すなわち、アルゴリズム実行部23は、第1角度範囲および第2角度範囲のそれぞれの代表エッジ向きの積が「1」以上であり、第1角度範囲および第2角度範囲のそれぞれの合計値が所定の閾値を超える場合に、スコアを「1」として算出する。
つまり、拡張領域Eaにおいて、全てのエッジ代表向きに基づく交点CPを有し、かつ、それぞれのエッジ代表向きがある程度の大きさを有する分割領域Saの集合体である場合に、注目領域SaTについてスコアを「1」として算出する。
そして、アルゴリズム実行部23は、各注目領域SaT、すなわち、分割領域Sa毎のスコアを示すスコア画像200−1を生成し、判定部24へ渡す。なお、スコアが「1」である分割領域Saは、雪埋もれ領域である可能性が高い領域であり、スコアが「0」である分割領域Saは、雪埋もれ領域である可能性が低い領域である。
図2の説明に戻り、判定部24について説明する。判定部24は、算出部22によって算出されたスコアに基づいて対象領域100が撮像装置のレンズに付着物が付着した付着物領域か否かを判定する。
本実施形態において、判定部24は、算出部22によって生成されたスコア画像200と、アルゴリズム実行部23によって生成されたスコア画像200−1に基づいて各分割領域Saの最終的なスコアを決定する。その後、判定部24は、決定した最終的なスコアに基づいて対象領域100が付着物領域か否かを判定する。
図10は、判定部24の処理内容を示す図である。図10に示すように、判定部24は、スコア画像200、200−1でそれぞれ対応する各分割領域Saのスコアを乗算することで、各分割領域Saの最終的なスコアを決定し、決定した最終的なスコアを示すスコア画像200fを生成する。
上述のように、スコア画像200、200−1において、それぞれスコアが高い分割領域Saは、雪埋もれ領域である可能性が高く領域であり、スコアが「0」である分割領域Saは、雪埋もれ領域である可能性が低い領域である。
すなわち、各分割領域Saにおいて、双方のスコア画像200、200−1のスコアを乗算することで、双方のスコア画像200、200−1において、雪埋もれ領域である可能性が高いと判定された分割領域Saのみの最終的なスコアが「1」以上となる。言い換えれば、スコア画像200、200−1の少なくとも一方で、雪埋もれ領域である可能性が低いと判定された分割領域Saの最終的なスコアは「0」となる。
このように、判定部24は、複数のアルゴリズムでそれぞれ算出したスコアに基づいて各分割領域Saの最終的なスコアを算出することで、スコアの確度を高めることが可能である。
続いて、判定部24は、スコア画像200fにおけるスコアの総和を算出し、算出した総和が総和閾値を超えていた場合、対象領域100を付着物領域として判定する。ここで、総和閾値は、例えば、「対象領域100におけるスコアの総和の最大値」×40%である。
すなわち、判定部24は、対象領域100において雪埋もれ領域である可能性が高い分割領域Saが占める割合ではなく、スコアの総和に対して閾値を設ける。これにより、部分的にスコアが高い分割領域Saを有する対象領域100や、全体的にスコアが低いもののスコアの総和が高い対象領域100を一度の判定処理で付着物領域として判定することができる。
次に、図11を用いて、実施形態に係る付着物検出装置1が実行する処理手順について説明する。図11は、付着物検出装置1が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、撮像画像Iの取得毎に制御部2によって繰り返し実行される。
図11に示すように、まず、付着物検出装置1は、撮像画像Iを取得すると(ステップS101)、エッジ強度に応じた各画素領域の得点を算出する(ステップS102)。続いて、付着物検出装置1は、算出した得点に基づき、分割領域Sa毎にスコアを算出する(ステップS103)。
続いて、付着物検出装置1は、エッジ角度に基づくアルゴリズムでスコアを算出し(ステップS104)、ステップS103およびステップS104で算出した双方のスコアに基づき、各分割領域Saの最終的なスコアを決定する(ステップS105)。
続いて、付着物検出装置1は、対象領域100におけるスコアの総和が総和閾値を超えるか否かを判定し(ステップS106)、スコアの総和が総和閾値を超える場合に(ステップS106,Yes)、対象領域100を付着物領域として判定し(ステップS107)、処理を終了する。
また、付着物検出装置1は、ステップS106の判定処理において、スコアの総和が総和閾値以下である場合(ステップS106,No)、処理を終了する。
上述したように、実施形態に係る付着物検出装置1は、算出部22と、判定部24とを備える。算出部22は、撮像装置によって撮像された撮像画像Iの各画素領域におけるエッジ強度に基づいて所定の対象領域100を分割した分割領域Saのスコアを算出する。
判定部24は、算出部22によって算出されたスコアに基づいて対象領域100が撮像装置のレンズに付着物が付着した付着物領域か否かを判定する。したがって、実施形態に係る付着物検出装置1によれば、付着物を早期に検出することができる。
ところで、上述した実施形態では対象領域100が複数の分割領域Saから構成される場合について説明したが、これに限定されるものではない。すなわち、対象領域100は、1つの分割領域Saであってもよい。これはつまり、全面が雪で埋もれている場合を検出したい時などに相当する。
この場合は特に、算出部22は、エッジ強度が所定範囲に収まる画素領域についてスコアを「1」として算出し、エッジ強度が所定範囲から逸脱する画素領域についてスコアを「0」として算出する。
ここでの所定範囲とは、エッジ強度が「1」〜所定の閾値までの範囲である。すなわち、エッジ強度が「0」もしくは強エッジとなる場合に、スコアを「0」とし、エッジ強度が「0」以外の弱エッジ(または中エッジを含む)である場合に、スコアを「1」として算出する。なお、このように0と1のスコアを設定することは、換言すれば、エッジ強度が「0」以外の弱エッジである画素領域の数を数えることとも言える。
そして、判定部24は、対象領域100におけるスコアの総和が閾値(例えば、40%)を超える場合に、かかる対象領域100について付着物領域として判定する。かかる場合であっても、1枚の撮像画像Iから付着物領域を判定することができるので、付着物を早期に検出することが可能である。
また、上述した実施形態では、車両に搭載されるカメラで撮像された撮像画像Iを用いたが、撮像画像Iは、例えば、防犯カメラや、街灯等に設置されたカメラで撮像された撮像画像Iであってもよい。つまり、カメラのレンズに付着物が付着する可能性があるカメラで撮像された撮像画像Iであればよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 付着物検出装置
2 制御部
3 記憶部
10 カメラ
21 画像取得部
22 算出部
23 アルゴリズム実行部
24 判定部
50 各種機器
100 対象領域
I 撮像画像
Sa 分割領域
Pa 画素領域
PX 画素

Claims (5)

  1. 撮像装置によって撮像された撮像画像の各画素領域におけるエッジ強度に基づいて所定の対象領域を分割した分割領域のスコアを算出する算出部と、
    前記算出部によって算出された前記スコアに基づいて前記対象領域が前記撮像装置のレンズに付着物が付着した付着物領域か否かを判定する判定部と
    を備えることを特徴とする付着物検出装置。
  2. 前記算出部は、
    前記エッジ強度に応じた得点を画素領域毎に算出し、前記分割領域毎における前記得点の総和に基づいてスコアを算出し、
    前記判定部は、
    前記対象領域に含まれる前記分割領域の前記スコアの総和が閾値条件を満たす場合に、当該対象領域について前記付着物領域として判定すること
    を特徴とする請求項1に記載の付着物検出装置。
  3. 前記算出部は、
    前記エッジ強度が所定範囲内か否かに基づいて前記スコアを算出し、
    前記判定部は、
    前記対象領域に含まれる前記スコアの総和が閾値条件を満たす場合に、前記付着物領域と判定すること
    を特徴とする請求項1に記載の付着物検出装置。
  4. 前記判定部は、
    前記スコアと、前記算出部とは異なるアルゴリズムで算出されたスコアとに基づいて前記付着物領域か否かを判定すること
    を特徴とする請求項1、2または3に記載の付着物検出装置。
  5. 撮像装置によって撮像された撮像画像の各画素領域におけるエッジ強度に基づいて所定の対象領域を分割した分割領域のスコアを算出する算出工程と、
    前記算出工程によって算出された前記スコアに基づいて前記対象領域が前記撮像装置のレンズに付着物が付着した付着物領域か否かを判定する判定工程と
    を含むことを特徴とする付着物検出方法。
JP2019000794A 2019-01-07 2019-01-07 付着物検出装置および付着物検出方法 Active JP7283081B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019000794A JP7283081B2 (ja) 2019-01-07 2019-01-07 付着物検出装置および付着物検出方法
US16/564,794 US11037266B2 (en) 2019-01-07 2019-09-09 Attached substance detection device and attached substance detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019000794A JP7283081B2 (ja) 2019-01-07 2019-01-07 付着物検出装置および付着物検出方法

Publications (2)

Publication Number Publication Date
JP2020109595A true JP2020109595A (ja) 2020-07-16
JP7283081B2 JP7283081B2 (ja) 2023-05-30

Family

ID=71404394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019000794A Active JP7283081B2 (ja) 2019-01-07 2019-01-07 付着物検出装置および付着物検出方法

Country Status (2)

Country Link
US (1) US11037266B2 (ja)
JP (1) JP7283081B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114868729A (zh) * 2022-03-31 2022-08-09 国网山东省电力公司微山县供电公司 一种用于电力设备的驱鸟方法及系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7234630B2 (ja) * 2018-12-28 2023-03-08 株式会社デンソーテン 付着物検出装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014030188A (ja) * 2012-07-03 2014-02-13 Clarion Co Ltd レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム
JP2015095886A (ja) * 2013-11-14 2015-05-18 クラリオン株式会社 周囲環境認識装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012038048A (ja) 2010-08-06 2012-02-23 Alpine Electronics Inc 車両用障害物検出装置
WO2017110628A1 (ja) * 2015-12-22 2017-06-29 京セラ株式会社 撮像装置、撮像システム、車両及び異物判定方法
JP6817104B2 (ja) 2016-10-24 2021-01-20 株式会社デンソーテン 付着物検出装置、付着物検出方法
JP6873074B2 (ja) * 2018-03-12 2021-05-19 株式会社Pfu 画像処理装置、制御方法及び制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014030188A (ja) * 2012-07-03 2014-02-13 Clarion Co Ltd レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム
JP2015095886A (ja) * 2013-11-14 2015-05-18 クラリオン株式会社 周囲環境認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114868729A (zh) * 2022-03-31 2022-08-09 国网山东省电力公司微山县供电公司 一种用于电力设备的驱鸟方法及系统

Also Published As

Publication number Publication date
JP7283081B2 (ja) 2023-05-30
US11037266B2 (en) 2021-06-15
US20200219222A1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
JP5975598B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11170487B2 (en) Adhered substance detection apparatus
WO2009098743A1 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP6817104B2 (ja) 付着物検出装置、付着物検出方法
KR101051459B1 (ko) 영상의 에지를 추출하는 장치 및 방법
JP5983729B2 (ja) 白線検出装置、白線検出フィルタ装置及び白線検出方法
JP7283081B2 (ja) 付着物検出装置および付着物検出方法
JP7206909B2 (ja) 付着物検出装置および付着物検出方法
US10997743B2 (en) Attachable matter detection apparatus
JP2018142828A (ja) 付着物検出装置および付着物検出方法
JP4887540B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP7200893B2 (ja) 付着物検出装置および付着物検出方法
JP7234630B2 (ja) 付着物検出装置
JP7163766B2 (ja) 付着物検出装置および付着物検出方法
JP2021050932A (ja) 付着物検出装置、および付着物検出方法
US11393128B2 (en) Adhered substance detection apparatus
JP5642785B2 (ja) 車両の周辺監視装置
JP7274867B2 (ja) 付着物検出装置および付着物検出方法
US20200211194A1 (en) Attached object detection apparatus
JP7175188B2 (ja) 付着物検出装置および付着物検出方法
JP2021051377A (ja) 付着物検出装置および付着物検出方法
JP2021052234A (ja) 付着物検出装置および付着物検出方法
JP7172930B2 (ja) 付着物検出装置および付着物検出方法
JP2021051379A (ja) 付着物検出装置および付着物検出方法
JP2021052238A (ja) 付着物検出装置および付着物検出方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R150 Certificate of patent or registration of utility model

Ref document number: 7283081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150