JP2021050934A - 付着物検出装置および付着物検出方法 - Google Patents

付着物検出装置および付着物検出方法 Download PDF

Info

Publication number
JP2021050934A
JP2021050934A JP2019172211A JP2019172211A JP2021050934A JP 2021050934 A JP2021050934 A JP 2021050934A JP 2019172211 A JP2019172211 A JP 2019172211A JP 2019172211 A JP2019172211 A JP 2019172211A JP 2021050934 A JP2021050934 A JP 2021050934A
Authority
JP
Japan
Prior art keywords
edge
feature amount
area
unit
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019172211A
Other languages
English (en)
Other versions
JP7172931B2 (ja
Inventor
山本 大輔
Daisuke Yamamoto
大輔 山本
信徳 朝山
Nobutoku Asayama
信徳 朝山
修久 池田
Nobuhisa Ikeda
修久 池田
谷 泰司
Taiji Tani
泰司 谷
河野 貴
Takashi Kono
貴 河野
大輔 塩田
Daisuke Shioda
大輔 塩田
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019172211A priority Critical patent/JP7172931B2/ja
Priority to US17/017,846 priority patent/US11393128B2/en
Publication of JP2021050934A publication Critical patent/JP2021050934A/ja
Application granted granted Critical
Publication of JP7172931B2 publication Critical patent/JP7172931B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/94Investigating contamination, e.g. dust
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/958Inspecting transparent materials or objects, e.g. windscreens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/958Inspecting transparent materials or objects, e.g. windscreens
    • G01N2021/9583Lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

【課題】付着物の検出精度を向上させること。【解決手段】実施形態に係る付着物検出装置は、算出部と、判定部とを備える。算出部は、撮像画像に含まれる所定数の画素からなるセル毎に、各画素のエッジベクトルに基づくエッジ特徴量を算出し、かかるエッジ特徴量に基づいて、所定数のセルからなる所定の領域である単位領域毎の領域特徴量を算出する。判定部は、領域特徴量に基づいて、カメラのレンズへの付着物の付着状態を判定する。また、算出部は、エッジ特徴量に含まれるエッジ強度がゼロであるセルの個数を領域特徴量として算出する。また、判定部は、撮像画像の所定の注目領域内で上記個数が所定数以上である場合に、レンズの全面が付着物で埋もれている状態である全埋もれを判定しない。【選択図】図2

Description

開示の実施形態は、付着物検出装置および付着物検出方法に関する。
従来、車両等に搭載されたカメラによって撮像された撮像画像に基づいて、カメラレンズに付着した付着物を検出する付着物検出装置が知られている。付着物検出装置には、たとえば、時系列の撮像画像の差分に基づいて付着物を検出するものがある(たとえば、特許文献1参照)。
特開2012−038048号公報
しかしながら、上述した従来技術には、付着物の検出精度を向上させるうえで、さらなる改善の余地がある。
実施形態の一態様は、上記に鑑みてなされたものであって、付着物の検出精度を向上させることができる付着物検出装置および付着物検出方法を提供することを目的とする。
実施形態の一態様に係る付着物検出装置は、算出部と、判定部とを備える。前記算出部は、撮像画像に含まれる所定数の画素からなるセル毎に、各画素のエッジベクトルに基づくエッジ特徴量を算出し、該エッジ特徴量に基づいて、所定数の前記セルからなる所定の領域である単位領域毎の領域特徴量を算出する。前記判定部は、前記領域特徴量に基づいて、カメラのレンズへの付着物の付着状態を判定する。また、前記算出部は、前記エッジ特徴量に含まれるエッジ強度がゼロである前記セルの個数を前記領域特徴量として算出する。また、前記判定部は、前記撮像画像の所定の注目領域内で前記個数が所定数以上である場合に、前記レンズの全面が付着物で埋もれている状態である全埋もれを判定しない。
実施形態の一態様によれば、付着物の検出精度を向上させることができる。
図1Aは、実施形態に係る付着物検出方法の概要説明図(その1)である。 図1Bは、実施形態に係る付着物検出方法の概要説明図(その2)である。 図1Cは、実施形態に係る付着物検出方法の概要説明図(その3)である。 図2は、実施形態に係る付着物検出装置のブロック図である。 図3は、算出部の処理内容を示す図(その1)である。 図4は、算出部の処理内容を示す図(その2)である。 図5は、算出部の処理内容を示す図(その3)である。 図6は、算出部の処理内容を示す図(その4)である。 図7は、変形例に係る算出部の処理内容を示す図(その1)である。 図8は、変形例に係る算出部の処理内容を示す図(その2)である。 図9Aは、判定部の処理内容を示す図(その1)である。 図9Bは、判定部の処理内容を示す図(その2)である。 図9Cは、判定部の処理内容を示す図(その3)である。 図9Dは、判定部の処理内容を示す図(その4)である。 図10は、実施形態に係る付着物検出装置が実行する処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
まず、図1A〜図1Cを用いて、実施形態に係る付着物検出方法の概要について説明する。図1A〜図1Cは、実施形態に係る付着物検出方法の概要説明図(その1)〜(その3)である。
図1Aに示すように、たとえば、車載カメラのレンズ表面に雪が付着した状態で撮像された撮像画像Iがあるものとする。以下では、実施形態に係る付着物検出方法を適用した付着物検出装置1(図2参照)が、かかる撮像画像Iの各画素の輝度勾配に関する特徴量(以下、「エッジ特徴量」と言う場合がある)に基づいて、雪によって車載カメラのレンズ全面が埋もれている状態(以下、「全埋もれ」と言う)を検出する場合を例に挙げる。
具体的には、図1Aに示すように、付着物検出装置1は、撮像画像Iの所定の注目領域であるROI(Region Of Interest)から算出される各画素PXのエッジ特徴量に基づいて、雪の付着状態を検出する。エッジ特徴量は、角度特徴量および強度特徴量を含む。角度特徴量は、各画素PXのエッジベクトル(輝度勾配)の向き(以下、「エッジ向き」と言う場合がある)である。強度特徴量は、各画素PXのエッジベクトルの大きさ(以下、「エッジ強度」と言う場合がある)である。
なお、付着物検出装置1は、画像処理における処理負荷を軽減するため、かかるエッジ特徴量を、所定数の画素PXからなるセル100単位で取り扱う。これにより、画像処理における処理負荷の軽減に資することができる。また、ROIを構成する単位領域UAは、かかるセル100の集まりである。
つづいて、付着物検出装置1は、かかるセル100毎に抽出したエッジ特徴量に基づいて、単位領域UA毎の特徴量である領域特徴量を算出する。領域特徴量は、言わば単位領域UA毎におけるエッジ特徴量の統計的特徴量であり、たとえばペア領域の個数およびペア領域のエッジ強度の総和を含む。ここで、ペア領域は、隣接し、エッジ向きが互いに逆向きであるセル100の組み合わせである。そのうえで、付着物検出装置1は、かかる領域特徴量に基づいて全埋もれ判定を行う。
より具体的には、図1Aに示すように、付着物検出装置1は、撮像画像Iにおいて、所定数のセル100が上下方向および左右方向に配列された所定の領域である単位領域UA毎に、まずセル100単位でエッジ特徴量を算出する(ステップS1)。エッジ特徴量は、上述したようにエッジ向きおよびエッジ強度である。
セル100のエッジ向きは、図1Aに示すように、所定の角度範囲で角度分類される各画素PXのベクトル向きの代表値であり、図1Aの例では、90°の角度範囲毎に区切られた上下左右のいずれかで決定される。また、セル100のエッジ強度は、各画素PXのベクトル強度の代表値である。なお、かかるセル100単位のエッジ特徴量の算出処理については、図3および図4を用いて後述する。
つづいて、付着物検出装置1は、ステップS1で算出したセル100毎のエッジ特徴量に基づいて、単位領域UA毎の領域特徴量、ここでは上述したペア領域の個数およびペア領域のエッジ強度の総和を算出する(ステップS2)。
そして、付着物検出装置1は、算出したペア領域の個数およびペア領域のエッジ強度の総和に基づいて全埋もれ判定を行う(ステップS3)。ここで、ペア領域は通常、撮像画像Iにおける背景部分のエッジに多くまたは強く現れる特徴がある。
したがって、かかる特徴が一定以下であれば、すなわち図1Aに示すように、ペア領域の個数およびペア領域のエッジ強度の総和がともに小さいならば、背景のエッジが見えておらず、全埋もれであるとの判定を行うことができる。
ところで、こうした全埋もれに似た状況として、図1Bの上段に示すように、全埋もれではないが、夜間などで周囲に照明がなく、暗くて背景が見えないといった状況(以下、「暗闇#1」と言う場合がある)が挙げられる。かかる場合、撮像画像Iにおいては、背景のエッジが見えていない、すなわちペア領域の個数およびペア領域のエッジ強度の総和がともに小さいということであり、付着物検出装置1は、上述した全埋もれ判定において全埋もれであると誤判定してしまうおそれがある。
ここで、図1Bの下段に、撮像画像Iについて前述の角度分類を可視化させた角度分類画像を示す。かかる角度分類画像を観察すると、画像全体にわたり、白色の箇所が広範囲に存在することが分かる。
白色の箇所は、角度なし(=強度ゼロ)の箇所である。なお、強度がゼロである、とはエッジ強度が完全に0である必要はなく、設計などにおいてあらかじめ設定される所定の範囲にエッジ強度が含まれる状態を指してもよい。かかる角度なしの箇所は、暗闇#1以外の場面においては通常概ね10%未満であることが分かっている。そこで、実施形態に係る付着物検出方法では、かかる角度分類画像から分かる暗闇#1の特徴を利用することで、全埋もれ検出における誤判定を防止することとした。
具体的には、図1Cに示すように、実施形態に係る付着物検出方法では、ROI内に角度なしの箇所が所定数以上存在するならば、暗闇で判定が困難であると推定し、全埋もれ判定を実施しないこととした。
これにより、実施形態に係る付着物検出方法によれば、暗闇#1のような状況下において、全埋もれであると誤判定してしまうのを防止することができる。すなわち、付着物の検出精度を向上させることができる。
なお、実施形態に係る付着物検出方法では、撮像画像Iの1フレーム毎に全埋もれ検出処理を繰り返しており、1フレーム毎に全埋もれであるか否かの判定結果(たとえば「1」か「−1」か)が導出される。しかし、図1Cに示すように、全埋もれ判定を実施しない場合は、判定結果として「1」か「−1」以外、たとえば「0」を導出する。
なお、全埋もれに似た状況は、図1Bに示した暗闇#1に限られない。暗闇#1以外の似た状況については、図9A〜図9Dを用いた説明で後述する。
以下、上述した実施形態に係る付着物検出方法を適用した付着物検出装置1の構成例について、さらに具体的に説明する。
図2は、実施形態に係る付着物検出装置1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
図2に示すように、実施形態に係る付着物検出装置1は、記憶部2と、制御部3とを備える。また、付着物検出装置1は、カメラ10と、各種機器50とに接続される。
なお、図2では、付着物検出装置1が、カメラ10および各種機器50とは別体で構成される場合を示したが、これに限らず、カメラ10および各種機器50の少なくとも一方と一体に構成されてもよい。
カメラ10は、たとえば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。カメラ10は、たとえば、車両の前後方、側方の様子を撮像可能な位置にそれぞれ設けられ、撮像された撮像画像Iを付着物検出装置1へ出力する。
各種機器50は、付着物検出装置1の検出結果を取得して、車両の各種制御を行う機器である。各種機器50は、たとえば、カメラ10のレンズに付着物が付着していることやユーザへの付着物の拭き取り指示を通知する表示装置、流体や気体等をレンズへ向けて噴射して付着物を除去する除去装置、および、自動運転等を制御する車両制御装置などを含む。
記憶部2は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、分類情報21と、閾値情報22とを記憶する。
分類情報21は、上述した角度分類に関する情報であり、たとえば角度分類における所定の角度範囲等を含む。閾値情報22は、後述する判定部33が実行する判定処理において用いられる閾値に関する情報であり、たとえば図1Cに示した角度なしの箇所の所定数等を含む。
制御部3は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、付着物検出装置1内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部3は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
制御部3は、取得部31と、算出部32と、判定部33とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
取得部31は、カメラ10で撮像された撮像画像Iを取得する。取得部31は、取得した撮像画像Iにおける各画素を輝度に応じて白から黒までの各階調に変換するグレースケール化処理を行うとともに、各画素について平滑化処理を行って、算出部32へ出力する。なお、平滑化処理にはたとえば、平均化フィルタや、ガウシアンフィルタ等の任意の平滑化フィルタを用いることができる。また、グレースケール化処理や、平滑化処理については、省略されてもよい。
算出部32は、取得部31から取得した撮像画像Iのセル100毎に、エッジ特徴量を算出する。ここで、図3および図4を用いて、算出部32によるエッジ特徴量の算出処理について具体的に説明する。
図3および図4は、算出部32の処理内容を示す図(その1)および(その2)である。図3に示すように、算出部32は、まず、各画素PXにつきエッジ検出処理を行って、X軸方向(撮像画像Iの左右方向)のエッジexの強度と、Y軸方向(撮像画像Iの上下方向)のエッジeyの強度とを検出する。エッジ検出処理には、たとえば、Sobelフィルタや、Prewittフィルタ等の任意のエッジ検出フィルタを用いることができる。
つづいて、算出部32は、検出したX軸方向のエッジexの強度と、Y軸方向のエッジeyの強度とに基づき、三角関数を用いることでエッジベクトルVを算出し、かかるエッジベクトルVとX軸とがなす角度θであるエッジ向きと、エッジベクトルVの長さLであるエッジ強度を算出する。
つづいて、算出部32は、算出した各画素PXのエッジベクトルVに基づき、セル100におけるエッジ向きの代表値を抽出する。具体的には、図4の上段に示すように、算出部32は、セル100における各画素PXのエッジベクトルVのエッジ向き−180°〜180°を、90°毎の上下左右4方向である角度分類(0)〜(3)(以下、「上下左右4分類」と言う場合がある)に分類する。
より具体的には、算出部32は、画素PXのエッジ向きが、−45°以上45°未満の角度範囲である場合には角度分類(0)に分類し、45°以上135°未満の角度範囲である場合には角度分類(1)に分類し、135°以上180°未満、または−180°以上−135°未満の角度範囲である場合には角度分類(2)に分類し、−135°以上−45°未満の角度範囲である場合には角度分類(3)に分類する。
そして、図4の下段に示すように、算出部32は、各セル100について、角度分類(0)〜(3)を各階級とするヒストグラムを生成する。そして、算出部32は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する角度分類(図4の例では、角度分類(1))を、セル100におけるエッジ向きの代表値として抽出する。
前述のヒストグラムの度数は、セル100内における各画素PXのうち、同一の角度範囲に分類された画素PXのエッジ強度を足し合わせて算出する。具体的に、角度分類(0)の階級におけるヒストグラムの度数について考える。たとえば、角度分類(0)に分類された画素PXが3つあるとし、それぞれの画素PXにおけるエッジ強度を10,20,30とする。この場合、角度分類(0)の階級におけるヒストグラムの度数は、10+20+30=60と算出される。
このようにして算出されたヒストグラムに基づき、算出部32はセル100におけるエッジ強度の代表値を算出する。具体的に、かかるエッジ強度の代表値は、ヒストグラムにおいて最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する度数をセル100のエッジ強度とする。すなわち、算出部32におけるエッジ強度の代表値の算出処理は、エッジ向きの代表値に対応した、セル100内におけるエッジの強さに関する特徴を算出する処理とも言える。
一方、算出部32は、最も度数が高い階級の度数が所定の閾値THa未満である場合は、かかるセル100のエッジ向きについては、「無効」、換言すれば、「エッジ向きの代表値なし」として取り扱う。すなわち、前述の「角度なし」である。これにより、各画素PXのエッジ向きのばらつきが大きい場合に、特定のエッジ向きを代表値として算出してしまうことを防止できる。
なお、図3および図4で示した算出部32の処理内容は、あくまで一例であって、エッジ向きの代表値を算出可能であれば、処理内容は任意であってよい。たとえば、セル100における各画素PXのエッジ向きの平均値を算出し、かかる平均値に対応する角度分類(0)〜(3)をエッジ向きの代表値としてもよい。
また、図4では、4×4の計16個の画素PXを1つのセル100とする場合を示したが、セル100における画素PXの数は、任意に設定されてよく、また、3×5等のように、上下方向および左右方向の画素PXの数が異なってもよい。
図2の説明に戻る。また、算出部32は、算出したセル100毎のエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する。
具体的には、算出部32は、単位領域UA毎のペア領域200の個数およびエッジ強度の総和を算出する。
ここで、算出部32によるペア領域200の個数およびエッジ強度の総和の算出処理について、図5および図6を用いて説明する。図5および図6は、算出部32の処理内容を示す図(その3)および(その4)である。
なお、図5では、2つのペア領域200が、セル100を共有していない場合を示し、図6では、2つのペア領域200が、セル100を共有している場合を示している。
図5に示すように、算出部32は、単位領域UAの左右方向および上下方向に配列された複数のセル100について、左右方向および上下方向に走査し、ペア領域200を探索する。すなわち、算出部32は、単位領域UAにおけるセル100のうち、隣接し、エッジ向きが互いに逆向きであるセル100同士をペア領域200として抽出する。
そして、算出部32は、抽出されたペア領域200の個数、および、ペア領域200におけるエッジ強度の総和を算出する。なお、図5に示すように、算出部32は、抽出されたたとえば2つのペア領域200がセル100を共有していない場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる4つのセル100のエッジ強度を合計した値として算出する。
また、図6に示すように、算出部32は、抽出されたたとえば2つのペア領域200がセル100を共有している場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる3つのセル100のエッジ強度を合計した値として算出する。
なお、算出部32は、上述した「上下左右4分類」の角度分類だけでなく、たとえば「斜め4分類」の角度分類に基づいて、1つのセル100について2種類以上のエッジ向きの代表値を割り当て、領域特徴量を算出してもよい。かかる点について、図7および図8を用いて説明する。図7および図8は、変形例に係る算出部32の処理内容を示す図(その1)および(その2)である。
算出部32は、「上下左右4分類」を第1の角度分類とし、これに基づくエッジ向きの代表値を第1代表値とすれば、図7に示すように、「斜め4分類」を第2の角度分類とし、これに基づくエッジ向きの代表値を第2代表値として算出することができる。
かかる場合、算出部32は、セル100における各画素PXのエッジベクトルVのエッジ向き−180°〜180°を、第2の角度分類により、90°毎の斜め4方向である角度分類(4)〜(7)に分類する。
より具体的には、算出部32は、画素PXのエッジ向きが、0°以上90°未満の角度範囲である場合には角度分類(4)に分類し、90°以上180°未満の角度範囲である場合には角度分類(5)に分類し、−180°以上−90°未満の角度範囲である場合には角度分類(6)に分類し、−90°以上0°未満の角度範囲である場合には角度分類(7)に分類する。
そして、図4の下段に示したのと同様に、算出部32は、各セル100について、角度分類(4)〜(7)を各階級とするヒストグラムを生成する。そして、算出部32は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する角度分類を、セル100におけるエッジ向きの第2代表値として算出する。
これにより、図8に示すように、1つのセル100についてそれぞれ2つのエッジ向きの代表値を割り当てることができる。そして、図8に示すように、算出部32は、隣接するセル100において、エッジ向きの第1代表値、および、第2代表値の少なくとも一方が互いに逆向きである場合、かかる隣接するセル100をペア領域200として抽出する。
つまり、算出部32は、各セル100において、エッジ向きの第1代表値および第2代表値を算出することで、1種類のエッジ向きのみでは抽出できなかったペア領域200を抽出することが可能となる。
たとえば、エッジ向きが140°の画素PXと、エッジ向きが−40°の画素PXとについて、第1角度範囲では逆向きとはならないが、第2角度範囲では逆向きとなることで、セル100におけるエッジ向きの変化をより高精度に検出することが可能となる。
図2の説明に戻る。また、算出部32は、領域特徴量としてさらに、エッジ特徴量に含まれるエッジ強度がゼロであるセル100の個数、すなわち上述した角度なしの箇所の数や、輝度平均値等を算出する。そして、算出部32は、算出した単位領域UA毎の領域特徴量を判定部33へ出力する。
判定部33は、算出部32によって算出された領域特徴量、すなわちペア領域200の個数、および、ペア領域200におけるエッジ強度の総和に基づいて全埋もれ判定を行う。
ただし、判定部33は、図1Cに示したように、ROI内に角度なしの箇所が所定数以上存在する、すなわち暗闇#1の条件に該当するならば、暗闇で判定が困難であるとして、全埋もれ判定を実施しない。
なお、判定部33は、暗闇#1以外にも、全埋もれに似た状況に際して誤判定を防止するための処理を行うことができる。図9A〜図9Dは、判定部33の処理内容を示す図(その1)〜(その4)である。暗闇#1の場合については説明済みのため、図9A〜図9Dを用いた説明ではその他の場合について説明する。
まず、図9Aおよび図9Bを用いた説明では、暗闇#2の場合を例に挙げる。暗闇#2は、図9Aの上段に示すように、撮像画像Iにおいて、たとえば車両のブレーキランプ等でほのかに照らされ、暗闇#1ほどまとまった黒潰れはないものの、光量が足りずに背景が見えにくい場合である。
ここで、図9Aの下段に、かかる撮像画像Iについての角度分類画像を示す。かかる角度分類画像を観察すると、暗闇#1の場合ほど白色(=角度なし)の箇所は広範囲に存在しないものの、撮像画像Iの暗い領域に角度なしの箇所が点在していることが分かる。
そこで、判定部33は、かかる角度分類画像から分かる暗闇#2の特徴を利用することで、全埋もれ検出における誤判定を防止する。
具体的には、図9Bに示すように、判定部33は、(角度なしの箇所が所定数以上)かつ(輝度平均値が所定値未満)の単位領域UAが、ROI内に所定の比率以上存在するならば、暗闇#1の場合と同様に、暗闇で判定が困難であると推定し、全埋もれ判定を実施しない。
これにより、暗闇#2のような状況下において、全埋もれであると誤判定してしまうのを防止することができる。すなわち、付着物の検出精度を向上させることができる。
なお、暗闇#2の場合も、暗闇#1の場合と同様に全埋もれ判定を実施しないので、判定部33は、判定結果として「0」を導出することとなる。
つづいて、図9Cおよび図9Dを用いた説明では、暗闇#3の場合を例に挙げる。暗闇#3は、図9Cの上段に示すように、たとえばレンズに融雪剤等が付着して全体的にボケて見える夜間のリアカメラの撮像画像Iにおいて、ライトで車両のバンパー部分が白飛びし、背景のエッジもボケているような場合である。
なお、レンズの全面が雪に覆われている場合、画面上部がトンネルの照明等で明るくなることはあるが、路面から光が照射されるといった、画面下部が明るくなるようなケースは想定しにくい。
そこで、判定部33は、かかる特徴を利用し、画面上部および画面下部にそれぞれ設定されたROI_U,ROI_Dの輝度平均値の差分に基づいて、全埋もれ検出における誤判定を防止する。
図9Cの下段に、かかる撮像画像Iについて、画面上部のROI_Uの輝度平均値を縦軸とし、画面下部のROI_Dの輝度平均値を横軸とした相関図を示す。
かかる相関図を観察すると、暗闇#3のような状況で全埋もれと誤判定される場合、画面上下の輝度差に偏りがある、たとえばROI_UよりもROI_Dの方が50以上大きい(図中の点線よりも下の領域に位置している)ことが分かる。
そこで、判定部33は、図9Dに示すように、ROI_Uの輝度平均値よりも、ROI_Dの輝度平均値が所定値以上大きい(図9Cの例では50以上)ならば、全埋もれではないと判定する。すなわち、判定部33は、判定結果として「−1」を導出する。
これにより、暗闇#3のような状況下において、全埋もれであると誤判定してしまうのを防止することができる。すなわち、付着物の検出精度を向上させることができる。
図2の説明に戻る。そして、判定部33は、判定した判定結果を各種機器50へ通知する。
次に、図10を用いて、実施形態に係る付着物検出装置1が実行する処理手順について説明する。図10は、実施形態に係る付着物検出装置1が実行する処理手順を示すフローチャートである。なお、図10では、1フレーム分の撮像画像Iについての処理手順を示している。
図10に示すように、まず、取得部31が、撮像画像Iを取得する(ステップS101)。あわせて取得部31は、撮像画像Iに対してグレースケール化処理および平滑化処理を施す。
つづいて、算出部32が、撮像画像Iのセル100毎のエッジ特徴量を算出する(ステップS102)。また、算出部32は、算出したエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する(ステップS103)。
そして、判定部33が、算出部32によって算出された領域特徴量に基づいて暗闇#1の条件に該当するか否かを判定する(ステップS104)。ここで、暗闇#1の条件に該当する場合(ステップS104,Yes)、判定部33は、全埋もれ判定を実施せずに判定結果としてたとえば「0」を導出して、ステップS109へ移行する。
また、暗闇#1の条件に該当しない場合(ステップS104,No)、つづいて判定部33は、暗闇#2の条件に該当するか否かを判定する(ステップS105)。ここで、暗闇#2の条件に該当する場合(ステップS105,Yes)、判定部33は、全埋もれ判定を実施せずに判定結果としてたとえば「0」を導出して、ステップS109へ移行する。
また、暗闇#2の条件に該当しない場合(ステップS105,No)、つづいて判定部33は、暗闇#3の条件に該当するか否かを判定する(ステップS106)。ここで、暗闇#3の条件に該当する場合(ステップS106,Yes)、判定部33は、全埋もれではないと判定する(ステップS107)。判定結果として、たとえば「−1」を導出する。
また、暗闇#3の条件に該当しない場合(ステップS106,No)、判定部33は、算出部32によって算出されたペア領域200の個数およびエッジ強度の総和に基づいて全埋もれ判定を行う(ステップS108)。
そして、判定部33は、判定結果を各種機器50へ通知して(ステップS109)、処理を終了する。
上述してきたように、実施形態に係る付着物検出装置1は、算出部32と、判定部33とを備える。算出部32は、撮像画像Iに含まれる所定数の画素PXからなるセル100毎に、各画素PXのエッジベクトルに基づくエッジ特徴量を算出し、かかるエッジ特徴量に基づいて、所定数のセル100からなる所定の領域である単位領域UA毎の領域特徴量を算出する。判定部33は、上記領域特徴量に基づいて、カメラ10のレンズへの付着物の付着状態を判定する。また、算出部32は、上記エッジ特徴量に含まれるエッジ強度がゼロであるセル100の個数を上記領域特徴量として算出する。また、判定部33は、撮像画像IのROI内で上記個数が所定数以上である場合に、上記レンズの全面が付着物で埋もれている状態である全埋もれを判定しない。
したがって、実施形態に係る付着物検出装置1によれば、付着物の検出精度を向上させることができる。特に、上述した暗闇#1の場合に、誤判定を防止することができる。
また、算出部32は、輝度平均値を上記領域特徴量として算出し、判定部33は、上記個数が所定数以上であり、かつ、上記輝度平均値が所定値未満である単位領域UAが、撮像画像IのROI内に所定の比率以上で存在する場合に、上記全埋もれを判定しない。
したがって、実施形態に係る付着物検出装置1によれば、付着物の検出精度を向上させることができる。特に、上述した暗闇#2の場合に、誤判定を防止することができる。
また、判定部33は、撮像画像Iの上部に設定されたROI_Uの上記輝度平均値よりも、撮像画像Iの下部に設定された所定のROI_Dの上記輝度平均値が所定値以上大きい場合に、上記全埋もれではないと判定する。
したがって、実施形態に係る付着物検出装置1によれば、付着物の検出精度を向上させることができる。特に、上述した暗闇#3の場合に、誤判定を防止することができる。
なお、上述した実施形態では、−180°〜180°を90°毎の角度範囲で分割した4方向に角度分類する場合を示したが、角度範囲は90°に限定されず、たとえば60°毎の角度範囲で分割した6方向に角度分類してもよい。
また、第1の角度分類および第2の角度分類でそれぞれの角度範囲の幅が異なってもよい。たとえば、第1の角度分類では90°毎で角度分類し、第2の角度分類では、60°毎で角度分類してもよい。また、第1の角度分類および第2の角度分類では、角度範囲の角度の境界を45°ずらしたが、ずらす角度が45°を超える、もしくは、45°未満であってもよい。
また、上述した実施形態では、車載カメラで撮像された撮像画像Iを例に挙げたが、撮像画像Iは、たとえば、防犯カメラや、街灯等に設置されたカメラで撮像された撮像画像Iであってもよい。つまり、カメラのレンズに付着物が付着する可能性があるカメラで撮像された撮像画像Iであればよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 付着物検出装置
2 記憶部
3 制御部
10 カメラ
21 分類情報
22 閾値情報
31 取得部
32 算出部
33 判定部
50 各種機器
100 セル
200 ペア領域
I 撮像画像
PX 画素
UA 単位領域

Claims (4)

  1. 撮像画像に含まれる所定数の画素からなるセル毎に、各画素のエッジベクトルに基づくエッジ特徴量を算出し、該エッジ特徴量に基づいて、所定数の前記セルからなる所定の領域である単位領域毎の領域特徴量を算出する算出部と、
    前記領域特徴量に基づいて、カメラのレンズへの付着物の付着状態を判定する判定部と
    を備え、
    前記算出部は、
    前記エッジ特徴量に含まれるエッジ強度がゼロである前記セルの個数を前記領域特徴量として算出し、
    前記判定部は、
    前記撮像画像の所定の注目領域内で前記個数が所定数以上である場合に、前記レンズの全面が付着物で埋もれている状態である全埋もれを判定しない
    ことを特徴とする付着物検出装置。
  2. 前記算出部は、
    輝度平均値を前記領域特徴量として算出し、
    前記判定部は、
    前記個数が所定数以上であり、かつ、前記輝度平均値が所定値未満である前記単位領域が、前記撮像画像の所定の注目領域内に所定の比率以上で存在する場合に、前記全埋もれを判定しない
    ことを特徴とする請求項1に記載の付着物検出装置。
  3. 前記判定部は、
    前記撮像画像の上部に設定された所定の注目領域の前記輝度平均値よりも、前記撮像画像の下部に設定された所定の注目領域の前記輝度平均値が所定値以上大きい場合に、前記全埋もれではないと判定する、
    ことを特徴とする請求項2に記載の付着物検出装置。
  4. 撮像画像に含まれる所定数の画素からなるセル毎に、各画素のエッジベクトルに基づくエッジ特徴量を算出し、該エッジ特徴量に基づいて、所定数の前記セルからなる所定の領域である単位領域毎の領域特徴量を算出する算出工程と、
    前記領域特徴量に基づいて、カメラのレンズへの付着物の付着状態を判定する判定工程と
    を含み、
    前記算出工程は、
    前記エッジ特徴量に含まれるエッジ強度がゼロである前記セルの個数を前記領域特徴量として算出し、
    前記判定工程は、
    前記撮像画像の所定の注目領域内で前記個数が所定数以上である場合に、前記レンズの全面が付着物で埋もれている状態である全埋もれを判定しない
    ことを特徴とする付着物検出方法。
JP2019172211A 2019-09-20 2019-09-20 付着物検出装置および付着物検出方法 Active JP7172931B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019172211A JP7172931B2 (ja) 2019-09-20 2019-09-20 付着物検出装置および付着物検出方法
US17/017,846 US11393128B2 (en) 2019-09-20 2020-09-11 Adhered substance detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019172211A JP7172931B2 (ja) 2019-09-20 2019-09-20 付着物検出装置および付着物検出方法

Publications (2)

Publication Number Publication Date
JP2021050934A true JP2021050934A (ja) 2021-04-01
JP7172931B2 JP7172931B2 (ja) 2022-11-16

Family

ID=74881271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019172211A Active JP7172931B2 (ja) 2019-09-20 2019-09-20 付着物検出装置および付着物検出方法

Country Status (2)

Country Link
US (1) US11393128B2 (ja)
JP (1) JP7172931B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7172931B2 (ja) * 2019-09-20 2022-11-16 株式会社デンソーテン 付着物検出装置および付着物検出方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014030188A (ja) * 2012-07-03 2014-02-13 Clarion Co Ltd レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム
CN104850219A (zh) * 2014-02-19 2015-08-19 北京三星通信技术研究有限公司 估计附着物体的人体姿势的设备和方法
JP2017032410A (ja) * 2015-07-31 2017-02-09 リコーエレメックス株式会社 検査装置、方法及びプログラム
JP2019029897A (ja) * 2017-08-01 2019-02-21 パナソニックIpマネジメント株式会社 画像監視装置、画像監視方法および画像監視プログラム
JP2019029901A (ja) * 2017-08-01 2019-02-21 トヨタ自動車株式会社 周辺監視装置
JP2019133333A (ja) * 2018-01-30 2019-08-08 株式会社デンソーテン 付着物検出装置および付着物検出方法
US11393128B2 (en) * 2019-09-20 2022-07-19 Denso Ten Limited Adhered substance detection apparatus

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012038048A (ja) 2010-08-06 2012-02-23 Alpine Electronics Inc 車両用障害物検出装置
JP6174975B2 (ja) * 2013-11-14 2017-08-02 クラリオン株式会社 周囲環境認識装置
JP6817104B2 (ja) 2016-10-24 2021-01-20 株式会社デンソーテン 付着物検出装置、付着物検出方法
US10552706B2 (en) * 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method
JP7234630B2 (ja) * 2018-12-28 2023-03-08 株式会社デンソーテン 付着物検出装置
JP7230507B2 (ja) * 2018-12-28 2023-03-01 株式会社デンソーテン 付着物検出装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014030188A (ja) * 2012-07-03 2014-02-13 Clarion Co Ltd レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム
CN104850219A (zh) * 2014-02-19 2015-08-19 北京三星通信技术研究有限公司 估计附着物体的人体姿势的设备和方法
JP2017032410A (ja) * 2015-07-31 2017-02-09 リコーエレメックス株式会社 検査装置、方法及びプログラム
JP2019029897A (ja) * 2017-08-01 2019-02-21 パナソニックIpマネジメント株式会社 画像監視装置、画像監視方法および画像監視プログラム
JP2019029901A (ja) * 2017-08-01 2019-02-21 トヨタ自動車株式会社 周辺監視装置
JP2019133333A (ja) * 2018-01-30 2019-08-08 株式会社デンソーテン 付着物検出装置および付着物検出方法
US11393128B2 (en) * 2019-09-20 2022-07-19 Denso Ten Limited Adhered substance detection apparatus

Also Published As

Publication number Publication date
US11393128B2 (en) 2022-07-19
US20210090297A1 (en) 2021-03-25
JP7172931B2 (ja) 2022-11-16

Similar Documents

Publication Publication Date Title
JP7259676B2 (ja) 付着物検出装置および付着物検出方法
JP5975598B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101051459B1 (ko) 영상의 에지를 추출하는 장치 및 방법
JP2007234019A (ja) 車両画像領域特定装置およびその方法
JP7230507B2 (ja) 付着物検出装置
WO2019013252A1 (ja) 車両周囲認識装置
JP7206909B2 (ja) 付着物検出装置および付着物検出方法
JP7172931B2 (ja) 付着物検出装置および付着物検出方法
JP7205234B2 (ja) 付着物検出装置および付着物検出方法
JP7234630B2 (ja) 付着物検出装置
JP7283081B2 (ja) 付着物検出装置および付着物検出方法
JP7200893B2 (ja) 付着物検出装置および付着物検出方法
JP7200894B2 (ja) 付着物検出装置および付着物検出方法
JP7163766B2 (ja) 付着物検出装置および付着物検出方法
JP7274867B2 (ja) 付着物検出装置および付着物検出方法
JP2021064154A (ja) 障害物識別装置および障害物識別プログラム
JP2021050932A (ja) 付着物検出装置、および付着物検出方法
JP7175188B2 (ja) 付着物検出装置および付着物検出方法
JP7243546B2 (ja) 付着物検出装置および付着物検出方法
JP7172930B2 (ja) 付着物検出装置および付着物検出方法
JP2021051377A (ja) 付着物検出装置および付着物検出方法
JP2020108060A (ja) 付着物検出装置および付着物検出方法
JP2021050935A (ja) 付着物検出装置および付着物検出方法
JP2021051379A (ja) 付着物検出装置および付着物検出方法
JP2021051378A (ja) 付着物検出装置および付着物検出方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150