JP2020109579A - 付着物検出装置および付着物検出方法 - Google Patents

付着物検出装置および付着物検出方法 Download PDF

Info

Publication number
JP2020109579A
JP2020109579A JP2019000522A JP2019000522A JP2020109579A JP 2020109579 A JP2020109579 A JP 2020109579A JP 2019000522 A JP2019000522 A JP 2019000522A JP 2019000522 A JP2019000522 A JP 2019000522A JP 2020109579 A JP2020109579 A JP 2020109579A
Authority
JP
Japan
Prior art keywords
unit
feature amount
edge
area
adhesion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019000522A
Other languages
English (en)
Other versions
JP7274867B2 (ja
Inventor
修久 池田
Nobuhisa Ikeda
修久 池田
信徳 朝山
Nobutoku Asayama
信徳 朝山
河野 貴
Takashi Kono
貴 河野
谷 泰司
Taiji Tani
泰司 谷
山本 大輔
Daisuke Yamamoto
大輔 山本
朋和 沖
Tomokazu Oki
朋和 沖
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019000522A priority Critical patent/JP7274867B2/ja
Publication of JP2020109579A publication Critical patent/JP2020109579A/ja
Application granted granted Critical
Publication of JP7274867B2 publication Critical patent/JP7274867B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】付着物の検出精度を向上させること。【解決手段】実施形態に係る付着物検出装置は、抽出部と、算出部と、推定部とを備える。抽出部は、撮像画像に含まれる所定数の画素からなるセル毎に、かかるセルに含まれる各画素のエッジベクトルに基づくエッジ特徴量を抽出する。算出部は、抽出部によって抽出されたエッジ特徴量に基づいて、所定数のセルからなる所定の領域である単位領域毎の領域特徴量を算出する。推定部は、算出部によって算出された領域特徴量を、領域特徴量の各要素を各次元とする特徴量空間へマッピングし、マッピングされた領域特徴量の位置に基づいて単位領域における付着物の付着状態を推定する。【選択図】図2

Description

開示の実施形態は、付着物検出装置および付着物検出方法に関する。
従来、車両等に搭載されたカメラによって撮像された撮像画像に基づいて、カメラレンズに付着した付着物を検出する付着物検出装置が知られている。付着物検出装置には、たとえば、時系列の撮像画像の差分に基づいて付着物を検出するものがある(たとえば、特許文献1参照)。
特開2012−038048号公報
しかしながら、上述した従来技術には、付着物の検出精度を向上させるうえで、さらなる改善の余地がある。
実施形態の一態様は、上記に鑑みてなされたものであって、付着物の検出精度を向上させることができる付着物検出装置および付着物検出方法を提供することを目的とする。
実施形態の一態様に係る付着物検出装置は、抽出部と、算出部と、推定部とを備える。前記抽出部は、撮像画像に含まれる所定数の画素からなるセル毎に、該セルに含まれる各画素のエッジベクトルに基づくエッジ特徴量を抽出する。前記算出部は、前記抽出部によって抽出された前記エッジ特徴量に基づいて、所定数の前記セルからなる所定の領域である単位領域毎の領域特徴量を算出する。前記推定部は、前記算出部によって算出された前記領域特徴量を、該領域特徴量の各要素を各次元とする特徴量空間へマッピングし、マッピングされた前記領域特徴量の位置に基づいて前記単位領域における付着物の付着状態を推定する。
実施形態の一態様によれば、付着物の検出精度を向上させることができる。
図1Aは、実施形態に係る付着物検出方法の概要説明図(その1)である。 図1Bは、実施形態に係る付着物検出方法の概要説明図(その2)である。 図1Cは、実施形態に係る付着物検出方法の概要説明図(その3)である。 図1Dは、実施形態に係る付着物検出方法の概要説明図(その4)である。 図2は、実施形態に係る付着物検出装置のブロック図である。 図3は、抽出部の処理内容を示す図(その1)である。 図4は、抽出部の処理内容を示す図(その2)である。 図5は、算出部の処理内容を示す図(その1)である。 図6は、算出部の処理内容を示す図(その2)である。 図7Aは、マッチング部の処理内容を示す図(その1)である。 図7Bは、マッチング部の処理内容を示す図(その2)である。 図7Cは、マッチング部の処理内容を示す図(その3)である。 図7Dは、マッチング部の処理内容を示す図(その4)である。 図7Eは、マッチング部の処理内容を示す図(その5)である。 図8Aは、判定部の処理内容を示す図(その1)である。 図8Bは、判定部の処理内容を示す図(その2)である。 図9は、実施形態に係る付着物検出装置が実行する処理手順を示すフローチャートである。 図10は、変形例に係る抽出部の処理内容を示す図(その1)である。 図11は、変形例に係る抽出部の処理内容を示す図(その2)である。
以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
まず、図1A〜図1Dを用いて、実施形態に係る付着物検出方法の概要について説明する。図1A〜図1Dは、実施形態に係る付着物検出方法の概要説明図(その1)〜(その4)である。
図1Aに示すように、たとえば、車載カメラのレンズ表面の大半に雪が付着した状態で撮像された撮像画像Iがあるものとする。以下では、実施形態に係る付着物検出方法を適用した付着物検出装置1(図2参照)が、かかる撮像画像Iの各画素PXの輝度勾配に関する特徴量(以下、「エッジ特徴量」と言う場合がある)に基づいて、撮像画像Iにおいて所定数の画素PXで分割された単位領域UA毎に、雪の付着状態を検出する場合について説明する。
なお、付着物は、雪に限定されるものではなく、たとえば、色の薄い泥などであってもよい。換言すれば、付着物は、撮像画像Iにおいて、被写体を映らない程度に遮蔽するが、ある程度の光は透過して、光の透過の多少によりわずかな輝度変化を生じさせるものであればよい。
ところで、比較例に係る付着物検出装置として、時系列の撮像画像の差分に基づいて付着物を検出するものがある。しかしながら、かかる技術によれば、たとえばレンズ全体が雪に埋もれた場合等には、時系列上の差分が生じにくくなるため、付着物を検出できないおそれがある。
また、同技術によれば、雪に埋もれた撮像画像等では、たとえば、トンネル内を走行中に、トンネル内のライトの光に起因して撮像画像Iにおける部分的な輝度が一時的に高くなる場合があり、かかる場合には、高輝度の領域において各画素のエッジの強度が大きくなるため、付着物が付着していないと誤検出するおそれもあった。
そこで、実施形態に係る付着物検出方法では、撮像画像Iから抽出される各画素PXッジ特徴量に基づいて付着物を検出することとした。エッジ特徴量は、角度特徴量および強度特徴量を含む。角度特徴量は、各画素のエッジベクトル(輝度勾配)の向き(以下、「エッジ向き」と言う場合がある)である。強度特徴量は、各画素のエッジベクトルの大きさ(以下、「エッジ強度」と言う場合がある)である。
なお、実施形態に係る付着物検出方法では、かかるエッジ特徴量を、所定数の画素PXからなるセル100単位で取り扱う。これにより、画像処理における処理負荷の軽減に資することができる。
また、上述の単位領域UAは、かかるセル100の集まりである。そして、実施形態に係る付着物検出方法では、かかるセル100毎に抽出したエッジ特徴量に基づいて、単位領域UA毎の特徴量である領域特徴量を算出することとした。領域特徴量は、換言すれば、単位領域UA毎におけるエッジ特徴量の統計的特徴量である。そのうえで、実施形態に係る付着物検出方法では、算出した領域特徴量の、領域特徴量空間における位置に基づいて、単位領域UA毎における雪の付着状態を推定することとした。
具体的には、図1Aに示すように、実施形態に係る付着物検出方法では、撮像画像Iにおいて、所定数のセル100が上下方向および左右方向に配列された所定の領域である単位領域UA毎に、まずセル100単位でエッジ特徴量を抽出する(ステップS1)。エッジ特徴量は、上述したようにエッジ向きおよびエッジ強度である。
セル100のエッジ向きは、図1Aに示すように、所定の角度範囲で分類される各画素PXのベクトル向きの代表値であり、同図の例では、90°の角度範囲毎に区切られた上下左右のいずれかで決定される。また、セル100のエッジ強度は、各画素PXのベクトル強度の代表値である。なお、かかるセル100単位のエッジ特徴量の抽出処理については、図3および図4を用いて後述する。
つづいて、実施形態に係る付着物検出方法では、ステップS1で抽出したセル100毎のエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する(ステップS2)。具体的には、ステップS2では、まず単位領域UA毎における、セル100のエッジ強度の平均および分散を算出する(ステップS2−1)。
また、ステップS2では、単位領域UA毎における、ペア領域の個数およびペア領域のエッジ強度の総和を算出する(ステップS2−2)。ここで、ペア領域は、隣接し、エッジ向きが互いに逆向きであるセル100の組み合わせである。
図1Aの例では、2つのセル100が上下方向に隣接するペア領域200aと、左右方向に隣接するペア領域200bとを示している。なお、ペア領域200aおよびペア領域200bを特に区別しない場合、以下では、ペア領域200と総称する。
そして、実施形態に係る付着物検出方法では、算出した単位領域UA毎の領域特徴量を、領域特徴量の各要素を各次元とする領域特徴量空間にマッピングし、領域特徴量空間における領域特徴量の位置に基づいて付着物である雪の付着状態を推定する(ステップS3)。
たとえば、実施形態に係る付着物検出方法では、図1Bに示すように、エッジ強度の平均、および、エッジ強度の分散を各次元とする2次元空間における位置に基づいて、雪の付着状態を、「付着」、「非付着」、または、「判定難」のいずれかとして推定する。
また、たとえば、実施形態に係る付着物検出方法では、図1Cに示すように、ペア領域200の個数、および、ペア領域200のエッジ強度の総和を各次元とする2次元空間における位置に基づいて、雪の付着状態を、「付着」または「非付着」のいずれかとして推定する。
ここで、図1Dに示すように、「付着」は、単位領域UA(7,8)に見られる「雪に埋もれている」状態である。また、「非付着」は、単位領域UA(4,11)に見られる「背景が見えている」状態である。また、「判定難」は、単位領域UA(3,7)に見られる「白飛び等で見えない」状態である。
なお、図1Bおよび図1Cに示した各領域特徴量空間の例は、撮像画像Iの多量のサンプルデータに基づいて、予めかかるサンプルデータの各単位領域UAの領域特徴量を算出し、実際の付着状態に応じて標本点を色分けしつつ、各空間にマッピングしたものである。したがって、各付着状態を区切る各閾値(図中の点線参照)は、たとえば標本点の色の分かれ目等に応じて規定されている。なお、図1Bおよび図1Cでは、閾値を直線で区切って規定しているが、説明の便宜上のものであり、標本点の色の分かれ目に沿う形状の曲線によって規定されてもよい。
また、図1Cに示したペア領域200の個数とは、セル100が上下方向に隣接するペア領域200aの数と、左右方向に隣接するペア領域200bの数の合計値である。また、ペア領域200のエッジ強度の総和とは、ペア領域200に含まれるセル100すべてのエッジ強度を合計した値である。かかるペア領域200の個数や、エッジ強度の総和の算出方法については、図5および図6を用いて後述する。
たとえば、「非付着」の状態では、道路上の白線やガードレール、建物の輪郭等により、ペア領域200が比較的多く抽出され、また、セル100のエッジ強度も大きくなる。このため、ペア領域200のエッジ強度の総和も比較的大きくなる。一方で、「付着」の状態では、単位領域UAの輝度が一様で、かつ、セル100のエッジ強度も小さくなるため、抽出されるペア領域200の個数は比較的少なくなり、また、ペア領域200のエッジ強度の総和も比較的小さくなる。
そこで、かかる点に着目して、図1Cに示したように、撮像画像Iのサンプルデータに基づいて、ペア領域200の個数、および、ペア領域200のエッジ強度の総和を各次元とする領域特徴量空間を生成し、かかる空間にステップS2で算出する領域特徴量をマッピングすれば、その位置に基づいて、単位領域UA毎の付着物の付着状態を「付着」または「非付着」のいずれかとして推定することができる。
また、図1Bに示したエッジ強度の平均、および、エッジ強度の分散は、統計的見地に基づくものである。換言すれば、多量のサンプルデータに基づき、単位領域UA毎の実際の付着状態に対応するエッジ強度の平均および分散を学習し、かかる学習の結果に基づいて状態を判別するものと言える。
そこで、かかる点に着目して、図1Bに示したように、撮像画像Iのサンプルデータに基づいて、エッジ強度の平均、および、エッジ強度の分散を各次元とする領域特徴量空間を生成し、かかる空間にステップS2で算出する領域特徴量をマッピングすれば、その位置に基づいて、単位領域UA毎の付着物の付着状態を「付着」、「非付着」、または、「判定難」のいずれかとして推定することができる。
したがって、実施形態に係る付着物検出方法によれば、付着物の検出精度を向上させることができる。
なお、上述した付着物検出方法において推定した推定結果に対し、たとえば上述のエッジ特徴量に基づいて実行するマッチング処理のマッチング結果を加味した判定を行い、さらなる検出精度の向上を図ることとしてもよい。また、撮像画像Iの過去のフレーム分の判定結果を加味することとしてもよい。これらの点の詳細については、図7A〜図8Bを用いた説明で後述する。
また、図1Aでは、セル100毎に1種類のエッジ向きの代表値を抽出する場合を示したが、たとえば、角度範囲が異なるエッジ向きの代表値をさらに抽出することで、セル100毎に2種類、あるいは、2種類以上のエッジ向きを割り当ててもよい。なお、2種類のエッジ向きの代表値を抽出する場合については、図10および図11を用いた説明で後述する。
以下、上述した実施形態に係る付着物検出方法を適用した付着物検出装置1の構成例について、さらに具体的に説明する。
図2は、実施形態に係る付着物検出装置1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
図2に示すように、実施形態に係る付着物検出装置1は、記憶部2と、制御部3とを備える。また、付着物検出装置1は、カメラ10と、各種機器50とに接続される。
なお、図2では、付着物検出装置1が、カメラ10および各種機器50とは別体で構成される場合を示したが、これに限らず、カメラ10および各種機器50の少なくとも一方と一体に構成されてもよい。
カメラ10は、たとえば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。カメラ10は、たとえば、車両の前後方、側方の様子を撮像可能な位置にそれぞれ設けられ、撮像された撮像画像Iを付着物検出装置1へ出力する。
各種機器50は、付着物検出装置1の検出結果を取得して、車両の各種制御を行う機器である。各種機器50は、たとえば、カメラ10のレンズに付着物が付着していることやユーザへの付着物の拭き取り指示を通知する表示装置、流体や気体等をレンズへ向けて噴射して付着物を除去する除去装置、および、自動運転等を制御する車両制御装置などを含む。
記憶部2は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、閾値情報21と、テンプレート情報22と、判定履歴情報23とを記憶する。
閾値情報21は、後述する推定部34が実行する推定処理において用いられる閾値に関する情報である。ここに言う閾値は、図1Bおよび図1Cに破線で示した、各領域特徴量空間における閾値に対応する。
テンプレート情報22は、後述するマッチング部35が実行するマッチング処理において用いられるテンプレートに関する情報である。判定履歴情報23は、所定の過去のnフレーム分の撮像画像Iにおける付着物検出の判定履歴に関する情報である。
制御部3は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、付着物検出装置1内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部3は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
制御部3は、取得部31と、抽出部32と、算出部33と、推定部34と、マッチング部35と、判定部36とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
取得部31は、カメラ10で撮像された撮像画像Iを取得する。取得部31は、取得した撮像画像Iにおける各画素を輝度に応じて白から黒までの各階調に変換するグレースケール化処理を行うとともに、各画素について平滑化処理を行って、抽出部32へ出力する。なお、平滑化処理にはたとえば、平均化フィルタや、ガウシアンフィルタ等の任意の平滑化フィルタを用いることができる。また、グレースケール化処理や、平滑化処理については、省略されてもよい。
抽出部32は、取得部31から取得した撮像画像Iのセル100毎に、エッジ特徴量を抽出する。ここで、図3および図4を用いて、抽出部32による抽出処理について具体的に説明する。
図3および図4は、抽出部32の処理内容を示す図(その1)および(その2)である。図3に示すように、抽出部32は、まず、各画素PXにつきエッジ検出処理を行って、X軸方向(撮像画像Iの左右方向)のエッジexの強度と、Y軸方向(撮像画像Iの上下方向)のエッジeyの強度とを検出する。エッジ検出処理には、たとえば、Sobelフィルタや、Prewittフィルタ等の任意のエッジ検出フィルタを用いることができる。
つづいて、抽出部32は、検出したX軸方向のエッジexの強度と、Y軸方向のエッジeyの強度とに基づき、三角関数を用いることでエッジベクトルVを算出し、かかるエッジベクトルVとX軸とがなす角度θであるエッジ向きと、エッジベクトルVの長さLであるエッジ強度を抽出する。
つづいて、抽出部32は、算出した各画素PXのエッジベクトルVに基づき、セル100におけるエッジ向きの代表値を抽出する。具体的には、図4の上段に示すように、抽出部32は、セル100における各画素PXのエッジベクトルVのエッジ向き−180°〜180°を、90°毎の上下左右4方向である角度分類(0)〜(3)に分類する。
より具体的には、抽出部32は、画素PXのエッジ向きが、−45°以上45°未満の角度範囲である場合には角度分類(0)に分類し、45°以上135°未満の角度範囲である場合には角度分類(1)に分類し、135°以上180°未満、または−180°以上−135°未満の角度範囲である場合には角度分類(2)に分類し、−135°以上−45°未満の角度範囲である場合には角度分類(3)に分類する。
そして、図4の下段に示すように、抽出部32は、各セル100について、角度分類(0)〜(3)を各階級とするヒストグラムを生成する。そして、抽出部32は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する角度分類(図4の例では、角度分類(1))を、セル100におけるエッジ向きの代表値として抽出する。
前述のヒストグラムの度数は、セル100内における各画素PXのうち、同一の角度範囲に分類された画素PXのエッジ強度を足し合わせて算出する。具体的に、角度分類(0)の階級におけるヒストグラムの度数について考える。たとえば、角度分類(0)に分類された画素PXが3つあるとし、それぞれの画素PXにおけるエッジ強度を10,20,30とする。この場合、角度分類(0)の階級におけるヒストグラムの度数は、10+20+30=60と算出される。
このようにして算出されたヒストグラムに基づき、抽出部32はセル100におけるエッジ強度の代表値を抽出する。具体的に、かかるエッジ強度の代表値は、ヒストグラムにおいて最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する度数をセル100のエッジ強度とする。すなわち、抽出部32におけるエッジ強度の代表値の抽出処理は、エッジ向きの代表値に対応した、セル100内におけるエッジの強さに関する特徴を抽出する処理とも言える。
一方、抽出部32は、最も度数が高い階級の度数が所定の閾値THa未満である場合は、かかるセル100のエッジ向きについては、「無効」、換言すれば、「エッジ向きの代表値なし」として取り扱う。これにより、各画素PXのエッジ向きのばらつきが大きい場合に、特定のエッジ向きを代表値として抽出してしまうことを防止できる。
なお、図3および図4で示した抽出部32の処理内容は、あくまで一例であって、エッジ向きの代表値を抽出可能であれば、処理内容は任意であってよい。たとえば、セル100における各画素PXのエッジ向きの平均値を算出し、かかる平均値に対応する角度分類(0)〜(3)をエッジ向きの代表値としてもよい。
また、図4では、4×4の計16個の画素PXを1つのセル100とする場合を示したが、セル100における画素PXの数は、任意に設定されてよく、また、3×5等のように、上下方向および左右方向の画素PXの数が異なってもよい。
図2に戻り、つづいて算出部33について説明する。算出部33は、抽出部32によって抽出されたセル100毎のエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する。
具体的には、算出部33は、単位領域UA毎のエッジ強度の平均値および分散値を算出する。また、算出部33は、単位領域UA毎のペア領域200の個数およびエッジ強度の総和を算出する。
ここで、算出部33によるペア領域200の個数およびエッジ強度の総和の算出処理について、図5および図6を用いて説明する。図5および図6は、算出部33の処理内容を示す図(その1)および(その2)である。
なお、図5では、2つのペア領域200が、セル100を共有していない場合を示し、図6では、2つのペア領域200が、セル100を共有している場合を示している。
図5に示すように、算出部33は、単位領域UAの左右方向および上下方向に配列された複数のセル100について、左右方向および上下方向に走査し、ペア領域200を探索する。すなわち、算出部33は、単位領域UAにおけるセル100のうち、隣接し、エッジ向きが互いに逆向きであるセル100同士をペア領域200として抽出する。
そして、算出部33は、抽出されたペア領域200の個数、および、ペア領域200におけるエッジ強度の総和を算出する。なお、図5に示すように、算出部33は、抽出されたたとえば2つのペア領域200がセル100を共有していない場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる4つのセル100のエッジ強度を合計した値として算出する。
また、図6に示すように、算出部33は、抽出されたたとえば2つのペア領域200がセル100を共有している場合、ペア領域200の個数を2つと算出し、エッジ強度の総和を、2つのペア領域200に含まれる3つのセル100のエッジ強度を合計した値として算出する。
図2の説明に戻る。そして、算出部33は、算出した単位領域UA毎の領域特徴量を推定部34へ出力する。推定部34は、算出部33によって算出された単位領域UA毎の領域特徴量を上述した領域特徴量空間へマッピングし、マッピングされた領域特徴量の位置および閾値情報21に基づいて単位領域UA毎の付着物の付着状態を推定する。付着状態については、図1B〜図1Dを用いて上述したため、ここでの説明は省略する。また、推定部34は、推定した推定結果を判定部36へ出力する。
マッチング部35は、抽出部32によって抽出されたセル100のエッジ特徴量と、テンプレート情報22に含まれる所定のテンプレートとをマッチングするマッチング処理を実行する。
ここで、マッチング部35によるマッチング処理の処理内容について、図7A〜図7Eを用いて説明する。図7A〜図7Eは、マッチング部35の処理内容を示す図(その1)〜(その5)である。なお、図7A、図7C〜図7Eに示す不定形のハッチング部分は、撮像画像Iにおいて所定のエッジ特徴量を有するパターン部分であるものとする。
マッチング部35は、抽出部32によって抽出されたセル100のエッジ特徴量のうちのエッジ向きを用いて、所定のテンプレートと一致する所定の探索パターンを探索する。図7Aに示すように、探索方向は左右方向および上下方向である。
たとえば、マッチング部35は、「注目する角度分類の両サイドに逆向きの角度分類が現れないこと」を条件として探索パターンを探索する。具体的には、注目する角度分類を角度分類(1)として左右方向に探索した場合に、図7Bに示すように、たとえば開始位置は「角度分類が逆向きでない」角度分類(2)のセル100−1に隣接する角度分類(1)のセル100−2が開始位置となる。
そして、角度分類(1)の配列がつづき、「角度分類が逆向きでない」角度分類(0)のセル100−4が現れた場合、かかるセル100−4に隣接する角度分類(1)のセル100−3が終了位置となる。かかる場合、図7Bの例ではマッチ長は「8」となる。なお、マッチング部35は、このように探索パターンとの一致があった場合、その位置とマッチ長とを保持しておく。
また、図7Bに示した探索パターンでの一致があった場合、開始位置と終了位置には、角度分類4種のうち、隣り合う分類間での輝度変化が見られることになる。
そして、マッチング部35は、図7Cに示すように、左右方向と上下方向で探索パターンの一致が交わる際には、その交点に対応する単位領域UAに対応する記憶情報として、角度分類別に水平マッチ長および上下マッチ長の積を累積加算する。
具体的に図7Bおよび図7Cの例に沿った場合、マッチング部35は、図7Dに示すように、当該単位領域の角度分類(1)に紐づけて、5×8を累積加算する。また、図示していないが、マッチング部35は、同じく当該単位領域の角度分類(1)に紐づけて、交点の数も累積加算する。
こうしたマッチング処理を繰り返し、マッチング部35は、図7Eに示すように、当該単位領域UAの角度分類(0)〜(3)に紐づく累積加算結果のうち、3種以上が所定の閾値以上であった場合、当該単位領域UAの付着状態は「付着」と判定する。また、かかる判定条件を満たさなければ「非付着」と判定する。なお、図7A〜図7Eに示したマッチング処理の処理内容はあくまで一例であって、処理内容を限定するものではない。
図2の説明に戻る。マッチング部35は、マッチング結果を判定部36へ出力する。判定部36は、推定部34による推定結果、および、マッチング部35によるマッチング結果に基づいて総合的に単位領域UA毎の付着状態を判定し、判定結果を各種機器50へ出力する。
ここで、判定部36による判定処理の処理内容について、図8Aおよび図8Bを用いて説明する。図8Aおよび図8Bは、判定部36の処理内容を示す図(その1)および(その2)である。
図8Aに示すように、判定部36は、推定部34による推定結果に対し、マッチング部35によるマッチング結果を加味するとともに、さらに処理中の撮像画像Iに対し、直近nフレーム分の過去の撮像画像I’における判定結果をさらに加味した判定処理を行う。
具体的には、図8Bに示すように、判定部36は、推定部34による推定結果が「非付着」である場合、マッチング部35によるマッチング結果に関わらず、「非付着」と判定する。これにより、マッチング結果で「付着」と判定されている場合の誤検出を抑制することができる。
また、判定部36は、推定部34による推定結果が「付着」であり、マッチング部35によるマッチング結果が「付着」である場合、「付着」と判定する。
また、判定部36は、推定部34による推定結果が「付着」であるが、マッチング部35によるマッチング結果が「非付着」である場合、過去nフレームで「付着」の判定があり、その判定後、1度も「非付着」の判定がない場合は、「付着」と判定する。
また、判定部36は、推定部34による推定結果が「判定難」である場合、マッチング部35によるマッチング結果に関わらず、過去nフレームで「付着」の判定があり、その判定後、1度も「非付着」の判定がない場合は、「付着」と判定する。
このように過去の撮像画像I’における判定結果を加味することで、処理中の撮像画像Iで判定が難しい場合であっても、一旦「付着」と判定された領域に対し、それを否定する「非付着」の判定がなければ、たとえば周囲の他の単位領域UAと同等に「付着」であるとの判定が可能となる。これにより、未検出を抑制し、検出精度を向上させることができる。
次に、図9を用いて、実施形態に係る付着物検出装置1が実行する処理手順について説明する。図9は、実施形態に係る付着物検出装置1が実行する処理手順を示すフローチャートである。なお、図9では、1フレーム分のカメラ画像についての処理手順を示している。
図9に示すように、まず、取得部31が、撮像画像Iを取得する(ステップS101)。あわせて取得部31は、撮像画像Iに対してグレースケール化処理および平滑化処理を施す。
つづいて、抽出部32が、撮像画像Iのセル100毎のエッジ特徴量を抽出する(ステップS102)。そして、算出部33が、抽出部32によって抽出されたエッジ特徴量に基づいて、単位領域UA毎の領域特徴量を算出する(ステップS103)。
そして、推定部34が、算出部33によって算出された領域特徴量を領域特徴量空間にマッピングし、領域特徴量の位置を判定する(ステップS104)。ここで、かかる位置が「非付着」を示す場合(ステップS104,「非付着」)、判定部36がこれに基づいて「非付着」と判定し(ステップS105)、処理を終了する。
また、領域特徴量の位置が「付着」を示す場合(ステップS104,「付着」)、判定部36が、マッチング部35によるマッチング結果において「付着」であるか否かを判定する(ステップS106)。
ここで、マッチング結果において「付着」である場合(ステップS106,「付着」)、判定部36は「付着」と判定し(ステップS107)、処理を終了する。一方、マッチング結果において「非付着」である場合(ステップS106,「非付着」)、ステップS108へ制御を移す。また、領域特徴量の位置が「判定難」を示す場合も(ステップS104,「判定難」)、ステップS108へ制御を移す。
ステップS108では、判定部36が、過去フレームを含めた条件に該当するか否かを判定する(図8B参照)。ここで、該当する場合(ステップS108,Yes)、判定部36は「付着」と判定し(ステップS109)、処理を終了する。一方、該当しない場合(ステップS108,No)、判定部36は「非付着」と判定し(ステップS110)、処理を終了する。
上述してきたように、実施形態に係る付着物検出装置1は、抽出部32と、算出部33と、推定部34とを備える。抽出部32は、撮像画像Iに含まれる所定数の画素PXからなるセル100毎に、かかるセル100に含まれる各画素PXのエッジベクトルVに基づくエッジ特徴量を抽出する。算出部33は、抽出部32によって抽出されたエッジ特徴量に基づいて、所定数のセル100からなる所定の領域である単位領域UA毎の領域特徴量を算出する。推定部34は、算出部33によって算出された領域特徴量を、領域特徴量の各要素を各次元とする特徴量空間へマッピングし、マッピングされた領域特徴量の位置に基づいて単位領域UAにおける付着物の付着状態を推定する。
したがって、実施形態に係る付着物検出装置1によれば、付着物の検出精度を向上させることができる。
また、抽出部32は、上記エッジ特徴量に含まれる角度特徴量を所定の角度範囲毎で分類したエッジ向きをセル100毎に抽出する。算出部33は、隣接し、かつ、上記エッジ向きが逆向きであるセル100のペア領域200(「組み合わせ」の一例に相当)の個数、および、ペア領域200に含まれる各セル100のエッジ強度の総和を領域特徴量として算出する。推定部34は、上記個数および上記総和を各次元とする特徴量空間における領域特徴量の位置に基づいて、付着物の付着状態を推定する。
したがって、実施形態に係る付着物検出装置1によれば、たとえばカメラ10のレンズへ付着する雪などの検出精度を向上させることができる。
また、算出部33は、単位領域UAに含まれる各セル100のエッジ強度の平均、および、分散を領域特徴量として算出する。また、推定部34は、上記平均および上記分散を各次元とする特徴量空間における領域特徴量の位置に基づいて、付着物の付着状態を推定する。
したがって、実施形態に係る付着物検出装置1によれば、統計的見地に基づき、たとえばカメラ10のレンズへ付着する雪などの検出精度を向上させることができる。
また、推定部34は、領域特徴量の位置に基づいて、付着物の付着状態を、付着、非付着、または、判定難に分類する。
したがって、実施形態に係る付着物検出装置1によれば、カメラ10のレンズへ雪などが付着した場合の付着状態を適切に分類することができる。
また、実施形態に係る付着物検出装置1は、判定部36をさらに備える。判定部36は、推定部34による推定結果、および、マッチング部35によるマッチング結果(「推定部とは異なるアルゴリズムによる判定結果」の一例に相当)に基づいて、付着物の付着状態を判定する。また、判定部36は、上記推定結果において非付着である場合に、上記マッチング結果に関わらず、非付着と判定する。
したがって、実施形態に係る付着物検出装置1によれば、推定部34による推定結果、および、マッチング部35によるマッチング結果を組み合わせた総合的な判定により、付着物の誤検出を抑制することができる。
また、判定部36は、上記推定結果において付着であり、かつ、上記マッチング結果において非付着である場合に、過去の所定期間中に付着の判定があるとともに、かかる判定の後に非付着の判定がない場合は、付着と判定する。
したがって、実施形態に係る付着物検出装置1によれば、処理中の撮像画像Iに基づく上記マッチング結果のみによっては未検出となるケースを抑制することができる。
また、判定部36は、上記推定結果において判定難である場合に、過去の所定期間中に付着の判定があるとともに、かかる判定の後に非付着の判定がない場合は、付着と判定する。
したがって、実施形態に係る付着物検出装置1によれば、上記推定結果のみによっては判定が難しく、未検出となるケースを抑制することができる。
(変形例に係る抽出部32)
なお、上述した実施形態では、1つのセル100について、1種類のエッジ向きの代表値を抽出する場合を示したが、1つのセル100について、2種類以上のエッジ向きの代表値を割り当ててもよい。かかる点について、図10および図11を用いて説明する。
図10および図11は、変形例に係る抽出部32の処理内容を示す図(その1)および(その2)である。なお、図10および図11では、角度範囲が異なる2種類のエッジ向きの代表値を抽出する場合の処理内容について説明する。
図10に示すように、抽出部32は、第1角度範囲によって分類されるエッジ向きの第1代表値、および、第1角度範囲とは異なる第2角度範囲によって分類されるエッジ向きの第2代表値をセル100毎に決定する。
具体的には、抽出部32は、セル100における各画素PXのエッジベクトルVのエッジ向き−180°〜180°を、90°毎の第1角度範囲で分割した上下左右4方向である角度分類(0)〜(3)に分類するとともに、第1角度範囲とは異なる第2角度範囲で分割した斜め4方向である角度分類(4)〜(7)に分類する。
より具体的には、抽出部32は、画素PXのエッジ向きが、−45°以上45°未満の角度範囲である場合には角度分類(0)に分類し、45°以上135°未満の角度範囲である場合には角度分類(1)に分類し、135°以上180°未満、または−180°以上−135°未満の角度範囲である場合には角度分類(2)に分類し、−135°以上−45°未満の角度範囲である場合には角度分類(3)に分類する。
さらに、抽出部32は、画素PXのエッジ向きが、0°以上90°未満の角度範囲である場合には角度分類(4)に分類し、90°以上180°未満の角度範囲である場合には角度分類(5)に分類し、180°以上−90°未満の角度範囲である場合には角度分類(6)に分類し、−90°以上0°未満の角度範囲である場合には角度分類(7)に分類する。
そして、図10の下段に示すように、抽出部32は、各セル100について、角度分類(0)〜(3)を各階級とするヒストグラムと、角度分類(4)〜(7)を各階級とするヒストグラムとを生成する。そして、抽出部32は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応するたとえば角度分類(0)をエッジ向きの第1代表値とし、たとえば角度分類(4)をエッジ向きの第2代表値として抽出する。
そして、図11に示すように、抽出部32は、隣接するセル100において、エッジ向きの第1代表値、および、第2代表値の少なくとも一方が互いに逆向きである場合、かかる隣接するセル100をペア領域200として抽出する。
つまり、抽出部32は、各セル100において、エッジ向きの第1代表値および第2代表値を抽出することで、1種類のエッジ向きのみでは抽出できなかったペア領域200を抽出することが可能となる。
すなわち、たとえば、エッジ向きが140°の画素PXと、エッジ向きが−40°の画素PXとについて、第1角度範囲では逆向きとはならないが、第2角度範囲では逆向きとなることで、セル100におけるエッジ向きの変化をより高精度に検出することが可能となる。
なお、上述した実施形態および変形例では、−180°〜180°を90°毎の角度範囲で分割した4方向に角度分類する場合を示したが、角度範囲は90°に限定されず、たとえば60°毎の角度範囲で分割した6方向に角度分類してもよい。
また、第1角度範囲および第2角度範囲でそれぞれの角度範囲の幅が異なってもよい。たとえば、第1角度範囲では90°毎で角度分類し、第2角度範囲では、60°毎で角度分類してもよい。また、第1角度範囲および第2角度範囲では、角度範囲の角度の境界を45°ずらしたが、ずらす角度が45°を超える、もしくは、45°未満であってもよい。
また、上述した実施形態では、車載カメラで撮像された撮像画像Iを例に挙げたが、撮像画像Iは、たとえば、防犯カメラや、街灯等に設置されたカメラで撮像された撮像画像Iであってもよい。つまり、カメラのレンズに付着物が付着する可能性があるカメラで撮像された撮像画像Iであればよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 付着物検出装置
2 記憶部
3 制御部
10 カメラ
21 閾値情報
22 テンプレート情報
23 判定履歴情報
31 取得部
32 抽出部
33 算出部
34 推定部
35 マッチング部
36 判定部
50 各種機器
100 セル
200 ペア領域
I 撮像画像
PX 画素
UA 単位領域

Claims (8)

  1. 撮像画像に含まれる所定数の画素からなるセル毎に、該セルに含まれる各画素のエッジベクトルに基づくエッジ特徴量を抽出する抽出部と、
    前記抽出部によって抽出された前記エッジ特徴量に基づいて、所定数の前記セルからなる所定の領域である単位領域毎の領域特徴量を算出する算出部と、
    前記算出部によって算出された前記領域特徴量を、該領域特徴量の各要素を各次元とする特徴量空間へマッピングし、マッピングされた前記領域特徴量の位置に基づいて前記単位領域における付着物の付着状態を推定する推定部と
    を備えることを特徴とする付着物検出装置。
  2. 前記抽出部は、
    前記エッジ特徴量に含まれる角度特徴量を所定の角度範囲毎で分類したエッジ向きを前記セル毎に抽出し、
    前記算出部は、
    隣接し、かつ、前記エッジ向きが逆向きである前記セルの組み合わせの個数、および、該組み合わせに含まれる各セルのエッジ強度の総和を前記領域特徴量として算出し、
    前記推定部は、
    前記個数および前記総和を各次元とする前記特徴量空間における前記領域特徴量の位置に基づいて、前記付着物の付着状態を推定する
    ことを特徴とする請求項1に記載の付着物検出装置。
  3. 前記算出部は、
    前記単位領域に含まれる各セルのエッジ強度の平均、および、分散を前記領域特徴量として算出し、
    前記推定部は、
    前記平均および前記分散を各次元とする前記特徴量空間における前記領域特徴量の位置に基づいて、前記付着物の付着状態を推定する
    ことを特徴とする請求項2に記載の付着物検出装置。
  4. 前記推定部は、
    前記領域特徴量の位置に基づいて、前記付着物の付着状態を、付着、非付着、または、判定難に分類する
    ことを特徴とする請求項1、2または3に記載の付着物検出装置。
  5. 前記推定部による推定結果、および、前記推定部とは異なるアルゴリズムによる判定結果に基づいて、前記付着物の付着状態を判定する判定部
    をさらに備え、
    前記判定部は、
    前記推定結果において非付着である場合に、前記判定結果に関わらず、非付着と判定する
    ことを特徴とする請求項1〜4のいずれか一つに記載の付着物検出装置。
  6. 前記判定部は、
    前記推定結果において付着であり、かつ、前記判定結果において非付着である場合に、過去の所定期間中に付着の判定があるとともに、該判定の後に非付着の判定がない場合は、付着と判定する
    ことを特徴とする請求項5に記載の付着物検出装置。
  7. 前記判定部は、
    前記推定結果において判定難である場合に、過去の所定期間中に付着の判定があるとともに、該判定の後に非付着の判定がない場合は、付着と判定する
    ことを特徴とする請求項5または6に記載の付着物検出装置。
  8. 撮像画像に含まれる所定数の画素からなるセル毎に、該セルに含まれる各画素のエッジベクトルに基づくエッジ特徴量を抽出する抽出工程と、
    前記抽出工程において抽出された前記エッジ特徴量に基づいて、所定数の前記セルからなる所定の領域である単位領域毎の領域特徴量を算出する算出工程と、
    前記算出工程において算出された前記領域特徴量を、該領域特徴量の各要素を各次元とする特徴量空間へマッピングし、マッピングされた前記領域特徴量の位置に基づいて前記単位領域における付着物の付着状態を推定する推定工程と
    を含むことを特徴とする付着物検出方法。
JP2019000522A 2019-01-07 2019-01-07 付着物検出装置および付着物検出方法 Active JP7274867B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019000522A JP7274867B2 (ja) 2019-01-07 2019-01-07 付着物検出装置および付着物検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019000522A JP7274867B2 (ja) 2019-01-07 2019-01-07 付着物検出装置および付着物検出方法

Publications (2)

Publication Number Publication Date
JP2020109579A true JP2020109579A (ja) 2020-07-16
JP7274867B2 JP7274867B2 (ja) 2023-05-17

Family

ID=71570223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019000522A Active JP7274867B2 (ja) 2019-01-07 2019-01-07 付着物検出装置および付着物検出方法

Country Status (1)

Country Link
JP (1) JP7274867B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196531A1 (en) * 2021-03-16 2022-09-22 Kabushiki Kaisha Toshiba Water treatment control system using an imaging device and lighting device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239939A (ja) * 1993-03-09 1995-09-12 Meidensha Corp 画像認識装置
JPH11110560A (ja) * 1997-10-03 1999-04-23 Mitsubishi Electric Corp 画像検査方法および画像検査装置
JP2001076156A (ja) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp 画像監視装置
JP2006350413A (ja) * 2005-06-13 2006-12-28 Fuji Xerox Co Ltd 画像処理装置、エッジ検出装置、画像処理方法、エッジ検出方法及びそのプログラム
JP2013211807A (ja) * 2012-03-30 2013-10-10 Brother Ind Ltd 画像処理装置およびプログラム
WO2015072272A1 (ja) * 2013-11-14 2015-05-21 クラリオン株式会社 周囲環境認識装置
JP2017138736A (ja) * 2016-02-02 2017-08-10 富士通テン株式会社 画像処理装置及び水滴除去システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239939A (ja) * 1993-03-09 1995-09-12 Meidensha Corp 画像認識装置
JPH11110560A (ja) * 1997-10-03 1999-04-23 Mitsubishi Electric Corp 画像検査方法および画像検査装置
JP2001076156A (ja) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp 画像監視装置
JP2006350413A (ja) * 2005-06-13 2006-12-28 Fuji Xerox Co Ltd 画像処理装置、エッジ検出装置、画像処理方法、エッジ検出方法及びそのプログラム
JP2013211807A (ja) * 2012-03-30 2013-10-10 Brother Ind Ltd 画像処理装置およびプログラム
WO2015072272A1 (ja) * 2013-11-14 2015-05-21 クラリオン株式会社 周囲環境認識装置
JP2017138736A (ja) * 2016-02-02 2017-08-10 富士通テン株式会社 画像処理装置及び水滴除去システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196531A1 (en) * 2021-03-16 2022-09-22 Kabushiki Kaisha Toshiba Water treatment control system using an imaging device and lighting device

Also Published As

Publication number Publication date
JP7274867B2 (ja) 2023-05-17

Similar Documents

Publication Publication Date Title
US11747278B2 (en) Deposit detection device for detecting a partial covering location, a not-adhere location, and a diffuse reflection location
JP7230507B2 (ja) 付着物検出装置
Ten Kate et al. Mid-range and distant vehicle detection with a mobile camera
JP2012048484A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013058199A (ja) 偏光画像による車両位置検知方法及びシステム
Niksaz Automatic traffic estimation using image processing
JP7206909B2 (ja) 付着物検出装置および付着物検出方法
JP6413318B2 (ja) 車両検出装置、およびシステム、ならびにプログラム
Sultana et al. Vision-based robust lane detection and tracking in challenging conditions
JP7205234B2 (ja) 付着物検出装置および付着物検出方法
JP7234630B2 (ja) 付着物検出装置
JP2020109579A (ja) 付着物検出装置および付着物検出方法
JP7200893B2 (ja) 付着物検出装置および付着物検出方法
JP7283081B2 (ja) 付着物検出装置および付着物検出方法
JP7172931B2 (ja) 付着物検出装置および付着物検出方法
US11568547B2 (en) Deposit detection device and deposit detection method
JP7175188B2 (ja) 付着物検出装置および付着物検出方法
JP7156225B2 (ja) 付着物検出装置および付着物検出方法
JP7172930B2 (ja) 付着物検出装置および付着物検出方法
JP7234884B2 (ja) 付着物検出装置および付着物検出方法
JP7172932B2 (ja) 付着物検出装置および付着物検出方法
JP2020108060A (ja) 付着物検出装置および付着物検出方法
JP2021051379A (ja) 付着物検出装置および付着物検出方法
JP7234885B2 (ja) 付着物検出装置および付着物検出方法
Sultana et al. Vision-Based Robust Lane Detection and Tracking under Different Challenging Environmental Conditions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7274867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150