JP7230507B2 - 付着物検出装置 - Google Patents

付着物検出装置 Download PDF

Info

Publication number
JP7230507B2
JP7230507B2 JP2018248533A JP2018248533A JP7230507B2 JP 7230507 B2 JP7230507 B2 JP 7230507B2 JP 2018248533 A JP2018248533 A JP 2018248533A JP 2018248533 A JP2018248533 A JP 2018248533A JP 7230507 B2 JP7230507 B2 JP 7230507B2
Authority
JP
Japan
Prior art keywords
edge
representative
area
adhering matter
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018248533A
Other languages
English (en)
Other versions
JP2020107290A (ja
Inventor
修久 池田
信徳 朝山
貴 河野
泰司 谷
大輔 山本
朋和 沖
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018248533A priority Critical patent/JP7230507B2/ja
Priority to US16/670,120 priority patent/US11170487B2/en
Publication of JP2020107290A publication Critical patent/JP2020107290A/ja
Application granted granted Critical
Publication of JP7230507B2 publication Critical patent/JP7230507B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N23/811Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation by dust removal, e.g. from surfaces of the image sensor or processing of the image signal output by the electronic image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は、付着物検出装置に関する。
従来、車両等に搭載されたカメラによって撮像された撮像画像に基づいて、カメラレンズに付着した付着物を検出する付着物検出装置が知られている。付着物検出装置には、例えば、時系列の撮像画像の差分に基づいて付着物を検出するものがある(例えば、特許文献1参照)。
特開2012-038048号公報
しかしながら、従来技術では、付着物を早期に、かつ、高精度に検出する点で改善の余地があった。
本発明は、上記に鑑みてなされたものであって、付着物を早期に、かつ、高精度に検出することができる付着物検出装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る付着物検出装置は、決定部と、抽出部と、検出部とを備える。決定部は、撮像装置によって撮像された撮像画像の画素領域に含まれる各画素のエッジの角度に基づき、所定の角度範囲を単位とするエッジ代表向きを画素領域毎に決定する。抽出部は、決定部によって決定されたエッジ代表向きに基づき、所定の走査方向に沿って同一のエッジ代表向きが連続する配列パターンを抽出する。検出部は、抽出部によって抽出された配列パターンに基づいて撮像装置のレンズに付着物が付着した付着物領域を検出する。さらに抽出部は、第1の走査方向および第1の走査方向と交差する第2の走査方向に沿って、それぞれ配列パターンを抽出する。さらに検出部は、第1の走査方向における配列パターンと、第2の走査方向における配列パターンとの交点に基づいて付着物領域を検出する。
本発明によれば、付着物を早期に、かつ、高精度に検出することができる。
図1は、付着物検出方法の概要を示す図である。 図2は、付着物検出装置の構成を示すブロック図である。 図3は、決定部の処理内容を示す図である。 図4は、決定部の処理内容を示す図である。 図5は、配列パターンの具体例を示す図である。 図6は、検出部による処理内容を示す図である。 図7は、検出部による処理内容を示す図である。 図8は、付着物検出装置が実行する付着物の検出処理の処理手順を示すフローチャートである。 図9は、変形例に係る検出部の処理内容を示す図である。
以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。
まず、図1を用いて、実施形態に係る付着物検出方法の概要について説明する。図1は、実施形態に係る付着物検出方法の概要を示す図である。なお、図1には、例えば、車載カメラのレンズ全面に雪が付着した状態で撮像された撮像画像Iを示している。実施形態に係る付着物検出方法は、付着物検出装置1(図2参照)によって実行され、車載カメラで撮像された撮像画像Iに基づいてカメラのレンズに付着した付着物を検出する。
なお、付着物は、雪に限定されるものではなく、例えば、色が薄い泥等でもよい。換言すれば、付着物は、撮像画像Iにおいて、被写体が映らない程度に遮蔽するが、ある程度の光は透過して、光の透過の多少によりわずかな輝度変化を生じさせるものであればよい。なお、カメラのレンズ全体が雪に埋もれた状態において撮像された撮像画像Iを示す。
ここで、従来の付着物検出装置では、時系列の撮像画像の差分に基づいて付着物を検出する技術があった。しかしながら、従来の技術では、例えば、レンズ全体が雪に埋もれた場合等、画像間の差分が生じにくくなるため、付着物を検出できないおそれがあった。さらに、従来は、時系列の撮像画像が必要となるため、付着物の検出に時間を要してしまう。
そこで、実施形態に係る付着物検出方法では、1枚の撮像画像Iから検出されるエッジの角度を利用して付着物を検出する。具体的には、図1に示すように、実施形態に係る付着物検出方法では、まず、撮像画像Iの画素領域100に含まれる各画素PXのエッジの角度(図1の画素PX内にあるベクトルの向き)に基づき、所定の角度範囲を単位とするエッジ代表向きを画素領域100毎に決定する(ステップS1)。
例えば、画素領域100は、画素PXが4×4(計16個の画素PX)で配列された領域である。なお、図1の上段には、1つの画素領域100のみを示しているが、実際には、撮像画像I全体(あるいは、付着物の検出対象となる一部の領域)において、複数の画素領域100が、2次元配列で設定される。
また、エッジ代表向きは、4×4の画素PXそれぞれのエッジの角度を代表して表したエッジの向きであり、図1では、90°の角度範囲毎に区切られた4つのエッジ代表向きのいずれかが決定される。なお、エッジ代表向きの決定処理については、図3および図4で後述する。また、図1では、説明の便宜上、エッジ代表向きを「(0)」~「(3)」でそれぞれ示す。すなわち、各画素領域100には、「(0)」~「(3)」で示すエッジ代表向きが対応付けられる。
続いて、実施形態に係る付着物検出方法では、所定の走査方向に沿って同一のエッジ代表向きが連続する配列パターンを抽出する(ステップS2)。
図1に示す例では、走査方向が左右方向である場合を示し、「0」が左右方向に連続する配列パターン200-0と、「1」が左右方向に連続する配列パターン200-1とを示している。
なお、配列パターン200-0および配列パターン200-1を特に区別しない場合、符号の末尾を除いた配列パターン200と記載する。また、走査方向は、左右方向に限定されず、上下方向を含み、左右方向の配列パターン200と、上下方向の配列パターン200とを組み合わせて付着物領域を検出するが、この点の詳細については、図6以降の図面を用いて後述する。
続いて、実施形態に係る付着物検出方法では、ステップS2にて抽出した配列パターン200に基づいてカメラのレンズに付着物が付着した付着物領域を検出する(ステップS3)。
例えば、実施形態に係る付着物検出方法では、撮像画像Iを複数に分割した分割領域Sa毎に付着物領域を検出する。分割領域Saは、例えば、10×10の100個の画素領域100を含む領域であり、画素領域100が4×4の16個の画素PXなので、分割領域Saは、16×100の1600個の画素PXから構成される。
例えば、付着物として雪を検出する場合、レンズが雪で覆われた領域(以下、雪埋もれ領域と記載する)は、エッジが緩やかに変化するため、エッジの角度も緩やかに変化する。すなわち、雪埋もれ領域であれば、同じエッジ代表向きが連続して配列しやすい特徴を有する。
また、雪埋もれ領域であれば、レンズに積層する雪は凹凸形状を有するため、複数種類のエッジ代表向きに基づく配列パターン200が1つの分割領域Sa内に出現しやすい。さらに、雪の大きさ(上述の凹凸形状の大きさ)は、所定の大きさに限定されるため、雪埋もれ領域における配列パターン200の長さが所定範囲内に収まるという特徴を有する。
言い換えれば、雪埋もれ領域であれば、1つの分割領域Saに複数種類のエッジ代表向きに基づく配列パターン200が含まれる。一方、雪領域以外の領域(以下、背景領域と記載する)では、各画素PXのエッジは、背景画像によって変化し、上述の雪埋もれ領域の特徴を取りにくい。
そこで、実施形態に係る付着物検出方法では、検出条件の一例として、複数種類の配列パターン200を含み、各配列パターン200が所定の長さ条件を満たす分割領域Saについて付着物領域として検出する。これにより、実施形態に係る付着物検出方法では、付着物領域として雪埋もれ領域を検出することができる。
このように、実施形態に係る付着物検出方法では、エッジ代表向きが連続する配列パターン200に基づいて付着物を検出することで、画像間に差分が生じない場合であっても付着物を高精度に検出できる。
また、実施形態に係る付着物検出方法では、1枚の撮像画像Iを用いて付着物を検出することができる。従って、実施形態に係る付着物検出方法によれば、付着物を早期に、かつ、高精度に検出することができる。
次に、図2を用いて、実施形態に係る付着物検出装置1の構成について説明する。図2は、実施形態に係る付着物検出装置1の構成を示すブロック図である。図2に示すように、実施形態に係る付着物検出装置1は、カメラ10と、各種機器50とに接続される。なお、図2では、付着物検出装置1は、カメラ10と、各種機器50とは別体で構成される場合を示したが、これに限らず、カメラ10および各種機器50の少なくとも一方と一体で構成されてもよい。
カメラ10は、たとえば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。カメラ10は、例えば、車両の前後方、側方の様子を撮像可能な位置にそれぞれ設けられ、撮像された撮像画像Iを付着物検出装置1へ出力する。
各種機器50は、付着物検出装置1の検出結果を取得して、車両の各種制御を行う機器である。各種機器50は、例えば、カメラ10のレンズに付着物していることや、ユーザによる付着物の拭き取り指示を通知する表示装置や、流体や気体等をレンズに向かって噴射して付着物を除去する除去装置、自動運転等を制御する車両制御装置を含む。
図2に示すように、実施形態に係る付着物検出装置1は、制御部2と、記憶部3とを備える。制御部2は、画像取得部21と、決定部22と、抽出部23と、検出部24とを備える。記憶部3は、エッジ代表向き情報31および閾値情報32を記憶する。
ここで、付着物検出装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の画像取得部21、決定部22、抽出部23および検出部24として機能する。
また、制御部2の画像取得部21、決定部22、抽出部23および検出部24の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、エッジ代表向き情報31、閾値情報32や、各種プログラムの情報等を記憶することができる。なお、付着物検出装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
エッジ代表向き情報31は、所定の角度範囲を単位とするエッジ代表向きに関する情報である。なお、エッジ代表向き情報31の具体例については、図4を用いて後述する。閾値情報32は、付着物領域を検出する際に用いる閾値に関する情報である。後述するように、閾値情報32は、第1角度範囲における積の合計値および第2角度範囲における積の合計値に対する閾値に関する情報である。
制御部2は、撮像画像Iの画素領域100毎にエッジ代表向きを決定するとともに、エッジ代表向きが連続する配列パターン200を抽出し、抽出した配列パターン200に基づいて付着物領域を検出する。
画像取得部21は、カメラ10で撮像された撮像画像Iを取得する。画像取得部21は、取得した撮像画像Iにおける各画素を輝度に応じて白から黒までの各階調に変換するグレースケール化処理を行うとともに、各画素について平滑化処理を行って、決定部22へ出力する。なお、平滑化処理には、例えば、平均化フィルタや、ガウシアンフィルタ等の任意の平滑化フィルタを用いることができる。また、グレースケール化処理や、平滑化処理については、省略されてもよい。
決定部22は、画像取得部21から取得した撮像画像Iの画素領域100毎にエッジ代表向きを決定する。ここで、図3および図4を用いて、決定部22によるエッジ代表向きの決定処理について具体的に説明する。
図3および図4は、決定部22の処理内容を示す図である。図3に示すように、決定部22は、まず、エッジ検出処理を行って、X軸方向(撮像画像Iの左右方向)のエッジexの強度と、Y軸方向(撮像画像Iの上下方向)のエッジeyの強度とを検出する。エッジ検出処理には、例えば、Sobelフィルタや、Prewittフィルタ等の任意のエッジ検出フィルタを用いることができる。
つづいて、決定部22は、検出したX軸方向のエッジexの強度と、Y軸方向のエッジeyの強度に基づき、三角関数を用いることで、画素PXのエッジの角度およびエッジの強さの情報を含むベクトルVを算出する。具体的には、ベクトルVにおけるエッジの角度は、ベクトルVと正方向側のX軸との成す角度θで表され、エッジの強さは、ベクトルVの長さLで表される。
つづいて、決定部22は、算出した各画素PXのベクトルVに基づき、画素領域100におけるエッジ代表向きを決定する。具体的には、図4に示すように、決定部22は、画素領域100のおける各画素PXのベクトルVに基づいて、各画素PXを-180°~180°を90°毎に分割した「(0)」~「(3)」の符号に分類する。
具体的には、ベクトルVにおけるエッジの角度が、-45°以上45°未満の角度範囲である場合には符号「(0)」に分類し、45°以上135°未満の角度範囲である場合には符号「(1)」に分類し、135°以上180°未満、または-180°以上-135°未満の角度範囲である場合には符号「(2)」に分類し、-135°以上-45°未満の角度範囲である場合には符号「(3)」に分類する。
そして、図4の下段に示すように、決定部22は、各画素領域100について、符号「(0)」~「(3)」を各階級とするヒストグラムを生成する。そして、決定部22は、生成したヒストグラムにおいて、最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する符号(図4では、符号「(1)」)を画素領域100におけるエッジ代表向きとして決定する。すなわち、決定部22によるエッジ代表向きの決定処理は、各画素領域100を符号化する処理ともいえる。
前述のヒストグラムの度数は、画素領域100内における各画素PXのうち、同一の角度範囲に分類された画素PXのエッジの強さを足し合わせて算出する。具体的に、符号「(0)」の階級におけるヒストグラムの度数について考える。例えば、符号「(0)」に分類された画素PXが3つあるとし、それぞれの画素PXにおけるエッジの強さを10,20,30とする。この場合、符号「(0)」の階級におけるヒストグラムの度数は、10+20+30=60と算出される。
このようにして算出されたヒストグラムに基づき、決定部22はエッジ強度を決定する。具体的にはエッジ強度は、ヒストグラムにおいて最も度数が高い階級の度数が所定の閾値THa以上である場合に、かかる階級に対応する度数をエッジ強度とする。すなわち、決定部22におけるエッジ代表強度の決定処理は、エッジ代表向きに対応した、画素領域100内におけるエッジの強さに関する特徴を抽出する処理とも言える。
一方、決定部22は、最も度数が高い階級の度数が所定の閾値THa未満である場合、かかる画素領域100の代表向きについては、「無効」、換言すれば、「代表向き無し」として扱う。これにより、各画素PXのエッジの角度のばらつきが大きい場合に、特定のエッジ代表向きを誤って決定してしまうことを防止できる。
このように、決定部22は、第1角度範囲および第2角度範囲それぞれで異なるエッジ代表向きを各画素領域100に対応付ける。これにより、付着物領域の検出に用いるデータ数を増やすことができるので、付着物領域の検出精度を向上させることができる。
なお、図3および図4で示した決定部22の決定処理は、一例であって、エッジ代表向きを決定可能な処理であれば、処理内容は任意であってよい。例えば、画素領域100における各画素PXのエッジの角度の平均値を算出し、かかる平均値に対応する角度範囲のエッジ代表向きを決定してもよい。
また、図4では、4×4の計16個の画素PXを1つの画素領域100とする場合を示したが、画素領域100における画素PXの数は、任意に設定されてよく、また、3×5等のように、上下方向および左右方向の画素PXの数が異なってもよい。
図2に戻って、抽出部23について説明する。抽出部23は、決定部22によって決定されたエッジ代表向きに基づき、所定の走査方向に沿って、同一のエッジ代表向きが連続する配列パターン200を抽出する。
具体的には、抽出部23は、撮像画像Iの左右方向および上下方向に2次元配列された複数の画素領域100について、左右方向および上下方向に走査し、配列パターン200を抽出する。なお、左右方向および上下方向は、第1の走査方向および第2の走査方向の一例である。また、走査方向は、左右方向および上下方向に限られず、斜め方向であってもよい。
ここで、抽出部23は、走査方向に沿って隣接する画素領域100のエッジ代表向きが、配列パターン200のエッジ代表向きと隣り合う向きである場合に、配列パターン200として抽出する。図5は、配列パターン200の具体例を示す図である。
なお、図5では、左右方向の走査方向であり、第1角度範囲に対応する配列パターン200-1の抽出処理を例に挙げて説明するが、走査方向が上下方向および第2角度範囲に対応するエッジ代表向きの配列パターン200の抽出処理について同様である。また、図5では、視覚的に分かりやすくするため、エッジ代表向きを矢印および上記の「(0)」~「(3)」を併せて示す。
図5に示すように、抽出部23は、エッジ代表向きが「(1)」である4つの画素領域100が連続する場合、かかる4つの画素領域100の両隣に位置する画素領域100のエッジ代表向きを参照し、配列パターン200-1を抽出する。
具体的には、図5の上段に示すように、4つの「(1)」で構成された配列パターンの両隣のエッジ代表向きが、配列パターンのエッジ代表向き「(1)」と隣り合う向きである場合に、抽出部23は、かかる配列パターンを配列パターン200-1として抽出する。
一方、図5の下段に示すように、4つの「(1)」で構成された配列パターンの両隣のエッジ代表向きが、配列パターンのエッジ代表向き「(1)」と逆向きのエッジ代表向き「(3)」である場合、抽出部23は、かかる配列パターンを配列パターン200-1として抽出しない。
これは、上述のように、雪埋もれ領域では、エッジの角度が緩やかに変化しやすく、エッジの角度が連続的に変化するため、隣り合う画素領域100が互いに逆向きのエッジ代表向きを取りにくいためである。
なお、抽出部23は、配列パターンの両隣に位置する画素領域100の少なくとも一方が、かかる配列パターンの代表向きと逆向きである場合に、かかる配列パターンを抽出しないことにしてもよい。
つまり、抽出部23は、走査方向に沿って連続的に変化するエッジ代表向きを有する配列パターン200のみを抽出し、走査方向に沿って不規則に変換する配列パターンを抽出対象から除外する。これにより、雪埋もれ領域に対応する配列パターン200の抽出精度を向上させることが可能となる。
また、上述のように、雪埋もれ領域においては、エッジ代表向きが連続的に変化するため、1つの配列パターンの長さが所定範囲に収まるという特徴を有する。このため、抽出部23は、長さが所定範囲に収まる配列パターン200のみを抽出することも可能である。
ここでいう所定範囲とは、例えば、24画素PX(3画素領域100)~100画素PX(25画素領域100)であるが、これに限定されるものではなく、任意に変更することができる。
これにより、雪埋もれ領域に対応する配列パターン200のみを抽出することができる。言い換えれば、雪埋もれ領域の特徴に合致しない配列パターンを抽出しないので、付着物領域として雪埋もれ領域の検出精度を向上させることができる。
図2の説明に戻り、検出部24について説明する。検出部24は、抽出部23によって抽出された配列パターン200に基づいて付着物領域を検出する。検出部24は、上下方向に沿って走査された配列パターン200と、左右方向に沿って走査された配列パターンとの交点に基づいて付着物領域を検出する。
図6および図7は、検出部24による処理内容を示す図である。なお、図6では、エッジ代表向きが「(1)」の配列パターン200-1に対する検出部24による処理について説明するが、他のエッジ代表向き「(0)」、「(2)」~「(7)」についても同様である。
図6に示すように、検出部24は、上下方向に沿って、「1」が8個連続する配列パターン200-1と、左右方向に沿って、「1」が7個連続する配列パターン200-1との交点CPを算出する。
続いて、検出部24は、交点CPを形成する双方の配列パターン200-1の画素領域数の積を算出する。図6に示す例では、積が「8×7=56」である場合を示す。すなわち、本実施形態では、各交点CPの積を求めることで、交点CPに対応する同一のエッジ代表向きの集合体の大きさを概算することが可能となる。
各交点CPの積が大きいほど、同一のエッジ代表向きが広範囲に連続して分布していることを意味する。つまり、交点CPの積を求めることで、代表エッジ向きが連続した集合体(まとまり)の大きさを容易に算出することができる。
また、検出部24は、配列パターン200の交点CPに基づいて付着物領域を検出することで、各画素領域100を基準として、上下方向または左右方向の一方のみに延伸する配列パターン200を除外することができる。すなわち、検出部24は、各画素領域100を基準として、放射状に広がる配列パターン200のみを付着物領域の検出に用いることとなる。そして、検出部24は、交点CPにエッジ代表向きおよび、上記の積を示す交点情報を対応付ける。
なお、検出部24は、交点CPの積に代えて、エッジ代表向きの1つの塊を形成する画素領域100の個数をカウントすることにしてもよい。この場合、例えば、左右方向に沿って抽出された配列パターン200-1と、かかる配列パターン200-1と上下方向に隣接する配列パターン200-1との個数の和をエッジ代表向きの1つの塊の大きさとして算出することができる。
続いて、検出部24は、図7に示すように、注目領域SaTを設定し、注目領域SaTを拡張した拡張領域Eaにおける交点CPに基づいて注目領域SaTが付着物領域か否かを判定する。
ここで、注目領域SaTは、1つの分割領域Saであり、拡張領域Eaは、注目領域SaTの中心とする3×3の分割領域Saである。なお、拡張領域Eaは、注目領域SaTを中心とし、注目領域SaTよりも広い領域であれば、その他の領域であってもよい。
検出部24は、拡張領域Eaに含まれる交点情報に基づき、注目領域SaTが付着物領域か否かを判定する。具体的には、図7に示すように、第1角度範囲および第2角度範囲のそれぞれに基づく積の和をエッジ代表向き毎に算出する。
図7に示す例では、第1角度範囲に基づくエッジ代表向き「(0)」~「(3)」の積の和がそれぞれ「80」、「67」、「75」および「58」であり、これらを足し合わせた合計値が「280」である場合を示す。
また、図7に示す例では、第2角度範囲に基づくエッジ代表向き「(4)」~「(7)」の積の和がそれぞれ「73」、「42」、「18」および「32」であり、これらを足し合わせた合計値が「165」である場合を示す。
検出部24は、拡張領域Eaにおいて、全種類のエッジ代表向きの交点CPがあり、かつ、第1角度範囲における積の合計値および第2角度範囲における積の合計値がいずれも所定の総和閾値を超える場合に、注目領域SaTを付着物領域として検出する。
このように、交点CPのエッジ代表向きの種類を検出条件に含めることで、多様なエッジ代表向きが含まれる雪埋もれ領域の特徴を容易に判定することができる。
検出部24は、第1角度範囲および第2角度範囲のそれぞれの代表エッジ向きの積が「1」以上であり、第1角度範囲および第2角度範囲のそれぞれの合計値が所定の総和閾値を超える場合に、注目領域SaTを付着物領域として検出する。
つまり、拡張領域Eaにおいて、全てのエッジ代表向きに基づく交点CPを有し、かつ、それぞれのエッジ代表向きがある程度の大きさを有する分割領域Saの集合体である場合に、注目領域SaTについて付着物領域として検出する。
このように、各エッジ代表向きにおける積の和を導出することで、注目領域SaTにおいて、各エッジ代表向きを有する画素領域100が占める割合を容易に把握することができる。
また、第1角度範囲および第2角度範囲の双方において、検出条件を満たす場合に、注目領域SaTを付着物領域として検出する。これにより、第1角度範囲および第2角度範囲のうち一方が出条件を満たす場合に、注目領域SaTを付着物領域として検出する場合に比べて、付着物領域の誤検出を抑制することができる。
また、検出部24は、注目領域SaTを拡張した拡張領域Eaに含まれる交点CPに基づいて注目領域SaTが付着物領域か否かを判定する。これは、注目領域SaTが雪埋もれ領域ならば、その周囲も雪埋もれ領域である可能性が高いためである。
言い換えれば、1つの注目領域SaTのみが雪埋もれ領域となる可能性が低いためである。つまり、注目領域SaTを拡張した拡張領域Eaに基づいて注目領域SaTが付着物領域か否かを判定することで、雪埋もれ領域の検出精度を向上させることができる。
次に、図8を用いて、実施形態に係る付着物検出装置1が実行する処理手順について説明する。図8は、付着物検出装置1が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、撮像画像Iの取得毎に制御部2によって繰り返し実行される。
図8に示すように、まず、付着物検出装置1は、撮像画像Iを取得すると(ステップS101)、画素領域100毎に、エッジ代表向きを決定する(ステップS102)。続いて、付着物検出装置1は、エッジ代表向きが抽出条件を満たす配列パターン200を抽出し(ステップS103)、交点CPごとに積を算出する(ステップS104)。
続いて、付着物検出装置1は、注目領域SaTを設定し(ステップS105)、注目領域SaTを含む拡張領域Eaにおいて、エッジ代表向きがそれぞれ異なる交点CPの種類が8種類か否かを判定する(ステップS106)。
付着物検出装置1は、ステップS106の判定処理において、交点CPが8種類である場合(ステップS106,Yes)、第1角度範囲における積の合計値が総和閾値よりも大きいか否かを判定する(ステップS107)。
付着物検出装置1は、ステップS107の判定処理において、上記した積の合計値が総和閾値を超える場合(ステップS107,Yes)、続いて、第2角度範囲における積の合計値が総和閾値よりも大きいか否かを判定する(ステップS108)。
付着物検出装置1は、ステップS108の判定処理において、上記した積の合計値が総和閾値を超える場合(ステップS108,Yes)、注目領域SaTを付着物領域として検出する(ステップS109)。
そして、付着物検出装置1は、ステップS105~ステップS109の処理を全ての分割領域Saについて終了したか否かを判定し(ステップS110)、全ての分割領域Saについて終了した場合(ステップS110,Yes)、処理を終了する。
一方、付着物検出装置1は、ステップS110の判定処理において、全ての画素領域100について終了していない場合(ステップS110,No)、ステップS105の処理へ移行する。
また、付着物検出装置1は、ステップS106の判定処理において、交点が7種類以下であった場合(ステップS106,No)、ステップS107およびステップS108のそれぞれの判定処理において、積の合計値が閾値以下である場合(ステップS107/ステップS108,No)、ステップS110の処理へ移行する。
上述したように、実施形態に係る付着物検出装置1は、決定部22と、抽出部23と、検出部24とを備える。決定部22は、撮像装置によって撮像された撮像画像Iの画素領域100に含まれる各画素のエッジの角度に基づき、所定の角度範囲を単位とするエッジ代表向きを画素領域100毎に決定する。
抽出部23は、決定部22によって決定されたエッジ代表向きに基づき、所定の走査方向に沿って同一のエッジ代表向きが連続する配列パターン200を抽出する。検出部24は、抽出部23によって抽出された配列パターン200に基づいて撮像装置のレンズに付着物が付着した付着物領域を検出する。したがって、実施形態に係る付着物検出装置1によれば、付着物を早期に、かつ、高精度に検出することができる。
ところで、上述した実施形態では、第1角度範囲および第2角度範囲の双方で、それぞれエッジ代表向きを決定する場合について説明したが、第1角度範囲または第2角度範囲の一方でエッジ代表向きを決定することにしてもよい。
図9は、変形例に係る検出部24の処理内容を示す図である。なお、ここでは、第1角度範囲に基づくエッジ代表向きに基づいて付着物領域を検出する場合について説明するが、第2角度範囲に基づくエッジ代表向きに基づいて付着物領域を検出する場合についても同様である。
図9に示すように、検出部24は、注目領域SaTに含まれる交点CPに基づき、代表エッジ向き「(0)」~「(3)」それぞれの積の和を求める。そして、検出部24は、代表エッジ向き「(0)」~「(3)」ごとに、積の和が検出条件を満たすか否かを判定する。
例えば、検出部24は、積の和が所定値を超えるものについて、判定結果を「OK」とし、積の和が所定値を下回るものについて、判定結果を「NG」とする。そして、検出部24は、例えば、3種類以上のエッジ代表向きの判定結果が「OK」である場合に、注目領域SaTを付着物領域Daとして検出する。
一方、検出部24は、判定結果が「OK」であるエッジ代表向きが3種類未満である場合、注目領域SaTを付着物領域Daとして検出しない。
つまり、検出部24は、注目領域SaTが複数種類のエッジ代表向きがそれぞれ所定の大きさの集合体を有する場合に、付着物領域として検出する。かかる場合であっても、付着物領域を迅速に検出することができる。
なお、検出部24は、例えば、交点CPに対応付けられている積が別途設定した閾値未満であるものについて、積の和への加算対象とすることにしてもよい。すなわち、積が大きすぎるものについては、上記の判定に用いないことにしてもよい。これにより、雪埋もれ領域の特徴に類似する交点CPのみを用いて、上記の判定を行うことができるので、雪埋もれ領域の検出精度を向上させることができる。
なお、上述した実施形態および変形例では、0°~360°を90°毎の角度範囲で分割した4つのエッジ代表向きを示したが、角度範囲は、90°に限定されず、例えば、60°毎の角度範囲に分割した6つのエッジ代表向きであってもよい。
また、第1エッジ代表向きおよび第2エッジ代表向きそれぞれの角度範囲の幅が異なってもよい。例えば、第1エッジ代表向きについては、90°毎の角度範囲で分割し、第2エッジ代表向きについては、60°毎の角度範囲で分割してもよい。
また、第1エッジ代表向きおよび第2エッジ代表向きについて、角度範囲の角度の境界を45°ずらしたが、ずらす角度が45°を超える、もしくは、45°未満であってもよい。また、第1エッジ代表向きおよび第2エッジ代表向きの角度範囲の角度の境界も任意に設定可能である。
また、上述した実施形態では、車両に搭載されるカメラで撮像された撮像画像Iを用いたが、撮像画像Iは、例えば、防犯カメラや、街灯等に設置されたカメラで撮像された撮像画像Iであってもよい。つまり、カメラのレンズに付着物が付着する可能性があるカメラで撮像された撮像画像Iであればよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 付着物検出装置
2 制御部
3 記憶部
10 カメラ
21 画像取得部
22 決定部
23 抽出部
24 検出部
50 各種機器
100 画素領域
200 配列パターン
I 撮像画像
Sa 分割領域
SaT 注目領域
Ea 拡張領域
PX 画素

Claims (7)

  1. 撮像装置によって撮像された撮像画像の画素領域に含まれる各画素のエッジの角度に基づき、所定の角度範囲を単位とするエッジ代表向きを前記画素領域毎に決定する決定部と、
    前記決定部によって決定された前記エッジ代表向きに基づき、所定の走査方向に沿って同一の前記エッジ代表向きが連続する配列パターンを抽出する抽出部と、
    前記抽出部によって抽出された前記配列パターンに基づいて前記撮像装置のレンズに付着物が付着した付着物領域を検出する検出部と
    を備え
    前記抽出部は、
    第1の走査方向および前記第1の走査方向と交差する第2の走査方向に沿って、それぞれ前記配列パターンを抽出し、
    前記検出部は、
    前記第1の走査方向における前記配列パターンと、前記第2の走査方向における前記配列パターンとの交点に基づいて前記付着物領域を検出することを特徴とする付着物検出装置。
  2. 前記検出部は、
    前記交点を形成する前記配列パターンの前記エッジ代表向きの種類に基づいて前記付着物領域を検出すること
    を特徴とする請求項1に記載の付着物検出装置。
  3. 前記検出部は、
    前記交点を形成するそれぞれの前記配列パターンの積の総和に基づいて前記付着物領域を検出すること
    を特徴とする請求項1または2に記載の付着物検出装置。
  4. 前記抽出部は、
    前記走査方向に沿って前記配列パターンの両隣に位置する前記画素領域の前記エッジ代表向きが前記配列パターンの前記エッジ代表向きと隣り合う向きである場合に、当該配列パターンを抽出すること
    を特徴とする請求項1~3のいずれか一つに記載の付着物検出装置。
  5. 前記検出部は、
    複数の前記画素領域を統合した注目領域ごとに前記付着物領域を検出し、前記注目領域を拡張した拡張領域に含まれる前記配列パターンに基づき、当該注目領域について前記付着物領域か否かを判定すること
    を特徴とする請求項1~4のいずれか一つに記載の付着物検出装置。
  6. 前記決定部は、
    第1角度範囲を単位とする第1エッジ代表向き、および、前記第1角度範囲とは異なる第2角度範囲を単位とする第2エッジ代表向きを前記画素領域毎に決定し、
    前記抽出部は、
    前記第1エッジ代表向きと前記第2エッジ代表向きとのそれぞれについて前記配列パターンを抽出すること
    を特徴とする請求項1~5のいずれか一つに記載の付着物検出装置。
  7. 前記検出部は、
    前記エッジ代表向き毎に検出条件を満たすか否かを判定し、所定数以上の前記エッジ代表向きが前記検出条件を満たす場合に、前記付着物領域として検出すること
    を特徴とする請求項1~6のいずれか一つに記載の付着物検出装置。
JP2018248533A 2018-12-28 2018-12-28 付着物検出装置 Active JP7230507B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018248533A JP7230507B2 (ja) 2018-12-28 2018-12-28 付着物検出装置
US16/670,120 US11170487B2 (en) 2018-12-28 2019-10-31 Adhered substance detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248533A JP7230507B2 (ja) 2018-12-28 2018-12-28 付着物検出装置

Publications (2)

Publication Number Publication Date
JP2020107290A JP2020107290A (ja) 2020-07-09
JP7230507B2 true JP7230507B2 (ja) 2023-03-01

Family

ID=71123622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248533A Active JP7230507B2 (ja) 2018-12-28 2018-12-28 付着物検出装置

Country Status (2)

Country Link
US (1) US11170487B2 (ja)
JP (1) JP7230507B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7234630B2 (ja) * 2018-12-28 2023-03-08 株式会社デンソーテン 付着物検出装置
JP7172931B2 (ja) * 2019-09-20 2022-11-16 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP7319597B2 (ja) * 2020-09-23 2023-08-02 トヨタ自動車株式会社 車両運転支援装置
CN117115173B (zh) * 2023-10-25 2024-01-16 泰安金冠宏油脂工业有限公司 一种基于视觉特征的油料搅拌检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018072312A (ja) 2016-10-24 2018-05-10 株式会社デンソーテン 付着物検出装置、付着物検出方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014494A (ja) * 2008-07-02 2010-01-21 Denso Corp 異物検出装置、異物検出プログラム、異物除去装置、および車載通信装置
JP2012038048A (ja) 2010-08-06 2012-02-23 Alpine Electronics Inc 車両用障害物検出装置
JP6117634B2 (ja) * 2012-07-03 2017-04-19 クラリオン株式会社 レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム
EP2871101B1 (en) * 2012-07-03 2020-06-17 Clarion Co., Ltd. Vehicle surrounding monitoring device
JP2014044196A (ja) * 2012-07-30 2014-03-13 Ricoh Co Ltd 付着物検出装置、移動装置用機器制御システム及び移動装置
JP5981322B2 (ja) * 2012-11-27 2016-08-31 クラリオン株式会社 車載画像処理装置
JP2015070566A (ja) * 2013-09-30 2015-04-13 本田技研工業株式会社 カメラのレンズ汚れ検知装置
JP6246014B2 (ja) * 2014-02-18 2017-12-13 クラリオン株式会社 外界認識システム、車両、及びカメラの汚れ検出方法
JP6832105B2 (ja) * 2016-09-23 2021-02-24 株式会社デンソーテン 水滴検出装置、水滴検出方法および水滴検出プログラム
JP6936070B2 (ja) * 2017-08-01 2021-09-15 トヨタ自動車株式会社 周辺監視装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018072312A (ja) 2016-10-24 2018-05-10 株式会社デンソーテン 付着物検出装置、付着物検出方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
竹村 雅幸、外5名,"車室外カメラを利用した予防安全機能のためのレンズ診断",SSII2014 第20回画像センシングシンポジウム 講演論文集,日本,画像センシング技術研究会,2014年06月11日,pp.1-7

Also Published As

Publication number Publication date
JP2020107290A (ja) 2020-07-09
US11170487B2 (en) 2021-11-09
US20200211171A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
JP7230507B2 (ja) 付着物検出装置
JP5975598B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2007234019A (ja) 車両画像領域特定装置およびその方法
CN111047615B (zh) 基于图像的直线检测方法、装置以及电子设备
KR101932214B1 (ko) 이미지 처리 기법을 이용하여 균열을 측정하기 위한 장치 및 그 방법
JP6832105B2 (ja) 水滴検出装置、水滴検出方法および水滴検出プログラム
JP5705711B2 (ja) ひび割れ検出方法
JP7206909B2 (ja) 付着物検出装置および付着物検出方法
WO2023019793A1 (zh) 一种确定方法、清洁机器人和计算机存储介质
JP7283081B2 (ja) 付着物検出装置および付着物検出方法
JP7205234B2 (ja) 付着物検出装置および付着物検出方法
JP4887540B2 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP7200893B2 (ja) 付着物検出装置および付着物検出方法
KR101733028B1 (ko) 영상대조에 따른 에지 변위량 예측 방법
JP7234630B2 (ja) 付着物検出装置
JP7172931B2 (ja) 付着物検出装置および付着物検出方法
JP7274867B2 (ja) 付着物検出装置および付着物検出方法
JP4452793B2 (ja) 不法投棄箇所検知装置、方法、およびプログラム
US11308624B2 (en) Adhered substance detection apparatus
JP2009193130A (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP7175188B2 (ja) 付着物検出装置および付着物検出方法
JP7243546B2 (ja) 付着物検出装置および付着物検出方法
US20200211194A1 (en) Attached object detection apparatus
JP7172930B2 (ja) 付着物検出装置および付着物検出方法
JP7172932B2 (ja) 付着物検出装置および付着物検出方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7230507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150