JP2020109542A - 付着物検出装置および付着物検出方法 - Google Patents

付着物検出装置および付着物検出方法 Download PDF

Info

Publication number
JP2020109542A
JP2020109542A JP2018248578A JP2018248578A JP2020109542A JP 2020109542 A JP2020109542 A JP 2020109542A JP 2018248578 A JP2018248578 A JP 2018248578A JP 2018248578 A JP2018248578 A JP 2018248578A JP 2020109542 A JP2020109542 A JP 2020109542A
Authority
JP
Japan
Prior art keywords
candidate area
detection
unit
detection unit
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018248578A
Other languages
English (en)
Other versions
JP7206909B2 (ja
Inventor
修久 池田
Nobuhisa Ikeda
修久 池田
信徳 朝山
Nobutoku Asayama
信徳 朝山
河野 貴
Takashi Kono
貴 河野
谷 泰司
Taiji Tani
泰司 谷
山本 大輔
Daisuke Yamamoto
大輔 山本
朋和 沖
Tomokazu Oki
朋和 沖
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018248578A priority Critical patent/JP7206909B2/ja
Priority to US16/683,624 priority patent/US10984273B2/en
Publication of JP2020109542A publication Critical patent/JP2020109542A/ja
Application granted granted Critical
Publication of JP7206909B2 publication Critical patent/JP7206909B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】路面反射を水滴として誤検出してしまうのを抑制し、検出精度を高めること。【解決手段】実施形態に係る付着物検出装置は、抽出部と、検出部とを備える。抽出部は、撮像装置によって撮像された撮像画像に含まれる各画素のエッジ情報を抽出する。検出部は、抽出部によって抽出されたエッジ情報に基づいて所定のデータ形式に変換された各画素と、水滴を示す当該データ形式のテンプレートとのマッチング結果に基づき、撮像画像中において水滴が存在すると推定される候補エリアを検出する。また、検出部は、候補エリアの輪郭に沿った所定の領域につき、テンプレートと一致した回数をマッチング結果に基づいて算出し、候補エリアのうちから、上記回数に基づく所定の除外条件に該当する候補エリアを除外する。【選択図】図2

Description

開示の実施形態は、付着物検出装置および付着物検出方法に関する。
従来、車両に搭載され、かかる車両周辺を撮像する車載カメラが知られている。車載カメラが撮像した映像は、たとえば運転者の視界補助のためにモニタ表示されたり、道路上の白線や車両への接近物などを検出するセンシングのために用いられたりする。
なお、車載カメラのレンズには、たとえば雨滴や雪片、埃、泥などの付着物が付着し、前述の視界補助やセンシングの妨げとなることがある。そこで、たとえば車載カメラの撮像画像からいわゆるエッジを抽出し、これに基づいてレンズへの付着物を検出して、レンズへ向けて洗浄水や圧縮空気を噴射することで付着物を除去する技術が提案されている。(たとえば、特許文献1参照)。
特開2001−141838号公報
しかしながら、上述した従来技術には、天井照明などによる路面反射を水滴として誤検出してしまうのを抑制し、検出精度を高めるという点で、さらなる改善の余地がある。
実施形態の一態様は、上記に鑑みてなされたものであって、路面反射を水滴として誤検出してしまうのを抑制し、検出精度を高めることができる付着物検出装置および付着物検出方法を提供することを目的とする。
実施形態の一態様に係る付着物検出装置は、抽出部と、検出部とを備える。前記抽出部は、撮像装置によって撮像された撮像画像に含まれる各画素のエッジ情報を抽出する。前記検出部は、前記抽出部によって抽出された前記エッジ情報に基づいて所定のデータ形式に変換された前記各画素と、水滴を示す当該データ形式のテンプレートとのマッチング結果に基づき、前記撮像画像中において水滴が存在すると推定される候補エリアを検出する。また、前記検出部は、前記候補エリアの輪郭に沿った所定の領域につき、前記テンプレートと一致した回数を前記マッチング結果に基づいて算出し、前記候補エリアのうちから、前記回数に基づく所定の除外条件に該当する前記候補エリアを除外する。
実施形態の一態様によれば、路面反射を水滴として誤検出してしまうのを抑制し、検出精度を高めることができる。
図1は、実施形態に係る付着物検出方法の概要説明図である。 図2は、実施形態に係る付着物検出装置のブロック図である。 図3は、ベクトルの算出方法を示す図である。 図4Aは、代表値の算出方法の説明図(その1)である。 図4Bは、代表値の算出方法の説明図(その2)である。 図5Aは、テンプレートの一例を示す図である。 図5Bは、マッチング処理の一例を示す図である。 図6は、検出処理の一例を示す図である。 図7Aは、検出情報の説明図(その1)である。 図7Bは、検出情報の説明図(その2)である。 図7Cは、検出情報の説明図(その3)である。 図7Dは、検出情報の説明図(その4)である。 図8Aは、検出部が実行する候補エリアの除外処理の説明図(その1)である。 図8Bは、検出部が実行する候補エリアの除外処理の説明図(その2)である。 図8Cは、検出部が実行する候補エリアの除外処理の説明図(その3)である。 図8Dは、検出部が実行する候補エリアの除外処理の説明図(その4)である。 図8Eは、検出部が実行する候補エリアの除外処理の説明図(その5)である。 図8Fは、検出部が実行する候補エリアの除外処理の説明図(その6)である。 図9は、実施形態に係る付着物検出装置が実行する処理手順を示すフローチャートである。
以下、添付図面を参照して、本願の開示する付着物検出装置および付着物検出方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
また、以下では、自車の周囲を撮像するために車両に搭載された車載カメラに付着した水滴を、付着物として検出する場合を例に挙げて説明する。
また、以下では、実施形態に係る付着物検出方法の概要について図1を用いて説明した後に、実施形態に係る付着物検出方法を適用した付着物検出装置10について、図2〜図9を用いて説明する。
まず、実施形態に係る付着物検出方法の概要について図1を用いて説明する。図1は、実施形態に係る付着物検出方法の概要説明図である。
車両には、自車の周辺を撮像するために、たとえばフロントカメラ、バックカメラ、右サイドカメラ、左サイドカメラなどの車載カメラが搭載される。なお、以下では、かかる車載カメラを「カメラ2」と記載する。
カメラ2は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備え、かかる撮像素子によって車両周辺を撮像する。なお、カメラ2のレンズには魚眼レンズなどの広角レンズが採用され、カメラ2はそれぞれ180度以上の画角を有し、これらを利用することで車両の全周囲を撮像することが可能である。
そして、カメラ2によって撮像された画像は、車両に搭載された図示略の付着物検出装置へ出力される。
付着物検出装置は、カメラ2から取得した画像を1フレームごとに画像解析し、たとえば各画素のエッジ情報(輝度の勾配など)によるテンプレートマッチングなどの手法を用いることによって、画像中における付着物の存在エリアを検出する。
たとえば、付着物検出装置は、撮像画像I中において水滴が存在すると推定されるエリアである候補エリアDaを検出する。
しかしながら、かかる水滴の検出に際し、従来技術に係る付着物検出装置は、たとえば図1に示すように、天井照明などによる路面反射部分を、水滴が存在する候補エリアDaとして誤検出してしまう場合があった。これは、路面反射部分もレンズに付着した水滴と同様に、撮像画像I中においてはぼやけた領域となるためである。
そこで、実施形態に係る付着物検出方法では、かかる路面反射により誤検出される場合の候補エリアDaについて、その特徴を複数のサンプルデータなどから予め抽出し、これを条件化することとした(ステップS1)。当該条件は、たとえば上記テンプレートマッチングにおける各辺のパターンのマッチング回数などに関する。
そのうえで、実施形態に係る付着物検出方法では、当該条件を除外条件とし、かかる除外条件に該当する候補エリアDaを、水滴が存在すると推定されるエリアからは除外することとした(ステップS2)。なお、ここで除外とは、除外条件を満たす候補エリアDaは候補から外すということを指す。除外条件を満たす候補エリアDaに対応する撮影画像I中の一部分の領域を、付着物検出の対象領域から除外するということではない。これにより、路面反射を水滴として誤検出してしまうのを抑制することができる。したがって、実施形態に係る付着物検出方法によれば、検出精度を高めることができる。
なお、路面反射を水滴として誤検出する場合の特徴、および、これに基づく除外条件の詳細については、図8A〜図8Fを用いた説明で後述する。
以下、上述した実施形態に係る付着物検出方法を適用した付着物検出装置10の実施形態について、さらに具体的に説明する。
図2は、実施形態に係る付着物検出装置10のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
図2に示すように、実施形態に係る付着物検出装置10は、記憶部11と、制御部12とを備える。また、付着物検出装置10は、カメラ2と、各種機器50とに接続される。
なお、図2では、付着物検出装置10が、カメラ2および各種機器50とは別体で構成される場合を示したが、これに限らず、カメラ2および各種機器50の少なくとも一方と一体に構成されてもよい。
カメラ2については既に述べたため、ここでの説明を省略する。各種機器50は、付着物検出装置10の検出結果を取得して、車両の各種制御を行う機器である。各種機器50は、たとえば、カメラ2のレンズに付着物が付着していることやユーザへの付着物の拭き取り指示を通知する表示装置、流体や気体等をレンズへ向けて噴射して付着物を除去する除去装置、および、自動運転等を制御する車両制御装置などを含む。
記憶部11は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、テンプレート情報11aと、検出情報11bと、除外情報11cとを記憶する。
テンプレート情報11aは、後述するマッチング部12dが実行するマッチング処理において用いられるテンプレートに関する情報である。検出情報11bは、候補エリアDaの検出条件や、検出された候補エリアDaに関するデータを含む情報である。除外情報11cは、上述した除外条件を含む情報である。
制御部12は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、付着物検出装置10内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部12は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
制御部12は、取得部12aと、抽出部12bと、変換部12cと、マッチング部12dと、検出部11eとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
取得部12aは、カメラ2から1フレーム分ずつカメラ画像を取得するとともに、画像解析に必要となる前処理を実行する。
取得部12aは、前処理として、たとえばカメラ画像をグレースケール化する。なお、グレースケール化とは、カメラ画像における各画素を輝度に応じて白から黒までの各階調で表現するように変換する処理である。かかるグレースケール化は、省略されてもよい。
また、取得部12aは、他の前処理として、たとえばカメラ画像を所定のサイズへ変更する。また、取得部12aは、前処理されたカメラ画像を抽出部12bへ出力する。
抽出部12bは、取得部12aから入力されるカメラ画像にたとえばソベルフィルタを用いることで、カメラ画像における各画素のエッジ情報を抽出する。ここで、エッジ情報とは、各画素のX軸方向およびY軸方向におけるエッジ強度を指す。
また、抽出部12bは、抽出したエッジ情報をグレースケール画像に対応付けて変換部12cへ出力する。なお、抽出部12bは、ソベルフィルタに代えて、たとえばラプラシアンフィルタなどの他のエッジ抽出法を用いることにしてもよい。
変換部12cは、抽出部12bから入力される各画素のX軸方向およびY軸方向のエッジ強度に基づいて各画素のエッジのベクトルを算出し、エッジ向きをそれぞれ符号化する。なお、実施形態に係る付着物検出装置10では、たとえば、複数の画素におけるエッジの代表値を求め、かかる代表値を符号化することにしている。この点の詳細については、図4Aおよび図4Bを用いて後述する。
また、変換部12cは、エッジ向きを符号化したグレースケール画像をマッチング部12dへ出力する。マッチング部12dは、変換部12cから入力される符号化されたグレースケール画像と水滴の特徴を示す符号パターンとの正規表現を用いたマッチング処理を行う。ここに言う正規表現とは、符号列の集合を一つの符号で表したものである。
なお、水滴の特徴を示す符号パターンは、テンプレート情報11aに記憶される。かかる符号パターンの具体例については、図5Aを用いて後述する。また、マッチング部12dによるマッチング処理の詳細については、図5Bを用いて後述する。
検出部12eは、抽出部12bによって抽出されたエッジ情報に基づく所定の検出アルゴリズムを用いて、撮像画像I中において水滴が存在すると推定される候補エリアDaを検出する。
具体的には、検出部12eは、マッチング部12dが抽出した符号パターンに基づいて、水滴の存在が推定される候補エリアDaを検出する。また、検出部12eは、検出した候補エリアDaのそれぞれにつき、路面反射を水滴として誤検出した場合に該当していないか否かを判定する。
また、検出部12eは、その判定結果により水滴であると判定される候補エリアDaについては、かかる候補エリアDaを各種機器50へ通知する。一方、検出部12eは、その判定結果により誤検出に該当すると判定される候補エリアDaについては、各種機器50への通知を行わず、後段の処理対象から除外する。
すなわち、検出部12eは、信頼度の低い候補エリアDaを除外する。このように、無用の画像領域を除外することにより、付着物の検出の精度を高められるとともに、後段の処理負荷を軽減することができる。なお、検出部12eによる検出処理の詳細については、図6〜図8Fを用いて後述する。
ここで、変換部12c、マッチング部12dおよび検出部12eが実行する各アルゴリズムの一例について、図3〜図8Fを用いて具体的に説明する。図3は、ベクトルの算出方法を示す図である。また、図4Aおよび図4Bは、代表値の算出方法の説明図(その1)および(その2)である。
また、図5Aは、テンプレートの一例を示す図である。また、図5Bは、マッチング処理の一例を示す図である。また、図6は、検出処理の一例を示す図である。
また、図7A〜図7Dは、検出情報11bの説明図(その1)〜(その4)である。また、図8A〜図8Fは、検出部12eが実行する候補エリアDaの除外処理の説明図(その1)〜(その6)である。
まず、変換部12cは、具体的には、図3に示すように、X軸方向およびY軸方向のエッジ強度に基づき、三角関数を用いることで、各画素のベクトルを算出する。なお、以下では、図3に示す算出したベクトルと、正方向側のX軸とのなす角度θを「エッジ向き」と言い、ベクトルの長さLを各画素の「エッジ強度」と言う。
なお、変換部12cは、全ての画素についてエッジ向きを算出する必要はなく、優先度の低い領域については、所定間隔の画素ごとにエッジ向きを算出するなど、処理を簡略化することとしてもよい。
また、変換部12cは、算出したエッジ向きをそれぞれ符号化する。たとえば、変換部12cは、複数の画素におけるエッジの代表値を求め、かかる代表値を符号化する。具体的には、図4Aに示すように、変換部12cは、たとえば8×8ピクセルの画素単位を1つの「セル」として取り扱い、3×3セルの画素単位を1つの「ブロック」として取り扱う。また、1つのブロックの中央のセルを「注目セル」として取り扱う。
変換部12cは、かかるブロックごとに各画素のエッジ向きおよびエッジ強度を示すヒストグラムを作成する。かかるヒストグラムについては、図4Bを用いて説明する。ここで、変換部12cは、注目セルにおける中央の座標のエッジ向きをブロックにおけるヒストグラムから導出する。
そして、変換部12cは、1つのブロックにおいて注目セルの代表値を導出すると、ブロックを1つのセル分ずらしてヒストグラムを作成し、かかるブロックにおける注目セルの代表値を算出していく。
つまり、変換部12cは、複数の画素ごとに代表値を算出することで、データ量を削減することができる。なお、図4Aに示す例では、セルが8×8ピクセルであるため、データ量は1/64に削減されることとなる。
なお、図4Aに示したブロックおよびセルのピクセル数は一例であって、セルおよびブロックのピクセル数は、任意に設定することができる。この際、検出したい水滴の大きさに応じて各セルのピクセル数を変更することもできる。
たとえば、小さい水滴を検出したい場合、セルのピクセル数を少なく設定し、大きい水滴を検出したい場合は、セルのピクセル数を多く設定する。これにより、検出したい大きさの水滴を効率よく検出することができる。
また、変換部12cは、単にセルごとにヒストグラムを作成し、かかるヒストグラムに基づいて各セルの代表値を算出することにしてもよい。なお、変換部12cは、代表値を算出せず、全ての画素を符号化することにしてもよい。
次に、図4Bを用いてヒストグラムについて説明する。なお、図4Bでは、縦軸にエッジ強度を示し、横軸にエッジ向きの階級を示す。図4Bに示すように、変換部12cは、たとえば、エッジ向きを20°ごとに18段階の各階級に割り当ててヒストグラムを作成する。
具体的には、変換部12cは、ブロック内の各画素のエッジ強度をエッジ向きに対応する階級に加算していくことで、ブロックにおけるヒストグラムを作成する。つづいて、変換部12cは、作成したヒストグラムからエッジ強度の和が最大となる階級を求める。
図4Bに示す例では、80〜100°の階級が最大の値をとる場合を示している。このとき、変換部12cは、かかる階級においてエッジ強度の和が閾値以上である場合に、かかる階級を代表値とする。
図4Bに示す例では、80〜100°の階級においてエッジ強度の和が閾値を超えているため、上記の条件を満たす。このため、かかるブロックにおける注目セルの階級は、80〜100°となる。
つづいて、変換部12cは、注目セルを階級に応じて割り当てられた符号に変換する。ここで、各階級には、たとえば0〜9およびA〜Hの18種類の符号がそれぞれ割り当てられる。なお、0〜9およびA〜Hは、0°から360°まで20度刻みの各階級に割り当てられる符号である。また、代表値が閾値を超えなかった場合、すなわち、エッジ強度が低いセルには、たとえばZの符号が割り当てられる。
このようにして、変換部12cは、全てのセルについて符号化を行う。これにより、符号化されたカメラ画像において、各符号が格子状に配列されることとなる。なお、変換部12cは、上記した代表値を算出する以外に、他の統計学的な算出方法を用いて代表値を算出することにしてもよい。
また、図4Bでは、エッジ向きを18段階に分類する場合について説明したが、これに限られず、18段階より少なくする、あるいは、多くすることにしてもよい。また、図4Bでは、符号がA〜HおよびZである場合を示したが、符号として、平仮名や数字など、他の文字、または図形等を用いることにしてもよい。
つづいて、マッチング部12dは、上述したように、符号化されたカメラ画像と、テンプレート情報11aとして記憶されたテンプレートとのマッチング処理を行う。かかるテンプレートの一例を図5Aに示す。なお、図5Aでは、視覚的に分かりやすくするために、テンプレートを上記した符号ではなく、ピン状の記号を用いて実際のエッジ向きを模式的に図示している。
図5Aに示すように、テンプレート情報11aは、テンプレートとして水滴の特徴を示す符号列である符号パターンを有する。具体的には、たとえば、上辺パターン、下辺パターン、左辺パターン、右辺パターンを有する。
ここで、図5Aに示す各辺のパターンは、水滴を内側に含むまたは水滴の内側に含まれる矩形の各辺に対応する。ここで、「水滴を内側に含む」とは、矩形に水滴が内接する場合を含む。また、「水滴の内側に含まれる」とは、矩形が水滴に内接する場合を含む。なお、本実施形態では、「矩形」は正方形を含む。また、図5Aでは、各辺のパターンのエッジ向きが、それぞれ中央に向かう場合について示している。この場合、水滴の輝度が端部から中央に向けて大きくなる、すなわち、中央が明るく端部が暗い水滴の特徴を示す。
なお、テンプレート情報11aは、これとは逆に、水滴の輝度が中央から端部に向けて大きくなる、すなわち、中央が暗く端部が明るい水滴の特徴を示す各辺のパターンを備えていてもよい。このようにすることで、多様な水滴を検出することが可能となる。
なお、同図では、上下左右の4方のパターンを例示したが、斜め方向を含むパターンを用いることもできる。このようにすることで、水滴の検出精度を向上させることができる。
つづいて、かかる各辺のパターンを用いたマッチング処理の一例を図5Bに示す。なお、ここでは、説明の便宜上、図5Aに示した上辺パターンをそれぞれA〜Fの符号を用いて示している。また、同図のaおよびbには、符号化されたカメラ画像の一部を模式的に示している。
図5Bのaに示すように、マッチング部12dは、符号パターンがA〜Fの順に順序良く並んでいれば、かかる符号パターンを上辺パターンと一致すると判定する。
具体的には、マッチング部12dは、図5Bのaに示すように、たとえば、Aが3回、B、C、DおよびEがそれぞれ2回、そして、Fが3回、のように繰り返される配列を上辺パターンの各符号の配列順序を満たせば、上辺パターンとして抽出することにしている。
これは、水滴の大きさに応じて符号の繰り返し回数が異なるためである。すなわち、水滴が大きいほど、各符号列の長さが長くなるためである。このように、かかる符号の繰り返しを許容することで、1回のマッチング処理で、大きさが異なる複数の水滴を示す符号列を抽出することができる。
したがって、処理負荷を軽減しつつ、水滴を検出することができる。なお、マッチング部12dは、水滴の大きさに応じて符号列の長さが異なる複数の各辺のパターンを用意し、全てのかかるパターンを用いて符号列を抽出することにしてもよい。
また、水滴は一般的に球状となるため、各符号の繰り返しの回数は、中心から線対称状となるはずである。このため、マッチング部12dは、抽出した符号列の中で、バランスが悪い符号列を一致しないとして除外することにしている。
具体的には、図5Bのbに示すように、マッチング部12dは、たとえば、両端に位置するAとFとのバランスを精査する。ここで、同図では、Aが3回繰り返され、Fが10回繰り返される場合を示している。
このとき、マッチング部12dは、AおよびFの個数が2倍以上異なる場合に、配列順序を満たす場合であっても、かかる符号列パターンを一致しないとして除外することにしている。このようにすることで、水滴以外の不要な符号パターンの誤抽出を防ぐことができ、水滴の誤検出を抑制することができる。
また、マッチング部12dでは、たとえば、抽出した符号列が閾値より長い場合、かかる符号列をマッチングから除外することもできる。これは、符号列が長い場合、水滴である可能性が低いためである。これにより、水滴の誤検出を抑制することができる。なお、かかる閾値は、統計等によって最適な値を予め導出しておくものとする。
次に、マッチング処理を経ての、検出部12eによる候補エリアDaの検出処理の一例を図6に示す。なお、図6では、図5Aと同様に、符号に代えて実際のエッジ向きを模式的に図示している。
また、ここでは、マッチング処理によって最初に上辺パターンが抽出された場合について説明する。検出部12eは、まず抽出された上辺パターンの幅に基づき、略正方形状の候補エリアDa1を設定する。
つづいて、候補エリアDa1から逸脱した位置に右辺パターンが抽出されたものとする。このとき、検出部12eは、右辺パターンの候補エリアDa2の中心座標が候補エリアDa1内にあれば、双方の候補エリアDa1,Da2を統合する処理を行う。
その後、検出部12eは、たとえば、統合した候補エリアDa3において、下辺パターンまたは左辺パターンが抽出された場合、水滴が存在すると推定されるエリアとして、候補エリアDa3を抽出する。換言すると、検出部12eは、異なる3方向以上の各辺を示すパターンが抽出されることを検出条件(以下、「方向条件」と言う)として、水滴が存在すると推定される候補エリアDaを検出する。
なお、検出部12eは、かかる方向条件以外に、たとえば、統合した候補エリアDa3において、各辺を示すパターンが所定回数(たとえば、上下左右を含めて4回)以上抽出されることを検出条件(以下、「回数条件」と言う)としてもよい。
このように、検出条件として、3方向以上の方向条件や回数条件とすることで、上下左右の全ての辺のパターンが抽出されなくとも、水滴が存在すると推定される候補エリアDaを抽出することができる。すなわち、カメラ画像から見切れる、たとえば半円状の水滴を検出することが可能となる。なお、これら検出条件は、たとえば検出情報11bに含まれて記憶される。
なお、図6では、上辺パターンの候補エリアDa1内に候補エリアDa2の中心座標が収まる場合に、候補エリアDaを統合する場合について示したが、これに限定されるものではない。すなわち、候補エリアDa1および候補エリアDa2の少なくとも一部が重なっていれば双方を統合することにしてもよい。
また、統合した候補エリアDa3を、候補エリアDa1および候補エリアDa2の論理積とすることにしてもよいし、論理和とすることにしてもよい。また、図6では、候補エリアDa1および候補エリアDa2が矩形状である場合を示したが、これに限られず、円形状など他の形状とすることにしてもよい。
そして、検出部12eは、検出した候補エリアDaに関するデータを検出情報11bへ格納する。具体的には、検出部12eは、図7Aに示すように、たとえば矩形の候補エリアDaを、左上座標(x,y)と、幅wと、高さhとで規定する。
検出情報11bには、図7Bに示すように、たとえば「エリアID」項目と、「エリア情報」項目と、「マッチング情報」項目とが含まれる。「マッチング情報」項目には、「辺」項目と、「回数」項目とが含まれる。
「エリアID」項目には、候補エリアDaの識別情報が格納され、検出情報11bは、かかるエリアIDごとに管理される。
検出部12eは、検出した候補エリアDaに関し、たとえば「エリア情報」項目へ、図7Aに示した左上座標(x,y)や、幅w、高さhなどを格納する。また、検出部12eは、たとえば「マッチング情報」項目へ、上述のマッチング処理において候補エリアDaの各辺において各辺パターンと一致した回数を格納する。
具体的には、検出部12eは、図7Cに示すように、検出した候補エリアDaの輪郭に沿った領域である輪郭エリアRaにおいて各辺パターンと一致した回数を算出し、これを「マッチング情報」項目へ格納する。
たとえば図7Dの例では、候補エリアDaは、かかる候補エリアDaの上辺に沿った輪郭エリアRaにおいて、上辺パターンと3回一致している。かかる場合、検出部12eは、検出情報11bにおける該当候補エリアDaの「マッチング情報」項目の辺「上」へ、回数「3」を格納することとなる。
なお、かかる回数が多いということは、候補エリアDaが、輝度変化がなだらかで広範囲にぼやけた輪郭を有することを推定させるものである。
そのうえで、検出部12eは、かかる検出情報11bと、除外情報11cとに基づいて、候補エリアDaのそれぞれにつき、路面反射を水滴として誤検出した場合に該当していないか否かを判定する。
具体的には、除外情報11cには、予め除外条件が設定されている。より具体的には、除外情報11cには、水滴を水滴として検出した「正検出時の候補エリアDaの特徴」と、路面反射を水滴として検出した「誤検出時の候補エリアDaの特徴」とに基づいて、「路面反射の該当条件」が予め設定されている。
これら「正検出時の候補エリアDaの特徴」および「誤検出時の候補エリアDaの特徴」は、たとえば付着物検出装置10の開発中の実験時などにおいて収集された複数のサンプルデータに基づいて抽出される。
ここで、「誤検出時の候補エリアDaの特徴」について、図8A〜図8Dに屋内駐車場における実例を挙げながら説明する。まず、図8Aに示すように、撮像画像Iにおいて、光源が縦向きおよび中央にあるような場合、誤検出された候補エリアDaは、上辺または下辺がぼやけて広がる傾向を示すことがある。かかる場合、マッチング情報(検出情報11bの「マッチング情報」項目に対応)は、少なくともいずれか1辺の回数が10を超える(図中の破線の閉曲線で囲まれた部分を参照)。
また、図8Bに示すように、撮像画像Iにおいて、光源が横向きおよび画面奥にあるような場合、誤検出された候補エリアDaは、上辺がぼやけて広がる傾向を示すことがある。かかる場合、マッチング情報は、図8Aの場合と同様に、少なくともいずれか1辺の回数が10を超える(図中の破線の閉曲線で囲まれた部分を参照)。
また、図8Cに示すように、撮像画像Iにおいて、路面に白線等の模様があり、誤検出された候補エリアDaにもかかる模様が含まれるような場合、マッチング情報は、特定の辺のみカウントされるという傾向がある(図中の破線の閉曲線で囲まれた部分を参照)。
また、図8Dに示すように、撮像画像Iにおいて、光源が複数あるような場合、誤検出された候補エリアDaは、丸みのある路面反射であることがある。かかる場合、マッチング情報は、正検出時の水滴である場合と比較して、4辺の合計回数が多いという傾向がある(図中の破線の閉曲線で囲まれた部分を参照)。
こうした実例を踏まえ、本実施形態では、図8Eに示すように、「路面反射の該当条件」である除外条件を、条件#1〜#3のORとしている。条件#1は、「4辺のうちのいずれかの回数>10」である。これは、図8Aおよび図8Bの例に対応する。
条件#2は、「(2辺の回数=0)AND(残り2辺の回数合計>10)」である。これは、図8Cの例に対応する。条件#3は、「4辺の合計回数≧25」である。これは、図8Dの例に対応する。
検出部12eは、検出情報11bに格納された候補エリアDaのそれぞれにつき、かかる除外条件に該当するか否かを判定し、該当する場合には誤検出と、該当しない場合には正検出と、それぞれ判定することとなる。
なお、かかる除外条件は、適用範囲を限定することとしてもよい。たとえば、図8Fに示すように、幅W1、高さH1の領域R1を画面サイズ全体とした場合に、領域R1の中央部のやや下方に幅Wt(=W1/2)、高さHt(=H1/2)で規定される領域R3のみを条件適用範囲としてもよい。なお、領域R2は、たとえば付着物検出の有効範囲である。
すなわち、路面反射については、路面反射が現れやすく誤検出時に影響が大きいと考えられる自車付近についてのみ、除外条件を適用することができる。これにより、処理負荷を軽減させるのに資することができる。
次に、実施形態に係る付着物検出装置10が実行する処理手順について、図9を用いて説明する。図9は、実施形態に係る付着物検出装置10が実行する処理手順を示すフローチャートである。なお、図9では、1フレーム分のカメラ画像についての処理手順を示している。
まず、取得部12aが、カメラ画像を取得する(ステップS101)。そして、抽出部12bが、各画素のエッジ情報を抽出する(ステップS102)。
つづいて、変換部12c、マッチング部12dおよび検出部12eが、抽出部12bによって抽出されたエッジ情報に基づく所定の検出アルゴリズムを実行する(ステップS103)。そして、検出部12eが、かかるアルゴリズムの実行結果に基づいて、水滴の存在が推定される候補エリアDaを抽出する(ステップS104)。
すなわち、変換部12cおよびマッチング部12dは、一例として図3〜図5Bを用いて説明した各処理を実行し、検出部12eは、図6を用いて説明した検出処理によって候補エリアDaを検出する。
なお、かかる候補エリアDaを検出させる検出アルゴリズムは説明した例に限らず、たとえば変換部12cが、抽出部12bによって抽出されたエッジ情報に基づいて各画素のエッジ強度を算出し、カメラ2の周囲環境に応じて異なる値をとる2値化閾値と当該エッジ強度とを比較することで各画素を2値化してもよい。
また、変換部12cが、抽出部12bによって抽出されたエッジ情報に基づいて各画素のエッジの向きを算出し、反対向きのエッジの向き同士が変換後に1の補数の関係となるパラメータを用いて各画素を変換するようにしてもよい。
かかる場合、マッチング部12dは、変換部12cによって変換されたこれらデータ形式に応じて、水滴を示す当該データ形式のテンプレートとのマッチング処理を行えばよい。
ステップS104につづいては、検出部12eが、検出情報11bおよび除外情報11cに基づいて、検出された候補エリアDaのうち、路面反射に該当するエリアがあるか否かを判定する(ステップS105)。
ここで、路面反射に該当するエリアがある場合(ステップS105,Yes)、検出部12eは、該当するエリアを除外する(ステップS106)。路面反射に該当するエリアがない場合(ステップS105,No)、ステップS107へ制御を移す。
そして、ステップS107では、検出部12eが、各種機器50へ候補エリアDaを通知し、処理を終了する。
上述してきたように、実施形態に係る付着物検出装置10は、抽出部12bと、検出部12eとを備える。抽出部12bは、カメラ2(「撮像装置」の一例に相当)によって撮像された撮像画像Iに含まれる各画素のエッジ情報を抽出する。検出部12eは、抽出部12bによって抽出されたエッジ情報に基づいて所定のデータ形式に変換された各画素と、水滴を示す当該データ形式のテンプレートとのマッチング結果に基づき、撮像画像I中において水滴が存在すると推定される候補エリアDaを検出する。また、検出部12eは、候補エリアDaの輪郭に沿った輪郭エリアRa(「輪郭に沿った所定の領域」の一例に相当)につき、テンプレートと一致した回数をマッチング結果に基づいて算出し、候補エリアDaのうちから、上記回数に基づく所定の除外条件に該当する候補エリアDaを除外する。
したがって、実施形態に係る付着物検出装置10によれば、たとえば路面反射を水滴として誤検出してしまうのを抑制し、検出精度を高めることができる。
また、検出部12eは、候補エリアDaの各辺のうちのいずれかについての上記回数が所定の閾値より大きい場合に、当該候補エリアDaを除外する。
したがって、実施形態に係る付着物検出装置10によれば、上辺や下辺がぼやけて広がるような路面反射を水滴として誤検出してしまうのを抑制することができる。
また、検出部12eは、候補エリアDaの各辺のうち、特定の辺についての上記回数が所定の閾値以下であり、かつ、上記特定の辺以外の他の辺についての上記回数の合計が所定の閾値より大きい場合に、当該候補エリアDaを除外する。
したがって、実施形態に係る付着物検出装置10によれば、白線等の路面の模様が含まれる路面反射を水滴として誤検出してしまうのを抑制することができる。
また、検出部12eは、候補エリアDaの各辺についての上記回数の合計が所定の閾値より大きい場合に、当該候補エリアDaを除外する。
したがって、実施形態に係る付着物検出装置10によれば、丸みのある路面反射を水滴として誤検出してしまうのを抑制することができる。
また、検出部12eは、撮像画像I中の所定の領域R3についてのみ上記除外条件を適用する。
したがって、実施形態に係る付着物検出装置10によれば、たとえば路面反射が現れやすい自車付近についてのみ除外条件を適用して、処理負荷の軽減を図ることができる。
なお、上述した実施形態では、除外条件の適用範囲を自車付近に相当する領域R3にのみ適用することとしたが、これに限られず、任意の範囲に適用するようにしてもよい。たとえば、フロントカメラ、バックカメラ、右サイドカメラ、左サイドカメラなど、カメラ2のそれぞれの設置位置に応じて、路面反射による誤検出の影響を受けやすい任意の範囲に、上記除外条件を適用するようにしてもよい。
また、上述した実施形態では、輪郭エリアRaが、候補エリアDaの輪郭の内側に設定されている場合を例に挙げたが(図7C参照)、候補エリアDaの輪郭に沿っていれば、輪郭の外側に設定されていてもよい。
また、上述した実施形態では、除外条件を、除外したい候補エリアDaのために用いる例を挙げたが、検出したい候補エリアDaのために用いてもよい。すなわち、路面反射に該当する候補エリアDaを検出したい場合に用いてもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
2 カメラ
10 付着物検出装置
11 記憶部
11a テンプレート情報
11b 検出情報
11c 除外情報
12 制御部
12a 取得部
12b 抽出部
12c 変換部
12d マッチング部
12e 検出部
50 各種機器
Da 候補エリア
I 撮像画像

Claims (6)

  1. 撮像装置によって撮像された撮像画像に含まれる各画素のエッジ情報を抽出する抽出部と、
    前記抽出部によって抽出された前記エッジ情報に基づいて所定のデータ形式に変換された前記各画素と、水滴を示す当該データ形式のテンプレートとのマッチング結果に基づき、前記撮像画像中において水滴が存在すると推定される候補エリアを検出する検出部と
    を備え、
    前記検出部は、
    前記候補エリアの輪郭に沿った所定の領域につき、前記テンプレートと一致した回数を前記マッチング結果に基づいて算出し、前記候補エリアのうちから、前記回数に基づく所定の除外条件に該当する前記候補エリアを除外する
    ことを特徴とする付着物検出装置。
  2. 前記検出部は、
    前記候補エリアの各辺のうちのいずれかについての前記回数が所定の閾値より大きい場合に、当該候補エリアを除外する
    ことを特徴とする請求項1に記載の付着物検出装置。
  3. 前記検出部は、
    前記候補エリアの各辺のうち、特定の辺についての前記回数が所定の閾値以下であり、かつ、前記特定の辺以外の他の辺についての前記回数の合計が所定の閾値より大きい場合に、当該候補エリアを除外する
    ことを特徴とする請求項1または2に記載の付着物検出装置。
  4. 前記検出部は、
    前記候補エリアの各辺についての前記回数の合計が所定の閾値より大きい場合に、当該候補エリアを除外する
    ことを特徴とする請求項1、2または3に記載の付着物検出装置。
  5. 前記検出部は、
    前記撮像画像中の所定の領域についてのみ前記除外条件を適用する
    ことを特徴とする請求項1〜4のいずれか一つに記載の付着物検出装置。
  6. 撮像装置によって撮像された撮像画像に含まれる各画素のエッジ情報を抽出する抽出工程と、
    前記抽出工程において抽出された前記エッジ情報に基づいて所定のデータ形式に変換された前記各画素と、水滴を示す当該データ形式のテンプレートとのマッチング結果に基づき、前記撮像画像中において水滴が存在すると推定される候補エリアを検出する検出工程と
    を含み、
    前記検出工程は、
    前記候補エリアの輪郭に沿った所定の領域につき、前記テンプレートと一致した回数を前記マッチング結果に基づいて算出し、前記候補エリアのうちから、前記回数に基づく所定の除外条件に該当する前記候補エリアを除外する
    ことを特徴とする付着物検出方法。
JP2018248578A 2018-12-28 2018-12-28 付着物検出装置および付着物検出方法 Active JP7206909B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018248578A JP7206909B2 (ja) 2018-12-28 2018-12-28 付着物検出装置および付着物検出方法
US16/683,624 US10984273B2 (en) 2018-12-28 2019-11-14 Attachable matter detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248578A JP7206909B2 (ja) 2018-12-28 2018-12-28 付着物検出装置および付着物検出方法

Publications (2)

Publication Number Publication Date
JP2020109542A true JP2020109542A (ja) 2020-07-16
JP7206909B2 JP7206909B2 (ja) 2023-01-18

Family

ID=71123266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248578A Active JP7206909B2 (ja) 2018-12-28 2018-12-28 付着物検出装置および付着物検出方法

Country Status (2)

Country Link
US (1) US10984273B2 (ja)
JP (1) JP7206909B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113962996A (zh) * 2021-12-22 2022-01-21 迈赫机器人自动化股份有限公司 用于雨天积水路面的积水智能化检测系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7205234B2 (ja) * 2019-01-07 2023-01-17 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP7319597B2 (ja) * 2020-09-23 2023-08-02 トヨタ自動車株式会社 車両運転支援装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009057410A1 (ja) * 2007-10-30 2009-05-07 Nec Corporation 路面標示画像処理装置,路面標示画像処理方法及びプログラム
JP2018072312A (ja) * 2016-10-24 2018-05-10 株式会社デンソーテン 付着物検出装置、付着物検出方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4211043B2 (ja) 1999-11-17 2009-01-21 日本精機株式会社 雨滴検出装置
EP1790541A2 (en) * 2005-11-23 2007-05-30 MobilEye Technologies, Ltd. Systems and methods for detecting obstructions in a camera field of view
FR2956236B1 (fr) * 2010-02-09 2012-11-30 France Etat Ponts Chaussees Procede et dispositif de detection de gouttes dans une image numerique; programme d'ordinateur pour la mise en oeuvre de ce procede.
JP6832105B2 (ja) 2016-09-23 2021-02-24 株式会社デンソーテン 水滴検出装置、水滴検出方法および水滴検出プログラム
US10552706B2 (en) * 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009057410A1 (ja) * 2007-10-30 2009-05-07 Nec Corporation 路面標示画像処理装置,路面標示画像処理方法及びプログラム
JP2018072312A (ja) * 2016-10-24 2018-05-10 株式会社デンソーテン 付着物検出装置、付着物検出方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宮原 孝行,外6名: "運転支援のための車載カメラ映像による状況別降雨認識", デンソーテクニカルレビュー, vol. 12, no. 1, JPN6022050926, 18 May 2007 (2007-05-18), pages 50 - 57, ISSN: 0004936587 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113962996A (zh) * 2021-12-22 2022-01-21 迈赫机器人自动化股份有限公司 用于雨天积水路面的积水智能化检测系统

Also Published As

Publication number Publication date
JP7206909B2 (ja) 2023-01-18
US10984273B2 (en) 2021-04-20
US20200210740A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
US10552706B2 (en) Attachable matter detection apparatus and attachable matter detection method
JP6817104B2 (ja) 付着物検出装置、付着物検出方法
CN110544211B (zh) 一种镜头付着物的检测方法、系统、终端和存储介质
CN110532876B (zh) 夜晚模式镜头附着物的检测方法、系统、终端和存储介质
JP6690955B2 (ja) 画像処理装置及び水滴除去システム
TWI494899B (zh) 影像內週期性雜訊修補方法
EP1887522B1 (en) Vehicle and road sign recognition device
CN110532875B (zh) 夜晚模式镜头付着物的检测系统、终端和存储介质
JP2020109542A (ja) 付着物検出装置および付着物検出方法
JP2009064175A (ja) 物体検出装置および物体検出方法
JPWO2008020544A1 (ja) 車両検知装置,車両検知方法並びに車両検知プログラム
JP7230507B2 (ja) 付着物検出装置
JP7210882B2 (ja) 付着物検出装置および付着物検出方法
JP7264428B2 (ja) 道路標識認識装置及びそのプログラム
JP2018142828A (ja) 付着物検出装置および付着物検出方法
US10997743B2 (en) Attachable matter detection apparatus
JP7175188B2 (ja) 付着物検出装置および付着物検出方法
JP7283081B2 (ja) 付着物検出装置および付着物検出方法
JP2020108060A (ja) 付着物検出装置および付着物検出方法
US11393128B2 (en) Adhered substance detection apparatus
JP2020107232A (ja) 付着物検出装置および付着物検出方法
JP7059649B2 (ja) 付着物検出装置および付着物検出方法
JP2020109541A (ja) 付着物検出装置および付着物検出方法
JP7234884B2 (ja) 付着物検出装置および付着物検出方法
JP2020109579A (ja) 付着物検出装置および付着物検出方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R150 Certificate of patent or registration of utility model

Ref document number: 7206909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150