JP7360304B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP7360304B2
JP7360304B2 JP2019203263A JP2019203263A JP7360304B2 JP 7360304 B2 JP7360304 B2 JP 7360304B2 JP 2019203263 A JP2019203263 A JP 2019203263A JP 2019203263 A JP2019203263 A JP 2019203263A JP 7360304 B2 JP7360304 B2 JP 7360304B2
Authority
JP
Japan
Prior art keywords
detection
detection target
image
detected
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019203263A
Other languages
English (en)
Other versions
JP2021077092A5 (ja
JP2021077092A (ja
Inventor
康貴 岡田
竜介 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019203263A priority Critical patent/JP7360304B2/ja
Priority to CN202080064116.5A priority patent/CN114424241A/zh
Priority to US17/642,479 priority patent/US20220301315A1/en
Priority to PCT/JP2020/041622 priority patent/WO2021090943A1/ja
Priority to DE112020005521.3T priority patent/DE112020005521T5/de
Publication of JP2021077092A publication Critical patent/JP2021077092A/ja
Publication of JP2021077092A5 publication Critical patent/JP2021077092A5/ja
Application granted granted Critical
Publication of JP7360304B2 publication Critical patent/JP7360304B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理方法に関する。
従来、カメラで撮影した画像から、人や車両等の物体を検知する技術が知られる。また、カメラで撮影した画像から車両を検知し、当該検知結果にしたがってナンバープレートの認識を行う技術が知られる(例えば特許文献1参照)。
特開2015-64752号公報
ところで、例えば、カメラで撮影した画像から車両を検知できた場合でも、当該車両に含まれるナンバープレートを検知できない場合がある。また。例えば、カメラで撮影した画像から人を検知できた場合でも、当該人に含まれる顔を認識できない場合がある。すなわち、カメラで撮影した画像から或る物体を検知できた場合でも、当該物体の一部の検知を行えないことがある。
このような現象は、例えば、撮影画像中において物体の部位が物体全体に対してかなり小さい場合に起こり易い。検知処理の負担を低減するために物体検知に用いる撮影画像の解像度を低下させた場合に、物体を検知できたにもかかわらず、当該物体の部位を検知できないといった現象が起こり易くなる。
本発明は、上記の課題に鑑み、撮影画像中に映る検知したい対象の未検知が生じる可能性を低減することができる技術を提供することを目的とする。
上記目的を達成するために本発明の画像処理装置は、取得した撮影画像から所定の物体および前記所定の物体に含まれる所定の部位を検知可能に設けられる第1検知部と、前記第1検知部により前記所定の物体および前記所定の部位のうち前記所定の物体のみが検知された場合に、前記第1検知部の検知結果に基づき前記撮影画像に検知範囲を設定する設定部と、前記検知範囲から前記所定の部位の検知を試みる第2検知部と、を備える構成(第1の構成)になっている。
また、上記第1の構成の画像処理装置において、前記設定部は、前記所定の物体が検知された領域内において前記所定の部位が存在する可能性が高いと判断される領域に前記検知範囲を設定する構成(第2の構成)であることが好ましい。
また、上記第1又は第2の構成の画像処理装置において、前記第1検知部にて検知処理を行う際に、前記撮影画像に対して、前記所定の物体および前記所定の部位を検知する目的で設けられる主検知対象領域と、前記主検知対象領域に隣接し、前記主検知対象領域における検知処理を補完する目的で設けられる副検知対象領域と、が設定され、前記第1検知部は、前記主検知対象領域と前記副検知対象領域とで、互いに異なる検知処理を行う構成(第3の構成)であってよい。
また、上記第1から第3のいずれかの構成の画像処理装置は、前記第2検知部の検知結果に基づき、前記第1検知部による前記所定の物体の検知が誤検知であるか否かを判断する判断部を更に備える構成(第4の構成)であってよい。
また、上記第1から第4のいずれかの構成の画像処理装置において、前記撮影画像は、車両に搭載されるカメラにより撮影された画像であり、前記車両の走行環境を推定する推定部を更に備え、前記第1検知部が検知処理に用いる前記撮影画像の解像度は、前記走行環境に基づいて調整される構成(第5の構成)であってよい。
また、上記第1から第4のいずれかの構成の画像処理装置において、前記撮影画像は、車両に搭載されるカメラにより撮影された画像であり、前記車両の走行環境を推定する推定部を更に備え、前記第1検知部は、前記走行環境に基づき前記所定の物体および前記所定の部位を検知する検知処理を変更する構成(第6の構成)であってよい。
また、上記第6の構成の画像処理装置において、前記第1検知部は、機械学習により生成された学習済みモデルを用いて前記所定の物体および前記所定の部位を検知可能に設けられ、前記第1検知部は、使用する前記学習済みモデルを前記走行環境に基づき変更する構成(第7の構成)であってよい。
また、上記目的を達成するために本発明の画像処理方法は、取得した撮影画像から所定の物体および前記所定の物体に含まれる所定の部位の検知を試みる第1検知工程と、前記第1検知工程により前記所定の物体および前記所定の部位のうち前記所定の物体のみが検知された場合に、前記第1検知工程の検知結果に基づき前記撮影画像に検知範囲を設定する設定工程と、前記検知範囲から前記所定の部位の検知を試みる第2検知工程と、を備える構成(第8の構成)になっている。
本発明によれば、撮影画像中に映る検知したい対象の未検知が生じる可能性を低減することができる。
第1実施形態に係る画像処理装置の構成を示す図 第1実施形態の画像処理装置の変形例を説明するための図 第1実施形態に係る画像処理装置の動作例を示すフローチャート 取得部により取得される撮影画像の一例を示す図 図4に示す撮影画像に対する第1検知部の検知結果を例示する図 図5に示す検知結果が第1検知部により得られた場合の設定部の処理について説明するための図 統合処理が行われた画像を示す図 第2実施形態に係る画像処理装置の構成を示す図 第2実施形態に係る画像処理装置の動作例を示すフローチャート 第3実施形態に係る画像処理装置の動作例を示すフローチャート
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。
<1.第1実施形態>
(1-1.画像処理装置の構成)
図1は、本発明の第1実施形態に係る画像処理装置1の構成を示す図である。なお、図1においては、第1実施形態の画像処理装置1の特徴を説明するために必要な構成要素のみが示されており、一般的な構成要素についての記載は省略されている。また、図1には、理解を容易とするために画像処理装置1とは別の構成要素であるカメラ2も示されている。
画像処理装置1は、例えば車両等の移動体に搭載されてよい。車両には、例えば自動車、電車、無人搬送車等の車輪のついた乗り物が広く含まれる。画像処理装置1は、例えば車両に搭載されるナビゲーション装置やドライブレコーダ等の車載装置に含まれてよい。画像処理装置1は、移動体に搭載されなくてもよく、例えば、商業施設や駐車場等に設けられる監視施設や、高速道路の料金所等の建物内に配置されてもよい。また、画像処理装置1は、例えば、車載装置等の端末装置とネットワーク等を介して通信可能に設けられるクラウドサーバ等のサーバ装置に含まれてもよい。また、画像処理装置1は、例えば、スマートフォンやタブレット等の携帯端末に含まれてもよい。
カメラ2は、車両等の移動体に搭載されてもよいし、商業施設等の建物内、駐車場等の屋外に固定配置されてもよい。カメラ2は、例えば、有線又は無線により、或いは、ネットワークを利用して、撮影した画像(撮影画像)を画像処理装置1に出力する。
図1に示すように、画像処理装置1は、取得部11と、制御部12と、記憶部13と、を備える。
取得部11は、撮影画像を取得する。取得部11は、例えば車両に搭載されるカメラ2からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。取得部11によって取得される撮影画像の集合体が、カメラ2で撮影された動画像である。取得した撮影画像がアナログの場合には、取得部11は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。取得部11は、取得した撮影画像(A/D変換が行われた場合は変換後の画像)を制御部12に出力する。
制御部12は、画像処理装置1の全体を統括的に制御するコントローラである。制御部12は、例えば、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、および、ROM(Read Only Memory)等を含むコンピュータとして構成される。
記憶部13は、例えば、RAMやフラッシュメモリ等の半導体メモリ素子、ハードディスク、或いは、光ディスク等の可搬型の記録媒体を用いる記憶装置等で構成される。記憶部13は、ファームウェアとしてのプログラムや各種のデータを記憶する。本実施形態では、記憶部13は、第1学習済みモデル131と第2学習済みモデル132とを記憶する。なお、第1学習済みモデル131および第2学習済みモデル132については、例えばクラウドサーバ等から無線通信等を利用することにより更新された学習済みモデルをダウンロードできる構成としてよい。すなわち、第1学習済みモデル131および第2学習済みモデル132は、アップデートできる構成としてよい。
第1学習済みモデル131および第2学習済みモデル132は、例えばディープニューラルネットワーク(DNN:Deep Neural Network)等の機械学習のアルゴリズムにより学習を行うことで得られる。第1学習済みモデル131および第2学習済みモデル132は、例えば教師あり学習により得られてよい。本実施形態では、第1学習済みモデル131は、所定の物体および所定の物体に含まれる所定の部位を検知するために使用される。第2学習済みモデル132は、所定の部位を検知するために使用される。
所定の物体としては、例えば、人や車両等が挙げられる。なお、所定の物体には、人の顔や、車両のフロント等、或る物の一部と解される部分が含まれてよい。所定の部位は、例えば所定の物体が人である場合、顔等である。所定の部位は、例えば所定の物体が車両である場合、ナンバープレート等である。所定の部位は、例えば所定の物体が顔である場合、目等である。なお、所定の物体に、所定の部位が複数含まれてもよい。また、所定の物体には、複数種類の物体が含まれてよい。例えば、第1学習済みモデル131は、所定の物体として人および車両を検知するために使用されてよい。
図1に示す、第1検知部121、設定部122、第2検知部123、および、判断部124は、制御部12のCPUが記憶部13に記憶されるプログラムに従って演算処理を実行することにより実現される制御部12の機能である。換言すると、画像処理装置1は、第1検知部121と、設定部122と、第2検知部123と、判断部124と、を備える。なお、制御部12は判断部124を備えなくてもよい。
なお、制御部12における、第1検知部121、設定部122、第2検知部123、および、判断部124の少なくともいずれか1つは、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアで構成されてもよい。
また、第1検知部121、設定部122、第2検知部123、および、判断部124は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。また、取得部11は、制御部12のCPUがプログラムに従って演算処理を行うことによって実現される構成としてもよい。また、画像処理装置1の具体的なハードウェア構成に関して、実施の形態に応じて、適宜、構成要素の省略、置換、又は、追加を行ってよい。例えば、制御部12は、複数のハードウェアプロセッサを含んでもよい。
第1検知部121は、取得した撮影画像から所定の物体および所定の物体に含まれる所定の部位を検知可能に設けられる。本実施形態では、第1検知部121は、記憶部13に記憶される第1学習済みモデル131を用いて、所定の物体および所定の物体に含まれる所定の部位を撮影画像から検知する。第1検知部121は、取得部11から取得した撮影画像の解像度を低下させた低解像度画像を用いて、第1学習済みモデル131による物体検知を行うことが好ましい。これにより、第1検知部121における物体検知処理の処理負担を低減することができる。
第1学習済みモデル131は、DNNを用いて所定の物体および所定の部位を検知する構成が好ましい。ただし、第1学習済みモデル131は、例えば、HOG(Histogram Of Gradient)特徴量を利用したSVM(Support Vector Machine)等の他の機械学習のアルゴリズムにより所定の物体および所定の部位を検知する構成であってもよい。
なお、第1検知部121は、撮影画像の一部の範囲を、検知したい物体(本実施形態では所定の物体および所定の部位)を検知する検知対象領域とし、当該検知対象領域に絞って第1学習済みモデル131を用いた物体検知処理を行う構成としてよい。このように構成することにより、物体検知処理の処理量を低減することができる。検知対象領域は、例えば、カメラ2の既知の取付位置情報、および、カメラ2から検知対象までの予め求められた適正距離範囲等に基づいて設定されてよい。
ただし、撮影画像中に検知対象領域を設ける場合、検知対象領域外に物体が存在した場合に、その情報を得ることができない。このために、図2に示すように、第1検知部121にて検知処理を行う際に、撮影画像Pに対して、検知したい物体を検知することを目的に設けられる主検知対象領域(第1領域)TR1と、主検知対象領域TR1に隣接し、主検知対象領域TR1における検知処理を補完する目的で設けられる副検知対象領域(第2領域)R2と、が設定される構成としてよい。副検知対象領域TR2は、主検知対象領域TR1を囲む領域であってよい。
第1検知部121は、主検知対象領域TR1と副検知対象領域TR2とで、互いに異なる検知処理を行う構成であってよい。このような構成によれば、物体検知処理の負担を低減しつつ、検知したい物体に関する情報が減ることを抑制できる。
詳細には、主検知対象領域TR1については、例えば第1学習済みモデル131同様の学習済みモデル(物体の分類を行う学習済みモデル)を用いて検知処理を行い、副検知対象領域TR2については、主検知対象領域TR1とは異なる学習済みモデル(機械学習により得られる)を用いて検知処理を行う構成としてよい。副検知対象領域TR2に対して行われる検知処理は、主検知対象領域TR1に対して行われる検知処理に比べて軽負荷の処理である。副検知対象領域TR2に対しては、例えば、ピクセル毎に意味をラベル付けする画像セグメンテーションが行われる構成であってよい。
図2に示す例では、撮影画像Pには、副検知対象領域TR2に隣接し、検知処理が行われない検知非対象領域(第3領域)NTRが設定されている。検知非対象領域NTRは、例えば、副検知対象領域TR2を囲む構成であってよい。この検知非対象領域NTRは設定されなくてもよいが、検知非対象領域NTRが設定されることにより、第1検知部121の処理負担の軽減を更に図ることができる。
図1に戻って、設定部122は、第1検知部121により所定の物体および所定の部位のうち所定の物体のみが検知された場合に、第1検知部121の検知結果に基づき撮影画像に検知範囲を設定する。検知範囲は、検知できなかった所定の部位を検知するために設定される。検知範囲が設定される撮影画像は、取得部11から得られた撮影画像でもよいし、取得部11から得られた後に加工された撮影画像でもよい。加工された撮影画像とは、例えば低解像度化された撮影画像であってよい。設定部122は、例えば、第1検知部121にて所定の物体である人を検知したが所定の部位である顔を検知しなかった場合に、第1検知部121の検知結果に基づき、撮影画像に対して顔を検知するための検知範囲を設定する。
詳細には、設定部122は、所定の物体が検知された領域内において所定の部位が存在する可能性が高いと判断される領域に検知範囲を設定する。これによれば、所定の部位が存在する可能性が高い領域からを所定の部位の検知を再度試みることが可能となり、所定の部位の再検知処理を効率良く行うことができる。
本実施形態では、第1検知部121は、第1学習済みモデル131を用いた物体検知処理の際に、例えば、所定の物体の向き、姿勢、タイプ等の付加的な情報も取得可能になっている。このような付加的な情報の取得は、例えば、学習器にて第1学習済みモデル131を得るための機械学習を行う際に、付加的な情報に対する大量のデータを用意して教師あり学習を行わせることで可能になる。
例えば、第1検知部121は、第1学習済みモデル131を用いた物体検知処理の際に、検知した人の姿勢や向き等の付加的な情報も取得する。設定部122は、第1検知部121の検知処理で得られた人の位置情報に姿勢等の付加的な情報を加味して、撮影画像において人の顔が存在する可能性が高い領域を求める。なお、記憶部13には、人の姿勢や向きと関連付けられた人の構造化情報が記憶されており、第1検知部121は、当該人の構造化情報も参照して人の顔が存在する可能性が高い領域を求めてよい。設定部122は、求めた領域を検知範囲に設定する。
なお、第1検知部121による検知処理によって所定の部位(例えば顔やナンバープレート)が検知された場合には、所定の部位を再度検知するための処理を行う必要がないために、設定部122は検知範囲を設定する処理は行わない。また、第1検知部121の検知処理によって所定の物体が検知されない場合には、撮影画像中に所定の部位が存在しないと判断されるために、設定部122は検知範囲を設定する処理を行わない。
第2検知部123は、設定部122により設定された検知範囲から所定の部位の検知を試みる。なお、第2検知部123による検知処理は、検知範囲が設定された場合のみ行われる。すなわち、第2検知部123による検知処理は、第1検知部121により所定の物体を検知できなかった場合、および、所定の部位を検知できた場合には行われない。
本実施形態では、第2検知部123は、記憶部13に記憶される第2学習済みモデル132を用いて、設定した検知範囲から所定の部位の検知を試みる。なお、第2検知部123が検知処理に用いる画像は、取得部11から取得したままの解像度の画像でよい。ただし、取得部11から取得後に低解像度化された画像であってもよい。
第2学習済みモデル132を用いた第2検知部123の物体検知処理では、所定の部位のみが検知される。このために、第2検知部123の物体検知処理の処理負荷は小さくできる。本実施形態では、第2検知部123の検知処理は、第1検知部121の検知処理よりも処理負荷が小さい。第2学習済みモデル132は、例えば、DNNを用いて所定の部位を検知する構成であってよい。ただし、第2学習済みモデル132は、例えば、HOG特徴量を利用したSVM等の他の機械学習のアルゴリズムにより所定の部位を検知する構成であってもよい。
なお、第2検知部123は、機械学習により得られる第2学習済みモデル132を利用することなく、例えば、テンプレートマッチング等の他の手法を用いて所定の部位を検知する構成であってもよい。
本実施形態によれば、第1検知部121により物体を検知できたにもかかわらず、当該物体の所定の部位を検知できなかった場合に、第2検知部123により所定の部位の検知が試みられる。このために、撮影画像に映る検知したい対象(本実施形態では、所定の物体および所定の物体に含まれる所定の部位)の未検知が生じる可能性を低減することができる。また、第2検知部123が所定の部位を検知する範囲は、設定部122により撮影画像の一部の範囲に適切に絞り込まれるために、第2検知部123は効率良く所定の部位を検知することができる。
判断部124は、第2検知部123の検知結果に基づき、第1検知部121による所定の物体の検知が誤検知であるか否かを判断する。詳細には、判断部124は、第2検知部123により所定の部位が検知できた場合に、第1検知部121による所定の物体の検知が誤検知でないと判断する。判断部124は、第2検知部123により所定の部位が検知できなかった場合に、第1検知部121による所定の物体の検知が誤検知であると判断する。これによれば、信頼性の低い情報を画像処理装置1外に出力する可能性を低減することができる。
(1-2.画像処理装置の動作例)
図3は、本発明の第1実施形態に係る画像処理装置1の動作例を示すフローチャートである。なお、画像処理装置1は、例えば、取得部11により撮影画像が取得される毎に図3に示すフローチャートの動作を行う。
ステップS1では、取得部11がカメラ2より撮影画像を取得する。取得部11は、例えば、図4に示すような撮影画像Pを取得する。図4に示す撮影画像Pには、道路R上を1台の車両Vが走行している様子が映っている。撮影画像Pには、車両Vの前方のナンバープレートNが映っている。取得部11が撮影画像を取得すると、次のステップS2に処理が進められる。
ステップS2では、第1検知部121が取得した撮影画像に対して物体検知処理(第1検知処理)を行う。詳細には、第1検知部121は、第1学習済みモデル131を利用して、撮影画像から所定の物体および所定の物体に含まれる所定の部位の検知を試みる。例えば、所定の物体が車両で、当該車両に含まれる所定の部位がナンバープレートである場合、第1検知部121は、撮影画像に含まれる車両およびナンバープレートの検知を試みる。第1検知処理が完了すると、ステップS3に処理が進められる。
図5は、図4に示す撮影画像Pに対する第1検知部121の検知結果を例示する図である。図5において、太枠Bはバウンディングボックスである。第1検知部121は、バウンディングボックスB内の物体に対して分類を完了している。すなわち、図5に示す例では、第1検知部121は、撮影画像中の車両Vを検知することができている(バウンディングボックスB)が、車両Vに含まれる所定の部位であるナンバープレートNを検知することはできていない。
ステップS3では、設定部122により、第1検知部121が所定の物体を検知したか否かが確認される。例えば、所定の物体が車両である場合、撮影画像から車両が検知されたか否かが確認される。所定の物体が検知されていると判断された場合(ステップS3でYes)、ステップS4に処理が進められる。一方、所定の物体が検知されていないと判断された場合(ステップS3でNo)、図3にフローチャートで示される処理が一旦終了される。
図5に示す例では、所定の物体である車両Vの検知ができている。このために、図5に示す例では、ステップS4に処理が進められる。
ステップS4では、設定部122により、第1検知部121が所定の物体に含まれる所定の部位を検知したか否かが確認される。例えば、所定の部位がナンバープレートである場合、撮影画像からナンバープレートが検知されたか否かが確認される。所定の部位が検知されていると判断された場合(ステップS4でYes)、図3にフローチャートで示される処理が一旦終了される。一方、所定の部位が検知されていないと判断された場合(ステップS4でNo)、ステップS5に処理が進められる。
なお、ステップS4では、ステップS2の処理において所定の物体が複数検知されている場合には、各所定の物体に対して所定の部位が検知されている否かが確認される。すなわち、第1検知部121で検知された各物体に対して、ステップS5に処理が進められるか否かが判断される。
図5に示す例では、車両Vに含まれる所定の部位であるナンバープレートNが、第1検知部121によって検知されていない。このために、ステップS4において、ステップS5に処理を進めると判断される。
ステップS5では、設定部122が撮影画像に対して、所定の部位を検知するための範囲である検知範囲を設定する。例えば、検知できていない所定の部位がナンバープレートである場合、車両が検知された領域内においてナンバープレートが存在する可能性が高いと判断される領域に検知範囲が設定される。検知範囲の設定が完了すると、ステップS6に処理が進められる。なお、所定の部位が検知できていない所定の物体が複数ある場合には、各所定の物体に対して検知範囲が設定される。
図6は、図5に示す検知結果が第1検知部121により得られた場合の設定部122の処理について説明するための図である。図5では、ナンバープレートNが検知できていない車両Vが第1検知部121により1つ検知されている。このため、図6に示すように、設定部122は、第1検知部121により検知できた1台の車両VのナンバープレートNを検知するための検知範囲DRを撮影画像に対して設定する。
本例では、第1検知部121は、車両Vが存在する領域以外に、例えば車両Vの向きや、車両Vのタイプといった付加的な情報を得ることができる構成となっている。このような付加的な情報の取得は、上述のように、例えばDNNに教師あり学習を行わせた学習済みモデルを用いることで可能になる。例えば、車両Vの向きは、車両Vの向きと関係付けたタイヤの見え方が異なる大量の画像データを用いて機械学習を行わせることで取得可能になる。例えば、車両Vのタイプは、二輪車、軽自動車、普通自動車、大型自動車等の車両Vのタイプと関係付けた大量の画像データを用いて機械学習を行わせることで取得可能になる。
設定部122は、第1検知部121の検知処理で得られた車両Vの位置情報に車両Vの向きやタイプといった付加的な情報を加味して、撮影画像においてナンバープレートNが存在する可能性が高い領域を求める。設定部122は、ナンバープレートNが存在する可能性が高い領域を求めるに際して、記憶部13に記憶される、車両Vの向きやタイプとナンバープレートNの位置との関係を示す構造化情報を参照する。
ステップS6では、第2検知部123が撮影画像に設定された検知範囲から所定の部位の検知処理(第2検知処理)を試みる。詳細には、第2検知部123は、第2学習済みモデル132を利用して、設定された検知範囲から所定の部位の検知を試みる。例えば、所定の部位がナンバープレートである場合、第2検知部123は、撮影画像に含まれるナンバープレートの検知を試みる。第2検知処理が完了すると、ステップS7に処理が進められる。なお、ステップS5において複数の検知範囲が設定された場合には、各検知範囲に対して所定の部位を検知する処理が行われる。
図6に示す例では、撮影画像に設定された検知範囲DRから、第2学習済みモデル132を利用したナンバープレートNの検知が試みられる。
ステップS7では、判断部124が、ステップS6の第2検知処理により所定の部位が検知されたか否かを確認する。所定の部位が検知された場合(ステップS7でYes)、ステップS8に処理が進められる。所定の部位が検知されなかった場合(ステップS7でNo)、ステップS9に処理が進められる。なお、ステップS5において複数の検知範囲が設定された場合には、各検知範囲に対する第2検知処理の結果が確認され、各確認結果に対して、ステップS8とステップS9とのいずれに処理を進めるかが判断される。
ステップS8では、判断部124は、所定の部位が検知されているために、第1検知部121による所定の物体の検知が誤検知でないと判断する。そして、判断部124は、第1検知部121で所定の物体を検知した結果と、第2検知部123で所定の部位を検知した結果との統合処理を行う。例えば、判断部124は、1つの撮影画像に対して、所定の物体を検知したことを示すバウンディングボックスと、所定の部位を検知したことを示すバウンディングボックスとの両方が追加された画像を生成する。なお、統合処理は、必ずしも行われなくてよい。ステップS8の処理が完了すると、図3に示すフローチャートの処理が一旦終了される。
図7は、統合処理が行われた画像を示す図である。図7は、図6に示す検知範囲DRを第2検知部123により検知処理した結果、ナンバープレートNが検知されたことを想定した図である。図7に示すように、統合処理により、1つの撮影画像Pに、所定の物体である車両Vの検知を示すバウンディングボックスB1と、所定の部位であるナンバープレートNの検知を示すバウンディングボックスB2とが追加された画像が生成される。
ステップS9では、判断部124は、所定の部位が検知されなかったために、第1検知部121による所定の物体の検知が誤検知であると判断する。第1検知部121の誤検知と判断された検知結果については、外部への出力が禁止される。ステップS9の処理が完了すると、図3に示すフローチャートの処理が一旦終了される。
<2.第2実施形態>
次に、第2実施形態に係る画像処理装置について説明する。第2実施形態の画像処理装置の説明に際して、第1実施形態と重複する部分については、特に説明の必要がない場合には説明を省略する。
(2-1.画像処理装置の構成)
図8は、本発明の第2実施形態に係る画像処理装置1Aの構成を示す図である。なお、図8においては、第2実施形態の画像処理装置1Aの特徴を説明するために必要な構成要素のみを示しており、一般的な構成要素についての記載は省略されている。また、図8には、理解を容易とするために画像処理装置1Aとは別の構成要素であるカメラ2も示されている。なお、本実施形態では、カメラ2は、車両に搭載される。すなわち、本実施形態では、撮影画像は、車両に搭載されるカメラ2により撮影された画像である。詳細には、撮影画像は、車両に搭載されたカメラ2により撮影された車両周辺の画像である。
図8に示すように、画像処理装置1Aは、取得部11と、制御部12Aと、記憶部13と、を備える。取得部11および記憶部13は、第1実施形態と同様であるために、その説明を省略する。
制御部12Aは、第1実施形態と同様に、画像処理装置1Aの全体を統括的に制御するコントローラである。制御部12Aは、例えば、CPU、RAM、および、ROM等を含むコンピュータとして構成される。ただし、制御部12Aは、第1実施形態と異なる機能を備える。図8に示す、第1検知部121、設定部122、第2検知部123、判断部124、および、推定部125は、制御部12AのCPUが記憶部13に記憶されるプログラムに従って演算処理を実行することにより実現される制御部12Aの機能である。換言すると、画像処理装置1Aは、第1検知部121と、設定部122と、第2検知部123と、判断部124と、推定部125と、を備える。
なお、制御部12Aの各部121~125の少なくともいずれか1つは、ASIC、FPGA、GPU等のハードウェアで構成されてもよい。また、各部121~125は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてよい。また、各部121~125のうち、設定部122、第2検知部123、および、判断部124のうちの少なくともいずれか1つは、適宜、省略されてよい。
第1検知部121、設定部122、第2検知部123、および、判断部124の構成は、第1実施形態と同様であるために、その説明を省略する。なお、制御部12Aが、例えば、設定部122、第2検知部123、および、判断部124を備えない構成である場合、第1検知部121は、単に機械学習による学習が行われた学習済みモデルを用いて所定の物体を検知する構成であってよい。
推定部125は、車両の走行環境を推定する。ここで、車両は、カメラ2が搭載された車両である。車両の走行環境は、例えば、車両の周辺に存在する物体(例えば周辺車両、人、静止物等)との距離、車両の周辺の明るさ、車両が走行する道路状況、車両が走行する道路の種別(一般道/高速道路等)、運転モード(自動運転)等である。推定部125は、例えば、車両に備えられる各種のセンサや装置等から取得される情報に基づき走行環境を推定する。
各種のセンサには、例えば、レーダ、LIDAR(Laser Imaging Detection and Ranging)、超音波センサ、速度センサ、舵角センサ、GPS(Global Positioning System)等が含まれてよい。各種のセンサには、カメラ2も含まれてよい。各種の装置には、例えばナビゲーション装置等の外部装置と通信により情報(道路情報等)を得ることができる装置が含まれてよい。例えば、車両の周辺に存在する物体との距離は、レーダ、LIDAR、超音波センサ、カメラ2等から取得することができる。
本実施形態の画像処理装置1Aにおいては、第1検知部121が検知処理に用いる撮影画像の解像度は、走行環境に基づいて調整される。撮影画像の解像度の調整は、例えば、第1検知部121や、新たなに設けられる解像度調整部によって実行される。第1検知部121による検知処理で用いられる撮影画像の解像度は、取得部11で取得した撮影画像の解像度から低下される。この解像度の低下度合いが、推定部125により推定される走行環境に基づいて調整される。
物体の検知精度が物体検知に要する処理時間より優先されると走行環境に基づき判断される第1の場合と、前述の処理時間が前述の検知精度より優先されると走行環境に基づき判断される第2の場合とで、解像度の低下度合いが異なる。詳細には、第1の場合の方が、解像度の低下度合いが第2の場合に比べて小さくされる。すなわち、第1学習済みモデル131に入力される撮影画像の解像度は、第1の場合の方が第2の場合に比べて大きい。
例えば、車両周辺に存在する物体との距離が長い場合には、処理時間に余裕があり、物体の検知精度が良いことが望まれる。一方、車両周辺に存在する物体との距離が短い場合には、処理時間に余裕がなく、短い時間で物体を検知することが望まれる。このために、推定部125によって物体までの距離が所定の距離以下であると判断される場合(第2の場合に該当)には、物体までの距離が所定の距離より長いと判断される場合(第1の場合に該当)に比べて、第1学習済みモデル131に入力される撮影画像の解像度は小さくされる。
本実施形態のように、第1検知部121の物体検知に用いる撮影画像の解像度を、取得部11で取得された撮影画像の解像度より低下させると、第1検知部121の処理負担を低減させることができる。そして、本実施形態では、走行環境に応じて撮影画像の解像度の低下度合いを調整する構成であり、単純に第1検知部121の物体検知に用いる撮影画像の解像度を低下させるわけではない。本実施形態によれば、物体検知における処理量を適度に低減させつつ、検知精度の低下を適度に抑制した適切な物体検知処理を行うことができる。
(2-2.画像処理装置の動作例)
図9は、本発明の第2実施形態に係る画像処理装置1Aの動作例を示すフローチャートである。図9に示す動作例は、第1実施形態の画像処理装置1の動作例(図3参照)と概ね同様である。図9において、図3と同様である一部の処理(ステップS2より後の処理)は省略されている。図9に示す動作例では、図3の示す動作例のステップS1の処理とステップS2の処理との間に、ステップS11の処理とステップS12の処理とが行われ、この点が第1実施形態と異なる。この異なる部分の処理について以下説明する。
ステップS11では、推定部125によりカメラ2が搭載される車両の走行環境が推定される。走行環境が推定されると次のステップS12に処理が進められる。なお、本例では、ステップS11の処理がステップS1の処理(画像の取得処理)の後に行われる構成となっているが、ステップS11の処理は、例えばステップS1の処理と並行して進められてよい。
ステップS12では、推定部125により得られた走行環境の推定結果を利用して、取得部11で取得した撮影画像の解像度の調整処理が行われる。本例では、解像度の調整処理は、解像度の低下度合いを調整する処理である。ステップS12の処理が完了すると、ステップS2に処理が進められ、解像度が調整された撮影画像を用いて第1物体検知処理が行われる。これ以降の処理は、第1実施形態と同様であるために説明を省略する。
<3.第3実施形態>
次に、第3実施形態に係る画像処理装置について説明する。第3実施形態の画像処理装置の説明に際して、第1実施形態および第2実施形態と重複する部分については、特に説明の必要がない場合には説明を省略する。
(3-1.画像処理装置の構成)
第3実施形態の画像処理装置の構成は、第2実施形態の画像処理装置の構成と同様である。第3実施形態の画像処理装置も推定部125を備える。ただし、推定部125による推定結果の利用の仕方が異なる。以下、この異なる点に絞って説明する。なお、第3実施形態においても、カメラ2は車両に搭載され、撮影画像は、車両に搭載されるカメラ2により撮影された画像である。詳細には、撮影画像は、車両に搭載されたカメラ2により撮影された車両周辺の画像である。
第3実施形態においては、第1検知部121は、推定部125により推定された走行環境に基づき、所定の物体および所定の物体に含まれる所定の部位を検知する検知処理を変更する。走行環境が異なると、撮影画像に映る要素の傾向が変わる。例えば、市街地走行時の撮影画像の方が、高速道路走行時の撮影画像に比べて撮影画像に映る要素が多くなる傾向がある。本実施形態のように、物体の検知処理を走行環境によって変更することで、物体の検知処理の条件を適切として、物体検知に要する時間が長くなり過ぎたり、物体の検知精度が低下したりすることを抑制できる。
第3実施形態の画像処理装置においても、第1実施形態および第2実施形態と同様に、第1検知部121は、機械学習により生成された学習済みモデルを用いて所定の物体および所定の物体に含まれる所定の部位を検知可能に設けられる。ただし、第3実施形態では、第1検知部121は、記憶部13に記憶される1つの第1学習済みモデル131のみを使用するのではない。
第1検知部121は、使用する学習済みモデルを、推定部125により推定された走行環境に基づき変更する。すなわち、本実施形態では、記憶部13には、第1学習済みモデル131の代わりに、第1検知部121が走行環境に応じて使い分ける複数の学習済みモデルが記憶されている。走行環境に応じて使い分けられる複数の学習済みモデルの数は、2つ以上であればよく、その数は適宜変更されてよい。本実施形態によれば、走行環境に応じて適切な学習済みモデルを用いて物体検知を行え、検知処理に要する時間を短時間化したり、検知精度の低下を抑制したりすることができる。
なお、走行環境に応じて使い分けられる複数の学習済みモデルは、記憶部13に予め記憶されていなくてもよい。例えば、サーバ装置等のネットワークを介して通信を行うことができる装置から、必要に応じてダウンロードされる構成としてよい。この場合、初期状態において、記憶部13には、第1検知部121が用いる学習済みモデルが1つも記憶されない構成としてもよいが、第1検知部121が用いる学習済みモデルが少なくとも1つ記憶される構成としてよい。また、学習済みモデルがダウンロードされる構成では、例えばダウンロードが実行される毎に、記憶部13に既に記憶されていた学習済みモデルの少なくとも一部が削除される構成としてよい。
(3-2.画像処理装置の動作例)
図10は、本発明の第3実施形態に係る画像処理装置の動作例を示すフローチャートである。図10に示す動作例は、第1実施形態の画像処理装置1の動作例(図3参照)と概ね同様である。図10において、図3と同様である一部の処理(ステップS2より後の処理)は省略されている。図10に示す動作例では、図3の示す動作例のステップS1の処理とステップS2の処理との間に、ステップS13の処理とステップS14の処理とが行われ、この点が第1実施形態と異なる。この異なる部分の処理について以下説明する。
ステップS13では、推定部125によりカメラ2が搭載される車両の走行環境が推定される。走行環境が推定されると次のステップS12に処理が進められる。なお、本例では、ステップS13の処理がステップS1の処理(画像の取得処理)の後に行われる構成となっているが、ステップS13の処理は、例えばステップS1の処理と並行して進められてよい。
ステップS14では、推定部125により得られた走行環境の推定結果を利用して、第1検知部121が所定の物体および所定の物体に含まれる所定の部位を検知するために使用する学習済みモデルが決定される。ステップS14の処理が完了すると、ステップS2に処理が進められ、第1検知部121は、先に決定した学習済みモデルを使用して第1物体検知処理を行う。外部から学習済みモデルをダウンロードする必要がある場合には、第1物体検知処理の前に、当該ダウンロードが行われる。ステップS2による第1物体検知処理以降の処理は、第1実施形態と同様であるために説明を省略する。
<4.留意事項等>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で適宜組み合わせて実施されてよい。
1、1A・・・画像処理装置
121・・・第1検知部
122・・・設定部
123・・・第2検知部
124・・・判断部
125・・・推定部
DR・・・検知範囲
P・・・撮影画像
TR1・・・主検知対象領域
TR2・・・副検知対象領域
V・・・車両

Claims (13)

  1. 制御部を備える画像処理装置であって、
    前記制御部は、
    取得した撮影画像の解像度を低下させた低解像度画像から検知対象物体および前記検知対象物体に含まれる検知対象部位を検知する第1検知処理を行い、
    前記第1検知処理により前記検知対象物体および前記検知対象部位のうち前記検知対象物体のみが検知された場合に、前記撮影画像において、前記第1検知処理により検知された前記検知対象物体の領域内であって、当該領域よりも狭い検知範囲を設定する検知範囲設定処理を行い、
    前記検知範囲設定処理で設定された検知範囲から前記検知対象部位を検知する第2検知処理を行う、画像処理装置。
  2. 記第2検知処理を行う画像は、取得した前記撮影画像を低解像度に加工した画像である、請求項1に記載の画像処理装置。
  3. 前記制御部は、
    前記第1検知処理により前記検知対象部位が検知された場合に、前記第2検知処理を行わず検知処理を終了し、
    前記第1検知処理により前記検知対象物体が検知されなかった場合に、前記第2検知処理を行わず検知処理を終了する、請求項1又は2に記載の画像処理装置。
  4. 前記検知範囲設定処理は、前記検知対象物体が検知された領域内において前記検知対象部位が存在する可能性が高いと判断される領域に前記検知範囲を設定する処理である、請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記制御部は、
    前記第1検知処理として、
    前記検知対象物体および前記検知対象部位を検知する目的で設けられる主検知対象領域を設定し、
    前記主検知対象領域に隣接し、前記主検知対象領域における検知処理を補完する目的で設けられる副検知対象領域を設定し、
    前記主検知対象領域と前記副検知対象領域とで、互いに異なる検知処理を行う、請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記制御部は、
    前記第2検知処理の検知結果に基づき、前記第1検知処理による前記検知対象物体の検知が誤検知であるか否かを判断する、請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記撮影画像は、車両に搭載されるカメラにより撮影された画像であり、
    前記制御部は、
    前記車両の走行環境を推定する推定処理を行い、
    前記第1検知処理に用いる前記撮影画像の解像度を、前記走行環境に基づいて調整する、請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記撮影画像は、車両に搭載されるカメラにより撮影された画像であり、
    前記制御部は、
    前記車両の走行環境を推定する推定処理を行い、
    前記走行環境に基づき、前記第1検知処理における前記検知対象物体および前記検知対象部位を検知する検知処理を変更する、請求項1から6のいずれか1項に記載の画像処理装置。
  9. 前記第1検知処理は、機械学習により生成された学習済みモデルを用いて前記検知対象物体および前記検知対象部位を検知する処理であって、
    前記制御部は、前記第1検知処理において、使用する前記学習済みモデルを前記走行環境に基づき変更する、請求項8に記載の画像処理装置。
  10. 前記検知対象物体は車両であり、
    前記検知対象部位は車両のナンバープレートである、請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記検知対象物体は人であり、
    前記検知対象部位は顔である、請求項1から9のいずれか1項に記載の画像処理装置。
  12. 制御部が実行する画像処理方法であって、
    取得した撮影画像の解像度を低下させた低解像度画像から検知対象物体および前記検知対象物体に含まれる検知対象部位を検知する第1検知工程と、
    前記第1検知工程により前記検知対象物体および前記検知対象部位のうち前記検知対象物体のみが検知された場合に、前記撮影画像において、前記第1検知工程により検知された前記検知対象物体の領域内であって、当該領域よりも狭い検知範囲を設定する設定工程と、
    前記検知範囲から前記検知対象部位を検知する第2検知工程と、
    を備える、画像処理方法。
  13. 制御部に、
    取得した撮影画像の解像度を低下させた低解像度画像から検知対象物体および前記検知対象物体に含まれる検知対象部位を検知する第1検知工程と、
    前記第1検知工程により前記検知対象物体および前記検知対象部位のうち前記検知対象物体のみが検知された場合に、前記撮影画像において、前記第1検知工程により検知された前記検知対象物体の領域内であって、当該領域よりも狭い検知範囲を設定する設定工程と、
    前記検知範囲から前記検知対象部位を検知する第2検知工程と、
    を実行させるためのプログラム。
JP2019203263A 2019-11-08 2019-11-08 画像処理装置および画像処理方法 Active JP7360304B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019203263A JP7360304B2 (ja) 2019-11-08 2019-11-08 画像処理装置および画像処理方法
CN202080064116.5A CN114424241A (zh) 2019-11-08 2020-11-06 图像处理装置以及图像处理方法
US17/642,479 US20220301315A1 (en) 2019-11-08 2020-11-06 Image processing device and image processing method
PCT/JP2020/041622 WO2021090943A1 (ja) 2019-11-08 2020-11-06 画像処理装置および画像処理方法
DE112020005521.3T DE112020005521T5 (de) 2019-11-08 2020-11-06 Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203263A JP7360304B2 (ja) 2019-11-08 2019-11-08 画像処理装置および画像処理方法

Publications (3)

Publication Number Publication Date
JP2021077092A JP2021077092A (ja) 2021-05-20
JP2021077092A5 JP2021077092A5 (ja) 2022-11-11
JP7360304B2 true JP7360304B2 (ja) 2023-10-12

Family

ID=75899219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203263A Active JP7360304B2 (ja) 2019-11-08 2019-11-08 画像処理装置および画像処理方法

Country Status (1)

Country Link
JP (1) JP7360304B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070834A (ja) 2002-08-08 2004-03-04 Toyota Motor Corp 画像処理装置、及び画像処理方法
JP2009081714A (ja) 2007-09-26 2009-04-16 Olympus Imaging Corp 撮像装置および撮像装置における顔領域決定方法
JP2011060138A (ja) 2009-09-11 2011-03-24 Toshiba Corp ナンバプレート読取装置およびナンバプレート読取方法
JP2015080048A (ja) 2013-10-15 2015-04-23 住友電気工業株式会社 カメラ装置、監視システム、これに用いるプログラム、及び撮像方法
JP2017211760A (ja) 2016-05-24 2017-11-30 沖電気工業株式会社 画像処理システム、画像処理方法および撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004070834A (ja) 2002-08-08 2004-03-04 Toyota Motor Corp 画像処理装置、及び画像処理方法
JP2009081714A (ja) 2007-09-26 2009-04-16 Olympus Imaging Corp 撮像装置および撮像装置における顔領域決定方法
JP2011060138A (ja) 2009-09-11 2011-03-24 Toshiba Corp ナンバプレート読取装置およびナンバプレート読取方法
JP2015080048A (ja) 2013-10-15 2015-04-23 住友電気工業株式会社 カメラ装置、監視システム、これに用いるプログラム、及び撮像方法
JP2017211760A (ja) 2016-05-24 2017-11-30 沖電気工業株式会社 画像処理システム、画像処理方法および撮像装置

Also Published As

Publication number Publication date
JP2021077092A (ja) 2021-05-20

Similar Documents

Publication Publication Date Title
US11409303B2 (en) Image processing method for autonomous driving and apparatus thereof
JP7052663B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US10650529B2 (en) Lane detection method and apparatus
JP6942712B2 (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
US9736364B2 (en) Camera capable of reducing motion blur in a low luminance environment and vehicle including the same
CN105096655B (zh) 物体检测装置、驾驶辅助装置、物体检测方法
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP6819996B2 (ja) 交通信号認識方法および交通信号認識装置
JP2019008460A (ja) 物体検出装置、物体検出方法およびプログラム
WO2018145028A1 (en) Systems and methods of a computational framework for a driver's visual attention using a fully convolutional architecture
US11792528B2 (en) Image obtaining method and apparatus
JP2018081545A (ja) 画像データ抽出装置及び画像データ抽出方法
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
WO2021090943A1 (ja) 画像処理装置および画像処理方法
JP7360304B2 (ja) 画像処理装置および画像処理方法
JP7384158B2 (ja) 画像処理装置、移動装置、および方法、並びにプログラム
CN116434156A (zh) 目标检测方法、存储介质、路侧设备及自动驾驶系统
US11418722B2 (en) Exposure control device, exposure control method, and storage medium
JP2020201746A (ja) 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム
JP3729005B2 (ja) 車両の後方監視装置
US20210370956A1 (en) Apparatus and method for determining state
WO2022113470A1 (ja) 画像処理装置、および、画像処理方法
JP7348874B2 (ja) 傾斜角検出装置及び制御装置
CN112183413B (zh) 一种车位检测方法、装置、存储介质及车辆
JP2024011893A (ja) 車線判定装置、車線判定方向及び車線判定用コンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230929

R150 Certificate of patent or registration of utility model

Ref document number: 7360304

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150