JP2021144589A - 学習方法、学習装置、画像解析装置、及びプログラム - Google Patents

学習方法、学習装置、画像解析装置、及びプログラム Download PDF

Info

Publication number
JP2021144589A
JP2021144589A JP2020044137A JP2020044137A JP2021144589A JP 2021144589 A JP2021144589 A JP 2021144589A JP 2020044137 A JP2020044137 A JP 2020044137A JP 2020044137 A JP2020044137 A JP 2020044137A JP 2021144589 A JP2021144589 A JP 2021144589A
Authority
JP
Japan
Prior art keywords
image
images
local
correct answer
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020044137A
Other languages
English (en)
Other versions
JP7252158B2 (ja
Inventor
正志 藏之下
Masashi Kuranoshita
正志 藏之下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2020044137A priority Critical patent/JP7252158B2/ja
Publication of JP2021144589A publication Critical patent/JP2021144589A/ja
Application granted granted Critical
Publication of JP7252158B2 publication Critical patent/JP7252158B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】正確な領域の分類を行うことができる機械学習器の学習方法、学習装置、画像解析装置、及びプログラムを提供する。【解決手段】学習方法は、第1画像を取得し、第1画像を縮小した第2画像を生成し、第1画像を複数の領域で分割し、複数の第3画像を切り出し、第1機械学習器により第4画像を取得し、第4画像から複数の第3画像の各々に対応する複数の第5画像を切り出し、複数の第3画像に対応する局所正解画像を取得し、複数の第3画像及び複数の第5画像のうちのそれぞれ対応する第3画像及び第5画像を第2機械学習器の入力画像とし、第2機械学習器から得られる局所推定画像を、複数の局所正解画像のうち入力した第3画像に対応する局所正解画像に合わせ込む学習を行わせる。【選択図】図2

Description

本発明は、学習方法、学習装置、画像解析装置、及びプログラムに関する。
ディープラーニング(Deep Learning)により学習が行われた機械学習器に画像を入力し、画像に写っている物体(物体の領域)を塗り分けるセグメンテーションが行われている。ディープラーニングの学習には、GPU(Graphics Processing Unit)が用いられることが多い。GPUの計算に使用されるメモリの容量には制限があることから、ディープラーニングで学習できる画像サイズには制限が出てくる。
そこで、ディープラーニングを使用してセグメンテーションを行う機械学習器を作成する場合には、元の画像から画像サイズを縮小した画像を学習に使用するか、又は特許文献1に記載されるように、元の画像を所定の画像サイズで分割して生成した分割画像を学習に使用することが考えられる。
特開2019−23392号公報
しかしながら、上述の二つの学習手法にはそれぞれ次のような問題がある。元の画像から画像サイズを縮小した画像を学習に使用する場合には、画像サイズを縮小するために元の画像における局所部分の情報が失われた画像による学習になってしまい、正確なセグメンテーションを行う機械学習器を得ることができない場合がある。
一方、特許文献1に記載されるように、元の画像を基準画素数で分割して生成した分割画像を学習に使用する場合には、画像の一部を切り出した分割画像が画像に使用されるために、画像全体の情報が失われた画像での学習になってしまい、正確なセグメンテーションを行う機械学習器を得ることができない場合がある。
本発明はこのような事情に鑑みてなされたもので、その目的は、正確な領域の分類を行うことができる機械学習器の学習方法、学習装置、画像解析装置、及びプログラムを提供することである。
上記目的を達成するための、本発明の一の態様である学習方法は、複数の領域を含む被写体が撮影された第1画像を取得する第1画像取得ステップと、第1画像を縮小した第2画像を生成する第2画像取得ステップと、第1画像を複数の領域で分割し、複数の第3画像を切り出す第3画像切出ステップと、第2画像を第1機械学習器に入力し、第1機械学習器から複数の領域をそれぞれ分類した全体推定画像である第4画像を取得する第4画像取得ステップと、第4画像から複数の第3画像の各々に対応する複数の第5画像を切り出す第5画像切出ステップと、第1画像に対応して作成され、複数の領域をそれぞれ分類した正解画像の複数の局所正解画像であって、複数の第3画像に対応する局所正解画像を取得する局所正解画像取得ステップと、複数の第3画像及び複数の第5画像のうちのそれぞれ対応する第3画像及び第5画像を第2機械学習器の入力画像とし、第2機械学習器から得られる局所推定画像を、複数の局所正解画像のうち入力した第3画像に対応する局所正解画像に合わせ込む学習を行わせる局所学習ステップと、を含む。
本態様によれば、第2機械学習器には、第1画像を分割した局所的な画像である第3画像と、第1画像から推定された全体推定画像(第4画像)を分割して得られる第5画像が入力される。これにより、本態様は、第5画像が有する画像全体に関する情報を反映させて、局所的な画像である第3画像について複数の領域の分類を行う第2機械学習器の学習が行われるので、学習が行われた第2機械学習器はより正確な領域の分類を行うことができる。
好ましくは、第2画像を第1機械学習器の入力画像とし、第1機械学習器から得られる全体推定画像である第4画像を、正解画像に合わせ込む学習を行わせる全体学習ステップを含む。
好ましくは、局所学習ステップでの学習と、全体学習ステップでの学習とは転移学習である。
好ましくは、第1画像取得ステップでは、複数の領域を含む被写体が撮影された画像に対して、拡大処理、縮小処理、画像切り出し、コントラスト調整処理、及びエッジ強調処理の少なくとも一つの処理を行って第1画像とする。
好ましくは、第3画像切出ステップでは、第1画像を互いにオーバーラップする複数の領域で分割し、第3画像を切り出す。
好ましくは、第1画像取得ステップで取得される第1画像は、損傷箇所を有する構造物が被写体として撮影されている。
本発明の他の態様である画像解析装置は、上述の学習方法により学習された第2機械学習器と、複数の領域を含む被写体が撮影された第1画像を記憶するメモリと、プロセッサとを備える画像解析装置であって、プロセッサは、メモリに記憶されている第1画像を縮小した第2画像を生成し、メモリに記憶されている第1画像を複数の領域で分割し、複数の第3画像を切り出し、第2画像を第1機械学習器に入力し、第1機械学習器から複数の領域をそれぞれ分類した全体推定画像である第4画像を取得し、第4画像から複数の第3画像の各々に対応する複数の第5画像を切り出し、第1画像に対応して作成され、複数の領域をそれぞれ分類した正解画像の複数の局所正解画像であって、複数の第3画像に対応する局所正解画像を取得し、複数の第3画像及び複数の第5画像のうちのそれぞれ対応する第3画像及び第5画像を第2機械学習器に入力し、第2機械学習器から複数の領域をそれぞれ分類した局所推定画像を取得する。
本発明の他の態様である画像解析装置は、上述の学習方法により学習された第1機械学習器及び第2機械学習器と、複数の領域を含む被写体が撮影された第1画像を記憶するメモリと、プロセッサとを備える画像解析装置であって、プロセッサは、メモリに記憶されている第1画像を縮小した第2画像を生成し、メモリに記憶されている第1画像を複数の領域で分割し、複数の第3画像を切り出し、第2画像を第1機械学習器に入力し、第1機械学習器から複数の領域をそれぞれ分類した全体推定画像である第4画像を取得し、第4画像から複数の第3画像の各々に対応する複数の第5画像を切り出し、第1画像に対応して作成され、複数の領域をそれぞれ分類した正解画像の複数の局所正解画像であって、複数の第3画像に対応する局所正解画像を取得し、複数の第3画像及び複数の第5画像のうちのそれぞれ対応する第3画像及び第5画像を第2機械学習器に入力し、第2機械学習器から複数の領域をそれぞれ分類した局所推定画像を取得する。
好ましくは、プロセッサは、局所推定画像を合成して、第1画像の解析結果画像を生成する。
本発明の他の態様である学習装置は、複数の領域を含む被写体が撮影された第1画像及び複数の領域をそれぞれ分類した正解画像を記憶するメモリと、プロセッサとを備える学習装置であって、プロセッサは、メモリに記憶されている第1画像を縮小した第2画像を生成し、メモリに記憶されている第1画像を複数の領域で分割し、複数の第3画像を切り出し、第2画像を第1機械学習器に入力し、第1機械学習器から複数の領域をそれぞれ分類した全体推定画像である第4画像を取得し、第4画像から複数の第3画像の各々に対応する複数の第5画像を切り出し、第1画像に対応して作成され、複数の領域をそれぞれ分類した、メモリに記憶されている正解画像の複数の局所正解画像であって、複数の第3画像に対応する局所正解画像を取得し、複数の第3画像及び複数の第5画像のうちのそれぞれ対応する第3画像及び第5画像を第2機械学習器の入力画像とし、第2機械学習器から得られる局所推定画像を、複数の局所正解画像のうち入力した第3画像に対応する局所正解画像に合わせ込む学習を行わせる。
本発明の他の態様であるプログラムは、複数の領域を含む被写体が撮影された第1画像を取得する第1画像取得ステップと、第1画像を縮小した第2画像を生成する第2画像取得ステップと、第1画像を複数の領域で分割し、複数の第3画像を切り出す第3画像切出ステップと、第2画像を第1機械学習器に入力し、第1機械学習器から複数の領域をそれぞれ分類した全体推定画像である第4画像を取得する第4画像取得ステップと、第4画像から複数の第3画像の各々に対応する複数の第5画像を切り出す第5画像切出ステップと、第1画像に対応して作成され、複数の領域をそれぞれ分類した正解画像の複数の局所正解画像であって、複数の第3画像に対応する局所正解画像を取得する局所正解画像取得ステップと、複数の第3画像及び複数の第5画像のうちのそれぞれ対応する第3画像及び第5画像を第2機械学習器の入力画像とし、第2機械学習器から得られる局所推定画像を、複数の局所正解画像のうち入力した第3画像に対応する局所正解画像に合わせ込む学習を行わせる局所学習ステップと、を含む学習方法をコンピュータに実行させる。
本発明によれば、第2機械学習器には、第1画像を分割した局所的な画像である第3画像と、第1画像から推定された全体推定画像(第4画像)を分割して得られる第5画像が入力されるので、第5画像が有する画像全体に関する情報を反映させて、局所的な画像である第3画像について複数の領域の分類を行う第2機械学習器の学習が行われるので、学習が行われた第2機械学習器はより正確な領域の分類を行うことができる。
図1は、コンピュータのハードウェア構成の一例を示すブロック図である。 図2は、学習方法を示すフロー図である。 図3は、学習装置の主要な機能を示す機能ブロック図である。 図4は、前処理部で行われる点検画像の縮小処理の例を説明する図である。 図5は、点検画像の縮小する画像サイズに関して説明する図である。 図6は、第2画像取得ステップを模式的に示す図である。 図7は、第3画像切出ステップを模式的に示す図である。 図8は、第4画像取得ステップを模式的に示す図である。 図9は、第5画像切出ステップを模式的に示す図である。 図10は、第2機械学習器による局所推定画像の取得に関して説明する図である。 図11は、第2機械学習器及び第2合わせ込み部の詳細な機能ブロック図である。 図12は、学習装置の主要な機能を示す機能ブロック図である。 図13は、第1機械学習器及び第1合わせ込み部の詳細な機能ブロック図である。 図14は、画像解析装置の主要な機能を示す機能ブロック図である。 図15は、合成部での合成に関して説明する図である。
以下、添付図面にしたがって本発明に係る学習方法、学習装置、画像解析装置、及びプログラムの実施の形態について説明する。
<ハードウェア構成>
図1は、本発明の各実施形態を構成するコンピュータ10のハードウェア構成の一例を示すブロック図である。
コンピュータ10としては、パーソナルコンピュータ又はワークステーションを使用することができる。コンピュータ10は、主として画像取得部12と、GPU(Graphics Processing Unit)14、メモリ16と、操作部18と、CPU(Central Processing Unit)20と、RAM(Random Access Memory)22と、ROM(Read Only Memory)24と、表示部26とから構成されている。なお、GPU14及びCPU20をプロセッサとし、特にGPU14を学習用プロセッサとしCPU20を汎用プロセッサとする。
画像取得部12は、学習に使用する画像(第1実施形態及び第2実施形態)又は画像解析(第3実施形態)に使用する画像を取得する。学習に使用する画像又は画像解析に使用する画像は複数の領域を含む被写体が撮影された撮影画像である。例えば、画像取得部12は、構造物の損傷の点検を行う場合に撮影された点検画像を学習に使用する画像又は画像解析に使用する画像として取得する。なお、点検対象の構造物は、例えば、橋梁、トンネル等のコンクリート構造物を含む。また、構造物(特に鉄筋コンクリートの構造物)の損傷には、ひび割れ、鉄筋露出、コンクリート剥離、コンクリート打ち継ぎ目、又は目地の損傷等を含む。また、画像取得部12は、学習に使用する画像に対応した正解画像を取得する。ここで、正解画像とは、画像の被写体が有する複数の領域を適切に分類した画像である。具体例としては、各領域に異なる色が付され各領域を分類した画像が挙げられる。正解画像は、手動により各領域が分類されてもよいし、画像処理により各領域が分類されてもよい。
点検画像とそれに対応する正解画像は、学習用データセットを構成する。また、後で説明を行うが点検画像を切り出した画像とそれに対応する正解画像を切り出した画像とは、学習用データセットを構成する。画像取得部12が取得する点検画像は、画素単位でR(red;赤)、G(green;緑)及びB(blue;青)の各強度値(輝度値)を有する画像(いわゆるRGB画像)又はモノクロ画像である。画像取得部12で取得された画像は、メモリ16に記憶される。
メモリ16は、ハードディスク装置、フラッシュメモリ等から構成される。メモリ16は、画像取得部12で取得された画像を記憶する。また、メモリ16は、学習装置の学習結果や画像解析装置(第2実施形態)の画像解析結果を記憶する。また、メモリ16は、オペレーティングシステム、学習及び画像解析に関するプログラムの他、パラメータ等のデータを記憶する。
操作部18は、コンピュータ10に有線接続又は無線接続されるキーボード及びマウス等が用いられ、画像に基づく構造物の点検に当たって各種の操作入力を受け付ける。
CPU20は、メモリ16又はROM24等に記憶された各種のプログラムを読み出し、各種の処理を実行する。RAM22は、CPU20の作業領域として使用され、読み出されたプログラムや各種のデータを一時的に記憶する記憶部として用いられる。
GPU14も、CPU20と同様にメモリ16又はROM24等に記憶された各種のプログラムを読み出し、各種の処理を実行する。特にGPU14は、機械学習又は機械学習器に関連した処理を実行する。
表示部26は、コンピュータ10に接続可能な液晶モニタ等の各種モニタが用いられ、操作部18とともに、ユーザインターフェースの一部として使用される。
コンピュータ10は、操作部18からの指示入力によりCPU20が、メモリ16又はROM24に記憶されているプログラムを読み出し、プログラムを実行することにより、各種の機能を実現させる。
<第1実施形態>
先ず、第1実施形態に関して説明する。第1実施形態では、第2検出部106の第2機械学習器120(図3を参照)の学習が行われる。
図2は、コンピュータ10を使用して行われる本実施形態の学習方法を示すフロー図である。また、図3は、本実施形態の学習装置300の主要な機能を示す機能ブロック図である。なお、図3に示した機能ブロック図に記載された各機能は、CPU20及びGPU14により実現される。以下に図2及び図3を用いて、学習方法に関して説明する。なお、各ステップの詳細は後で説明を行う。
画像取得部12で取得された点検画像150及び正解画像152をメモリ16に記憶する(第1画像取得ステップ:ステップS10)。メモリ16に記憶されている点検画像150及び正解画像152は、前処理部102に送られる。
前処理部102により、点検画像150及び正解画像152を所望の大きさに縮小又は拡大する(第1画像取得ステップ:ステップS11)。前処理部102で処理された点検画像150は第1画像Aとし、前処理部102で処理された正解画像152は全体正解画像αとする。その後、第1画像Aは第1切出部104及び縮小部108に送られ、全体正解画像αは第3切出部118に送られる。なお、前処理部102は、後段で行われる処理を効率的に行われるための処理を行う。したがって、点検画像150及び正解画像152が後段で行われる処理に適している状態であれば、前処理部102を省略することもできる。
縮小部108は、第1画像Aを縮小し第2画像Bを生成する(第2画像生成ステップ:ステップS12)。そして第2画像Bは、第1検出部110に送られる。また、第1切出部104は、第1画像Aから等間隔で所定の領域で第3画像C1〜C9(図5を参照)を切り出す(第3画像切出ステップ:ステップS13)。そして第3画像C1〜C9は、第2検出部106に送られる。
第1検出部110は、第1機械学習器(図3ではAI1と記載する)124により、第2画像Bにおける複数の領域をそれぞれ分類するセグメンテーションを行い、全体推定画像である第4画像Dを取得する(第4画像取得ステップ:ステップS14)。そして第4画像Dは、第2切出部112に送られる。
第2切出部112は、第1切出部104で切り出した第3画像C1〜C9に対応するように、第4画像Dから第5画像E1〜E9を切り出す(第5画像切出ステップ:ステップS15)。その後、第5画像E1〜E9が第2検出部106に入力される。
第3切出部118は、第1切出部104で切り出した第3画像C1〜C9に対応するように、入力された全体正解画像αから局所正解画像β1〜β9を切り出す(ステップS16)。その後、局所正解画像β1〜β9が第2検出部106に入力される。
第2検出部106では、第2機械学習器(図3ではAI2と記載する)120に、第3画像C1〜C9と第5画像E1〜E9とのうち対応する画像が入力される。そして、第2機械学習器120により、セグメンテーションが行われた各局所推定画像F1〜F9が取得される。そして、第2合わせ込み部122は、局所正解画像β1〜β9の各々に局所推定画像F1〜F9を合わせ込む(局所学習ステップ:ステップS17)。
次に、上述した各ステップに関して詳細な説明を行う。
<第1画像取得ステップ>
第1画像取得ステップ(ステップS10及びステップS11)は画像取得部12及び前処理部102で行われる。画像取得部12は、例えば損傷箇所として鉄筋露出U1及びコンクリート剥離U2(図4参照)を有する橋梁を撮影した点検画像150を取得する。画像取得部12で取得された点検画像150及び正解画像152は、メモリ16に記憶される。点検画像150に対応する正解画像152は、学習セットを構成する。メモリ16には、単数又は複数の学習セットが記憶されている。
前処理部102は、メモリ16に記憶されている点検画像150及び正解画像152に対して前処理を行う。前処理は、後のセグメンテーションの処理が適切に及び効率的に行われるための処理であり、具体的には、拡大処理、縮小処理、画像切り出し、コントラスト調整処理、及びエッジ強調処理の少なくとも一つの処理である。
図4は、前処理部102で行われる点検画像150の縮小処理の例を説明する図である。
点検画像150は、6000×4000画素(2400万画素)の画像サイズを有する。この画像サイズは、GPU14でディープラーニングを行う場合には大きい。例えば、メモリの容量の制限が12GByteであるGPU14でディープラーニングを行う場合には、適切に処理が行えるのは、画像サイズが1024×1024画素程度の画像である。したがって、前処理部102において点検画像150を縮小する必要がある。
図5は、点検画像150の縮小する画像サイズに関して説明する図である。
図5に示すように、前処理部102により、点検画像150は、512×512画素の画像サイズ有する画像(No1〜No9)を3×3で配列することができる画像サイズに縮小処理される。すなわち、前処理部102は、点検画像150を1152×1152画素の画素サイズを有する第1画像Aに縮小する。なお、No1〜9は、オーバーラップ部Vを有する。オーバーラップ部Vを有することにより、第2実施形態において後段で合成処理を行う場合により精度良く合成処理を行うことができる。
<第2画像取得ステップ>
第2画像取得ステップ(ステップS12)は縮小部108により行われる。縮小部108は、第1画像Aを縮小して第2画像Bを取得する。
図6は、第2画像取得ステップを模式的に示す図である。
図6に示すように、縮小部108は、1152×1152画素の画像サイズを有する第1画像Aを縮小して512×512画素の画像サイズを有する第2画像Bを生成する。縮小部108は、様々な手法を使用して第1画像Aの画像サイズを縮小する。例えば、縮小部108は、第1画像Aの画素を間引き、バイリニア補間を行うことで、第1画像Aを縮小し第2画像Bを生成する。
<第3画像切出ステップ>
第3画像切出ステップ(ステップS13)は第1切出部104で行われる。第1切出部104は、第1画像Aから複数の第3画像C1〜C9を切り出す。
図7は、第3画像切出ステップを模式的に示す図である。
第1切出部104は、図5で説明を行ったように3×3(No1〜No9)の配列で、第1画像Aから9枚の第3画像C1〜C9を切り出す。図7に示した場合では、第1切出部104により、No5の画像(以下では、第3画像C5と記載する)が切り出されている。また、図5で説明を行ったように、第3画像C1〜C9の各々は、512×512画素の画像サイズを有する画像である。
<第4画像取得ステップ>
第4画像取得ステップ(ステップS14)は第1検出部110で行われる。第1検出部110は、第1機械学習器124で構成されている。本実施形態においては、既に学習が行われた第1機械学習器124であって、入力された画像に対してセグメンテーションを行うように学習が行われた検出器である。第1機械学習器124は、深層学習(ディープラーニング)モデルの一つである畳み込みニューラルネットワーク(CNN:Convolution Neural Network)が使用されている。
図8は、第4画像取得ステップを模式的に示す図である。
第1機械学習器124は、入力された第2画像Bにおける損傷箇所(鉄筋露出U1及びコンクリート剥離U2)についてセグメンテーションを行った第4画像Dを出力する。具体的には、第1機械学習器124は、第2画像Bにおける橋梁の損傷である鉄筋露出U1及びコンクリート剥離U2に対して、鉄筋露出U1及びコンクリート剥離U2を検出し分類した第4画像Dを出力する(図中の矢印S及び矢印Rを参照)。例えば、第1機械学習器124で出力される第4画像Dでは、鉄筋露出U1の領域は赤色で塗られており、コンクリート剥離U2の領域は青色で塗られている。ここで第1機械学習器124に入力される第2画像Bは、1152×1152画素の画像サイズを有する第1画像Aから、512×512画素の画像サイズに縮小処理を行われた画像である。また第2画像Bは、切り出しが行われた画像ではなく、点検画像150が有する全体の被写体を有する全体画像である。したがって、第1機械学習器124は、画像サイズが縮小されたことにより局所部分の情報が失われている(減少している)が点検画像150の被写体の全体の情報に基づいて、セグメンテーションを行うことができる。
<第5画像切出ステップ>
第5画像切出ステップ(ステップS15)は、第2切出部112で行われる。第2切出部112は、第4画像Dから第5画像E1〜E9を切り出す。
図9は、第5画像切出ステップを模式的に示す図である。
第2切出部112は、入力された第4画像Dから第3画像C1〜C9に対応する第5画像E1〜E9を切り出す。図9に示す場合では、第2切出部112により、第4画像Dから第3画像C5に対応する第5画像E5が切り出されている。そして、第2切出部112は、切り出した第5画像E1〜E9を拡大して、第3画像C1〜C9の各々と同じように512×512画素の画像サイズとする。
<局所正解画像取得ステップ及び局所学習ステップ>
局所正解画像取得ステップ(ステップS16)は第3切出部118で行われる。第3切出部118は、全体正解画像αから、図5で説明をした第3画像C1〜C9に対応するように局所正解画像β1〜β9を切り出す。
局所学習ステップ(ステップS17)は第2検出部106で行われる。第2検出部106は、第2機械学習器(図3ではAI2と記載する)120と第2合わせ込み部122で構成されている。第2機械学習器には、第3画像C1〜C9及び第5画像E1〜E9が入力され、局所推定画像F1〜F9を出力する。そして、第2合わせ込み部122により出力された局所推定画像F1〜F9を局所正解画像β1〜β9に合わせ込む学習が行われる。
図10は、第2機械学習器120による局所推定画像F1〜F9の取得に関して説明する図である。
図10に示した場合では、第3画像C5と対応する第5画像E5とが第2機械学習器120に入力される。ここで、第3画像C5は、第1切出部104で説明したように、第1画像Aを分割して切り出し画像であり、第1画像Aの被写体の全体的な情報は有していないが、第1画像Aの各領域の被写体の局所的な情報を有している。一方、第5画像E5は、第1画像Aの各領域の被写体の局所的な情報を有していないが、第1画像Aの被写体の全体的な情報を有している。したがって、第2機械学習器120は、第5画像E5が有する画像全体に関する情報を反映させて、局所的な画像である第3画像C5が入力され、それらに基づいて、局所推定画像F5を出力する。
次に、第2合わせ込み部122による局所推定画像F1〜F5を局所正解画像β1〜β9に合わせ込む学習に関して説明する。
図11は、第2検出部106を構成する第2機械学習器120及び第2合わせ込み部122の詳細な機能ブロック図である。
第2検出部106は、主として第2機械学習器120と、第2機械学習器120に機械学習させる第2合わせ込み部122として機能する損失値算出部54及びパラメータ制御部56とを備えている。
第2機械学習器120は、深層学習(ディープラーニング)モデルの一つである畳み込みニューラルネットワーク(CNN)が使用されている。
第2機械学習器120は、複数のレイヤー構造を有し、複数の重みパラメータを保持している。第2機械学習器120は、重みパラメータが初期値から最適値に更新されることで、未学習モデルから学習済みモデルに変化しうる。第2機械学習器120の重みパラメータの初期値は、任意の値でもよいし、例えば、画像の分類等を行う画像系の学習済みモデルの重みパラメータを適用してもよい。
この第2機械学習器120は、入力層52Aと、畳み込み層とプーリング層から構成された複数セットを有する中間層52Bと、出力層52Cとを備え、各層は複数の「ノード」が「エッジ」で結ばれる構造となっている。
図11で示す場合では、入力層52Aには、学習対象である第5画像E5と第3画像C5とが入力される。ここで、入力層52Aに入力される画像は、第5画像E5と第3画像C5とのチャンネルを足し合わせて作成されたものである(Channel方向のconcatenateを行う)。具体的には、第3画像C5のR、G、及びBの3チャンネルの画像及び、第5画像E5の鉄筋露出U1とコンクリート剥離U2の2チャンネルの画像が足し合わされて、5チャンネルの画像が入力されることになる。
中間層52Bは、畳み込み層やプーリング層などを有し、入力層52Aから入力した画像から特徴を抽出する部分である。畳み込み層は、前の層で近くにあるノードにフィルタ処理し(フィルタを使用した畳み込み演算を行い)、「特徴マップ」を取得する。プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。「畳み込み層」は、画像からのエッジ抽出等の特徴抽出の役割を担い、「プーリング層」は抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。なお、中間層52Bには、畳み込み層とプーリング層とが交互に配置される場合に限らず、畳み込み層が連続する場合や正規化層も含まれる。また、最終段の畳み込み層convは、入力画像である第3画像C5及び第5画像E5と同じサイズの特徴マップ(画像)であって、構造物の損傷及び損傷が原因で起こる事象を示す特徴マップを出力する部分である。
出力層52Cは、第2機械学習器120の検出結果(本例では、局所推定画像F5)を出力する部分である。
損失値算出部54は、第2機械学習器120の出力層52Cから出力される検出結果(局所推定画像F5)と、入力画像(第3画像C5と第5画像E5)に対応する局所正解画像β5とを取得し、両者間の損失値を算出する。損失値の算出方法は、例えば、ジャッカード係数やダイス係数を用いることが考えられる。
パラメータ制御部56は、損失値算出部54により算出された損失値を元に、誤差逆伝播法により、局所正解画像β5と第2機械学習器120の出力との特徴量空間での距離を最小化させ、又は類似度を最大化させるべく、第2機械学習器120の重みパラメータを調整する。
このパラメータの調整処理を繰り返し行い、損失値算出部54により算出される損失値が収束するまで繰り返し学習を行う。
このようにして学習用データセットを使用し、重みパラメータが最適化された学習済みの第2機械学習器120を作成する。
なお、図10及び図11では、それぞれ対応する第3画像C5、第5画像E5、局所推定画像F5、及び局所正解画像β5に関して説明を行った。同様にして、他の画像に関してもそれぞれ対応する画像同士により処理が行われる。
以上で説明したように、本実施形態においては、第2機械学習器120の学習が行われる。第2機械学習器120は、点検画像150の被写体の全体的な情報を有する第5画像Eと、点検画像150の被写体の局所的な情報を有する第3画像Cを入力画像とし、局所推定画像Fを出力する。そして第2機械学習器120は、出力した局所推定画像Fに基づいて学習が行われる。これにより、第2機械学習器120は、点検画像150の全体的な情報と局所的な情報に基づいて、セグメンテーションを行うように学習が行われる。
<第2実施形態>
次に第2実施形態に関して説明する。第2実施形態では、第1実施形態と同様に第2機械学習器120の学習を行うことに加えて、第1機械学習器124の学習も行われる。以下の説明では、第1機械学習器124の学習に関して主に説明を行う。
図12は、本実施形態に係る学習装置400の主要な機能を示す機能ブロック図である。なお、図3で説明した箇所は同じ符号を付し説明は省略する。
本実施形態の第1検出部110は、第1機械学習器124と第1合わせ込み部126とを備える。また、本実施形態の第1検出部110には、全体正解画像αが入力される。そして、第1検出部110においては、第1機械学習器124により出力される第4画像Dが出力され、第1合わせ込み部126により第4画像Dを全体正解画像αに合わせ込むように学習が行われる(全体学習ステップ)。
図13は、第1検出部110を構成する第1機械学習器124及び第1合わせ込み部126の詳細な機能ブロック図である。なお、図11で既に説明を行った箇所は同じ符号を付し説明は省略される。
第1機械学習器124は、第2画像Bを入力画像として、鉄筋露出U1とコンクリート剥離U2とがセグメンテーションされた第4画像Dを出力する。なお、入力画像は、第2画像BのR、G、及びBの3チャンネルの画像である。
損失値算出部54は、第1機械学習器124の出力層52Cから出力される検出結果(第4画像D)と、入力画像(第2画像B)に対応する全体正解画像αとを取得し、両者間の損失値を算出する。
パラメータ制御部56は、損失値算出部54により算出された損失値を元に、誤差逆伝播法により、全体正解画像αと第1機械学習器124の出力との特徴量空間での距離を最小化させ、又は類似度を最大化させるべく、第1機械学習器124の重みパラメータを調整する。
このパラメータの調整処理を繰り返し行い、損失値算出部54により算出される損失値が収束するまで繰り返し学習を行う。
このようにして学習用データセットを使用し、重みパラメータが最適化された学習済みの第1機械学習器124を作成する。
なお、本実施形態においては、第1検出部110で行われる学習と第2検出部106で行われる学習とは相互的に行われてもよい。具体的には、第1合わせ込み部126での結果と第2合わせ込み部122での結果とを相互的に利用し、転移学習が行われてもよい。第1合わせ込み部126での結果と第2合わせ込み部122での結果とを相互的に利用することにより、より効率的な学習を第1機械学習器124及び第2機械学習器120に行うことができる。
以上で説明したように、本実施形態においては、第1機械学習器124及び第2機械学習器120の学習が行われる。第1機械学習器124は、点検画像150の被写体の全体的な情報を有する第2画像Bを入力画像とし、全体推定画像である第4画像Dを出力する。また、第2機械学習器120は、点検画像150の被写体の全体的な情報を有する第5画像Eと、点検画像150の被写体の局所的な情報を有する第3画像Cを入力画像とし、局所推定画像Fを出力する。そして第2機械学習器120は、出力した局所推定画像Fに基づいて学習が行われる。これにより、第2機械学習器120は、点検画像150の全体的な情報と局所的な情報に基づいて、セグメンテーションを行うように学習が行われる。
<第3実施形態>
次に第3実施形態に関して説明する。本実施形態は、上述した第1実施形態及び第2実施形態により学習した第1機械学習器124及び第2機械学習器120を備えた画像解析装置である。
図14は、本実施形態に係る画像解析装置500の主要な機能を示す機能ブロック図である。なお、図3で既に説明を行った箇所は同じ符号を付し説明を省略する。
メモリ16には、解析対象である点検画像150が記憶されている。メモリ16に記憶された点検画像150は前処理部102に入力される。
前処理部102は、点検画像150を縮小処理して第1画像Aを出力する。出力された第1画像Aは、第1切出部104及び縮小部108に送られる。
第1切出部104は、第1画像Aから第3画像C1〜C9を切り出す。一方、縮小部108は、第1画像Aの画像サイズを縮小して第2画像Bを取得する。そして第2画像Bは、第1検出部110に送られる。
第1検出部110は、機械学習が行われた第1機械学習器124により、第2画像Bに対してセグメンテーションが行われた第4画像Dを生成する。第4画像Dは、第2切出部112に送られる。第2切出部112は、第4画像Dから第5画像E1〜E9を切り出す。そして、第5画像E1〜E9は第2検出部106に送られる。
第2検出部106は、機械学習が行われた第2機械学習器120により、第3画像C1〜C9と第5画像E1〜E9とのそれぞれ対応する画像が入力されて、対応する局所推定画像F1〜F9を出力する。そして、局所推定画像F1〜F9は合成部140に送られる。
図15は、合成部140での合成に関して説明する図である。
図15に示すように、合成部140は、局所推定画像F1〜F9が3×3で配置されるように合成を行い、合成画像Gを生成する。合成部140は、様々な技術により合成を行って、合成画像Gを生成する。例えば、合成部140はアルファブレンディングにより局所推定画像F1〜F9を合成して合成画像Gを生成する。合成画像Gは第1画像Aの解析結果画像である。
以上で説明したように、本実施形態の画像処理装置は、第1実施形態及び第2実施形態で学習が行われた第1機械学習器124及び第2機械学習器120を備えので、正確なセグメンテーションを行うことができる。
<その他>
上記実施形態において、各種の処理を実行する機能部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10 :コンピュータ
12 :画像取得部
14 :GPU
16 :メモリ
18 :操作部
20 :CPU
22 :RAM
24 :ROM
26 :表示部
52A :入力層
52B :中間層
52C :出力層
54 :損失値算出部
56 :パラメータ制御部
102 :前処理部
104 :第1切出部
106 :第2検出部
108 :縮小部
110 :第1検出部
112 :第2切出部
118 :第3切出部
120 :第2機械学習器
122 :第2合わせ込み部
124 :第1機械学習器
126 :第1合わせ込み部

Claims (11)

  1. 複数の領域を含む被写体が撮影された第1画像を取得する第1画像取得ステップと、
    前記第1画像を縮小した第2画像を生成する第2画像取得ステップと、
    前記第1画像を複数の領域で分割し、複数の第3画像を切り出す第3画像切出ステップと、
    前記第2画像を第1機械学習器に入力し、前記第1機械学習器から前記複数の領域をそれぞれ分類した全体推定画像である第4画像を取得する第4画像取得ステップと、
    前記第4画像から前記複数の第3画像の各々に対応する複数の第5画像を切り出す第5画像切出ステップと、
    前記第1画像に対応して作成され、前記複数の領域をそれぞれ分類した正解画像の複数の局所正解画像であって、前記複数の第3画像に対応する前記局所正解画像を取得する局所正解画像取得ステップと、
    前記複数の第3画像及び前記複数の第5画像のうちのそれぞれ対応する前記第3画像及び前記第5画像を第2機械学習器の入力画像とし、前記第2機械学習器から得られる局所推定画像を、前記複数の局所正解画像のうち前記入力した前記第3画像に対応する局所正解画像に合わせ込む学習を行わせる局所学習ステップと、
    を含む学習方法。
  2. 前記第2画像を前記第1機械学習器の入力画像とし、前記第1機械学習器から得られる前記全体推定画像である前記第4画像を、前記正解画像に合わせ込む学習を行わせる全体学習ステップを含む請求項1に記載の学習方法。
  3. 前記局所学習ステップでの前記学習と、前記全体学習ステップでの前記学習とは転移学習である請求項2に記載の学習方法。
  4. 前記第1画像取得ステップでは、複数の領域を含む被写体が撮影された画像に対して、拡大処理、縮小処理、画像切り出し、コントラスト調整処理、及びエッジ強調処理の少なくとも一つの処理を行って前記第1画像とする請求項1から3のいずれか1項に記載の学習方法。
  5. 前記第3画像切出ステップでは、前記第1画像を互いにオーバーラップする前記複数の領域で分割し、前記第3画像を切り出す請求項1から4のいずれか1項に記載の学習方法。
  6. 前記第1画像取得ステップで取得される前記第1画像は、損傷箇所を有する構造物が被写体として撮影されている請求項1から5のいずれか1項に記載の学習方法。
  7. 前記請求項1から6のいずれか1項に記載の学習方法により学習された前記第2機械学習器と、複数の領域を含む被写体が撮影された第1画像を記憶するメモリと、プロセッサとを備える画像解析装置であって、
    前記プロセッサは、
    前記メモリに記憶されている前記第1画像を縮小した第2画像を生成し、
    前記メモリに記憶されている前記第1画像を複数の領域で分割し、複数の第3画像を切り出し、
    前記第2画像を第1機械学習器に入力し、前記第1機械学習器から前記複数の領域をそれぞれ分類した全体推定画像である第4画像を取得し、
    前記第4画像から前記複数の第3画像の各々に対応する複数の第5画像を切り出し、
    前記第1画像に対応して作成され、前記複数の領域をそれぞれ分類した正解画像の複数の局所正解画像であって、前記複数の第3画像に対応する前記局所正解画像を取得し、
    前記複数の第3画像及び前記複数の第5画像のうちのそれぞれ対応する前記第3画像及び前記第5画像を前記第2機械学習器に入力し、前記第2機械学習器から前記複数の領域をそれぞれ分類した局所推定画像を取得する、
    画像解析装置。
  8. 前記請求項2又は3に記載の学習方法により学習された前記第1機械学習器及び前記第2機械学習器と、複数の領域を含む被写体が撮影された第1画像を記憶するメモリと、プロセッサとを備える画像解析装置であって、
    前記プロセッサは、
    前記メモリに記憶されている前記第1画像を縮小した第2画像を生成し、
    前記メモリに記憶されている前記第1画像を複数の領域で分割し、複数の第3画像を切り出し、
    前記第2画像を前記第1機械学習器に入力し、前記第1機械学習器から前記複数の領域をそれぞれ分類した全体推定画像である第4画像を取得し、
    前記第4画像から前記複数の第3画像の各々に対応する複数の第5画像を切り出し、
    前記第1画像に対応して作成され、前記複数の領域をそれぞれ分類した正解画像の複数の局所正解画像であって、前記複数の第3画像に対応する前記局所正解画像を取得し、
    前記複数の第3画像及び前記複数の第5画像のうちのそれぞれ対応する前記第3画像及び前記第5画像を前記第2機械学習器に入力し、前記第2機械学習器から前記複数の領域をそれぞれ分類した局所推定画像を取得する、
    画像解析装置。
  9. 前記プロセッサは、
    前記局所推定画像を合成して、前記第1画像の解析結果画像を生成する請求項7又は8に記載の画像解析装置。
  10. 複数の領域を含む被写体が撮影された第1画像及び前記複数の領域をそれぞれ分類した正解画像を記憶するメモリと、プロセッサとを備える学習装置であって、
    前記プロセッサは、
    前記メモリに記憶されている前記第1画像を縮小した第2画像を生成し、
    前記メモリに記憶されている前記第1画像を複数の領域で分割し、複数の第3画像を切り出し、
    前記第2画像を第1機械学習器に入力し、前記第1機械学習器から前記複数の領域をそれぞれ分類した全体推定画像である第4画像を取得し、
    前記第4画像から前記複数の第3画像の各々に対応する複数の第5画像を切り出し、
    前記第1画像に対応して作成され、前記複数の領域をそれぞれ分類した、前記メモリに記憶されている正解画像の複数の局所正解画像であって、前記複数の第3画像に対応する前記局所正解画像を取得し、
    前記複数の第3画像及び前記複数の第5画像のうちのそれぞれ対応する前記第3画像及び前記第5画像を第2機械学習器の入力画像とし、前記第2機械学習器から得られる局所推定画像を、前記複数の局所正解画像のうち前記入力した前記第3画像に対応する局所正解画像に合わせ込む学習を行わせる、
    学習装置。
  11. 複数の領域を含む被写体が撮影された第1画像を取得する第1画像取得ステップと、
    前記第1画像を縮小した第2画像を生成する第2画像取得ステップと、
    前記第1画像を複数の領域で分割し、複数の第3画像を切り出す第3画像切出ステップと、
    前記第2画像を第1機械学習器に入力し、前記第1機械学習器から前記複数の領域をそれぞれ分類した全体推定画像である第4画像を取得する第4画像取得ステップと、
    前記第4画像から前記複数の第3画像の各々に対応する複数の第5画像を切り出す第5画像切出ステップと、
    前記第1画像に対応して作成され、前記複数の領域をそれぞれ分類した正解画像の複数の局所正解画像であって、前記複数の第3画像に対応する前記局所正解画像を取得する局所正解画像取得ステップと、
    前記複数の第3画像及び前記複数の第5画像のうちのそれぞれ対応する前記第3画像及び前記第5画像を第2機械学習器の入力画像とし、前記第2機械学習器から得られる局所推定画像を、前記複数の局所正解画像のうち前記入力した前記第3画像に対応する局所正解画像に合わせ込む学習を行わせる局所学習ステップと、
    を含む学習方法をコンピュータに実行させるプログラム。
JP2020044137A 2020-03-13 2020-03-13 学習方法、学習装置、画像解析装置、及びプログラム Active JP7252158B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020044137A JP7252158B2 (ja) 2020-03-13 2020-03-13 学習方法、学習装置、画像解析装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020044137A JP7252158B2 (ja) 2020-03-13 2020-03-13 学習方法、学習装置、画像解析装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021144589A true JP2021144589A (ja) 2021-09-24
JP7252158B2 JP7252158B2 (ja) 2023-04-04

Family

ID=77766842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020044137A Active JP7252158B2 (ja) 2020-03-13 2020-03-13 学習方法、学習装置、画像解析装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP7252158B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226694A (ja) * 2009-02-24 2010-10-07 Ricoh Co Ltd 画像処理装置及び画像処理方法
JP2012202858A (ja) * 2011-03-25 2012-10-22 Railway Technical Research Institute コンクリート表面の閉合ひび割れ検出方法
WO2019167882A1 (ja) * 2018-02-27 2019-09-06 富士フイルム株式会社 機械学習装置および方法
JP2020038574A (ja) * 2018-09-05 2020-03-12 京セラ株式会社 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、及び画像認識装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226694A (ja) * 2009-02-24 2010-10-07 Ricoh Co Ltd 画像処理装置及び画像処理方法
JP2012202858A (ja) * 2011-03-25 2012-10-22 Railway Technical Research Institute コンクリート表面の閉合ひび割れ検出方法
WO2019167882A1 (ja) * 2018-02-27 2019-09-06 富士フイルム株式会社 機械学習装置および方法
JP2020038574A (ja) * 2018-09-05 2020-03-12 京セラ株式会社 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、及び画像認識装置

Also Published As

Publication number Publication date
JP7252158B2 (ja) 2023-04-04

Similar Documents

Publication Publication Date Title
EP3553742B1 (en) Method and device for identifying pathological picture
US11594056B2 (en) Learning apparatus, operation program of learning apparatus, and operation method of learning apparatus
JP7150468B2 (ja) 構造物劣化検出システム
JP7083037B2 (ja) 学習装置及び学習方法
TWI784537B (zh) 檢查裝置、檢查方法及檢查程式
CN113689436B (zh) 图像语义分割方法、装置、设备及存储介质
JP2023535084A (ja) 施設平面図に含まれた記号分析装置及び方法
CN113077419A (zh) 用于髋关节ct影像识别的信息处理方法及装置
KR101981284B1 (ko) 이미지 처리 장치 및 방법
CN114757908A (zh) 基于ct影像的图像处理方法、装置、设备及存储介质
JP2022090633A (ja) 高解像度画像内の物体検出を改善するための方法、コンピュータ・プログラム製品、およびコンピュータ・システム
CN110991408B (zh) 基于深度学习方法分割脑白质高信号的方法和装置
CN112288672B (zh) 肿瘤检测方法及肿瘤检测装置
JP7195220B2 (ja) 学習装置、学習装置の作動方法、および学習装置の作動プログラム
JP2021144589A (ja) 学習方法、学習装置、画像解析装置、及びプログラム
Mikolaj et al. Removing confounding information from fetal ultrasound images
CN111860208B (zh) 基于超像素的遥感影像地物分类方法、系统、装置及介质
JP7441312B2 (ja) 学習装置、学習方法、及びプログラム
JP7070308B2 (ja) 推定器生成装置、検査装置、推定器生成方法、及び推定器生成プログラム
JP2775122B2 (ja) イラストデータの自動輪郭抽出ベクトル化処理方法,及びそれに使用する処理装置
JP2022182149A (ja) 情報処理装置、画像処理方法
US11995835B2 (en) Pixel-level object detection system and program thereof
JP4188707B2 (ja) 評価処理に特長をもつ画像処理手順設計エキスパートシステム
WO2023189662A1 (ja) 画像処理・解析装置および画像処理・解析方法
JP2000182056A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R150 Certificate of patent or registration of utility model

Ref document number: 7252158

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150