JP2022012895A - 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置 - Google Patents

信頼度推定プログラム、信頼度推定方法、および信頼度推定装置 Download PDF

Info

Publication number
JP2022012895A
JP2022012895A JP2020115055A JP2020115055A JP2022012895A JP 2022012895 A JP2022012895 A JP 2022012895A JP 2020115055 A JP2020115055 A JP 2020115055A JP 2020115055 A JP2020115055 A JP 2020115055A JP 2022012895 A JP2022012895 A JP 2022012895A
Authority
JP
Japan
Prior art keywords
partial
reliability
likelihood
heat map
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020115055A
Other languages
English (en)
Other versions
JP7419993B2 (ja
Inventor
希武 田中
Nozomu Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2020115055A priority Critical patent/JP7419993B2/ja
Publication of JP2022012895A publication Critical patent/JP2022012895A/ja
Application granted granted Critical
Publication of JP7419993B2 publication Critical patent/JP7419993B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】尤度のヒートマップに基づいて推定された、物体の部分位置等の推定結果の信頼度を高精度に算出できる信頼度推定プログラムを提供する。【解決手段】画像における物体の位置または部分位置の尤度のヒートマップに基づいて、物体の位置または部分位置を推定する手順(a)と、ヒートマップの尤度の重心位置を算出する手順(b)と、少なくとも、重心位置と、物体の位置または部分位置との差分を用いた特徴量を算出する手順(c)と、物体の位置または部分位置の信頼度を、特徴量に基づいて算出する手順(d)と、を有する処理をコンピューターに実行させるための信頼度推定プログラム。【選択図】図10

Description

本発明は、信頼度推定プログラム、信頼度推定方法、および信頼度推定装置に関する。
入力された画像における、人の関節点等の物体の部分位置等を、ニューラルネットワークを用いたディープラーニングにより推定する技術が知られている。
ディープラーニングでは、大量の教師データを用いてニューラルネットワークの学習を行い、学習されたニューラルネットワークのモデルである学習済みモデルを用いて、物体の部分位置等を推定する。しかし、物体の部分位置等を推定する際、画像によっては推定精度が低下する場合がある。このような推定精度の低下を抑止するためには、推定精度が低下する画像を探索して、ニューラルネットワークを修正する等の対応をする必要がある。
しかし、推定精度が低下した理由が不明な場合や、推定精度が低下した画像のパターンが多岐に渡る場合等、ニューラルネットワークの修正が困難な場合がある。このような場合に、ディープラーニングによる物体の部分位置等の推定結果を一律に信頼してシステムを構築すると、システムの信頼性を低下させる可能性がある。
入力画像データに基づくクラスの推定結果の信頼性を判断する先行技術として、下記特許文献1に記載されたものがある。すなわち、入力画像データの特徴量を生成し、特徴量から入力画像データのクラスごとの尤度を算出して入力画像データのクラスを識別し、学習時のクラス間の尤度情報に基づき、クラス間の尤度の独立性の強さを算出する。そして、入力データが識別されたクラスが、尤度の独立性の強さが所定の閾値より低いクラスである場合は、入力画像データのクラスごとの尤度のうち最大の尤度と2番面に大きい尤度との差等を用いて識別結果の信頼度を算出する。
特開2017-151679号公報
しかし、画像における物体の部分位置等を、尤度のヒートマップを用いて検出する場合、ヒートマップの尤度情報のみから検出結果の信頼度を判断することが困難な場合がある。例えば、画像のコントラストが小さい場合は、正しい位置でも尤度が比較的低く算出される傾向がある。また、画像中に類似する物体が映り込んでいる場合は、両者の位置の尤度が比較的近い値に算出される可能性がある。このような場合、画像における物体の部分位置等の信頼度の算出精度が低下する可能性がある。上記先行技術は、このような問題に対応できない。
本発明は、このような問題を解決するためになされたものである。すなわち、尤度のヒートマップに基づいて推定された、物体の部分位置等の推定結果の信頼度を高精度に算出できる信頼度推定プログラム、信頼度推定方法、および信頼度推定装置を提供することを目的とする。
本発明の上記課題は、以下の手段によって解決される。
(1)画像における物体の位置または部分位置の尤度のヒートマップに基づいて、前記物体の位置または前記部分位置を推定する手順(a)と、前記ヒートマップの尤度の重心位置を算出する手順(b)と、少なくとも、算出された前記重心位置と、推定された、前記物体の位置または前記部分位置との差分を用いた特徴量として算出する手順(c)と、推定された、前記物体の位置または前記部分位置の信頼度を、算出された前記特徴量に基づいて算出する手順(d)と、を有する処理をコンピューターに実行させるための信頼度推定プログラム。
(2)前記手順(a)は、前記物体の複数の前記部分位置のそれぞれの尤度マップに基づいて、複数の前記部分位置をそれぞれ推定し、前記手順(d)は、推定された複数の前記部分位置の、正解に対する正解率を、前記部分位置の信頼度である目的変数とし、複数の前記部分位置を用いて算出された前記特徴量を説明変数に含む、重回帰分析により、複数の前記特徴量に基づいて前記部分位置の信頼度を推定する、上記(1)に記載の信頼度推定プログラム。
(3)前記手順(a)は、前記物体の複数の前記部分位置のそれぞれの尤度マップに基づいて、複数の前記部分位置をそれぞれ推定し、前記手順(d)は、推定された複数の前記部分位置の、正解に対する正解率を、前記部分位置の信頼度である目的変数とし、複数の前記部分位置を用いて算出された前記特徴量を説明変数に含んで学習された、ニューラルネットワークの学習済みモデルを用いて、前記特徴量に基づいて前記部分位置の信頼度を推定する、上記(1)に記載の信頼度推定プログラム。
(4)前記手順(d)は、推定された前記物体の位置または前記部分位置と正解との差分を、前記物体の位置または前記部分位置の信頼度である目的変数とし、前記物体の位置または前記部分位置について算出された前記特徴量を説明変数に含むモデルを用いて、前記特徴量に基づいて前記物体の位置または前記部分位置の信頼度を推定する、上記(1)に記載の信頼度推定プログラム。
(5)前記特徴量は、前記重心位置と推定された前記部分位置との差分、ならびに、複数の前記部分位置の一部または全部についてそれぞれ算出された複数の前記差分の合計、および前記部分位置ごとの前記ヒートマップにおける尤度の最大値の合計の少なくともいずれかを含み、前記手順(d)は、前記重心位置と推定された前記部分位置との差分、ならびに、複数の前記部分位置の一部または全部についてそれぞれ算出された複数の前記差分の合計、および前記部分位置ごとの前記ヒートマップにおける尤度の最大値の合計の少なくともいずれかを説明変数とする、上記(2)~(3)のいずれかに記載の信頼度推定プログラム。
(6)前記特徴量は、前記重心位置と推定された前記物体の位置または前記部分位置との差分、ならびに、前記物体の位置または前記部分位置の前記ヒートマップにおける尤度の最大値、および前記ヒートマップにおけるすべての尤度の少なくともいずれかを含み、前記手順(d)は、前記重心位置と推定された前記物体の位置または前記部分位置との差分、ならびに、前記物体の位置または前記部分位置の前記ヒートマップにおける尤度の最大値、および前記ヒートマップにおけるすべての尤度の少なくともいずれかを説明変数とする、上記(4)に記載の信頼度推定プログラム。
(7)信頼度推定装置により実行される方法であって、画像における物体の位置または前記物体の部分位置の尤度のヒートマップに基づいて、前記物体の位置または前記部分位置を推定する段階(a)と、前記ヒートマップの尤度の重心位置を算出する段階(b)と、少なくとも、算出された前記重心位置と、推定された、前記物体の位置または前記部分位置との差分を用いた特徴量を算出する段階(c)と、推定された、前記物体の位置、または前記部分位置の信頼度を、算出された前記特徴量に基づいて算出する段階(d)と、を有する信頼度推定方法。
(8)画像における物体の位置または部分位置の尤度のヒートマップに基づいて、前記物体の位置または前記部分位置を推定する推定部と、前記ヒートマップの尤度の重心位置を算出する重心算出部と、少なくとも、算出された前記重心位置と、推定された、前記物体の位置または前記部分位置との差分を用いた特徴量を算出する特徴量算出部と、推定された、前記物体の位置または前記部分位置の信頼度を、算出された前記特徴量に基づいて算出する信頼度算出部と、を有する信頼度推定装置。
画像における物体の部分位置等の尤度のヒートマップに基づき推定された当該部分位置等と、ヒートマップの尤度の重心位置との差分を用いた特徴量を算出し、部分位置等の推定結果の信頼度を、特徴量に基づいて算出する。これにより、ヒートマップに基づいて推定された、物体の部分位置等の推定結果の信頼度を高精度に算出できる。
位置推定装置を含む位置推定システム10の概略構成を示す図である。 位置推定装置のハードウェア構成を示すブロック図である。 位置推定装置の学習時における制御部の機能の例を示すブロック図である。 撮影画像を示す説明図である。 撮影画像とヒートマップとを示す説明図である。 関節点を示す説明図である。 関節点が誤検出された場合の、撮影画像とヒートマップとを示す説明図である。 個別関節点が正しく検出されたヒートマップにおける、尤度が最大値の位置と、尤度の重心位置との例を示す図である。 個別関節点が誤って検出されたヒートマップにおける、尤度が最大値および極大値の位置と、尤度の重心位置との例を示す図である。 位置推定装置の学習時における制御部の機能の他の例を示すブロック図である。 位置推定装置の推定時における制御部の機能を示すブロック図である。 位置推定装置の学習時の動作を示すフローチャートである。 位置推定装置の推定時の動作を示すフローチャートである。 位置推定装置の学習時における制御部の機能の例を示すブロック図である。 位置推定装置の学習時における制御部の機能の他の例を示すブロック図である。 位置推定装置の推定時における制御部の機能を示すブロック図である。 位置推定装置の学習時における制御部の機能の例を示すブロック図である。 位置推定装置の学習時における制御部の機能の他の例を示すブロック図である。 位置推定装置の推定時における制御部の機能を示すブロック図である。
以下、図面を参照して、本発明の実施形態に係る信頼度推定プログラム、信頼度推定方法、および信頼度推定装置について説明する。なお、図面において、同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
(第1実施形態)
図1は、実施形態に係る位置推定装置100を含む位置推定システム10の概略構成を示す図である。位置推定装置100は、信頼度推定装置を構成する。
位置推定システム10は、位置推定装置100、撮影装置200、および通信ネットワーク300を備える。位置推定装置100は、通信ネットワーク300により撮影装置200と相互に通信可能に接続される。本明細書において、物体とは、位置推定装置100による位置または部分位置が推定される対象の物体である。物体には複数のカテゴリーが含まれ得る。カテゴリーとは物体の種別であり、人、犬、猫等が含まれる。以下、説明を簡単にするために、物体は対象者500(すなわち、「人」)であるものとして説明する。位置推定装置100は、撮影装置200により撮影された画像(以下、単に「撮影画像250」とも称する(図4参照))における物体の位置または部分位置を推定する。以下、説明を簡単にするために、位置推定装置100は、物体の部分位置の例である、対象者500の関節点251(図5参照)の位置を、撮影画像250上の座標として推定する場合を例に説明する。以下、関節点251等の位置を、単に関節点251等とも記載する。
位置推定装置100は、撮影画像250を撮影装置200から受信し、撮影画像250に含まれる対象者500の関節点253の位置(具体的には、関節点251の撮影画像250における座標)を推定する。関節点253には、例えば、右足首、右膝、右腰、左腰、左膝、左足首、右手首、右肘、右肩、左手首、左肘、左肩、首、および頭部の14個の関節点251が含まれる。以下、各関節点251を「個別関節点」とも称する。位置推定装置100は、撮影装置200と一体化されることで、撮影装置200に包含され得る。一方、位置推定装置100は、サーバーにより構成されてもよい。
撮影装置200は、例えば、対象者500の居室の天井もしくは壁の上部に配置され、または店舗等の天井もしくは壁の上部に配置される。撮影装置200は、所定の撮影範囲を、対象者500を俯瞰可能な位置から撮影し、撮影画像250(画像データ)を出力する。撮影画像250には対象者500を含む画像が含まれる。撮影装置200には、広角カメラが含まれる。撮影装置200は、例えば15fps~30fpsのフレームレートの動画の撮影画像250として撮影領域を撮影し得る。撮影画像250は動画と静止画とを含む。撮影画像250は、例えば、白黒画像で、128ピクセル×128ピクセルの画像であり得る。撮影画像250は、カラー画像であってもよい。撮影装置200は、撮影画像250を位置推定装置100等へ送信する。
通信ネットワーク300には、イーサネット(登録商標)などの有線通信規格によるネットワークインターフェースを使用し得る。通信ネットワーク300には、Bluetooth(登録商標)、IEEE802.11などの無線通信規格によるネットワークインターフェースを使用してもよい。
図2は、位置推定装置100のハードウェア構成を示すブロック図である。位置推定装置100は、制御部110、記憶部120、表示部130、入力部140、および通信部150を備える。これらの構成要素は、バス160を介して相互に接続される。位置推定装置100は、コンピューターにより構成され得る。
制御部110は、CPU(Central Processing Unit)により構成され、プログラムに従って、位置推定装置100の各部の制御および演算処理を行う。制御部110の作用の詳細については後述する。
記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)、およびSSD(Solid State Drive)により構成され得る。RAMは、制御部110の作業領域として一時的にプログラムやデータを記憶する。ROMは、あらかじめ各種プログラムや各種データを格納する。SSDは、オペレーションシステムを含む各種プログラムおよび各種データを格納する。
表示部130は、例えば液晶ディスプレイであり、各種情報を表示する。
入力部140は、例えばタッチパネルや各種キーにより構成される。入力部140は、各種操作、入力のために使用される。
通信部150は、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394などの規格によるネットワークインターフェースが用いられ得る。その他、通信には、Bluetooth(登録商標)、IEEE802.11、4Gなどの無線通信インターフェースが用いられ得る。
制御部110の作用の詳細について説明する。
図3は、位置推定装置100の学習時における制御部110の機能の例を示すブロック図である。制御部110は、ヒートマップ生成部111、検出部112、特徴量算出部113、推定部114、および正解率算出部115として機能する。ヒートマップ生成部111は、ニューラルネットワーク(以下、「NN」と称する)を用いて構成され得る。検出部112は、重心算出部を構成する。推定部114は、信頼度算出部を構成する。
ヒートマップ生成部111は、撮影画像250に基づいて、上述した個別関節点の尤度のヒートマップ252(以下、単に「ヒートマップ252」と称する(図5、図7参照))を生成する。ヒートマップ252は、例えば、コンボルーショナルポーズマシーン(Convolutional Pose Machines)を用いて生成され得る。ヒートマップ252は、すべての個別関節点について、それぞれ生成される。ヒートマップ252は、撮影画像250の画素ごとに、個別関節点の尤度の値を示すマップである。例えば、左手首251c(図6参照)の尤度のヒートマップ252は、撮影画像250の画素ごとに、左手首251cの尤度を示す。
撮影画像250は、推定部114の学習に用いられる教師データとしての撮影画像250であり、あらかじめ関節点251の正解が対応付けられている。
図4は、撮影画像250を示す説明図である。図5は、撮影画像250とヒートマップ252とを示す説明図である。図6は、関節点251を示す説明図である。
図4の撮影画像250の例においては、撮影画像250に対象者500の画像が含まれている。図5のBは、図5のAの撮影画像250に基づいて生成された、頭部の関節点251aのヒートマップ252を示している。なお、図5のBにおいては、説明を分かり易くするために、ヒートマップ252に、撮影画像250における対象者500の画像も併せて示されている。
図5のBに示すヒートマップ252では、分かり易くするために、尤度の値に代えて、尤度の大きさに応じて色を変化させており、ヒートマップ252において、尤度が最大および極大となる部分が特定できる(後述する、図7~9に示すヒートマップ252においても同様)。図5のBに示すヒートマップ252において、尤度が最大となっている座標が、撮影画像250における頭部の関節点251aとして検出される。
個別関節点ごとのヒートマップ252から、それぞれ尤度が最大となっている座標を特定することで、すべての関節点251が検出される。図6の例においては、全14個の関節点が示されている。
検出部112は、個別関節点のヒートマップ252に基づいて、それぞれ個別関節点を検出することで、すべての関節点251を検出する。さらに、検出部112は、個別関節点のヒートマップ252ごとに、ヒートマップ252の尤度の重心(重心位置)を算出する。重心は、ヒートマップ252の画素ごとに、画素の座標と当該画素の尤度を乗算した乗算値の、すべての画素についての和として算出される。重心は、個別関節点ごとに算出される。
特徴量算出部113は、少なくとも、重心と個別関節点との差分を用いた特徴量を算出する。図3の例においては、重心と個別関節点との差分を特徴量としている。特徴量には、すべての個別関節点についての、重心と個別関節点との差分に加え、検出部112により検出された複数の個別関節点の一部または全部についてそれぞれ算出された複数の上記差分の合計が含まれ得る。特徴量は、上記差分の合計に代えて、または上記差分の合計に加えて個別関節点ごとのヒートマップ252における尤度の最大値の合計がさらに含まれ得る。この場合、ヒートマップ生成部111から特徴量算出部113へ、個別関節点ごとのヒートマップ252が入力される。
推定部114は、検出部112により検出された個別関節点の、正解に対する正解率を、関節点251の信頼度である目的変数とし、個別関節点を用いて算出された特徴量を説明変数に含む、重回帰モデルを生成する。推定部114は、すべての個別関節点の特徴量に基づいて、重回帰モデルを用いて、関節点251の信頼度を推定する。関節点251の信頼度は、検出部112により検出されたすべての関節点251に関する総合的な信頼度であり得る。
正解率算出部115は、検出部112により撮影画像250に基づいて検出された関節点251と、当該撮影画像250に対応付けされた、関節点251の正解とに基づいて、検出された関節点251の正解率を算出する。正解率算出部115は、検出部112により検出された関節点251のうち、正解との距離が所定の閾値以下の関節点251の、検出されたすべての関節点251に対する割合を、正解率として算出する。所定の閾値は、位置推定装置100による関節点251の信頼度の精度の観点から実験により適当に設定され得る。
なお、推定部114は、特徴量として、すべての個別関節点についての、重心と個別関節点との差分に加え、検出部112により検出された複数の個別関節点の一部または全部についてそれぞれ算出された複数の上記差分の合計を説明変数とし、正解率算出部115により算出された正解率を目的変数として、関節点251の信頼度を推定するための重回帰モデルを生成してもよい。また、推定部114は、上記差分の合計に代えて、または上記差分の合計に加えて、個別関節点ごとのヒートマップ252における尤度の最大値の合計を説明変数とし、正解率算出部115により算出された正解率を目的変数として、関節点251の信頼度を推定するための重回帰モデルを生成してもよい。検出部112により検出された複数の個別関節点の一部は、例えば、上半身のみの関節点251であり得る。検出部112により検出された複数の個別関節点の一部は、下半身のみの関節点251であってもよい。
図7は、関節点251が誤検出された場合の、撮影画像250とヒートマップ252とを示す説明図である。図7のBは、図7のAの撮影画像250に基づいて生成された、左手首の関節点251bのヒートマップ252を示している。
図7のBに示すように、左手首の関節点251bのヒートマップ252においては、何らかの理由により、尤度が極大値を示す位置が3箇所あり、その中で尤度の最大値を示しているのは、右足首の関節点251d付近の画素となっている。この場合、左手首の関節点251bのヒートマップ252に基づいて、左手首の関節点251bを検出すると、右足首の関節点251dが左手首の関節点251bと誤検知される。図7のBにおいては、尤度の極大値をとる画素が3箇所現れているため、ヒートマップ252における尤度の最大値が比較的小さくなっている可能性が高い。
図8は、個別関節点が正しく検出されたヒートマップ252における、尤度が最大値の位置と、尤度の重心位置との例を示す図である。図9は、個別関節点が誤って検出されたヒートマップ252における、尤度が最大値および極大値の位置と、尤度の重心位置との例を示す図である。
図8のAにおいては、個別関節点が正しく検出されたヒートマップ252における、尤度が最大値の位置が白線の円で囲まれた位置として示されている。図8のBにおいては、個別関節点が正しく検出されたヒートマップ252における、尤度の重心の位置が白線の円で囲まれた位置として示されている。
図8に示すように、個別関節点が正しく検出されたヒートマップ252においては、尤度が最大値の位置と、尤度の重心位置が略一致している。
図9のAにおいては、個別関節点が誤って検出されたヒートマップ252における、尤度が最大値の位置が白線の円で囲まれた位置として示されている。図9のAにおいては、尤度が極大値の位置が、尤度が最大値の位置を含め3箇所出現している。図9のBにおいては、個別関節点が誤って検出されたヒートマップ252における、尤度の重心の位置が白線の円で囲まれた位置として示されている。
図9に示すように、個別関節点が誤って検出されたヒートマップ252においては、尤度が最大値の位置と、尤度の重心位置が一致していない。
このように、個別関節点が正しく検出されたヒートマップ252においては、尤度が最大値の位置と、尤度の重心位置が略一致する。一方、個別関節点が誤って検出されたヒートマップ252においては、尤度が最大値の位置と、尤度の重心位置が一致しない。
ヒートマップ252における尤度の重心と個別関節点との差分は、個別関節点の信頼度を示すと考えられる。従って、すべての個別関節点の特徴量に基づいて、関節点251の信頼度を推定できる。
図10は、位置推定装置100の学習時における制御部110の機能の他の例を示すブロック図である。制御部110は、ヒートマップ生成部111、検出部112、特徴量算出部113、推定部114、正解率算出部115、およびロス算出部116として機能する。ヒートマップ生成部111および推定部114は、それぞれNNを用いて構成され得る。推定部114は、正解率算出部115、およびロス算出部116と結合されて1つのNNを用いて構成され得る。検出部112は、重心算出部を構成する。推定部114は、信頼度算出部を構成する。図10の例において、ヒートマップ生成部111、検出部112、特徴量算出部113、および正解率算出部115は、図3の例と同様であるため、説明を省略する。
推定部114は、関節点251の特徴量に基づいて、NNを用いて、関節点251の信頼度を推定する。すなわち、推定部114は、すべての個別関節点の特徴量に基づいて、NNを用いて、関節点251の信頼度を推定する。関節点251の信頼度は、検出部112により検出されたすべての関節点251に関する総合的な信頼度であり得る。
ロス算出部116は、推定部114により推定された信頼度の、正解率算出部115により算出された正解率との差をロスとして算出する。
推定部114は、ロス算出部116により算出されたロスが小さくなるように、バックプロパゲーションによりNNのモデルを学習することで学習済みモデルを生成(または更新)する。すなわち、推定部114は、正解率算出部115により算出された正解率を目的変数とし、すべての個別関節点の特徴量を説明変数として、関節点251の信頼度を推定するためのNNを学習する。
なお、推定部114は、特徴量として、すべての個別関節点についての、重心と個別関節点との差分に加え、検出部112により検出された複数の個別関節点の一部または全部についてそれぞれ算出された複数の上記差分の合計を説明変数とし、正解率算出部115により算出された正解率を目的変数として、関節点251の信頼度を推定するためのNNを学習してもよい。また、推定部114は、上記差分の合計に代えて、または上記差分の合計に加えて、個別関節点ごとのヒートマップ252における尤度の最大値の合計を説明変数とし、正解率算出部115により算出された正解率を目的変数として、関節点251の信頼度を推定するためのNNを学習してもよい。検出部112により検出された複数の個別関節点の一部は、例えば、上半身のみの関節点251であり得る。検出部112により検出された複数の個別関節点の一部は、下半身のみの関節点251であってもよい。
図11は、位置推定装置100の推定時における制御部110の機能を示すブロック図である。制御部110は、ヒートマップ生成部111、検出部112、特徴量算出部113、および推定部114として機能する。ヒートマップ生成部111、検出部112、および特徴量算出部113については、図3において説明したので、説明を省略する。
推定部114は、位置推定装置100の学習時(図3参照)に生成(更新)された重回帰モデルを用いて、関節点251の特徴量に基づいて、関節点251の信頼度を推定し得る。
推定部114は、位置推定装置100の学習時(図10参照)に生成(更新)されたNNの学習済みモデルを用いて、関節点251の特徴量に基づいて、関節点251の信頼度を推定してもよい。
すなわち、推定部114は、すべての個別関節点の特徴量に基づいて、関節点251の信頼度を推定する。
位置推定装置100の動作について説明する。
図12は、位置推定装置100の学習時の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムに従い、制御部110により実行される。
制御部110は、通信部150により、撮影装置200から撮影画像250を受信することで取得する(S101)。
制御部110は、撮影画像250に基づいて、個別関節点ごとのヒートマップ252を生成する(S102)。
制御部110は、個別関節点ごとのヒートマップ252に基づいて、それぞれ、尤度の重心と、個別関節点を検出する(S103)。
制御部110は、尤度の重心と、個別関節点との差分を用いて、特徴量を算出する(S104)。
制御部110は、ステップS103で検出されたすべての個別関節点と、ステップS101で取得した撮影画像250に対応付けされた個別関節点の正解とをそれぞれ比較することで、検出された関節点251の正解率を算出する(S105)。
制御部110は、ステップS104で算出された特徴量を説明変数とし、ステップS105で算出された正解率を目的変数として、重回帰分析のための重回帰モデルを生成することで学習する。なお、上述したように、制御部110は、推定部114のNNのモデルを学習(または更新)することにより、学習済みモデルを生成することで学習してもよい。
図13は、位置推定装置100の推定時の動作を示すフローチャートである。本フローチャートは、記憶部120に記憶されたプログラムに従い、制御部110により実行される。
制御部110は、通信部150により、撮影装置200から撮影画像250を受信することで取得する(S201)。
制御部110は、撮影画像250に基づいて、個別関節点ごとのヒートマップ252を生成する(S202)。
制御部110は、個別関節点ごとのヒートマップ252に基づいて、それぞれ、尤度の重心と、個別関節点を検出する(S203)。
制御部110は、少なくとも、尤度の重心と、個別関節点との差分を用いて、特徴量を算出する(S204)。
制御部110は、すべての個別関節点の特徴量に基づいて、重回帰モデルを用いた重回帰分析により関節点251の信頼度を推定する(S205)。なお、制御部110は、推定部114の学習済みモデルを用いて関節点251の信頼度を推定してもよい。
制御部110は、ステップS203で個別関節点ごとに検出された関節点251を、ステップS205で推定された信頼度とともに、通信部150から他の装置へ送信することにより、または表示部130に表示することにより出力する(S206)。
(第2実施形態)
第2実施形態について説明する。本実施形態と第1実施形態とで異なる点は次の点である。第1実施形態は、関節点251を検出し、検出した関節点251の位置の信頼度を、関節点251の位置とともに出力する。一方、本実施形態は、対象者500を検出し、検出した対象者500の信頼度を、対象者500の位置とともに出力する。その他の点については、本実施形態は第1実施形態と同様であるため、重複する説明は省略する。
図14は、位置推定装置100の学習時における制御部110の機能の例を示すブロック図である。制御部110は、ヒートマップ生成部111、検出部112、特徴量算出部113、推定部114、およびズレ量算出部117として機能する。
ヒートマップ生成部111は、撮影画像250に基づいて、対象者500の位置の尤度のヒートマップ252を生成する。ヒートマップ252は、例えば、コンボルーショナルポーズマシーンを用いて生成され得る。ヒートマップ252は、撮影画像250の画素ごとに、対象者500の尤度の値を示すマップである。なお、撮影画像250には複数の対象者500が含まれてもよい。その場合、ヒートマップ252は、対象者500ごとに生成され得る。
撮影画像250は、推定部114の学習に用いられる教師データとしての撮影画像250であり、あらかじめ対象者500の位置の正解が対応付けられている。
検出部112は、対象者500のヒートマップ252に基づいて、対象者500(すなわち、人の位置)を検出する。さらに、検出部112は、ヒートマップ252の尤度の重心(重心位置)を算出する。
特徴量算出部113は、少なくとも、重心と対象者500の位置との差分を用いた特徴量を算出する。図14の例においては、重心と対象者500の位置との差分を特徴量としている。特徴量には、上記差分に加え、対象者500のヒートマップ252における尤度の最大値、および対象者500のヒートマップ252におけるすべての尤度の少なくともいずれかが含まれ得る。
推定部114は、検出部112により検出された対象者500(具体的には対象者500の位置)の、正解に対するズレ量を、対象者500の信頼度である目的変数とし、特徴量を説明変数として、モデルを生成する。モデルには、数式が含まれる。
ズレ量算出部117は、検出部112により撮影画像250に基づいて検出された対象者500の位置と、当該撮影画像250に対応付けされた、対象者500の位置の正解とのズレ量(差分)を算出する。ズレ量は、検出された対象者500の位置と正解との撮影画像250上の距離として算出され得る。
図15は、位置推定装置100の学習時における制御部110の機能の他の例を示すブロック図である。制御部110は、ヒートマップ生成部111、検出部112、特徴量算出部113、推定部114、ズレ量算出部117、およびロス算出部116として機能する。ヒートマップ生成部111、検出部112、特徴量算出部113、およびズレ量算出部117については、図14において説明したので、説明を省略する。
推定部114は、特徴量に基づいて、NNを用いて、検出部112により検出された対象者500の信頼度を推定する。
ロス算出部116は、推定部114により推定された信頼度の、ズレ量算出部117により算出されたズレ量との差をロスとして算出する。
推定部114は、ロス算出部116により算出されたロスが小さくなるように、バックプロパゲーションによりNNのモデルを学習することで学習済みモデルを生成(または更新)する。すなわち、推定部114は、ズレ量算出部117により算出されたズレ量を目的変数とし、特徴量を説明変数として、対象者500の信頼度を推定するためのNNを学習する。学習済みモデルはモデルを構成する。
図16は、位置推定装置100の推定時における制御部110の機能を示すブロック図である。制御部110は、ヒートマップ生成部111、検出部112、特徴量算出部113、および推定部114として機能する。ヒートマップ生成部111、検出部112、および特徴量算出部113については、説明を省略する。
推定部114は、位置推定装置100の学習時(図14参照)に生成(更新)されたモデルを用いて、特徴量に基づいて、検出部112により検出された対象者500の信頼度を推定する。
推定部114は、位置推定装置100の学習時(図15参照)に生成(更新)されたNNの学習済みモデルを用いて、特徴量に基づいて、検出部112により検出された対象者500の信頼度を推定してもよい。
(第3実施形態)
第3実施形態について説明する。本実施形態と第1実施形態とで異なる点は次の点である。第1実施形態は、複数の関節点251の位置を検出し、検出した複数の関節点251の総合的な信頼度を推定する。一方、本実施形態は、検出した関節点251ごとに、当該関節点251の信頼度を推定する。その他の点については、本実施形態は第1実施形態と同様であるため、重複する説明は省略する。
図17は、位置推定装置100の学習時における制御部110の機能の例を示すブロック図である。制御部110は、ヒートマップ生成部111、検出部112、特徴量算出部113、推定部114、およびズレ量算出部117として機能する。以下の説明においては、説明を分かり易くするために、1つの関節点251を検出し、検出した1つの関節点251の信頼度を推定する場合を例に説明する。複数の関節点251を検出し、検出した関節点251ごとの信頼度を推定してもよい。
ヒートマップ生成部111は、撮影画像250に基づいて、関節点251の尤度のヒートマップ252を生成する。ヒートマップ252は、例えば、コンボルーショナルポーズマシーンを用いて生成され得る。
撮影画像250は、推定部114の学習に用いられる教師データとしての撮影画像250であり、あらかじめ関節点251の正解が対応付けられている。
検出部112は、関節点251のヒートマップ252に基づいて、関節点251を検出する。さらに、検出部112は、ヒートマップ252の尤度の重心を算出する。
特徴量算出部113は、少なくとも、重心と関節点251の位置との差分を用いた特徴量を算出する。図17の例においては、重心と関節点251の位置との差分を特徴量としている。特徴量には、上記差分に加え、関節点251のヒートマップ252における尤度の最大値、および関節点251のヒートマップ252におけるすべての尤度の少なくともいずれかが含まれ得る。
推定部114は、検出部112により検出された関節点251の、正解に対するズレ量を、関節点251の信頼度である目的変数とし、特徴量を説明変数として、モデルを生成する。モデルには数式が含まれる。
ズレ量算出部117は、検出部112により撮影画像250に基づいて検出された関節点251の位置と、当該撮影画像250に対応付けされた、関節点251の位置の正解とのズレ量(差分)を算出する。ズレ量は、検出された関節点251の位置と正解との撮影画像250上の距離として算出され得る。
図18は、位置推定装置100の学習時における制御部110の機能の他の例を示すブロック図である。制御部110は、ヒートマップ生成部111、検出部112、特徴量算出部113、推定部114、ズレ量算出部117、およびロス算出部116として機能する。ヒートマップ生成部111、検出部112、特徴量算出部113、およびズレ量算出部117については、図17において説明したので、説明を省略する。
ロス算出部116は、推定部114により推定された信頼度の、ズレ量算出部117により算出されたズレ量との差をロスとして算出する。
推定部114は、ロス算出部116により算出されたロスが小さくなるように、バックプロパゲーションによりNNのモデルを学習することで学習済みモデルを生成(または更新)する。すなわち、推定部114は、ズレ量算出部117により算出されたズレ量を目的変数とし、特徴量を説明変数として、関節点251の信頼度を推定するためのNNを学習する。
図19は、位置推定装置100の推定時における制御部110の機能を示すブロック図である。制御部110は、ヒートマップ生成部111、検出部112、特徴量算出部113、および推定部114として機能する。ヒートマップ生成部111、検出部112、および特徴量算出部113については、説明を省略する。
推定部114は、位置推定装置100の学習時(図17参照)に生成(更新)されたモデルを用いて、特徴量に基づいて、検出部112により検出された関節点251の信頼度を推定する。
推定部114は、位置推定装置100の学習時(図18参照)に生成(更新)されたNNの学習済みモデルを用いて、特徴量に基づいて、検出部112により検出された関節点251の信頼度を推定してもよい。
本実施形態は、以下の効果を奏する。
画像における物体の部分位置等の尤度のヒートマップに基づき推定された当該部分位置等と、尤度マップの尤度の重心位置との差分を用いた特徴量を算出し、部分位置等の推定結果の信頼度を、特徴量に基づいて算出する。これにより、尤度マップに基づいて推定された、物体の部分位置等の推定結果の信頼度を高精度に算出できる。これにより、物体の部分位置等の信頼度に応じて、物体の部分位置等を利用するアプリケーションの設計の自由度を向上できるとともに、システムの信頼度を向上できる。
さらに、物体の部分位置のそれぞれの尤度マップに基づいて、複数の部分位置をそれぞれ推定する。そして、推定された複数の部分位置の、正解に対する正解率を、部分位置の信頼度である目的変数とし、複数の部分位置を用いて算出された前記特徴量を説明変数に含む、重回帰分析により、複数の特徴量に基づいて部分位置の信頼度を推定する。これにより、複数の部分位置の推定結果の総合的な信頼度を簡単かつ高精度に算出できる。
物体の部分位置のそれぞれの尤度マップに基づいて、複数の部分位置をそれぞれ推定する。そして、推定された複数の部分位置の、正解に対する正解率を、部分位置の信頼度である目的変数とし、複数の部分位置を用いて算出された特徴量を説明変数に含んで学習された、NNの学習済みモデルを用いて、複数の特徴量に基づいて部分位置の信頼度を推定する。これにより、複数の部分位置の推定結果の総合的な信頼度をより高精度に算出できる。
推定された物体の位置または部分位置と正解との差分を、物体の位置または部分位置の信頼度である目的変数とし、物体の位置または部分位置について算出された特徴量を説明変数に含むモデルを用いて、特徴量に基づいて物体の位置または部分位置の信頼度を推定する。これにより、物体の位置または部分位置ごとの推定結果の信頼度を高精度に算出できる。
さらに、特徴量に、重心位置と推定された部分位置との差分、ならびに、複数の部分位置の一部または全部についてそれぞれ算出された複数の上記差分の合計、および部分位置ごとのヒートマップにおける尤度の最大値の合計の少なくともいずれかを含める。そして、重心位置と推定された部分位置との差分、ならびに、複数の部分位置の一部または全部についてそれぞれ算出された複数の上記差分の合計、および部分位置ごとのヒートマップにおける尤度の最大値の合計の少なくともいずれかを説明関数とする。これにより、複数の部分位置の推定結果の総合的な信頼度の精度をさらに向上できる。
特徴量に、重心位置と推定された物体の位置または部分位置との差分、ならびに、物体の位置または部分位置のヒートマップにおける尤度の最大値、およびヒートマップにおけるすべての尤度の少なくともいずれかを含める。そして、重心位置と推定された物体の位置または部分位置との差分、ならびに、物体の位置または部分位置のヒートマップにおける尤度の最大値、およびヒートマップにおけるすべての尤度の少なくともいずれかを説明変数とする。これにより、物体の位置または部分位置ごとの推定結果の信頼度の精度をさらに向上できる。
以上に説明した、位置推定システム10および位置推定装置100の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な位置推定システムおよび位置推定装置が備える構成を排除するものではない。
例えば、位置推定装置100が有する機能を、コンピューターを内蔵する撮影装置200が備えるようにしてもよい。
また、位置推定装置100、および撮影装置200は、それぞれ複数の装置により構成されてもよく、いずれか複数の装置が単一の装置として構成されてもよい。
また、上述したフローチャートは、一部のステップを省略してもよく、他のステップが追加されてもよい。また各ステップの一部は同時に実行されてもよく、一つのステップが複数のステップに分割されて実行されてもよい。
また、上述した実施形態においてNNにより実現していた機能を、NN以外の機械学習手段や、近似関数を用いることにより実現してもよい。例えば、特徴量と推定度の関係の近似関数を予め求めておき、当該近似関数を用いて、特徴量から信頼度を推定してもよい。
また、上述した位置推定システム10および位置推定装置100における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。
10 位置推定システム、
100 位置推定装置、
110 制御部、
111 ヒートマップ生成部、
112 検出部、
113 特徴点算出部、
114 推定部、
115 正解率算出部、
116 ロス算出部、
117 ズレ量算出部、
120 記憶部、
130 通信部、
140 入力部、
150 通信部、
200 撮影装置、
250 撮影画像、
251 関節点、
252 ヒートマップ、
300 通信ネットワーク、
500 対象者。

Claims (8)

  1. 画像における物体の位置または部分位置の尤度のヒートマップに基づいて、前記物体の位置または前記部分位置を推定する手順(a)と、
    前記ヒートマップの尤度の重心位置を算出する手順(b)と、
    少なくとも、算出された前記重心位置と、推定された、前記物体の位置または前記部分位置との差分を用いた特徴量を算出する手順(c)と、
    推定された、前記物体の位置または前記部分位置の信頼度を、算出された前記特徴量に基づいて算出する手順(d)と、
    を有する処理をコンピューターに実行させるための信頼度推定プログラム。
  2. 前記手順(a)は、前記物体の複数の前記部分位置のそれぞれの尤度マップに基づいて、複数の前記部分位置をそれぞれ推定し、
    前記手順(d)は、推定された複数の前記部分位置の、正解に対する正解率を、前記部分位置の信頼度である目的変数とし、複数の前記部分位置を用いて算出された前記特徴量を説明変数に含む、重回帰分析により、複数の前記特徴量に基づいて前記部分位置の信頼度を推定する、請求項1に記載の信頼度推定プログラム。
  3. 前記手順(a)は、前記物体の複数の前記部分位置のそれぞれの尤度マップに基づいて、複数の前記部分位置をそれぞれ推定し、
    前記手順(d)は、推定された複数の前記部分位置の、正解に対する正解率を、前記部分位置の信頼度である目的変数とし、複数の前記部分位置を用いて算出された前記特徴量を説明変数に含んで学習された、ニューラルネットワークの学習済みモデルを用いて、前記特徴量に基づいて前記部分位置の信頼度を推定する、請求項1に記載の信頼度推定プログラム。
  4. 前記手順(d)は、推定された前記物体の位置または前記部分位置と正解との差分を、前記物体の位置または前記部分位置の信頼度である目的変数とし、前記物体の位置または前記部分位置について算出された前記特徴量を説明変数に含むモデルを用いて、前記特徴量に基づいて前記物体の位置または前記部分位置の信頼度を推定する、請求項1に記載の信頼度推定プログラム。
  5. 前記特徴量は、前記重心位置と推定された前記部分位置との差分、ならびに、複数の前記部分位置の一部または全部についてそれぞれ算出された複数の前記差分の合計、および前記部分位置ごとの前記ヒートマップにおける尤度の最大値の合計の少なくともいずれかを含み、
    前記手順(d)は、前記重心位置と推定された前記部分位置との差分、ならびに、複数の前記部分位置の一部または全部についてそれぞれ算出された複数の前記差分の合計、および前記部分位置ごとの前記ヒートマップにおける尤度の最大値の合計の少なくともいずれかを説明変数とする、請求項2~3のいずれか一項に記載の信頼度推定プログラム。
  6. 前記特徴量は、前記重心位置と推定された前記物体の位置または前記部分位置との差分、ならびに、前記物体の位置または前記部分位置の前記ヒートマップにおける尤度の最大値、および前記ヒートマップにおけるすべての尤度の少なくともいずれかを含み、
    前記手順(d)は、前記重心位置と推定された前記物体の位置または前記部分位置との差分、ならびに、前記物体の位置または前記部分位置の前記ヒートマップにおける尤度の最大値、および前記ヒートマップにおけるすべての尤度の少なくともいずれかを説明変数とする、請求項4に記載の信頼度推定プログラム。
  7. 信頼度推定装置により実行される方法であって、
    画像における物体の位置または前記物体の部分位置の尤度のヒートマップに基づいて、前記物体の位置または前記部分位置を推定する段階(a)と、
    前記ヒートマップの尤度の重心位置を算出する段階(b)と、
    少なくとも、算出された前記重心位置と、推定された、前記物体の位置または前記部分位置との差分を用いた特徴量を算出する段階(c)と、
    推定された、前記物体の位置、または前記部分位置の信頼度を、算出された前記特徴量に基づいて算出する段階(d)と、
    を有する信頼度推定方法。
  8. 画像における物体の位置または部分位置の尤度のヒートマップに基づいて、前記物体の位置または前記部分位置を推定する推定部と、
    前記ヒートマップの尤度の重心位置を算出する重心算出部と、
    少なくとも、算出された前記重心位置と、推定された、前記物体の位置または前記部分位置との差分を用いた特徴量を算出する特徴量算出部と、
    推定された、前記物体の位置または前記部分位置の信頼度を、算出された前記特徴量に基づいて算出する信頼度算出部と、
    を有する信頼度推定装置。
JP2020115055A 2020-07-02 2020-07-02 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置 Active JP7419993B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020115055A JP7419993B2 (ja) 2020-07-02 2020-07-02 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020115055A JP7419993B2 (ja) 2020-07-02 2020-07-02 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置

Publications (2)

Publication Number Publication Date
JP2022012895A true JP2022012895A (ja) 2022-01-17
JP7419993B2 JP7419993B2 (ja) 2024-01-23

Family

ID=80148973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020115055A Active JP7419993B2 (ja) 2020-07-02 2020-07-02 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置

Country Status (1)

Country Link
JP (1) JP7419993B2 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009110486A (ja) 2007-11-01 2009-05-21 Sony Corp 画像処理装置、画像処理方法および画像処理プログラム、並びに、撮像装置および撮像装置の制御方法
CN103221977B (zh) 2010-12-09 2015-10-14 松下电器产业株式会社 姿势状态估计装置及姿势状态估计方法
JP6030457B2 (ja) 2013-01-23 2016-11-24 株式会社メガチップス 画像検出装置及び制御プログラム並びに画像検出方法
JP6584123B2 (ja) 2015-04-23 2019-10-02 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2019118034A1 (en) 2017-12-12 2019-06-20 Google Llc Disambiguating gesture input types using multiple heatmaps
JP7125356B2 (ja) 2019-01-15 2022-08-24 富士フイルムヘルスケア株式会社 超音波ct装置、画像処理装置、および、画像処理プログラム
EP3933755A4 (en) 2019-03-01 2022-03-16 NEC Corporation CONTROL METHOD, LEARNING DEVICE, DISCRIMINATION DEVICE AND PROGRAM
WO2021033314A1 (ja) 2019-08-22 2021-02-25 日本電気株式会社 推定装置、学習装置、制御方法及び記憶媒体

Also Published As

Publication number Publication date
JP7419993B2 (ja) 2024-01-23

Similar Documents

Publication Publication Date Title
EP3735625B1 (en) Method and system for training the navigator of an object tracking robot
CN108369643B (zh) 用于3d手部骨架跟踪的方法和系统
US10334168B2 (en) Threshold determination in a RANSAC algorithm
CN112258567B (zh) 物体抓取点的视觉定位方法、装置、存储介质及电子设备
JP2021536057A (ja) 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体
US11557391B2 (en) Systems and methods for human pose and shape recovery
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
CN111062263B (zh) 手部姿态估计的方法、设备、计算机设备和存储介质
CN108737694B (zh) 照相机系统及图像提供方法
JP2016091108A (ja) 人体部位検出システムおよび人体部位検出方法
CN110969045B (zh) 一种行为检测方法、装置、电子设备和存储介质
CN110427849B (zh) 人脸姿态确定方法、装置、存储介质和电子设备
US11963741B2 (en) Systems and methods for human pose and shape recovery
CA3110581A1 (en) System and method for evaluating the performance of a user in capturing an image of an anatomical region
US20240161254A1 (en) Information processing apparatus, information processing method, and program
CN113033526A (zh) 基于计算机实现的方法、电子设备和计算机程序产品
CN112233161B (zh) 手部图像深度确定方法、装置、电子设备及存储介质
KR20210018114A (ko) 교차 도메인 메트릭 학습 시스템 및 방법
WO2020149149A1 (en) Information processing apparatus, information processing method, and program
JP2023527627A (ja) 逆運動学に基づいた関節の回転の推測
Faujdar et al. Human Pose Estimation using Artificial Intelligence with Virtual Gym Tracker
JP2022012895A (ja) 信頼度推定プログラム、信頼度推定方法、および信頼度推定装置
JP7452698B2 (ja) 画像間の空間的関係をラベリングする強化学習モデル
CN117252914A (zh) 深度估计网络的训练方法、装置、电子设备及存储介质
Schlette et al. A new benchmark for pose estimation with ground truth from virtual reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R150 Certificate of patent or registration of utility model

Ref document number: 7419993

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150