JP7489247B2 - プログラム、情報処理方法、情報処理装置及びモデル生成方法 - Google Patents

プログラム、情報処理方法、情報処理装置及びモデル生成方法 Download PDF

Info

Publication number
JP7489247B2
JP7489247B2 JP2020121381A JP2020121381A JP7489247B2 JP 7489247 B2 JP7489247 B2 JP 7489247B2 JP 2020121381 A JP2020121381 A JP 2020121381A JP 2020121381 A JP2020121381 A JP 2020121381A JP 7489247 B2 JP7489247 B2 JP 7489247B2
Authority
JP
Japan
Prior art keywords
coordinate values
dimensional coordinate
model
frame images
depths
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020121381A
Other languages
English (en)
Other versions
JP2022018333A (ja
Inventor
直樹 加藤
祐介 内田
浩大 本多
Original Assignee
Go株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Go株式会社 filed Critical Go株式会社
Priority to JP2020121381A priority Critical patent/JP7489247B2/ja
Publication of JP2022018333A publication Critical patent/JP2022018333A/ja
Application granted granted Critical
Publication of JP7489247B2 publication Critical patent/JP7489247B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、プログラム、情報処理方法、情報処理装置及びモデル生成方法に関する。
被写体人物を撮像した2次元画像から、当該人物の骨格点(関節点)の3次元座標を推定する姿勢検出技術がある。例えば特許文献1では、被写体の2次元画像から被写体の骨格点の2次元座標を推定し、推定した2次元座標に基づいて3次元座標を推定する3次元特徴点情報生成装置が開示されている。
特開2020-47273号公報
しかしながら、特許文献1に係る発明は、推定の途中で関節点の奥行きに関する情報を喪失するため、関節点の3次元座標を正確に推定することができない。
一つの側面では、被写体人物の各関節点の3次元座標値を好適に推定することができるプログラム等を提供することを目的とする。
一つの側面に係るプログラムは、人物が撮像された動画像を取得し、前記動画像を構成するフレーム画像を入力した場合に、前記フレーム画像における前記人物の各関節点の2次元座標値及び深度を出力するよう学習済みの第1モデルに、取得した前記動画像を構成する複数のフレーム画像を入力して、前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を出力し、前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を入力した場合に、前記各関節点の3次元座標値を出力するよう学習済みの第2モデルに、前記第1モデルから出力された前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を入力して、前記3次元座標値を出力する処理をコンピュータに実行させるプログラムであって、前記フレーム画像を前記第1モデルに入力して、一の前記フレーム画像に対し、前記各関節点に対応する複数の3次元ヒートマップを生成し、生成した前記複数の3次元ヒートマップに基づき、前記各関節点の2次元座標値及び深度を出力し、前記第2モデルは、複数の畳み込み層それぞれに、所定のカーネルサイズ及び拡張係数の畳み込みフィルタを適用した拡張畳み込みニューラルネットワークであり、時系列で連続する前記複数のフレーム画像の前記2次元座標値及び深度を、前記複数の畳み込み層それぞれにおいて所定数ずつ畳み込み、前記複数のフレーム画像のうち、一の前記フレーム画像に対応する前記3次元座標値を出力する処理をコンピュータに実行させる。
一つの側面では、被写体人物の各関節点の3次元座標値を好適に推定することができる。
情報処理装置の構成例を示すブロック図である。 実施の形態の概要を示す説明図である。 第1モデルに関する説明図である。 第2モデルに関する説明図である。 第2モデルのネットワーク構造を示す説明図である。 モデル生成処理の手順を示すフローチャートである。 座標推定処理の手順を示すフローチャートである。
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、情報処理装置1の構成例を示すブロック図である。本実施の形態では、人物を撮像した動画像から当該人物の関節点の3次元座標値を推定する情報処理装置1について説明する。
情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ、パーソナルコンピュータ等である。本実施の形態では情報処理装置1がサーバコンピュータであるものとし、以下では簡潔のためサーバ1と読み替える。サーバ1は、例えば外部の端末2から動画像を取得し、動画像に写る人物の各関節点(手首、肘、肩等)の3次元座標値を推定し、推定結果を端末2に出力する。具体的には後述のように、サーバ1は、機械学習モデルである第1モデル51及び第2モデル52(図2参照)を用いて3次元座標値を推定する。
サーバ1は、制御部11、主記憶部12、通信部13、及び補助記憶部14を備える。制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置であり、補助記憶部14に記憶されたプログラムPを読み出して実行することにより、種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための通信モジュールであり、外部と情報の送受信を行う。
補助記憶部14は、大容量メモリ、ハードディスク等の不揮発性記憶領域であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。また、補助記憶部14は、第1モデル51、第2モデル52を記憶している。第1モデル51は、所定の訓練データを学習済みの機械学習モデルであり、動画像を構成するフレーム画像を入力した場合に、フレーム画像内の人物の各関節点の2次元座標値及び深度を出力する学習済みモデルである。第2モデル52は、所定の訓練データを学習済みの機械学習モデルであり、動画像を構成する複数のフレーム画像それぞれにおける各関節点の2次元座標値及び深度を入力した場合に、各関節点の3次元座標値を出力する学習済みモデルである。第1モデル51及び第2モデル52は、人工知能ソフトウェアの一部として機能するソフトウェアモジュールとしての利用が想定される。
なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであっても良く、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。
また、本実施の形態においてサーバ1は上記の構成に限られず、例えば操作入力を受け付ける入力部、画像を表示する表示部等を含んでもよい。また、サーバ1は、CD(Compact Disk)-ROM、DVD(Digital Versatile Disc)-ROM等の可搬型記憶媒体1aを読み取る読取部を備え、可搬型記憶媒体1aからプログラムPを読み取って実行するようにしても良い。あるいはサーバ1は、半導体メモリ1bからプログラムPを読み込んでも良い。
また、本実施の形態では動画解析用のコンピュータがサーバコンピュータであるものとして説明するが、例えば車載コンピュータ、ロボット制御用コンピュータ等に適用してもよい。
図2は、実施の形態の概要を示す説明図である。図2では、人物を撮像した動画像から、当該人物の各関節点の3次元座標値が推定される様子を概念的に図示している。図2に基づき、本実施の形態の概要を説明する。
サーバ1は、上述の如く、第1モデル51及び第2モデル52を用いて、動画像に写る人物の各関節点の3次元座標値を推定する。第1モデル51及び第2モデル52は共に、所定の訓練データを学習済みの機械学習モデルであり、例えば深層学習により生成されたニューラルネットワークである。
関節点の3次元座標値を推定する場合、サーバ1はまず、動画像を構成する複数のフレーム画像をそれぞれ第1モデル51に入力し、各フレーム画像における各関節点の2次元座標値及び深度を推定する。なお、2次元座標値は画像面に平行なx軸方向及びy軸方向の座標値であり、深度は画像面に垂直なz軸方向の座標値(奥行き)である。なお、各関節点の深度は、関節点の一つである腰を基準(z=0)に表現される。サーバ1は、フレーム毎に各関節点の2次元座標値及び深度を推定する。
次にサーバ1は、第1モデル51で推定した各フレーム画像の2次元座標値及び深度を第2モデル52に入力し、各フレーム画像における各関節点の3次元座標値を推定する。具体的には後述のように、サーバ1は、時系列に沿って連続する複数のフレーム画像のデータ(2次元座標値及び深度)を時系列方向に畳み込み、各フレーム画像における3次元座標値を推定する。
図3は、第1モデル51に関する説明図である。図3では、フレーム画像から関節点毎にヒートマップが生成され、各ヒートマップから各関節点の2次元座標値及び深度が推定される様子を概念的に図示している。
第1モデル51は、上述の如く訓練データを学習済みの機械学習モデルであり、例えばCNN(Convolutional Neural Network;畳み込みニューラルネットワーク)である。本実施の形態では第1モデル51として、Integral Pose Regressionと呼ばれるモデルを用いる。当該モデルは、関節点を特徴点として抽出したヒートマップ(図3中央参照)をフレーム画像から生成するタスクと、生成したヒートマップから関節点の座標値を推定するタスクとを行うモデルである。第1モデル51は、入力されたフレーム画像からヒートマップを生成し、生成したヒートマップに対してSoftmax関数を適用して正規化し、正規化されたヒートマップの重心位置を求めることにより各関節点の座標値を得る。
具体的には、第1モデル51は、フレーム画像から各関節点の2次元座標値及び深度(すなわち、3次元座標値)を得るため、関節点毎に3次元ヒートマップを生成する。なお、図3では図示の便宜上、ヒートマップを2次元で図示している。第1モデル51は、各関節点に対応する複数の3次元ヒートマップから、各関節点の2次元座標値及び深度を推定する。具体的には、第1モデル51は、以下の数式(1)に基づき各関節点の座標値を計算する。
Figure 0007489247000001
なお、Jは関節点の3次元座標値(kは関節点の番号)、Hはヒートマップ、pはヒートマップ内の位置を表す。詳細な説明は省略するが、第1モデル51は、3次元のヒートマップHをx,y,z軸それぞれに対応する1次元のベクトル値に変換し、各ベクトル値から関節点の座標値(x,y,z)を算出する。
サーバ1は、訓練用の人物の動画像と、動画像を構成する各フレーム画像における各関節点の2次元座標値及び深度(3次元座標値)とを含む訓練データ(例えばHuman3.6M)を用いて、第1モデル51を生成する。サーバ1は、訓練用の動画像のフレーム画像を第1モデル51に入力し、ヒートマップを生成して各関節点の2次元座標値及び深度を推定する。サーバ1は、推定した2次元座標値及び深度を、正解の2次元座標値及び深度と比較し、両者が近似するように第1モデル51のパラメータ(ニューロン間の重み等)を最適化する。これによりサーバ1は、第1モデル51を生成する。
上述の如く、本実施の形態に係る第1モデル51はフレーム画像からヒートマップを生成し、生成したヒートマップから関節点の座標値を推定する。ヒートマップ表現は学習が容易であるが、ヒートマップにおいて値が最大の位置を関節点の座標と推定する処理は微分不可能であるため、End-to-Endの推定が難しい。一方で、画像から直接的に関節点の座標を推定する処理(回帰)は学習が難しい。本実施の形態ではこれらの手法を統合し、学習が容易なヒートマップ表現を用いつつ、End-to-Endの推定を可能にする。
図4は、第2モデル52に関する説明図である。図4では、時系列で連続する複数のフレーム画像それぞれに対応する関節点の2次元座標値(及び深度)から、3次元座標値を推定する様子を概念的に図示している。
第2モデル52は、第1モデル51と同様に機械学習モデルであり、例えば複数の畳み込み層を有するCNNである。本実施の形態では第2モデル52として、VideoPose3Dと呼ばれるモデルを用いる。当該モデルは、時系列データを取り扱う畳み込みニューラルネットワーク(Temporal Convolutional Network)であり、関節点の2次元座標値の時系列データから関節点の3次元座標値を推定するフレームワークである。
具体的には、第2モデル52は、複数の畳み込み層それぞれに、拡張畳み込み(Dilated Covolution)と呼ばれる特殊な畳み込みフィルタを適用した拡張畳み込みニューラルネットワークにより構成される。より詳細には、直列的に接続された各畳み込み層に適用される畳み込みフィルタに、拡張係数(Dilation Factor)と呼ばれるハイパーパラメータが設定され、各畳み込み層では拡張係数dに応じて、d(iは畳み込み層の順序)ずつ入力データを畳み込む。
図4ではd=3として、3ずつ入力データが畳み込まれる様子を図示している。図4の例では、1番目の畳み込み層で3フレーム分のデータが畳み込まれ、続く2番目の畳み込み層で、3×3=9フレーム分のデータが畳み込まれている。最終的に第2モデル52は、3フレーム分のデータを畳み込み、3フレームのうち、中央1フレーム(例えば3=9であれば5番目のフレーム)の3次元座標値を推定する。
上述の如く、本実施の形態では拡張畳み込みニューラルネットワークを用いて、時系列で連続する複数フレームのデータを処理する。拡張畳み込みを採用することで、RNN(Recurrent Neural Network)等と比較して、複数フレームのデータを並列的に処理することができ、また、学習時のメモリ消費を抑えることもできる。
図5は、第2モデル52のネットワーク構造を示す説明図である。図5に、第2モデル52の具体的なネットワーク構造を図示する。本実施の形態に係る第2モデル52は、Skip-connectionを利用した残差ネットワーク(Residual Network)で構成され、中間層の各残差ブロック(以下、単に「ブロック」と呼ぶ)において入力と出力との残差を取りながら畳み込みを行う。
図5において、太線で示すレイヤは畳み込み層である。図5に示すように、入力層及び中間層は、畳み込み層及びその他のレイヤ(BatchNorm, ReLU, Dropout)から成るブロックで構成される。例えば入力層は1ブロック、中間層は4ブロックで構成される。入力層は所定のフレーム数(例えば243フレーム)の各関節点(例えばJ(Joints)=17の関節点)の座標値の入力を受け付ける。なお、畳み込み層に示す「3J,3d1,1024」はそれぞれ、入力チャネル数(3軸×関節数)、カーネルサイズ及び拡張係数(カーネルサイズが3、拡張係数が1)、及び出力チャネル数を表す。中間層も入力層と同様のブロック構造を有するが、拡張畳み込みを行うブロック(カーネルサイズが3diの畳み込み層を有するブロック)と、カーネルサイズが1のブロックとを1単位(1ブロック)として構成される。図5に示すように、中間層では一のブロックの入力が次のブロックの入力にスキップされ、当該一のブロックの入力及び出力の残差が次のブロックに入力され、当該次のブロックの出力が計算される。
上述の如く、本実施の形態では第2モデル52に残差ネットワークを用いる。これにより、ネットワークの層数を深くした場合の勾配消失や勾配発散の問題に好適に対処することができる。
図5において中間層の各ブロックの先頭の畳み込み層に「3d3」、「3d9」、「3d27」、及び「3d81」と示すように、各ブロックの先頭の畳み込み層で、カーネルサイズを3として3フレーム、9フレーム、27フレーム、及び81フレーム分のデータが畳み込まれる。最終的に第2モデル52は、出力層に相当する最後尾の畳み込み層において、各関節点の3次元座標値(3J)を計算する。
VideoPose3Dは関節点の2次元座標値を3次元座標値に変換するフレームワークであるが、本実施の形態では第2モデル52の入力に関節点の深度を加え、2次元座標値及び深度から3次元座標値を推定する。すなわち、通常は入力チャネル数が「2J」(x,y)であるところを、本実施の形態では「3J」(x,y,z)とする。サーバ1は、第1モデル51で推定した各フレーム画像の2次元座標値及び深度を第2モデル52に入力し、中央1フレームの3次元座標値を推定する。
例えばサーバ1は、第1モデル51の学習に用いた訓練データ(Human3.6M)を第2モデル52の訓練データに用いて、第2モデル52を生成する。なお、第1モデル51及び第2モデル52で異なる訓練データを用いてもよい。サーバ1は、訓練用の動画像を構成する複数のフレーム画像それぞれの2次元座標値及び深度を第2モデル52に入力し、一のフレーム画像の3次元座標値を推定する。サーバ1は、推定した3次元座標値を正解の3次元座標値と比較し、両者が近似するように第2モデル52のパラメータ(ニューロン間の重み等)を最適化する。
なお、詳細な説明は省略するが、サーバ1は、推定した3次元座標値を2次元座標値に逆変換する処理を行うこと(Back-Projection)で、正解の3次元座標値が既知の訓練データを用いた教師あり学習と、正解の3次元座標値が未知の訓練データを用いた教師なし学習とを組み合わせた半教師あり学習を行うようにしてもよい。
本実施の形態でサーバ1は、学習を行う際に、訓練データが示す深度に所定のノイズを付加して第2モデル52に与える。例えばサーバ1は、ガウシアンノイズ(σ=0.1)を付加した値に深度を変換し、変換した深度と、訓練データが示す2次元座標値とを第2モデル52に与え、学習を行う。深度にノイズを付加して学習することで、過学習を抑制することができる。
上述の如く、サーバ1は、2次元座標値及び深度を推定する第1モデル51と、3次元座標値を推定する第2モデル52とを利用して、動画像を構成する各フレーム画像における各関節点の3次元座標値を推定する。2次元座標値以外に深度を第2モデル52の入力に加えることで、人物の外観(奥行き)の情報を与え、3次元座標値を精度良く推定することができる。
図6は、モデル生成処理の手順を示すフローチャートである。図6に基づき、第1モデル51及び第2モデル52を生成する機械学習処理について説明する。
サーバ1の制御部11は、第1モデル51及び第2モデル52を生成するための訓練データを取得する(ステップS11)。訓練データは、人物を撮像した動画像と、動画像を構成する各フレーム画像における人物の各関節点の2次元座標値及び深度(3次元座標値)とを含む。
制御部11は訓練データに基づき、動画像を構成するフレーム画像を入力した場合に、フレーム画像に写る人物の各関節点の2次元座標値及び深度を出力する第1モデル51を生成する(ステップS12)。具体的には、制御部11は、ヒートマップ推定と回帰とを統合したCNNを生成する。制御部11は、訓練用の動画像を構成する各フレーム画像を第1モデル51に入力して関節点毎に3次元ヒートマップを生成し、生成した3次元ヒートマップから各関節点の2次元座標値及び深度を推定する。制御部11は、推定した関節点の2次元座標値及び深度と、訓練データが示す正解の2次元座標値及び深度とを比較し、両者が近似するように第1モデル51のパラメータを最適化する。
制御部11は、訓練データが示す関節点の深度を、ガウシアンノイズを付加した値を変換する(ステップS13)。制御部11は、深度を変換した訓練データに基づき、複数のフレーム画像それぞれに対応する各関節点の2次元座標値及び深度を入力した場合に、一のフレーム画像に対応する各関節点の3次元座標値を出力する第2モデル52を生成する(ステップS14)。具体的には、制御部11は、残差ネットワーク構造を有し、かつ、各畳み込み層で拡張畳み込みを行うCNNを生成する。制御部11は、訓練用の動画像を構成する複数のフレーム画像の2次元座標値と、変換後の深度とを第2モデル52に与え、中央1フレームに対応する各関節点の3次元座標値を推定する。制御部11は、推定した3次元座標値が、正解の3次元座標値に近似するように第2モデル52のパラメータを最適化する。制御部11は一連の処理を終了する。
図7は、座標推定処理の手順を示すフローチャートである。図7に基づき、動画像から各関節点の3次元座標値を推定する際の処理内容について説明する。
サーバ1の制御部11は、人物が撮像された動画像を端末2から取得する(ステップS31)。制御部11は、動画像を構成する各フレーム画像を第1モデル51に入力し、各フレーム画像に対応する各関節点の2次元座標値及び深度を推定する(ステップS32)。制御部11は、第1モデル51で推定された2次元座標値及び深度であって、連続する複数のフレーム画像それぞれに対応する2次元座標値及び深度を第2モデル52に入力し、一のフレーム画像に対応する各関節点の3次元座標値を推定する(ステップS33)。制御部11は一連の処理を終了する。
以上より、本実施の形態によれば、動画像から2次元座標値及び深度を推定する第1モデル51と、複数フレームの2次元座標値及び深度から3次元座標値を推定する第2モデル52とを組み合わせることで、動画像に写る人物の各関節点の3次元座標値を好適に推定することができる。
また、本実施の形態によれば、学習が容易なヒートマップ表現を用いつつ、End-to-Endで関節点の2次元座標及び深度を推定することができる。
また、本実施の形態によれば、関節点毎に3次元ヒートマップを生成することで、各関節点の2次元座標値及び深度を精度良く推定することができる。
また、本実施の形態によれば、第2モデル52に拡張畳み込みネットワークを用いることで、時系列データを好適に処理することができる。
また、本実施の形態によれば、第2モデル52に残差ネットワークを用いることで、第2モデル52の層数が深くなった場合でも好適に処理することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 サーバ(情報処理装置)
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P プログラム
51 第1モデル
52 第2モデル

Claims (7)

  1. 人物が撮像された動画像を取得し、
    前記動画像を構成するフレーム画像を入力した場合に、前記フレーム画像における前記人物の各関節点の2次元座標値及び深度を出力するよう学習済みの第1モデルに、取得した前記動画像を構成する複数のフレーム画像を入力して、前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を出力し、
    前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を入力した場合に、前記各関節点の3次元座標値を出力するよう学習済みの第2モデルに、前記第1モデルから出力された前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を入力して、前記3次元座標値を出力する
    処理をコンピュータに実行させるプログラムであって、
    前記フレーム画像を前記第1モデルに入力して、一の前記フレーム画像に対し、前記各関節点に対応する複数の3次元ヒートマップを生成し、
    生成した前記複数の3次元ヒートマップに基づき、前記各関節点の2次元座標値及び深度を出力し、
    前記第2モデルは、複数の畳み込み層それぞれに、所定のカーネルサイズ及び拡張係数の畳み込みフィルタを適用した拡張畳み込みニューラルネットワークであり、
    時系列で連続する前記複数のフレーム画像の前記2次元座標値及び深度を、前記複数の畳み込み層それぞれにおいて所定数ずつ畳み込み、前記複数のフレーム画像のうち、一の前記フレーム画像に対応する前記3次元座標値を出力する
    処理をコンピュータに実行させるプログラム。
  2. 人物が撮像された動画像を構成する各フレーム画像における前記人物の各関節点の2次元座標値及び深度を示す訓練データを取得し、
    訓練用の複数の前記フレーム画像それぞれに対応する前記2次元座標値及び深度を前記第2モデルに入力することで、前記3次元座標値を出力し、
    出力した前記3次元座標値を前記2次元座標値に逆変換する処理を行うことで、正解の前記3次元座標値が既知の訓練データを生成し、
    正解の前記3次元座標値が既知の訓練データを用いた教師あり学習と、正解の前記3次元座標値が未知の訓練データを用いた教師なし学習とを組み合わせた半教師あり学習を行うことで、前記第2モデルをトレーニングする
    請求項1に記載のプログラム。
  3. 前記第2モデルは、前記畳み込み層を含む残差ブロックを複数有する残差ネットワークであり、
    一の前記残差ブロックの入力及び出力の残差を、前記一の残差ブロックに続く次の前記残差ブロックに入力して該次の残差ブロックの出力を計算する
    請求項1又は2に記載のプログラム。
  4. 人物が撮像された動画像を取得し、
    前記動画像を構成するフレーム画像を入力した場合に、前記フレーム画像における前記人物の各関節点の2次元座標値及び深度を出力するよう学習済みの第1モデルに、取得した前記動画像を構成する複数のフレーム画像を入力して、前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を出力し、
    前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を入力した場合に、前記各関節点の3次元座標値を出力するよう学習済みの第2モデルに、前記第1モデルから出力された前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を入力して、前記3次元座標値を出力する
    処理をコンピュータに実行させる情報処理方法であって、
    前記フレーム画像を前記第1モデルに入力して、一の前記フレーム画像に対し、前記各関節点に対応する複数の3次元ヒートマップを生成し、
    生成した前記複数の3次元ヒートマップに基づき、前記各関節点の2次元座標値及び深度を出力し、
    前記第2モデルは、複数の畳み込み層それぞれに、所定のカーネルサイズ及び拡張係数の畳み込みフィルタを適用した拡張畳み込みニューラルネットワークであり、
    時系列で連続する前記複数のフレーム画像の前記2次元座標値及び深度を、前記複数の畳み込み層それぞれにおいて所定数ずつ畳み込み、前記複数のフレーム画像のうち、一の前記フレーム画像に対応する前記3次元座標値を出力する
    処理をコンピュータに実行させる情報処理方法。
  5. 人物が撮像された動画像を取得する取得部と、
    前記動画像を構成するフレーム画像を入力した場合に、前記フレーム画像における前記人物の各関節点の2次元座標値及び深度を出力するよう学習済みの第1モデルに、取得した前記動画像を構成する複数のフレーム画像を入力して、前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を出力する第1出力部と、
    前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を入力した場合に、前記各関節点の3次元座標値を出力するよう学習済みの第2モデルに、前記第1モデルから出力された前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を入力して、前記3次元座標値を出力する第2出力部と
    を備え
    前記第1出力部は、
    前記フレーム画像を前記第1モデルに入力して、一の前記フレーム画像に対し、前記各関節点に対応する複数の3次元ヒートマップを生成し、
    生成した前記複数の3次元ヒートマップに基づき、前記各関節点の2次元座標値及び深度を出力し、
    前記第2モデルは、複数の畳み込み層それぞれに、所定のカーネルサイズ及び拡張係数の畳み込みフィルタを適用した拡張畳み込みニューラルネットワークであり、
    前記第2出力部は、時系列で連続する前記複数のフレーム画像の前記2次元座標値及び深度を、前記複数の畳み込み層それぞれにおいて所定数ずつ畳み込み、前記複数のフレーム画像のうち、一の前記フレーム画像に対応する前記3次元座標値を出力する
    情報処理装置。
  6. 人物が撮像された動画像と、該動画像を構成する各フレーム画像における前記人物の各関節点の2次元座標値及び深度とを含む訓練データを取得し、
    前記訓練データに基づき、前記フレーム画像を入力した場合に、前記各関節点の2次元座標値及び深度を出力する第1モデルを生成し、
    前記訓練データに基づき、複数の前記フレーム画像それぞれに対応する前記2次元座標値及び深度を入力した場合に、前記各関節点の3次元座標値を出力する第2モデルを生成する
    処理をコンピュータに実行させるモデル生成方法であって、
    前記複数のフレーム画像それぞれに対応する前記2次元座標値及び深度を前記第2モデルに入力することで、前記3次元座標値を出力し、
    出力した前記3次元座標値を前記2次元座標値に逆変換する処理を行うことで、正解の前記3次元座標値が既知の訓練データを生成し、
    正解の前記3次元座標値が既知の訓練データを用いた教師あり学習と、正解の前記3次元座標値が未知の訓練データを用いた教師なし学習とを組み合わせた半教師あり学習を行うことで、前記第2モデルをトレーニングする
    処理をコンピュータに実行させるモデル生成方法。
  7. 前記訓練データが示す深度を、所定のノイズを付加した値に変換し、
    前記訓練データが示す前記2次元座標値と、変換後の前記深度とに基づき、前記第2モデルを生成する
    請求項に記載のモデル生成方法。
JP2020121381A 2020-07-15 2020-07-15 プログラム、情報処理方法、情報処理装置及びモデル生成方法 Active JP7489247B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020121381A JP7489247B2 (ja) 2020-07-15 2020-07-15 プログラム、情報処理方法、情報処理装置及びモデル生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020121381A JP7489247B2 (ja) 2020-07-15 2020-07-15 プログラム、情報処理方法、情報処理装置及びモデル生成方法

Publications (2)

Publication Number Publication Date
JP2022018333A JP2022018333A (ja) 2022-01-27
JP7489247B2 true JP7489247B2 (ja) 2024-05-23

Family

ID=80203907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020121381A Active JP7489247B2 (ja) 2020-07-15 2020-07-15 プログラム、情報処理方法、情報処理装置及びモデル生成方法

Country Status (1)

Country Link
JP (1) JP7489247B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117726907B (zh) * 2024-02-06 2024-04-30 之江实验室 一种建模模型的训练方法、三维人体建模的方法以及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020096941A1 (en) 2018-11-05 2020-05-14 Edge Case Research, Inc. Systems and methods for evaluating perception system quality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020096941A1 (en) 2018-11-05 2020-05-14 Edge Case Research, Inc. Systems and methods for evaluating perception system quality

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dario Pavllo et al.,3D human pose estimation in video with temporal convolutions and semi-supervised training,arXiv [online],2019年03月29日,[令和6年2月21日検索], インターネット<URL: https://arxiv.org/pdf/1811.11742.pdf>
Georgios Pavlakos et al.,Ordinal Depth Supervision for 3D Human Pose Estimation,2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition,2018年,pp. 7307-7316
Xiao Sun et al.,Integral Human Pose Regression,arXiv [online],2018年09月18日,[令和6年2月21日検索], インターネット<URL: https://arxiv.org/pdf/1711.08229.pdf>

Also Published As

Publication number Publication date
JP2022018333A (ja) 2022-01-27

Similar Documents

Publication Publication Date Title
JP7213241B2 (ja) ニューラルネットワークに関するマルチタスク学習のためのメタ学習
CN108369643B (zh) 用于3d手部骨架跟踪的方法和系统
US10783690B2 (en) Image regularization and retargeting system
CN111402290B (zh) 一种基于骨骼关键点的动作还原方法以及装置
CN110827342A (zh) 三维人体模型重建方法及存储设备、控制设备
KR20180057096A (ko) 표정 인식과 트레이닝을 수행하는 방법 및 장치
CN110619676A (zh) 一种基于神经网络的端到端的三维人脸重建方法
WO2021253788A1 (zh) 一种人体三维模型构建方法及装置
JP2019507935A (ja) 物体ランドマーク検出のための深層変形ネットワーク
JP2008511932A (ja) 直接因数分解による変形可能な形状のレジストレーション及びモデリングのためのシステム及び方法
JP2012083955A (ja) 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム
CN114581613B (zh) 一种基于轨迹约束的人体模型姿态和形状优化方法和系统
CN111582220B (zh) 一种基于移位图卷积神经网络骨骼点行为识别系统及其识别方法
JP2020126617A (ja) フォールトトレランス及びフラクチュエーションロバスト性のための複数のニューラルネットワークを使用して揺れるカメラにより生成されたビデオからジッタリングを取り除くための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
CN110738650A (zh) 一种传染病感染识别方法、终端设备及存储介质
JP7489247B2 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
CN111539349A (zh) 姿态识别模型的训练方法及装置、姿态识别方法及其装置
JP7499346B2 (ja) 逆運動学に基づいた関節の回転の推測
CN111339969B (zh) 人体姿势估计方法、装置、设备及存储介质
CN117352126A (zh) 肌肉受力可视化方法、装置、计算机设备以及存储介质
CN116959109A (zh) 人体姿态图像的生成方法、装置、设备和存储介质
CN113553893A (zh) 基于深度神经网络的人体跌倒检测方法、装置和电子设备
Garcia-D’Urso et al. Accurate estimation of parametric models of the human body from 3D point clouds
JP5281479B2 (ja) カメラ運動・物体形状復元方法、カメラ運動・物体形状復元装置、カメラ運動・物体形状復元プログラム及びこのプログラムを記録した記録媒体
CN116079727A (zh) 基于3d人体姿态估计的人形机器人动作模仿方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240513

R150 Certificate of patent or registration of utility model

Ref document number: 7489247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150