JP6923789B2 - 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム - Google Patents

情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム Download PDF

Info

Publication number
JP6923789B2
JP6923789B2 JP2017132169A JP2017132169A JP6923789B2 JP 6923789 B2 JP6923789 B2 JP 6923789B2 JP 2017132169 A JP2017132169 A JP 2017132169A JP 2017132169 A JP2017132169 A JP 2017132169A JP 6923789 B2 JP6923789 B2 JP 6923789B2
Authority
JP
Japan
Prior art keywords
joint
score
transition
information processing
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017132169A
Other languages
English (en)
Other versions
JP2019016106A (ja
Inventor
充 伴野
充 伴野
良祐 山中
良祐 山中
聡 田辺
聡 田辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017132169A priority Critical patent/JP6923789B2/ja
Priority to US16/021,848 priority patent/US10872234B2/en
Publication of JP2019016106A publication Critical patent/JP2019016106A/ja
Application granted granted Critical
Publication of JP6923789B2 publication Critical patent/JP6923789B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システムに関する。
コンピュータビジョンの分野では、画像中の人物の姿勢推定は、古くから研究されている。その代表的な手法に、人体の関節とパーツをグラフィカルモデルで表現した人体モデルを用いた姿勢推定がある。
特に、近年、Deep Learningを用いて、関節やパーツの推定とそれらの位置関係を学習し、姿勢推定を行う手法が提案されている(例えば、非特許文献1及び2参照)。
X.Chen and A.Yuille: "Articulated Pose Estimation by a Graphical Model with Image Dependent Pairwise Relations", Advances in Neural Information Processing Systems, pp. 1736−1744 (2014) W.Yang, W.Ouyang, H.Li, X.Wang: "End−to−End Learning of Deformable Mixture of Parts and Deep Convolutional Neural Networks for Human Pose Estimation",Computer Vision and Pattern Recognition (CVPR), pp.3073−3082, (2016)
しかしながら、上記非特許文献1、及び2に記載の手法は、1枚の静止画である1フレーム内の認識処理を行う手法であるため、姿勢の推定精度がフレーム内の情報に制限されていた。そのため、動画のような前後のフレームに関連性がある場合に、その相関する情報が活用できておらず、結果として、動画における各フレームの姿勢推定精度が低くなるときがある。
一つの側面では、前後のフレームの相関する情報を活用して、物体の姿勢の推定精度を上げる情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システムを提供することを目的とする。
一つの実施態様では、情報処理プログラムは、
複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの前記物体の関節位置の確率分布を算出し、
異なるフレーム間の前記物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出し、
前記確率分布のスコア、及び前記遷移スコアから、前記複数の関節を有する物体の姿勢を推定する、処理をコンピュータに実行させる。
一つの側面では、前後のフレームの相関する情報を活用して、物体の姿勢の推定精度を上げる情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システムを提供することができる。
図1は、情報処理装置を含む情報処理システムの構成の一例を示す図である。 図2は、情報処理装置のハードウェア構成の一例を示すブロック図である。 図3は、人体モデルの一例を示す図である。 図4は、従来技術による関節位置の推定方法の一例を示す図である。 図5は、異なるフレームにおける関節の遷移を説明するための一例を示す図である。 図6は、関節位置確率分布を説明するための一例を示す図である。 図7は、姿勢推定の処理手順の一例を示す図である。 図8は、同一フレーム内における関節タイプの整合性評価について説明するための一例を示す図である。 図9は、関節タイプを導入した場合の関節位置確率分布を説明するための一例を示す図である。 図10は、関節位置相対スコア関数の一例を示す図である。 図11は、関節のタイプ遷移と移動量の一例を示す図である。 図12は、人体モデルの各関節に、その位置と関節タイプが対応付けされていることを説明するための一例を示す図である。 図13は、学習データセットの抽出を説明するための一例を示す図である。 図14は、学習データセットを抽出してデータベース化したもの(「type遷移データベース」)を説明するための一例を示す図である。 図15は、遷移スコアを算出する際に使用する重み値wについて、headを例に重み値wと関節タイプとの関係を説明するための一例を示す図である。 図16は、姿勢推定部において、関節の位置を推定するための処理を説明するための一例を示す図である。 図17は、人体モデルの各関節に、その位置と関節タイプが対応付けされていることを説明するための一例を示す図である。 図18は、情報処理方法を用いてオクルージョンを評価した結果の一例を示す図である。 図19は、情報処理装置により、人体の姿勢を推定する処理の流れの一例を示すフローチャートである。
本発明の情報処理プログラムは、動画のような前後のフレームに関連がある画像において、複数の関節を有する物体の同一関節における異なるフレーム間の遷移の整合性を評価することにより、関節の存在位置を高い精度で推定する。これにより、情報処理プログラムは、物体の姿勢の推定精度を上げる情報処理プログラムを提供することができる。
即ち、情報処理プログラムは、物体の関節位置を推定することにより、姿勢の推定を行う。
具体的には、先ず、情報処理プログラムは、複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの物体の関節位置の確率分布を算出する。
ここで、複数の関節を有する物体とは、例えば、関節と関節につながれたパーツを有する動くものであれば特に制限はなく、例えば、人体、動物などの生物や、ロボット、クレーン車などの工業製品が挙げられる。
関節は、2以上のパーツを連結する連結部分である。関節の動きによりパーツの相対運動が可能となる。関節の種類としては、関節の動きの違いにより、例えば、ある軸を中心に回転する回転関節や、一方向に位置だけが変わるようにスライドする直動関節や、人体の股関節や肩関節のように球面で接するボールジョイントなどがある。
関節としては、例えば、人体の関節、動物の関節、ロボットの関節などがある。また、関節には、クレーン車などの工業製品における連結部も含まれる。
関節につながれるパーツは、相対運動を可能とする物体の構成要素であり、例えば、骨等の身体パーツ、骨や骨格等の生物パーツなどが挙げられる。骨格は、内骨格、外骨格いずれであってもよく、関節につながれたパーツには、節足動物や昆虫などの外骨格を含んでもよい。また、骨格は、工業製品における機械パーツであってもよい。
フレームとは、動画、又は連写により取得した画像の1コマ(静止画)を意味する。
関節位置の確率分布(以下、「関節位置確率分布」ともいう)を算出するとは、関節とその関節の画像情報から、予め学習することにより求められる関節位置確率分布関数を用いて、入力された画像における関節の確からしさを評価することである。
ここで、関節位置の確率分布とは、例えば、認識対象の関節が、画像のどこに存在するかの存在位置の確からしさを数値(スコア、例えば、確率)化したものをいう。
次に、情報処理プログラムは、異なるフレーム間の物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出する。
遷移情報は、同一関節における遷移前のフレームの位置から遷移後のフレームの位置に遷移した移動量と、関節の遷移毎の予め学習により求められる重み値とにより表現される関数で表され、後述する関節遷移スコア関数に対応する。
関節の遷移の整合性を評価するとは、関節遷移スコア関数を用いて、入力された画像における同一関節の遷移前のフレームの位置から遷移後のフレームの位置への遷移した確からしさを評価することである。評価とは、例えば、以下で記載する遷移スコアを求めることである。
遷移スコアは、異なるフレーム間の同一関節における関節の遷移の整合性から、各フレームにおける関節の位置の確からしさを数値(スコア)化したものである。遷移スコアは、例えば、同一関節の移動量と、関節遷移スコア関数における重み値の内積により求められる。
情報処理プログラムは、同一関節の遷移の整合性を評価するに際し、関節と関節につながれたパーツとを含む関節タイプを利用することにより、より詳細な関節位置を推定することができる。つまり、情報処理プログラムは、同一関節に着目し、遷移前のフレームにおける当該関節の位置及び関節タイプから、遷移後のフレームにおける当該関節の位置及び関節タイプに遷移した際の移動量をもとに、同一関節の遷移の整合性を評価する。これにより、情報処理プログラムは、より詳細に関節位置を推定することができ、物体の姿勢の推定精度を上げることができる。
関節タイプ(タイプを「type」と表記することもある)とは、ある関節とその関節につながれたパーツのつながりの見え方で、関節とパーツの位置や向きの違いにより複数のパターン(タイプ)が予め設定されている。
関節タイプは、関節毎に所定の数、設定される。
尚、関節タイプを用いて関節の遷移の整合性を評価する場合、上記関節遷移スコア関数は、「関節タイプ遷移スコア関数」と読み替えることができる。
次に、情報処理プログラムは、関節位置確率分布のスコア(以下、「確率分布のスコア」ともいう)、及び遷移スコアから、複数の関節を有する物体の姿勢を推定する。
情報処理プログラムは、確率分布のスコアと遷移スコアとに基づき、フレーム内の関節の位置、及びフレーム間の関節の遷移の整合性を考慮した確からしい関節の位置を推定することができる。
具体的には、情報処理プログラムは、関節位置確率分布関数、及び関節遷移スコア関数から求められる全体スコア関数を用いることにより、姿勢の推定を行う。
情報処理プログラムは、関節位置確率分布関数から求められる確率分布のスコアの解候補と、関節遷移スコア関数から求められる遷移スコアの解候補とから、全体スコア関数の最大値を探索する。つまり、情報処理プログラムは、全体スコア関数を最大化する各関節の(x、y)を探索することで、最も確からしい各関節の位置を推定することができる。ここで、xはx座標、yはy座標を示す。
これにより、情報処理プログラムは、精度の高い物体の姿勢の推定を行うことができる。
さらに、情報処理プログラムは、各フレームの前記物体の関節同士の相対位置関係の整合性を評価することにより相対位置スコアを算出する。
関節同士の相対位置関係の整合性を評価するとは、関節間の相対位置関係から、予め学習することにより求められる関節相対位置スコア関数を用いて、入力された画像における関節間の相対位置の確からしさを評価することである。評価とは、例えば、以下で記載する相対位置スコアを算出することである。
相対位置スコアは、フレーム内の関節間における相対位置の整合性から、フレームにおける関節の位置の確からしさを数値(スコア)化したものである。
情報処理プログラムは、相対位置関係の整合性を評価するに際し、関節タイプを利用することにより、より詳細な関節位置を推定することができる。つまり、情報処理プログラムは、同一フレーム内における、ある関節とその関節につながれたパーツとを含むある関節の関節タイプと、その関節に隣り合う関節とその隣り合う関節につながれたパーツとを含む隣り合う関節の関節タイプとを比較する。これにより、情報処理プログラムは、ある関節とその関節に隣り合う関節との位置の整合性をより詳細に評価することができ、より詳細な関節位置の推定が可能となる。
上記により得られた相対位置スコアは、上記確率分布のスコア、及び上記遷移スコアとともに、姿勢推定に用いる。
確率分布のスコアと相対位置スコアと遷移スコアとを合わせると、情報処理プログラムは、フレーム内の関節の位置、フレーム内の関節間の相対位置の整合性、及びフレーム間の関節の遷移の整合性を考慮した最も確からしい関節の位置を推定することができる。
具体的には、情報処理プログラムは、関節位置確率分布関数、関節相対位置スコア関数、及び関節遷移スコア関数から求められる全体スコア関数を用いることにより、姿勢の推定を行う。
情報処理プログラムは、関節位置確率分布関数から求められる確率分布のスコアの解候補と、関節相対位置スコア関数から求められる相対位置スコアの解候補と、関節遷移スコア関数から求められる遷移スコアの解候補を用いる。情報処理プログラムは、これら解候補を用い、全体スコア関数の最大値を探索する。つまり、情報処理プログラムは、全体スコア関数を最大化する各関節の(x、y)を探索することで、最も確からしい関節の位置を推定することができる。
これにより、情報処理プログラムは、精度の高い物体の姿勢の推定が行える。
情報処理プログラムの好ましい態様として、関節タイプを用いて表される関節位置確率分布関数、関節相対位置スコア関数、及び関節タイプ遷移スコア関数から求められる全体スコア関数を用いて、姿勢推定を行う態様が挙げられる。
情報処理プログラムは、全体スコア関数を最大化する(x、y、t)を探索することで、最も確からしい関節の位置を推定することができる。ここで、xはx座標、yはy座標、tはtype;関節タイプを示す。
情報処理プログラムの好ましい態様として、上述したように、確率分布のスコア、相対位置スコア、及び遷移スコアを用いて物体の姿勢推定を行う態様が挙げられる。
もし、確率分布のスコアだけで物体の姿勢推定を行うとすると、例えば、図4で示すように、人体の姿勢推定において、次のような問題がある。確率分布のスコアだけの評価では、人体のつながりの制限を無視しているため、入力画像の背景に、他の人体が映っている場合には、その部分の確率が高くなってしまい、推定結果が悪化することがある。
また、もし、確率分布のスコアと相対位置スコアとで物体の姿勢推定を行うとすると、この手法では、1枚の静止画である1フレーム内での関節位置の整合性しか認識しておらず、姿勢の推定精度がフレーム内の情報に制限されてしまう。そのため、動画のような前後のフレームに関連性がある場合に(例えば、図5で示すようなフレームN及びフレームN+1の画像に対し)、その相関する情報が活用できず、結果として、動画における各フレームの姿勢推定精度が低くなる。
本発明の情報処理プログラムは、遷移スコアを用いて、異なるフレーム間における関節位置の整合性も評価しているため、前後のフレームの関連性も考慮した関節の位置推定を行うことができる。これにより、情報処理プログラムは、物体の姿勢の推定精度の向上を図ることができる。
情報処理プログラムによるこれらの処理は、情報処理装置を構成する制御部を有するコンピュータを用いて実行される。
(第1の実施例)
以下、本発明の一実施例を説明するが、本発明は、この実施例に何ら限定されるものではない。
以下では、物体として人体を用いて説明する。
また、好ましい態様として、確率分布のスコア、相対位置スコア、及び遷移スコアを用いて姿勢を推定し、かつ関節タイプを用いて姿勢を推定する場合を例に、以下説明する。
(情報処理システム)
図1は、本発明の一実施例に係る情報処理装置200を含む情報処理システム400の構成を示す図である。
情報処理システム400は、例えば、前後のフレームの関連性も考慮した関節の位置推定を行うことができ、複数の関節を有する人体の姿勢を高精度に推定することができる。情報処理システム400は、学習装置100、情報処理装置(以下、「姿勢推定装置」ともいう)200を有する。
情報処理装置200は、複数の関節を有する物体の姿勢を高精度に推定する装置である。
情報処理装置200は、入力部220、制御部230、記憶部240、出力部250を有する。
制御部230は、情報処理装置200のプロセッサ(図2のCPU201、及びGPU202)により情報処理プログラムを実行することで実現される。
学習装置100は、情報処理プログラムを実行して姿勢推定を行う際、情報処理装置200で使用する関節タイプ遷移モデル320を学習により生成する装置である。また、学習装置100は、情報処理装置200で使用する関節位置推定モデル300や関節タイプ相対位置モデル310を生成してもよい。
学習装置100は、学習データベース(学習DB)120と、モデル学習部140を有する制御部130と、出力部150と、を有する。
次に、情報処理装置200について詳しく説明する。
<情報処理装置>
情報処理装置200は、同一フレーム内だけでなく、前後のフレーム間の関連性も考慮した関節の位置推定を行い、人体の姿勢を推定する。
情報処理装置200のハードウェア構成、及び機能構成について説明する。
<<情報処理装置のハードウェア構成>>
図2は、情報処理装置200のハードウェア構成の一例を示すブロック図である。
図2で示すように、情報処理装置200は、以下の各部を有する。各部は、バス210を介してそれぞれ接続されている。
CPU(Central Processing Unit)201は、種々の制御や演算を行う処理装置である。CPU201は、主記憶装置203などが記憶するOS(Operating System)やプログラムを実行することにより、種々の機能を実現する。すなわち、CPU201は、本実施例では、情報処理プログラムを実行することにより、情報処理装置の制御部230として機能する。本実施例では、画像処理を行うため、GPU(Graphics Processing Unit)202を有する。
また、CPU201は、情報処理装置200全体の動作を制御する。尚、本実施例では、情報処理装置200全体の動作を制御する装置をCPU201をしたが、これに限ることなく、例えば、FPGA(Field Programmable Gate Array)などとしてもよい。
情報処理プログラムや各種モデルは、必ずしも主記憶装置203や、補助記憶装置204などに記憶されていなくともよい。インターネット、LAN(Local Area Network)、WAN(Wide Area Network)などを介して、情報処理装置200に接続される他の情報処理装置などに情報処理プログラムや各種モデルを記憶させてもよい。情報処理装置200が、これら他の情報処理装置から情報処理プログラムや各種モデルを取得して実行するようにしてもよい。
主記憶装置203は、各種プログラムを記憶し、各種プログラムを実行するために必要なデータ等を記憶する。
主記憶装置203は、図示しない、ROM(Reed Only Memory)と、RAM(Random Access Memory)と、を有する。
ROMは、BIOS(Basic Input/Output System)等の各種プログラム等を記憶している。
RAMは、ROMに記憶された各種プログラムがCPU201により実行される際に展開される作業範囲として機能する。RAMとしては、特に制限はなく、目的に応じて適宜選択することができる。RAMとしては、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)などが挙げられる。
補助記憶装置204としては、各種情報を記憶できれば特に制限はなく、目的に応じて適宜選択することができ、例えば、ソリッドステートドライブ、ハードディスクドライブなどが挙げられる。また、補助記憶装置204は、CD(Compact Disc)ドライブ、DVD(Digital Versatile Disc)ドライブ、BD(Blu−ray(登録商標) Disc)ドライブなどの可搬記憶装置としてもよい。
出力装置205は、ディスプレイやスピーカーなどを用いることができる。ディスプレイとしては、特に制限はなく、適宜公知のものを用いることができ、例えば、液晶ディスプレイ、有機ELディスプレイが挙げられる。
VRAM(Video Random Access Memory)206は、モニタ等のディスプレイに画像表示するために必要なデータを保持するためのメモリ領域である。
入力装置207は、情報処理装置200に対する各種要求を受け付けることができれば、特に制限はなく、適宜公知のものを用いることができ、例えば、キーボード、マウス、タッチパネルなどが挙げられる。
入力インターフェイス(入力I/F)208は、接続された外部デバイスとの間でデータの送受信を行う。本実施例では、入力I/F208には、外部デバイスとしてカメラ208aが接続されており、入力I/F208は、カメラ208aから送信された画像データをプロセッサに送信する。
通信インターフェイス(通信I/F)209は、特に制限はなく、適宜公知のものを用いることができ、例えば、無線又は有線を用いた通信デバイスなどが挙げられる。
以上のようなハードウェア構成によって、情報処理装置200の処理機能を実現することができる。
<<情報処理装置の機能構成>>
図1に戻り、情報処理装置200は、制御部230と、記憶部240と、を有する。制御部230は、情報処理装置200全体を制御する。
制御部230は、確率分布算出部260と、相対位置スコア算出部270と、遷移スコア算出部280と、姿勢推定部290と、を有する。制御部230は、記憶部240に記憶されている各種モデルを用い、複数の関節を有する物体を含む画像に対し、物体の姿勢推定を行う。
記憶部240は、関節位置推定モデル300と、関節タイプ相対位置モデル310と、関節タイプ遷移モデル320と、を有する。
<<<確率分布算出部>>>
確率分布算出部260は、関節位置推定モデル300を用いて、画像における関節部分を認識し、その認識対象の関節が、画像のどこに存在するかの存在位置の確からしさを示す、スコア、本実施例では確率分布を算出する。なお、本実施例では、確率分布を算出するが、これに限ることなく、確からしさを示す数値を算出すればよい。
算出された確率分布は、姿勢推定部290の処理へと供される。
関節位置推定モデル300は、上述した関節位置確率分布関数(φ())で表現される。関節位置推定モデル300は、後述する学習装置100で学習することにより取得することができる。なお、関節位置推定モデル300の取得はこれに限られず、例えば、事前に他の学習装置で準備されたものを用いても構わない。
図7を用いて、確率分布算出部260における関節位置確率分布を算出する処理手順を説明する。尚、図19の人体の姿勢を推定する一例を示すフローチャートの図も参照して、以下説明する。
確率分布算出部260は、関節認識部33を有する。関節認識部33は、関節位置推定モデル300を用い(ステップS120)、カメラ31から入力された画像32において、各関節部分を認識する。そして、確率分布算出部260は、その認識された関節が、画像のどこに存在するかの存在位置の確からしさを関節位置確率分布(φ)34で表す(ステップS140、150)。
ここで、関節位置推定モデルで用いる人体モデルと関節位置確率分布との関係について説明する。
図3に人体のモデルを示す。図3では、例えば、人体の関節を「点」とし、隣り合う関節で接続されたパーツ(肢体や胴など)を「辺」とする。図3の例では、頭部を1番として、各関節に番号を振る。以下、この人体のグラフィカルモデルを用いて説明する。
図7において、確率分布算出部260は、カメラ31で撮影した人体が映った画像32に対し、関節位置推定モデル300を用いて評価することにより、画像のどこに各関節が存在するかの確からしさを示すスコアを算出する。
この関節位置推定モデルには、ディープニューラルネットワーク(Deep Neural Network:DNN)やテンプレートマッチングなどを用いることができる。
本実施例では、DNNの1つの手法である、畳み込みニューラルネットワーク(Conventional Neural Network:CNN)を用いる。
即ち、本実施例では、確率分布算出部260は、人体が映った画像と、CNNを用いた関節位置推定モデル300との整合性を評価することで、画像のどこにHeadやNeckといった関節が存在するかの確からしさを示すスコアを算出する。
関節位置推定モデル300は、CNNを用いて、予め関節部位毎に学習を行うことで得られる。関節位置推定モデル300は、記憶部240に記憶される。
確率分布算出部260は、入力された画像に対して、HeadをCNNにより学習した関節位置推定モデル300を用いて、Headの関節位置確率分布を求める。Headと同様に他の関節についても、確率分布算出部260は、CNNにより学習した関節位置推定モデル300を用いて、その他の関節の関節位置確率分布を求める。
例えば、Headの関節位置確率分布において、確率が最大となる点が、その画像においてHeadの位置である確率が高い場所ということになる。確率分布算出部260は、それぞれの関節について、関節位置確率分布関数の最大値を探索することにより、関節の位置を推定する。
図6に関節位置確率分布の出力の様子を示す。関節位置確率分布は、それぞれの関節ごとに出力される。関節位置確率分布は、例えば、ヒートマップとして表すことができる。具体的には、例えば、確率が高い場所ほど色が赤く、確率が低い場所は青くなるよう表現することができる。
なお、上記では、確率分布算出部260が関節タイプを用いずに関節位置確率分布を算出する処理手順について説明した。但し、下記相対位置スコア算出部270、及び下記遷移スコア算出部280において、関節タイプを用いる場合には、確率分布算出部260においても関節タイプを用いることができる。関節タイプを用いる場合には、下記相対位置スコア算出部270で説明する図9で示される関節タイプ位置確率分布を用いる。
<<<相対位置スコア算出部>>>
相対位置スコア算出部270は、関節タイプ相対位置モデル310を用いて、フレーム内の物体の関節同士の相対位置関係の整合性を評価する。そして、相対位置スコア算出部270は、関節の存在位置の確からしさを、相対位置スコアとして算出する。
算出された相対位置スコアは、姿勢推定部290の処理へと供される。
関節タイプ相対位置モデル310は、上述した関節相対位置スコア関数(ψ())で表現される。関節タイプ相対位置モデル310は、後述する学習装置で学習することにより得ることができる。なお、関節タイプ相対位置モデル310の取得手段はこれに限られず、例えば、事前に他の学習装置で準備されたものを用いても構わない。
図7に戻り、相対位置スコア36を算出する処理手順について説明する。関節間の相対位置関係の整合性を、関節タイプを用いて評価する場合を例に説明する。尚、図19の人体の姿勢を推定する一例を示すフローチャートの図も参照して、以下説明する。
相対位置スコア算出部270では、関節タイプ相対位置モデル310を用い(ステップS210)、入力された画像32の同一フレーム内における、ある関節の関節タイプとその関節に隣り合う関節の関節タイプとの位置の整合性を評価する(ステップS230)。これにより、相対位置スコア算出部270は、関節タイプ間の相対位置から関節の存在位置の確からしさを評価し、その確からしさの度合いを相対位置スコア(ψ)36として算出する(ステップS240)。
ここで、関節タイプ相対位置モデルで用いる関節タイプについて説明する。
関節タイプとは、上述したように、ある関節とその関節につながれたパーツのつながりの見え方を、予めパターンとして設定したものである。
人体の各関節について、複数の関節タイプを設定する。
図8の上部に、例えば、手首のタイプを示す。図8では、8方向を向いた8つの手首タイプを設定する。
図8の下部に肘のタイプと手首のタイプの比較を示す。例えば、下部左側の図では、肘のタイプと手首のタイプが一致していることが分かる。反対に下部右側の図では、肘のタイプと手首のタイプが一致していない。このように、関節毎に予め設定された関節タイプを用い、相対位置スコア算出部270は、隣り合う関節間の関節タイプの整合性を評価する。相対位置スコア算出部270は、関節タイプを用いて評価することで、人体としてあり得ない関節タイプの組合せを排除することができる。これにより、相対位置スコア算出部270は、確からしい関節位置を求めることができる。
図9に関節タイプを導入した場合の関節位置確率分布を示す。関節タイプ数がTとすると、確率分布の数がT倍に増えることになる。
図10に関節相対位置スコア関数を示す。関節相対位置スコア関数は、関節の相対位置が、その関節タイプに適合していれば値が大きくなる関数として表される。つまり、関節相対位置スコア関数は、関節タイプを用いて関節間の相対位置の整合性を評価し、整合性が取れていた場合には、図10で示すように相対位置スコアが高くなるように出力される関数となっている。図10の関節相対位置スコア関数は、関節間位置の差分Δとその自乗、及び2つの関節タイプを入力し、相対位置スコアを求める。
関節位置確率分布関数と関節相対位置スコア関数との線形結合により得られるスコア関数は、例えば、下記(1)式で表される。
Figure 0006923789

上記(1)式は、関節位置確率分布から任意の関節タイプと座標を選択したときに、関節の存在位置の確からしさを評価する式である。最初の項は、関節位置の確率分布を評価しており、2番目の項は、関節の相対位置を評価している。この評価式を最大化するx、y、tを求めることで、最も確からしい関節位置を求めることができる。ここで、xはx座標、yはy座標、tはtype;関節タイプを示す。
<<<遷移スコア算出部>>>
遷移スコア算出部280は、関節タイプ遷移モデル320を用いて、異なるフレーム間における物体の同一関節の遷移の整合性を評価する。そして、同一関節の遷移の確からしさを、遷移スコアとして算出する。
算出された遷移スコアは、姿勢推定部290の処理へと供される。
尚、関節タイプ遷移モデル320は、上述した関節タイプ遷移スコア関数(ξ())で表現される。関節タイプ遷移モデル320は、後述する学習装置100で学習することにより得ることができる。学習装置100についての説明は、後述する。
図7に戻り、遷移スコア38を算出する処理手順について説明する。異なるフレーム間の関節の遷移の整合性を、関節タイプを用いて評価する場合を例に説明する。尚、図19の人体の姿勢を推定する一例を示すフローチャートの図も参照して、以下説明する。
遷移スコア算出部280では、異なるフレーム間の物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価する。より具体的には、関節の遷移情報である関節タイプ遷移モデル320を用い(ステップS310)、入力された画像32の異なるフレーム間における、同一関節について遷移前の位置及び関節タイプから遷移後の位置及び関節タイプへの遷移の整合性を評価する(ステップS330)。これにより、遷移スコア算出部280は、同一関節について遷移前後におけるその関節の存在位置の確からしさを評価し、その確からしさの度合いを遷移スコア(ξ)38として算出する(ステップS340)。
遷移情報としての関節タイプ遷移モデル320は、予め収集した学習データを使って求められる。
関節タイプ遷移モデル320は、同一関節における遷移前のフレームの位置から遷移後のフレームの位置に遷移した移動量と、関節の遷移毎の予め学習により求められる重み値とにより表現される関節タイプ遷移スコア関数で表される。
遷移スコア算出部280は、関節タイプ遷移モデル320を用いて、入力された画像における関節タイプの遷移の整合性を評価することにより、遷移前後の関節の位置の確からしさの度合いを遷移スコアとして求める。
遷移スコアは、例えば、同一関節の移動量と、関節タイプ遷移スコア関数における重み値の内積により求められる。
以下に、関節タイプ遷移モデル320を作成する方法について説明する。
学習装置100は、学習画像から、例えば、姿勢推定の対象とするフレームの前後のフレームにおける、各関節の位置及び関節タイプについての遷移情報及び移動量の情報を抽出する。
図11に関節タイプの遷移と移動量の例を示す。図11において、上部の左図がフレームN、上部の右図がフレームN+1を示す。図11の下部の図が、フレーム間での移動量を示す。ここでは、説明を簡単にするためKneeとankleのみ動きがあった場合を示す。
下記表1に関節タイプの遷移と移動量の算出の例を示す。
Figure 0006923789

例えば、l−knee(左膝)に着目した場合、時刻Nの関節の位置と関節タイプ(「タイプ」ともいう)が(x、y) type0であるとする。時刻N+1の関節の位置とタイプが(xN+1、yN+1) type1であるとする。これらの情報からl−kneeの移動量とtype遷移(あるタイプからあるタイプへの遷移情報)は、次のようになる。移動量:(Δx、Δx 、Δy、Δy )、type遷移:type0→type1。ここで、Δx=(xN+1−x)、Δy=(yN+1−y)である。このようにして、関節位置の移動量とtype遷移を定義する。
次に、学習データセットの生成について説明する。ここで、学習対象の動画のフレームには、人体の各関節の位置とタイプ、および関節番号が対応付けされているものとする。
図12に対応付けの例を示す。図12中、x、yは画像中の位置を示す。
図13に学習データセットの抽出の例を示す。例えば、すべての画像フレーム間で、各関節それぞれのtype遷移と移動量を抽出することで学習データセットを取得する。図14に学習データセットを抽出してデータベース化したもの(以下、「type遷移DB」ともいう)を示す。移動量を各関節と各タイプ間の遷移ごとにまとめた学習データセットを作成する。図14に、例えば、タイプが8種類とした場合のtype遷移DBの一部を示す。これにより、学習に用いる各関節の移動量とtype遷移を格納したtype遷移DBを定義する。
次に、これまで定義した関節位置の移動量とtype遷移、およびそれらを抽出したtype遷移DBを用いて関節推定を行う関節タイプ遷移スコア関数を定義する。
関節タイプ遷移スコア関数は、例えば、下記(2)式で表される。
Figure 0006923789

関節タイプ遷移スコア関数は、前後するフレームにおいて、着目した関節の移動量とtype遷移を評価するものである。ある入力された画像に対して、関節の移動量とtype遷移が学習した結果と相関が高い場合に値が大きくなる関数として表される。
ξの式を下記(3)式に示す。
Figure 0006923789

ξは、同一関節における移動量と、関節タイプ遷移スコア関数における重み値wのベクトルとの内積により表される。重み値w(w、w、w、w)は、type遷移DBを用いて学習することで決める。
wを決める手法は、既存の学習手法を用いることが可能であり、例えば、最小二乗法、GA(Genetic Algorithm)、Simulated Annealingといった手法が挙げられる。wを決める手法は問わない。
図15にheadにおける重みwと関節タイプとの関係を示す。図15の上部が遷移後のhead typeを示し、下部が遷移前のhead typeを示す。すべての遷移(図15中矢印)に対して、それぞれ異なる重みw、w、w、wを学習して決める。このwをHead同士だけでなく、Neck同士、Shoulder Right同士などすべての関節同士で学習して決める。
学習データから抽出した移動量とtype遷移から学習し、関節タイプ遷移スコア関数の重み値wを決める。関節タイプ遷移スコア関数はこのようにして求める。
遷移スコア算出部280は、関節タイプ遷移スコア関数を利用することにより、異なるフレーム間における同一関節間の遷移位置の整合性を評価する。遷移スコア算出部280において、整合性が取れていた場合には、高い遷移スコアが出力される。
<<<姿勢推定部>>>
姿勢推定部290は、上記により得られた確率分布のスコア、相対位置スコア、及び遷移スコアをもとに、最も確からしい関節の位置を推定する。
より具体的には、姿勢推定部290は、関節位置確率分布関数、関節相対位置スコア関数、及び関節タイプ遷移スコア関数を線形結合することで求められる全体スコア関数を用いることにより、姿勢の推定を行う。
図7に戻り、姿勢推定部290における処理手順について説明する。なお、図19の人体の姿勢を推定する一例を示すフローチャートの図も参照して、以下説明する。
姿勢推定部290は、関節位置確率分布関数から求められる確率分布のスコアの解候補と、関節相対位置スコア関数から求められる相対位置スコアの解候補と、関節タイプ遷移スコア関数から求められる遷移スコアの解候補を用いる。姿勢推定部290は、これら解候補を用い、全体スコア関数の最大値を探索する(ステップS410)。
つまり、姿勢推定部290は、全体スコア関数を最大化する(x、y、t)を探索する。
姿勢推定部290は、全体スコア関数の最大値を探索することで、フレーム内の関節の位置、フレーム内の関節間の相対位置の整合性、及びフレーム間の関節の遷移の整合性を考慮した最も確からしい関節の位置を推定する。これにより、姿勢推定部290は、姿勢推定の結果を出力する(ステップS420)。
姿勢推定部290は、精度の高い人体の姿勢推定を行うことができる。
上記(3)式で定義した関節タイプ遷移スコア関数を含む全体スコア関数を、下記(4)式に示す。全体スコア関数Fは、関節位置確率分布関数、関節相対位置スコア関数、及び関節タイプ遷移スコア関数を線形結合した関数である。
Figure 0006923789

姿勢推定部290は、全体スコア関数のスコアが最も高くなるような、関節の位置を探索することで、最も確からしい関節位置を推定することができる。
図16は、全体スコア関数Fの最大値を探索する処理の流れを示す。
図16に示すように、関節位置確率分布(φ)のスコアの解候補、相対位置スコア(ψ)の解候補、遷移スコア(ξ)の解候補を用い、全体スコア関数Fに対して、Fを最大化する(x、y、t)を探索する。
Fを最大化する(x、y、t)の探索は、最も単純には全探索を用いればよい。全探索では探索に掛かる時間が長い場合、例えば、モンテカルロ、max−sum、EM(Expectation−Maximization)、GAなどのアルゴリズムを用いることができるが、評価式を最大化し(x、y、t)を求める手法はどんなものを用いてもかまわない。
本実施例では、相対位置スコア算出部270、及び遷移スコア算出部280において、関節タイプを用いて整合性を評価するため、確率分布算出部260では、関節タイプの関節位置推定モデル300を用いる。
姿勢推定部290において、Fを最大化する(x、y、t)を探索し、関節の位置と関節タイプの推定結果から、最も確からしい関節の位置39を推定する。これにより、姿勢推定部290は、人体の姿勢の推定結果を出力することができる(ステップS420)。
次に、学習装置100について説明する。
<学習装置>
学習装置100は、学習により関節タイプ遷移モデル320を生成する。また、学習装置100は、関節タイプ遷移モデル320の他、関節位置推定モデル300や関節タイプ相対位置モデル310を生成してもよい。
学習装置100のハードウェア構成としては、上述した情報処理装置200と同様に、CPU、主記憶装置、補助記憶装置、入力装置、出力装置、通信I/Fの各部を有する。これらの各部は、バスを介してそれぞれ接続されている。
CPU、主記憶装置、補助記憶装置、入力装置、出力装置、通信I/Fの各部についての説明は、上述した情報処理装置200と同様であるため、説明を省略する。
尚、学習装置100は、ネットワーク上のコンピュータ群であるクラウドの一部であってもよい。
<<学習装置の機能構成>>
図1に戻り、学習装置100の機能構成について説明する。
学習装置100は、制御部130と、出力部150とを有する。
制御部130は、学習装置100全体を制御する。
制御部130は、モデル学習部140を有する。
モデル学習部140は、学習データベース(学習DBともいう)120に記憶されている学習データを用いて、学習により関節タイプ遷移モデル320を生成する。
学習DBには、上述したtype遷移DBの情報も含まれる。
関節タイプ遷移モデル320の生成処理については、上述したとおりである。
モデル学習部140による学習の結果、得られた関節タイプ遷移モデル320は、出力部150により、情報処理装置200へ出力される。
図19は、情報処理装置により、人体の姿勢を推定する処理の流れの一例を示すフローチャートである。以下、図1、図7、及び図16を参照して説明する。
ステップS110では、情報処理装置200の入力部220は、人体が写っている動画(複数フレームからなる画像)を取得し、処理をS120に移行する。
ステップS120では、情報処理装置200の確率分布算出部260は、記憶部240に記憶されている関節位置推定モデル300を読み込んで取得し、処理をS130に移行する。
ステップS130では、確率分布算出部260は、ステップS120で読み込んだ関節位置推定モデル300を判別するためのモデルインデックスkを0に初期化し、処理をS140に移行する。
ステップS140では、確率分布算出部260の関節認識部33は、関節位置推定モデル300を用いて、入力された画像のフレーム内における関節位置を評価し、処理をS150に移行する。
ステップS150では、確率分布算出部260の関節認識部33は、ステップS140での関節位置の評価をもとに、関節が画像のどこに存在するかの存在位置の確からしさを表した関節位置確率分布φ34を算出し、処理をS160に移行する。
ステップS160では、確率分布算出部260は、関節位置確率分布φ34を算出する処理を全ての関節に対し行なったか否かを判定し、全ての処理が終わっている場合には、処理をS210に移行する。確率分布算出部260は、全ての処理が終わっていない場合には、k+1とし、処理をS140に戻し、未処理の関節について関節位置確率分布φ34を算出する処理を継続する。
ステップS210では、情報処理装置200の相対位置スコア算出部270は、記憶部240に記憶されている関節タイプ相対位置モデル310を読み込んで取得し、処理をS220に移行する。
ステップS220では、相対位置スコア算出部270は、ステップS210で読み込んだ関節タイプ相対位置モデル310を判別するためのモデルインデックスmを0に初期化し、処理をS230に移行する。
ステップS230では、相対位置スコア算出部270の相対位置整合性評価部35は、関節タイプ相対位置モデル310を用いて、入力された画像のフレーム内における隣り合う関節の関節タイプの相対位置関係の整合性を評価し、処理をS240に移行する。
ステップS240では、相対位置スコア算出部270の相対位置整合性評価部35は、ステップS230での評価をもとに、関節タイプ間の相対位置から関節の存在位置の確からしさを表した相対位置スコアψ36を算出し、処理をS250に移行する。
ステップS250では、相対位置スコア算出部270は、相対位置スコアψ36を算出する処理を全ての関節に対し行なったか否かを判定し、全ての処理が終わっている場合には、処理をS310に移行する。相対位置スコア算出部270は、全ての処理が終わっていない場合には、m+1とし、処理をS230に戻し、未処理の関節について関節タイプを用いた評価を行ない、相対位置スコアψ36を算出する処理を継続する。
ステップS310では、情報処理装置200の遷移スコア算出部280は、記憶部240に記憶されている関節タイプ遷移モデル320を読み込んで取得し、処理をS320に移行する。
ステップS320では、遷移スコア算出部280は、ステップS310で読み込んだ関節タイプ遷移モデル320を判別するためのモデルインデックスnを0に初期化し、処理をS330に移行する。
ステップS330では、遷移スコア算出部280の遷移整合性評価部37は、関節タイプ遷移モデル320を用いて、入力された画像の異なるフレーム間の同一関節における関節タイプの遷移の整合性を評価し、処理をS340に移行する。
ステップS340では、遷移スコア算出部280の遷移整合性評価部37は、ステップS330での評価をもとに、同一関節について遷移前後におけるその関節の存在位置の確からしさを表した遷移スコアξ38を算出し、処理をS350に移行する。
ステップS350では、遷移スコア算出部280は、遷移スコアξを算出する処理を全ての関節に対し行なったか否かを判定し、全ての処理が終わっている場合には、処理をS410に移行する。遷移スコア算出部280は、全ての処理が終わっていない場合には、n+1とし、処理をS330に戻し、未処理の関節について関節タイプを用いた評価を行ない遷移スコアξを算出する処理を継続する。
ステップS410では、情報処理装置200の姿勢推定部290は、関節位置確率分布関数と関節相対位置スコア関数と関節タイプ遷移スコア関数とを線形結合することにより得られた全体スコア関数を用いて、関節の位置を推定する。姿勢推定部290では、関節位置確率分布関数から求められる確率分布のスコアの解候補と、関節相対位置スコア関数から求められる相対位置スコアの解候補と、関節タイプ遷移スコア関数から求められる遷移スコアの解候補を用いる。
ステップS410では、姿勢推定部290は、これら解候補を用い、全体スコア関数の最大値を探索し、処理をS420に移行する。ステップS410では、姿勢推定部290は、全体スコア関数Fを最大化する(x、y、t)を探索する。
ステップS420では、姿勢推定部290は、S410での最大値探索による関節の位置と関節タイプの推定結果から、最も確からしい関節の位置を推定する。これにより、姿勢推定部290は、人体の姿勢の推定結果を出力し、本処理を終了する。
(第2の実施例)
第1の実施例においては、関節の位置の特定において、x座標とy座標を用いたが、さらに深度のz座標を用いて関節の位置を特定してもよい。ここで、zは、深度画像を用いた場合の深度値を示す。
第2の実施例は、第1の実施例において、関節の位置を(x、y、z)で特定した以外は、第1の実施例と同様である。このため、既に説明した第1の実施例と同じ構成については、その説明を省略する。
以下、第1の実施例と異なる点を中心に説明する。
下記表2に関節タイプの遷移と移動量の算出の例を示す。
Figure 0006923789

例えば、l−knee(左膝)に着目した場合、時刻Nの関節の位置とタイプが(x、y、z) type0であるとする。時刻N+1の関節の位置とタイプが(xN+1、yN+1、zN+1) type1であるとする。これらの情報からl−kneeの移動量とtype遷移は、次のようになる。移動量:(Δx、Δx 、Δy、Δy 、Δz、Δz )、type遷移:type0→type1。ここで、Δx=(xN+1−x)、Δy=(yN+1−y)、Δz=(zN+1−z)である。このようにして、関節位置の移動量とtype遷移を定義する。
学習対象の動画のフレームには、人体の各関節の位置とタイプ、および関節番号が対応付けされている。図17に対応付けの例を示す。図17中、x、y、zは画像中の位置を示す。zの単位はmmであり、例えば、3,000はカメラからz軸方向に3メートル上に位置する平面上にその関節があることを示している。zの単位は一例であり、使用する深度カメラによって異なる。
位置の特定に深度zの条件も加えた場合のξの式を下記(5)式に示す。
Figure 0006923789

ξは、同一関節における移動量と、関節タイプ遷移スコア関数における重み値wのベクトルとの内積により表される。重み値w(w、w、w、w、w、w)は、type遷移DBを学習することで決める。
深度zの条件も考慮した場合の全体のスコア関数は、下記(6)式のようになる。
Figure 0006923789

上記(6)式で示される関節位置確率分布関数(φ())、関節相対位置スコア関数(ψ())、関節タイプ遷移スコア関数(ξ())の3つの項を持つ全体スコア関数Fに対して、Fを最大化する(x、y、z、t)を探索する。ここで、x、y、zは関節の位置を、tは関節タイプを示す。
情報処理装置200は、全体スコア関数のスコアが最も高くなるような、関節の位置を探索することで、最も確からしい関節位置を推定することができる。
これにより、情報処理装置200は、深度zも考慮した人体の姿勢の推定結果を得ることができる。
上記深度zの条件を加えた以外、他の要件については、第1の実施例で記載したとおりである。
(第3の実施例)
第1の実施例では、確率分布のスコア、相対位置スコア、及び遷移スコアを用い、姿勢推定する実施態様について記載した。但し、関節の遷移情報を利用して人体の姿勢を推定するという観点からは、確率分布のスコア、及び遷移スコアを用い、姿勢推定してもよい。
第3の実施例は、第1の実施例において、確率分布のスコア、及び遷移スコアから人体の姿勢を推定した以外は、第1の実施例と同様である。
以下、第1の実施例と異なる点を中心に説明する。
関節位置確率分布関数(φ())、及び関節タイプ遷移スコア関数(ξ())を線形結合することにより得られるスコア関数は、下記(7)式のようになる。
Figure 0006923789

上記(7)式で示されるスコア関数に対して、スコア関数のスコアが最も高くなるような、関節の位置を探索する。
これにより、情報処理装置200は、フレーム内の関節タイプの位置、及びフレーム間の関節タイプの遷移の整合性を考慮した最も確からしい関節の位置を推定することができる。
これにより、情報処理装置200は、人体の姿勢の推定結果を得ることができる。
確率分布のスコア、及び遷移スコアを用いて関節の位置を求めること以外、他の要件については、第1の実施例で記載したとおりである。
(第4の実施例)
第1の実施例では、関節タイプを用いて姿勢推定する実施態様について記載した。但し、相対位置スコアを算出する際、関節タイプを用いなくても、ある関節と隣り合う関節との相対位置関係の整合性を評価してもよい。また、遷移スコアを算出する際、関節タイプを用いなくても、異なるフレーム間における同一関節の遷移の整合性を評価してもよい。
第4の実施例は、第1の実施例において、関節タイプを用いずに、人体の姿勢を推定した以外は、第1の実施例と同様である。
以下、第1の実施例と異なる点を中心に説明する。
第4の実施例では、第1の実施例で用いた関節位置推定モデル300、関節タイプ相対位置モデル310、関節タイプ遷移モデル320の各モデルを以下のモデルに変える。第4の実施例では、関節タイプを用いずに学習により得られた関節位置推定モデル300a、関節相対位置モデル310a、関節遷移モデル320aを用いる。
これらモデルを用いることにより、得られた関節位置確率分布関数(φ())、関節相対位置スコア関数(ψ())、関節遷移スコア関数(ξ())の3つの項を持つ全体のスコア関数は、下記(8)式のようになる。
Figure 0006923789

上記(8)式で示される全体のスコア関数に対して、スコア関数のスコアが最も高くなるような、関節の位置を探索する。つまり、上記(8)式のスコア関数Fを最大化する(x、y、ta、n)を探索する。ここで、x、yは関節の位置を、taは関節を、nはフレームを示す。尚、上記(8)式の関数においてta(関節)は、上記(4)式の関数において、関節タイプの数を1つにした場合に相当する。
これにより、情報処理装置200は、フレーム内の関節の位置、及びフレーム間の関節の遷移の整合性を考慮した最も確からしい関節の位置を推定することができる。これにより、情報処理装置200は、人体の姿勢の推定結果を得る。
関節タイプを用いずに関節位置を推定した以外、他の要件については、第1の実施例で記載したとおりである。
(第5の実施例)
第1の実施例に対し、遷移スコアを算出する際、姿勢を推定する画像、及びその画像に対し、前のフレーム及び後ろのフレームの少なくともいずれかの画像から選択される2フレーム以上の画像を用いることにより、姿勢を推定してもよい。
第5の実施例は、前のフレーム又は後ろのフレームを用いるだけでなく、前後N(N=2、3、4、‥)フレームの画像を用いて、遷移スコアを算出し、人体の姿勢を推定した以外は、第1の実施例と同様である。
以下、第1の実施例と異なる点を中心に説明する。
関節位置確率分布関数(φ())、関節相対位置スコア関数(ψ())、関節タイプ遷移スコア関数(ξ())を線形結合することにより得られる全体のスコア関数は、例えば、下記式(9)のようになる。
Figure 0006923789

上記(9)式で示される全体のスコア関数に対して、スコア関数のスコアが最も高くなるような、関節の位置を探索する。つまり、(9)式のスコア関数Fを最大化する(x、y、t、n)を探索する。
第1の実施例では、ξは対象とするフレームと、そのフレームの前のフレームとをもとに遷移スコアを計算していた。
但し、上記(9)式で示すように、対象とするフレームに対し、後のフレーム、或いは、2フレーム前のフレーム、又は2フレーム後のフレームを用いて、遷移スコアを算出してもよい。
遷移スコアを算出する際に使用するフレーム数を変えること以外、他の要件については、第1の実施例で記載したとおりである。
(第6の実施例)
第1の実施例に対し、遷移スコアを算出する際、姿勢を推定する画像、及びその画像に対し、前のフレーム及び後ろのフレームの少なくともいずれかの画像から選択される1フレーム以上の画像を用いるとき、以下の態様としてもよい。各フレームにおける関節タイプ遷移スコア関数を線形結合し全体スコア関数を得る際、フレーム毎に設定した重み係数を乗じてもよい。これにより、全体スコア関数への前後フレームの関節タイプ遷移スコア関数の影響を調整することができる。
第6の実施例は、前後フレームにおける関節タイプ遷移スコア関数に重み係数を乗じ、全体スコア関数を求め、その全体スコア関数を用いて遷移スコアを算出した以外は、第1の実施例と同様である。
以下、第1の実施例と異なる点を中心に説明する。
関節位置確率分布関数(φ())、関節相対位置スコア関数(ψ())、関節タイプ遷移スコア関数(ξ())を線形結合することにより得られる全体のスコア関数は、例えば、下記(10)式のようになる。
Figure 0006923789

関節タイプ遷移スコア関数には、上記(10)式で示すように、ハイパーパラメータ(α、β、γ、δ)を掛けてもよい。例えば、前後フレームとのスコアを重視する場合はα=1、β=1、γ=0.5、δ=0.5などとしてもよい。また、2つ前のフレームや2つ後のフレームとのスコアも重視する場合は、α=0.5、β=0.5、γ=0.5、δ=0.5などとしてもよい。
遷移スコアを算出する際に、使用する前後フレームの関節タイプ遷移スコア関数に係数を乗じること以外、他の要件については、第1の実施例で記載したとおりである。
(第7の実施例)
第1の実施例の情報処理装置を用いると、図18に示すようなオクルージョンに対しても、隠れた関節の位置を高精度に推定することができ、人体の姿勢を推定することができる。
オクルージョンとは、手前にある物体が背後にある物体を隠して見えないようにする状態が発生することをいう。
図18で示すように、r−handのtype遷移を学習した関節タイプ遷移スコア関数を用いると、オクルージョンがある場合にも隠れた関節の位置を高精度に推定することができる。
以上説明したように、情報処理装置は、前後のフレームの関連性も考慮した関節の位置推定を行うことにより、複数の関節を有する物体の姿勢を高精度に推定することができる。
情報処理装置は、人体の姿勢を高精度に推定することができるため、例えば、体操やダンスなどの競技採点時における採点補助の手段として利用することができる。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの前記物体の関節位置の確率分布を算出し、
異なるフレーム間の前記物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出し、
前記確率分布のスコア、及び前記遷移スコアから、前記複数の関節を有する物体の姿勢を推定する、
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
(付記2)
前記遷移スコアを算出する際、関節と関節につながれたパーツとを含む関節タイプを用いて、関節タイプの遷移の整合性を評価する、
ことを特徴とする、付記2に記載の情報処理プログラム。
(付記3)
前記確率分布のスコア、及び前記遷移スコアを線形結合し、前記複数の関節を有する物体の姿勢を推定する
ことを特徴とする、付記1又は2に記載の情報処理プログラム。
(付記4)
各フレームの前記物体の関節同士の相対位置関係の整合性を評価することにより相対位置スコアを算出し、
前記確率分布のスコア、及び前記遷移スコアに、前記相対位置スコアを加え、前記複数の関節を有する物体の姿勢を推定する、
ことを特徴とする、付記1から3のいずれか一項に記載の情報処理プログラム。
(付記5)
前記相対位置スコアを算出する際、関節と関節につながれたパーツとを含む関節タイプを用いて、関節タイプ間の整合性を評価する、
ことを特徴とする、付記4に記載の情報処理プログラム。
(付記6)
前記確率分布のスコア、前記相対位置スコア、及び前記遷移スコアを線形結合し、前記複数の関節を有する物体の姿勢を推定する、
ことを特徴とする、付記4又は5に記載の情報処理プログラム。
(付記7)
前記遷移スコアを用いて前記物体の姿勢を推定する際、姿勢を推定する画像、及びその画像に対し、前のフレーム及び後ろのフレームの少なくともいずれかの画像から選択される2フレーム以上の画像を用いることにより、前記複数の関節を有する物体の姿勢を推定する、
ことを特徴とする、付記1から6のいずれか一項に記載の情報処理プログラム。
(付記8)
前記遷移スコアを用いて前記物体の姿勢を推定する際、姿勢を推定する画像、及びその画像に対し、前のフレーム及び後ろのフレームの少なくともいずれかの画像から選択される1フレーム以上の画像を用いるとき、フレーム毎に設定した重み係数を乗じてスコアを算出することにより、前記複数の関節を有する物体の姿勢を推定する、
ことを特徴とする、付記1から7のいずれか一項に記載の情報処理プログラム。
(付記9)
複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの前記物体の関節位置の確率分布を算出する確率分布算出部と、
異なるフレーム間の前記物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出する遷移スコア算出部と、
前記確率分布のスコア、及び前記遷移スコアから、前記複数の関節を有する物体の姿勢を推定する姿勢推定部と、
を有することを特徴とする情報処理装置。
(付記10)
各フレームの前記物体の関節同士の相対位置関係の整合性を評価することにより相対位置スコアを算出する相対位置スコア算出部を有し、
前記確率分布のスコア、及び前記遷移スコアに、前記相対位置スコアを加え、前記複数の関節を有する物体の姿勢を推定する、
ことを特徴とする、付記9に記載の情報処理装置。
(付記11)
複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの前記物体の関節位置の確率分布を算出し、
異なるフレーム間の前記物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出し、
前記確率分布のスコア、及び前記遷移スコアから、前記複数の関節を有する物体の姿勢を推定する、
処理をコンピュータが実行することを特徴とする情報処理方法。
(付記12)
各フレームの前記物体の関節同士の相対位置関係の整合性を評価することにより相対位置スコアを算出し、
前記確率分布のスコア、及び前記遷移スコアに、前記相対位置スコアを加え、前記複数の関節を有する物体の姿勢を推定する、
ことを特徴とする、付記11に記載の情報処理方法。
(付記13)
複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの前記物体の関節位置の確率分布を算出する確率分布算出部と、
異なるフレーム間の前記物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出する遷移スコア算出部と、
前記確率分布のスコア、及び前記遷移スコアから、前記複数の関節を有する物体の姿勢を推定する姿勢推定部と、を有する情報処理装置と、
前記情報処理装置の前記遷移スコア算出部で使用する、関節の遷移の整合性を評価するための前記物体の同一関節の遷移情報を制御部で学習し、学習した前記物体の同一関節の遷移情報を前記情報処理装置に出力する学習装置と、
を有することを特徴とする情報処理システム。
(付記14)
前記情報処理装置が、各フレームの前記物体の関節同士の相対位置関係の整合性を評価することにより相対位置スコアを算出する相対位置スコア算出部を有し、
前記姿勢推定部において、前記確率分布のスコア、及び前記遷移スコアに、前記相対位置スコアを加え、前記複数の関節を有する物体の姿勢を推定する、
ことを特徴とする、付記13に記載の情報処理システム。
100 学習装置
130 学習装置の制御部
150 学習装置の出力部
200 情報処理装置(姿勢推定装置)
220 情報処理装置の入力部
230 情報処理装置の制御部
240 情報処理装置の記憶部
250 情報処理装置の出力部
400 情報処理システム

Claims (14)

  1. 複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの前記物体の関節位置の確率分布を算出し、
    異なるフレーム間の前記物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出し、
    前記確率分布のスコア、及び前記遷移スコアから、前記複数の関節を有する物体の姿勢を推定する、
    処理をコンピュータに実行させることを特徴とする情報処理プログラム。
  2. 前記遷移スコアを算出する際、関節と関節につながれたパーツとを含む関節タイプを用いて、関節タイプの遷移の整合性を評価する、
    ことを特徴とする、請求項に記載の情報処理プログラム。
  3. 前記確率分布のスコア、及び前記遷移スコアを線形結合し、前記複数の関節を有する物体の姿勢を推定する、
    ことを特徴とする、請求項1又は2に記載の情報処理プログラム。
  4. 各フレームの前記物体の関節同士の相対位置関係の整合性を評価することにより相対位置スコアを算出し、
    前記確率分布のスコア、及び前記遷移スコアに、前記相対位置スコアを加え、前記複数の関節を有する物体の姿勢を推定する、
    ことを特徴とする、請求項1から3のいずれか一項に記載の情報処理プログラム。
  5. 前記相対位置スコアを算出する際、関節と関節につながれたパーツとを含む関節タイプを用いて、関節タイプ間の整合性を評価する、
    ことを特徴とする、請求項4に記載の情報処理プログラム。
  6. 前記確率分布のスコア、前記相対位置スコア、及び前記遷移スコアを線形結合し、前記複数の関節を有する物体の姿勢を推定する、
    ことを特徴とする、請求項4又は5に記載の情報処理プログラム。
  7. 前記遷移スコアを用いて前記物体の姿勢を推定する際、姿勢を推定する画像、及びその画像に対し、前のフレーム及び後ろのフレームの少なくともいずれかの画像から選択される2フレーム以上の画像を用いることにより、前記複数の関節を有する物体の姿勢を推定する、
    ことを特徴とする、請求項1から6のいずれか一項に記載の情報処理プログラム。
  8. 前記遷移スコアを用いて前記物体の姿勢を推定する際、姿勢を推定する画像、及びその画像に対し、前のフレーム及び後ろのフレームの少なくともいずれかの画像から選択される1フレーム以上の画像を用いるとき、フレーム毎に設定した重み係数を乗じてスコアを算出することにより、前記複数の関節を有する物体の姿勢を推定する、
    ことを特徴とする、請求項1から7のいずれか一項に記載の情報処理プログラム。
  9. 複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの前記物体の関節位置の確率分布を算出する確率分布算出部と、
    異なるフレーム間の前記物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出する遷移スコア算出部と、
    前記確率分布のスコア、及び前記遷移スコアから、前記複数の関節を有する物体の姿勢を推定する姿勢推定部と、
    を有することを特徴とする情報処理装置。
  10. 各フレームの前記物体の関節同士の相対位置関係の整合性を評価することにより相対位置スコアを算出する相対位置スコア算出部を有し、
    前記確率分布のスコア、及び前記遷移スコアに、前記相対位置スコアを加え、前記複数の関節を有する物体の姿勢を推定する、
    ことを特徴とする、請求項9に記載の情報処理装置。
  11. 複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの前記物体の関節位置の確率分布を算出し、
    異なるフレーム間の前記物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出し、
    前記確率分布のスコア、及び前記遷移スコアから、前記複数の関節を有する物体の姿勢を推定する、
    処理をコンピュータが実行することを特徴とする情報処理方法。
  12. 各フレームの前記物体の関節同士の相対位置関係の整合性を評価することにより相対位置スコアを算出し、
    前記確率分布のスコア、及び前記遷移スコアに、前記相対位置スコアを加え、前記複数の関節を有する物体の姿勢を推定する、
    ことを特徴とする、請求項11に記載の情報処理方法。
  13. 複数の関節を有する物体を含む、時間的に連続する複数フレームの画像を用いて、各フレームの前記物体の関節位置の確率分布を算出する確率分布算出部と、
    異なるフレーム間の前記物体の同一関節の遷移情報を用いて、関節の遷移の整合性を評価することにより遷移スコアを算出する遷移スコア算出部と、
    前記確率分布のスコア、及び前記遷移スコアから、前記複数の関節を有する物体の姿勢を推定する姿勢推定部と、を有する情報処理装置と、
    前記情報処理装置の前記遷移スコア算出部で使用する、関節の遷移の整合性を評価するための前記物体の同一関節の遷移情報を制御部で学習し、学習した前記物体の同一関節の遷移情報を前記情報処理装置に出力する学習装置と、
    を有することを特徴とする情報処理システム。
  14. 前記情報処理装置が、各フレームの前記物体の関節同士の相対位置関係の整合性を評価することにより相対位置スコアを算出する相対位置スコア算出部を有し、
    前記姿勢推定部において、前記確率分布のスコア、及び前記遷移スコアに、前記相対位置スコアを加え、前記複数の関節を有する物体の姿勢を推定する、
    ことを特徴とする、請求項13に記載の情報処理システム。
JP2017132169A 2017-07-05 2017-07-05 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム Active JP6923789B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017132169A JP6923789B2 (ja) 2017-07-05 2017-07-05 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム
US16/021,848 US10872234B2 (en) 2017-07-05 2018-06-28 Information processing apparatus, information processing method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017132169A JP6923789B2 (ja) 2017-07-05 2017-07-05 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2019016106A JP2019016106A (ja) 2019-01-31
JP6923789B2 true JP6923789B2 (ja) 2021-08-25

Family

ID=64902792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017132169A Active JP6923789B2 (ja) 2017-07-05 2017-07-05 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム

Country Status (2)

Country Link
US (1) US10872234B2 (ja)
JP (1) JP6923789B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
EP3710667B1 (en) * 2017-11-15 2023-04-26 Services Pétroliers Schlumberger Field operations system with filter
WO2020181136A1 (en) 2019-03-05 2020-09-10 Physmodo, Inc. System and method for human motion detection and tracking
KR102416709B1 (ko) * 2019-03-15 2022-07-05 주식회사 앨리스헬스케어 클라우드 서버 기반의 기계학습 관절정보 추출 시스템 및 그 방법
WO2021002025A1 (ja) * 2019-07-04 2021-01-07 富士通株式会社 骨格認識方法、骨格認識プログラム、骨格認識システム、学習方法、学習プログラムおよび学習装置
WO2021064963A1 (ja) * 2019-10-03 2021-04-08 富士通株式会社 運動認識方法、運動認識プログラムおよび情報処理装置
JP7316236B2 (ja) * 2020-02-28 2023-07-27 Kddi株式会社 骨格追跡方法、装置およびプログラム
JP7459679B2 (ja) * 2020-06-23 2024-04-02 富士通株式会社 行動認識方法、行動認識プログラム及び行動認識装置
JP7315516B2 (ja) * 2020-07-14 2023-07-26 Kddi株式会社 骨格推定装置及びプログラム
WO2023188217A1 (ja) * 2022-03-30 2023-10-05 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
JP7458089B2 (ja) * 2022-03-31 2024-03-29 株式会社ペストビジョンソリューションズ 虫同定用画像データの生成方法及び虫同定システム
US11482048B1 (en) * 2022-05-10 2022-10-25 INSEER Inc. Methods and apparatus for human pose estimation from images using dynamic multi-headed convolutional attention
KR102612586B1 (ko) * 2022-12-12 2023-12-11 박치호 동영상 내 관절 인식에 따른 비정상 이미지 프레임을 제거 및 복원하는 전자 장치의 제어 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7436980B2 (en) * 2004-05-27 2008-10-14 Siemens Corporate Research, Inc. Graphical object models for detection and tracking
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
JP2009015558A (ja) * 2007-07-04 2009-01-22 Nippon Telegr & Teleph Corp <Ntt> 姿勢推定装置および姿勢推定方法
JP2012141881A (ja) 2011-01-05 2012-07-26 Kddi Corp 人体姿勢推定装置、人体姿勢推定方法、およびコンピュータプログラム
CN103003846B (zh) * 2011-01-26 2016-07-06 松下知识产权经营株式会社 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法
WO2012155279A2 (en) * 2011-05-13 2012-11-22 Liberovision Ag Silhouette-based pose estimation
US9058663B2 (en) * 2012-04-11 2015-06-16 Disney Enterprises, Inc. Modeling human-human interactions for monocular 3D pose estimation
JP2014085933A (ja) * 2012-10-25 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
JP2015128507A (ja) 2014-01-07 2015-07-16 富士通株式会社 評価プログラム、評価方法および評価装置
JP6185879B2 (ja) * 2014-05-01 2017-08-23 日本電信電話株式会社 多関節物体追跡装置、多関節物体追跡方法、及びプログラム
JP6479447B2 (ja) 2014-12-11 2019-03-06 国立研究開発法人産業技術総合研究所 歩行状態判定方法、歩行状態判定装置、プログラム及び記憶媒体
CN108369643B (zh) * 2016-07-20 2022-05-13 杭州凌感科技有限公司 用于3d手部骨架跟踪的方法和系统
JP6708260B2 (ja) * 2016-11-14 2020-06-10 富士通株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US10872234B2 (en) 2020-12-22
JP2019016106A (ja) 2019-01-31
US20190012530A1 (en) 2019-01-10

Similar Documents

Publication Publication Date Title
JP6923789B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム
Nieto-Hidalgo et al. A vision based proposal for classification of normal and abnormal gait using RGB camera
US11763603B2 (en) Physical activity quantification and monitoring
JP2021530061A (ja) 画像処理方法及びその装置、電子機器並びにコンピュータ可読記憶媒体
JP5931215B2 (ja) 姿勢を推定する方法及び装置
CN108369643A (zh) 用于3d手部骨架跟踪的方法和系统
US9843772B2 (en) Method for providing telepresence using avatars, and system and computer-readable recording medium using the same
JP2020042476A (ja) 関節位置の取得方法及び装置、動作の取得方法及び装置
JP7015152B2 (ja) キーポイントデータに関する加工装置、方法及びプログラム
US20130069931A1 (en) Correlating movement information received from different sources
JP7164045B2 (ja) 骨格認識方法、骨格認識プログラムおよび骨格認識システム
JP7235133B2 (ja) 運動認識方法、運動認識プログラムおよび情報処理装置
JPWO2018087933A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN115244495A (zh) 针对虚拟环境运动的实时式样
JP7480001B2 (ja) 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体
Jatesiktat et al. Personalized markerless upper-body tracking with a depth camera and wrist-worn inertial measurement units
WO2016021152A1 (ja) 姿勢推定方法および姿勢推定装置
CN116092120B (zh) 基于图像的动作确定方法、装置、电子设备及存储介质
JP6635848B2 (ja) 3次元動画データ生成装置、3次元動画データ生成プログラム、及びその方法
JP2023527627A (ja) 逆運動学に基づいた関節の回転の推測
Zou et al. Coronary heart disease preoperative gesture interactive diagnostic system based on augmented reality
WO2022137450A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7482471B2 (ja) 学習モデルの生成方法
Penelle et al. Human motion tracking for rehabilitation using depth images and particle filter optimization
Hachaj et al. Heuristic Method for Calculating the Translation of Human Body Recordings Using Data from an Inertial Motion Capture Costume

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210712

R150 Certificate of patent or registration of utility model

Ref document number: 6923789

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150