JP2017091377A - 姿勢推定装置、姿勢推定方法、及び姿勢推定プログラム - Google Patents

姿勢推定装置、姿勢推定方法、及び姿勢推定プログラム Download PDF

Info

Publication number
JP2017091377A
JP2017091377A JP2015223318A JP2015223318A JP2017091377A JP 2017091377 A JP2017091377 A JP 2017091377A JP 2015223318 A JP2015223318 A JP 2015223318A JP 2015223318 A JP2015223318 A JP 2015223318A JP 2017091377 A JP2017091377 A JP 2017091377A
Authority
JP
Japan
Prior art keywords
joint
image
joints
likelihood
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015223318A
Other languages
English (en)
Inventor
和彦 村崎
Kazuhiko Murazaki
和彦 村崎
恭子 数藤
Kyoko Sudo
恭子 数藤
哲也 杵渕
Tetsuya Kinebuchi
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015223318A priority Critical patent/JP2017091377A/ja
Publication of JP2017091377A publication Critical patent/JP2017091377A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像及び深度画像から人の姿勢推定を行う際に、推定対象となる関節が画像外に存在した場合にも画像内にある関節の位置について精度良く推定を行う。
【解決手段】姿勢推定装置は、クエリ画像34中の各画素について、複数の予め定められた関節の関節位置となる尤度を、関節推定器を用いて推定する関節尤度推定部40と、複数の予め定められた関節の各々に対し、クエリ画像34中及びクエリ画像34外の各々における関節位置の位置候補を生成する関節位置候補生成部42と、尤度及び複数の予め定められた関節の各々に対する位置候補に基づいて、予め定められた骨格モデルから得られる、隣接する関節ペアの位置候補のペアに対する評価値を用いて、複数の予め定められた関節の各々の関節位置の最適な組み合わせを探索する関節位置組合せ探索部44と、を備える。
【選択図】図3

Description

本発明は、姿勢推定装置、姿勢推定方法、及び姿勢推定プログラムに関する。
安価な深度センサ付きカメラの普及に伴い、深度映像に基づいて映像に映る人物の姿勢を推定する手法は様々に提案されている。また、昨今では画像認識技術の向上に伴い1枚のRGB画像から人物の姿勢の推定を行う手法も多く提案されている。人物姿勢を推定する手法として、大きく3つのアプローチが存在している。1つは、人体のモデルをあらかじめ持っておきそのモデルのあてはめによって推定を行うアプローチ(非特許文献1参照)である。もう1つは、人体の形状についての知識は用いることなく、画像特徴からそれがどの関節に属しているのかを推定する識別的なアプローチ(非特許文献2参照)である。また、もう1つは、その両者を用いたハイブリッドなアプローチ(非特許文献3参照)である。モデルフィッティングをベースとした手法が一般的に高精度な推定を実現しているが、多くの手法は人の領域があらかじめ得られていることを前提としており、人以外の物体等を多く含むような複雑なシーンにおいて人の発見と同時に姿勢推定を行う手法としては識別によってある程度の絞り込みをしたあとにモデルベースに最適化を行うハイブリッドな手法が好まれる。
M. Ye, R. Yang, "Real-time Simultaneous Pose and Shape Estimation for Articulated Objects Using a Single Depth Camera," CVPR2014 R. Girshick, J. Shotton, P. Kohli, A. Criminisi, A. Fitzgibbon, "Efficient Regression of General-Activity Human Poses from Depth Images," ICCV2011 D. Fleet, T. Pajdla, B. Schiele, T. Tuytelaars, "Human Pose Estimation with Fields of Parts," ECCV2014
人以外の物体などを多く含むような複雑なシーンにおいて人の検出と姿勢推定を同時に行う際に、上記非特許文献3に記載されている技術のようなハイブリッドな手法が用いられる。しかしながら、従来のアプローチでは、画像上に全ての関節が現れていることが前提となっており、人体の一部のみが見えている場合に適用することができない。人体の自然な行動を計測する際には、煩雑なシーンにおいて一部の関節が画像外に存在している状況は多く発生するためこうした状況への対応が求められる。例えば図8は購買行動を取る消費者を撮影した深度画像の一例であるが、手前の人物の下半身はほぼ画像外となってしまっている。
本発明は上記問題点を考慮してなされたものであり、画像及び深度画像から人の姿勢推定を行う際に、推定対象となる関節が画像外に存在した場合にも画像内にある関節の位置について精度良く推定を行うことができる、姿勢推定装置、姿勢推定方法、及び姿勢推定プログラムを提供することを目的とする。
上記目的を達成するために、本発明の姿勢推定装置は、入力画像中の各画素について、複数の予め定められた関節の関節位置となる尤度を、関節推定器を用いて推定する関節尤度推定部と、前記複数の予め定められた関節の各々に対し、前記入力画像中及び前記入力画像外の各々における前記関節位置の位置候補を生成する関節位置候補生成部と、前記尤度、及び前記複数の予め定められた関節の各々に対する位置候補に基づいて、予め定められた骨格モデルから得られる、隣接する関節ペアの位置候補のペアに対する評価値を用いて、前記複数の予め定められた関節の各々の前記関節位置の最適な組み合わせを探索する関節位置組合せ探索部と、を備える。
本発明の姿勢推定装置の関節位置候補生成部は、前記複数の予め定められた関節の各々に対し、前記入力画像中の前記関節の複数の位置候補、及び前記入力画像外であることを示す前記関節の位置候補を生成してもよい。
本発明の姿勢推定装置の関節位置組合せ探索部は、隣接する関節ペアの位置候補のペアが、一方の関節についての前記入力画像中の位置候補、及び他方の関節についての前記入力画像外であることを示す前記位置候補のペアである場合、一方の関節についての前記入力画像中の位置候補から前記入力画像の端までの距離と、前記関節ペア間の距離との関係に応じた値を、前記評価値として用いて、前記複数の予め定められた関節の各々の前記関節位置の最適な組み合わせを探索してもよい。
また、本発明の姿勢推定方法は、関節尤度推定部が、入力画像中の各画素について、複数の予め定められた関節の関節位置となる尤度を、関節推定器を用いて推定するステップと、関節位置候補生成部が、前記複数の予め定められた関節の各々に対し、前記入力画像中及び前記入力画像外の各々における前記関節位置の位置候補を生成するステップと、関節位置組合せ探索部が、前記尤度、及び前記複数の予め定められた関節の各々に対する位置候補に基づいて、予め定められた骨格モデルから得られる、隣接する関節ペアの位置候補のペアに対する評価値を用いて、前記複数の予め定められた関節の各々の前記関節位置の最適な組み合わせを探索するステップと、を含む。
また、本発明の姿勢推定プログラムは、コンピュータを、本発明の姿勢推定装置の各部として機能させるためのものである。
本発明によれば、画像及び深度画像から人の姿勢推定を行う際に、推定対象となる関節が画像外に存在した場合にも画像内にある関節の位置について精度良く推定を行うことができる、という効果が得られる。
本実施形態の姿勢推定装置の概略構成の一例を示す構成図である。 本実施形態の関節推定器学習部の概略構成の一例を示す構成図である。 本実施形態の関節位置最適化部の概略構成の一例を示す構成図である。 簡易化された骨格モデルの一例を示す図である。 本実施形態の姿勢推定装置の関節推定器学習部における関節推定器学習処理の流れの一例を示すフローチャートである。 本実施形態の姿勢推定装置の関節位置最適化部における姿勢推定処理の流れの一例を示すフローチャートである。 本実施形態の画面外対応型エネルギー関数最小化部における変数Q算出処理の流れの一例を示すフローチャートである。 購買行動を取る消費者を撮影した深度画像の一例を示す図である。
本実施形態では、上記、非特許文献3に記載の技術と同様に画像から推定される各関節の尤度に関節間の位置関係を加味した最適化によって人体の関節位置を求めるが、体の一部が画像外に出てしまっている場合にも対応するため、各関節の関節位置候補として画像外を追加し、最適化の際には各関節位置が画像外となる場合の評価値を設定して最適化を行う。具体的には、隣接する関節が画像外となる場合の評価値として、関節位置から画像端への距離と関節長さとの関係に応じた値(例えば、差分)を用いている。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態は本発明を限定するものではない。
なお、以下では深度センサによって取得された深度画像を対象として記述するが、深度を0として読みかえれば一般のRGB画像に対しても適用可能である。
図1は、本実施形態の姿勢推定装置10の概略構成の一例を示す構成図である。図1に示すように本実施形態の姿勢推定装置10は、関節推定器学習部14及び関節位置最適化部20を備える。また、本実施形態の姿勢推定装置10は、入力部12、関節推定器16、関節長さモデル18、及び出力部22を備える。
入力部12には、外部の装置等から訓練画像30及び関節位置データ32(いずれも図2参照)が入力され、関節推定器学習部14に出力される。
図2に示すように、関節推定器学習部14には、入力部12から多数の訓練画像30及び関節位置データ32(いずれも図2参照)との組み合わせからなる学習用データが入力される。関節推定器学習部14は、機械学習を用いて訓練画像30中の各画素が各関節位置となる尤度を算出する関節推定器16を学習する。
関節推定器学習部14により学習された関節推定器16は関節尤度推定部(図3、関節尤度推定部40参照)において関節毎に入力画像であるクエリ画像34中の各画素についてその画素が関節位置である尤度を出力する。こうした推定を高精度に行う手法として深層学習を用いる方法が知られており、特にFully Convolutional Network(非特許文献4参照)を用いることで関節毎の尤度推定モデルの学習及び尤度推定を効率的かつ高精度に行うことができるが、画像の勾配を特徴としてBoostingやSupport Vector Machineを識別器として用いるようなその他の推定手法を用いても良い。
[非特許文献4]J. Long, E. Shelhamer, T. Darrell, “Fully Convolutional Networks for Semantic Segmentation,” CVPR2015
また、入力部12には、外部の装置等からクエリ画像34(図3参照)が入力され、関節位置最適化部20に出力される。
図3に示すように関節位置最適化部20には、入力部12から入力画像としてクエリ画像34が入力される。関節位置最適化部20、クエリ画像34及び関節推定器学習部14で学習された関節推定器16を用いて、人体骨格に関する関節長さモデル18を考慮した最適な関節位置を算出する。関節長さモデル18は、人体における隣接する関節間の長さをモデル化したものであり、本実施形態では、適用シーンに応じて事前に手作業によって設定しておく。
図3に示すように、関節位置最適化部20は、関節尤度推定部40、関節位置候補生成部42、関節位置組合せ探索部44、及び最適関節位置出力部46を備える。
関節尤度推定部40には、クエリ画像34が入力される。関節尤度推定部40は、関節推定器学習部14により学習された関節推定器16を用いてクエリ画像34中の各画素について予め定められた人物の各関節となる尤度を算出して関節位置候補生成部42に出力する。本実施形態では、具体例として後述のように図4に示した骨格モデルを用いており、関節としては、「頭」、「首」、「肩」、「肘」、「手」、「腰」、「腿」、「膝」、及び「足」を採用している。
関節位置候補生成部42には、関節尤度推定部40から各画素における各関節となる尤度が入力される。
本実施形態の関節位置候補生成部42は、クエリ画像34外の関節位置にも対応する。関節位置候補生成部42では、各関節の取り得る位置及び向きを設定して関節位置組合せ探索部44に出力する。ここで、位置は画像内での位置を示すが、向きは各関節から隣接する関節へ向かう方向を示す。クエリ画像34が深度画像である場合、撮影対象となる3次元空間中のボリュームが存在している領域に適宜位置・向き候補を設定することができる。一方、クエリ画像34がRGB画像であれば画像中の全ての2次元座標を位置候補としても良い。また、時系列情報や空間的な制約によって適宜位置候補を制限することで計算時間を効率化することができる。ここで、関節kについて生成された位置・向きの組み合わせの候補をYとおき、その数は|Y|と示す。以降では簡単のため、Yを単に位置候補と呼ぶ。また、関節尤度推定部40によって算出された尤度のうち位置候補Y に対応する尤度をΨ と示す。
上記非特許文献3に記載の技術では、ここで与えられる位置候補としてクエリ画像34内に含まれる画素のみを考慮しているが、関節位置候補生成部42では、クエリ画像34の外に関節が存在することを考慮してクエリ画像34外とする位置候補を各関節について1つ設定する。この画像外位置候補については、位置・向きに関する具体的な値は設定せず、ただクエリ画像34外であることを示す状態として設定する。
なお、本実施形態では、推定対象となる関節位置としては図4に一例を示した簡易化された骨格モデルを用いており、腰の関節を根として隣接した関節を結ぶ木構造が作られている。以降では隣接関係を持つ関節間において根に近い関節を親関節、根から遠い関節を子関節と呼ぶ。また、上記位置候補の持つ向きに関しては各関節を起点として親関節へ向かう方向を示しており、各位置候補を用いて対象の関節とその親関節の位置を算出することができる。
関節位置組合せ探索部44には、関節位置候補生成部42から関節の位置候補及び当該位置候補に対応する尤度が入力される。関節位置組合せ探索部44は、関節の位置候補から関節長さモデル18を考慮した最適な関節位置の組み合わせを探索し、探索結果として変数Q(詳細後述)を最適関節位置出力部46に出力する。具体的には、以下の(1)式〜(6)式に基づいて、エネルギー式を最小化するような関節位置の組み合わせを求める。
ここで、x は関節kの位置候補Y に関節が存在すれば1、存在しなければ0を示すような2値の変数である。また、Iは入力画像(クエリ画像34)、Θは人体骨格に基づくモデル、Kは推定する関節の数を示す。骨格モデルにおいて隣接する関節ペアをk〜k’と示し、それぞれ親関節をk、子関節をk’と表す。
上記(1)式に示す単一の位置候補に関するエネルギー式の第1項Ψunaryは、上記(2)式に示すように各関節の尤度Ψ から算出される。
また、上記(1)式に示す隣接した関節間での位置候補に関するエネルギー式の第2項Ψpairは、上記(3)式に示すように上記非特許文献3と同様の関節位置間の距離と正規分布によって定義される値に加えて、クエリ画像34外の関節位置を評価する関数によって算出される。式中のLは対応する位置候補間の関節の有無に応じて重みづけを与える変数であり、本実施形態では接続性の良い関節位置候補間でエネルギーを低く設定したいため、L(1,1)を負の定数に設定し、それ以外は0に設定している。評価値Kは関節位置候補間の接続性を評価する関数であり、それぞれの関節が画像に含まれるか否かによって値を変える。またf(i,k)は関節位置候補Y に対応する3次元座標を示しており、fparent(j,k’)は関節位置候補Y k’に対応する親関節の3次元座標を示している。隣接する関節間でkは親関節、k’は子関節を示すため、関節kの3次元位置と関節k’の親関節の3次元位置とを比較することで関節間の接続性を評価することができる。
位置候補x 、x k’が共にクエリ画像34内に存在している場合、上記(4)式に示すように、評価値кはfとfparentの距離に応じた評価値を示す。
一方、親関節がクエリ画像34内、子関節がクエリ画像34外に存在している場合、上記(5)式に示すように評価値кはfからクエリ画像34端への最短距離を表すd(f)と骨格モデルにおける関節間の距離l(k’)との関係に応じた評価値を示す。Cはクエリ画像34外との接続を許容する度合を調節するパラメータであり定数を示す。
また、位置候補x 、x k’が共にクエリ画像34外である場合、上記(6)に示すように、評価値кは定数Cを示す。
またさらに、親関節がクエリ画像34外、子関節がクエリ画像34内に存在している場合、上記(7)式に示すように、評価値кは、無限大のコストを与える。
なお、本実施形態ではクエリ画像34外にある関節位置を実際の位置によらずクエリ画像34外として一様に扱うため、クエリ画像34外とされた関節より末端にある関節については全てクエリ画像34外にあることを仮定している。
エネルギー式の最小化については、一例として平均場近似による確率伝搬法を模した近似的な解法を用いる。各関節位置候補x がlである確率を示すような変数Q(x =l)を用意し、以下の(8)式に基づいて逐次的に変数Qを更新することで最適化を行う。
最適関節位置出力部46には、関節位置組合せ探索部44にから変数Qが入力される。最適関節位置出力部46は、変数Qを用いて、各関節について最も高い値を示した位置候補を、当該関節の関節位置として推定し、出力部22に出力する。その際、一定の閾値を設けて得られた値が閾値を超えない場合は人体の検出なしとする結果を出力部22に出力することもできる。
出力部22には、最適関節位置出力部46から関節位置が入力される。また、出力部22は、外部の装置に当該関節位置を出力する。
なお、本実施形態の姿勢推定装置10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を備えたコンピュータにより実現されており、CPUが、ROMに記憶されているプログラムを実行することにより、後述する関節推定器学習処理及び姿勢推定処理が実行される。
次に、本実施形態の姿勢推定装置10の作用について説明する。
まず、関節推定器学習部14において実行される関節推定器学習処理について説明する。関節推定器学習部14は、入力部12が訓練画像30及び関節位置データ32を受け付けると、図5に一例を示す関節推定器学習処理を実行する。
ステップS100で関節推定器学習部14は、入力部12から入力された訓練画像30及び関節位置データ32に基づいて、機械学習を用いて訓練画像30中の各画素が各関節位置となる尤度を算出する関節推定器16を学習する。
次にステップS102で関節推定器学習部14は、学習した関節推定器16を出力した後、本関節推定器学習処理を終了する。
このようにして、関節推定器学習部14により関節推定器16が得られた後に、関節位置最適化部20により、クエリ画像34における人物の姿勢の推定が行われる。具体的には、関節位置最適化部20は、入力部12がクエリ画像34を受け付けると、図6に一例を示す姿勢推定処理を実行する。
ステップS200で関節尤度推定部40は、関節推定器16を用いて、入力されたクエリ画像34中の各画素について予め定められた人物の各関節となる尤度を算出する。
次のステップS202で関節位置候補生成部42は、各関節の取り得る位置及び向きを設定することにより各関節の位置候補を生成する。なお、本実施形態では、クエリ画像34外とする位置候補を各関節について1つ設定する。
次のステップS204で関節位置組合せ探索部44は、関節位置候補生成部42が設定した各関節の位置候補から関節長さモデル18を考慮した最適な関節位置の組み合わせを探索する。具体的には、関節位置組合せ探索部44は、エネルギー関数を最小化する変数Qを算出するために図7に示した変数Q算出処理を実行する。
図7に示すようにステップS300で関節位置組合せ探索部44は、各関節kの各位置候補x について、関節尤度推定部40が算出した尤度に基づいて、上記(8)式の第1項の尤度を用いて変数Qを初期化する。この際、下記(9)式に示すように、変数Qが確率値を取るようにQ(x =1)とQ(x =0)が足して1となるように正規化する。
次のステップS302で関節位置組合せ探索部44は、更新のための一時的な変数Q~を0で初期化する。
次のステップS304で関節位置組合せ探索部44は、下記(10)式に示すように、隣接している関節ペアk、k’の位置候補の全てのペアx 、x k’に対して、変数Q~と、初期化された、又は前回更新された変数Qと、位置候補ペアの評価値кとに基づいて、上記(8)式の第2項による確率値の伝播を行い、変数Q~に加算していく。
次のステップS304で関節位置組合せ探索部44は、全ての関節ペア(k,k’)について上記ステップS304の処理を行ったか否かを判定する。未だ処理を行っていない関節ペアが有る場合は、否定判定となり、ステップS302に戻り、処理を繰り返す。一方、全ての関節ペアについて処理を行った場合は、肯定判定となり、ステップS308へ移行する。
ステップS308で関節位置組合せ探索部44は、各関節kの各位置候補x について、下記(11)式に示すように、関節尤度推定部40が算出した尤度と、変数Q~とに基づいて、変数Q~に上記(8)式の第1項を加算して正規化を行い変数Qを更新する。
次のステップS310で関節位置組合せ探索部44は、上記各処理をN回実行したか否かを判定する。なお、本実施形態では、イテレーション回数Nは適用シーンに応じて事前に手作業によって設定しておく。実行した回数がN回未満の場合は、否定判定となりステップS302に戻り、処理を繰り返す。一方、実行した回数がN回以上の場合は、肯定判定となり本変数Q算出処理を終了し、姿勢推定処理のステップS206へ移行する。
ステップS206で最適関節位置出力部46が、関節位置候補生成部42が算出した変数Qを用いて、各関節について最も高い値を示した位置候補を、当該関節の関節位置として推定し、推定した関節位置を出力部22を介して外部の装置等に出力した後、本姿勢推定処理を終了する。
以上説明したように、本実施形態の姿勢推定装置10は、クエリ画像34中の各画素について、複数の予め定められた関節の関節位置となる尤度を、関節推定器を用いて推定する関節尤度推定部40と、複数の予め定められた関節の各々に対し、クエリ画像34中及びクエリ画像34外の各々における関節位置の位置候補を生成する関節位置候補生成部42と、尤度、及び複数の予め定められた関節の各々に対する位置候補に基づいて、予め定められた骨格モデルから得られる、隣接する関節ペアの位置候補のペアに対する評価値кを用いて、複数の予め定められた関節の各々の関節位置の最適な組み合わせを探索する関節位置組合せ探索部44と、を備える。
このように、本実施形態の姿勢推定装置10によれば画像(例えば、RGB画像)及び深度画像から人物の姿勢推定を行う際に、推定対象となる人物の関節が上記各画像外に存在した場合にも画像内にある関節の位置について精度良く推定を行うことができる。特に、モデルフィッティングのアプローチを適用できない複雑なシーンにおいて関節推定器16の推定結果を用いて高速に人体の姿勢推定を行うことができる。これによって、従来、主に用いられてきたユーザがセンサを意識することを前提としたジェスチャインタフェースとしての姿勢推定ではなく、無意識なユーザを対象とした姿勢推定の適用範囲が拡大される。
なお、本実施形態では、関節位置から画像端への距離と関節長さとの関係に応じた値として、関節位置から画像端への距離と関節長さとの差分を用いているが、これに限定されるものではなく、例えば、関節位置から画像端への距離と関節長さとの比率を用いても良い。
また、本実施形態では、関節推定器学習部14及び関節位置最適化部20の両方が1つの装置(姿勢推定装置10)内に備えられている場合について示したが、関節推定器学習部14及び関節位置最適化部20を別個の装置として構成してもよい。
また、本実施形態では、姿勢推定装置10が人物の姿勢を推定する場合について説明したが、姿勢を推定する対象は人物に限定されない。例えば、骨格モデル及び関節長さモデル18が予め得られていれば、他の生物であってもよい。
また、本実施形態は一例であり、具体的な構成は本実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれ、状況に応じて変更可能であることは言うまでもない。
10 姿勢推定装置
14 関節推定器学習部
16 関節推定器
18 関節長さモデル
20 関節位置最適化部
40 関節尤度推定部
42 関節位置候補生成部
44 関節位置組合せ探索部
46 最適関節位置出力部

Claims (5)

  1. 入力画像中の各画素について、複数の予め定められた関節の関節位置となる尤度を、関節推定器を用いて推定する関節尤度推定部と、
    前記複数の予め定められた関節の各々に対し、前記入力画像中及び前記入力画像外の各々における前記関節位置の位置候補を生成する関節位置候補生成部と、
    前記尤度、及び前記複数の予め定められた関節の各々に対する位置候補に基づいて、予め定められた骨格モデルから得られる、隣接する関節ペアの位置候補のペアに対する評価値を用いて、前記複数の予め定められた関節の各々の前記関節位置の最適な組み合わせを探索する関節位置組合せ探索部と、
    を備えた姿勢推定装置。
  2. 前記関節位置候補生成部は、前記複数の予め定められた関節の各々に対し、前記入力画像中の前記関節の複数の位置候補、及び前記入力画像外であることを示す前記関節の位置候補を生成する、
    請求項1記載の姿勢推定装置。
  3. 前記関節位置組合せ探索部は、隣接する関節ペアの位置候補のペアが、一方の関節についての前記入力画像中の位置候補、及び他方の関節についての前記入力画像外であることを示す前記位置候補のペアである場合、一方の関節についての前記入力画像中の位置候補から前記入力画像の端までの距離と、前記関節ペア間の距離との関係に応じた値を、前記評価値として用いて、前記複数の予め定められた関節の各々の前記関節位置の最適な組み合わせを探索する、
    請求項1または2記載の姿勢推定装置。
  4. 関節尤度推定部が、入力画像中の各画素について、複数の予め定められた関節の関節位置となる尤度を、関節推定器を用いて推定するステップと、
    関節位置候補生成部が、前記複数の予め定められた関節の各々に対し、前記入力画像中及び前記入力画像外の各々における前記関節位置の位置候補を生成するステップと、
    関節位置組合せ探索部が、前記尤度、及び前記複数の予め定められた関節の各々に対する位置候補に基づいて、予め定められた骨格モデルから得られる、隣接する関節ペアの位置候補のペアに対する評価値を用いて、前記複数の予め定められた関節の各々の前記関節位置の最適な組み合わせを探索するステップと、
    を含む姿勢推定方法。
  5. コンピュータを、請求項1から請求項3の何れか1項に記載の姿勢推定装置の各部として機能させるための姿勢推定プログラム。
JP2015223318A 2015-11-13 2015-11-13 姿勢推定装置、姿勢推定方法、及び姿勢推定プログラム Pending JP2017091377A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015223318A JP2017091377A (ja) 2015-11-13 2015-11-13 姿勢推定装置、姿勢推定方法、及び姿勢推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015223318A JP2017091377A (ja) 2015-11-13 2015-11-13 姿勢推定装置、姿勢推定方法、及び姿勢推定プログラム

Publications (1)

Publication Number Publication Date
JP2017091377A true JP2017091377A (ja) 2017-05-25

Family

ID=58769285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015223318A Pending JP2017091377A (ja) 2015-11-13 2015-11-13 姿勢推定装置、姿勢推定方法、及び姿勢推定プログラム

Country Status (1)

Country Link
JP (1) JP2017091377A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020241100A1 (ja) * 2019-05-30 2020-12-03 コニカミノルタ株式会社 3次元姿勢推定方法、プログラム、記録媒体および3次元姿勢推定装置
CN112837367A (zh) * 2021-01-27 2021-05-25 清华大学 语义分解式物体位姿估计方法及系统
WO2021192085A1 (en) * 2020-03-25 2021-09-30 Nec Corporation Pose identifying apparatus, pose identifying method, and non-transitory computer readable medium storing program
WO2021215129A1 (ja) * 2020-04-20 2021-10-28 オムロン株式会社 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム
US11620857B2 (en) 2017-10-03 2023-04-04 Fujitsu Limited Method, device, and medium for determining three-dimensional position of skeleton using data acquired by multiple sensors
WO2023077659A1 (zh) * 2021-11-04 2023-05-11 中国科学院深圳先进技术研究院 基于融合信息的太极拳识别方法、终端设备及存储介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11620857B2 (en) 2017-10-03 2023-04-04 Fujitsu Limited Method, device, and medium for determining three-dimensional position of skeleton using data acquired by multiple sensors
WO2020241100A1 (ja) * 2019-05-30 2020-12-03 コニカミノルタ株式会社 3次元姿勢推定方法、プログラム、記録媒体および3次元姿勢推定装置
WO2021192085A1 (en) * 2020-03-25 2021-09-30 Nec Corporation Pose identifying apparatus, pose identifying method, and non-transitory computer readable medium storing program
JP2023512318A (ja) * 2020-03-25 2023-03-24 日本電気株式会社 姿勢特定装置、姿勢特定方法、及びプログラム
WO2021215129A1 (ja) * 2020-04-20 2021-10-28 オムロン株式会社 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム
JP7375666B2 (ja) 2020-04-20 2023-11-08 オムロン株式会社 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム
CN112837367A (zh) * 2021-01-27 2021-05-25 清华大学 语义分解式物体位姿估计方法及系统
CN112837367B (zh) * 2021-01-27 2022-11-25 清华大学 语义分解式物体位姿估计方法及系统
WO2023077659A1 (zh) * 2021-11-04 2023-05-11 中国科学院深圳先进技术研究院 基于融合信息的太极拳识别方法、终端设备及存储介质

Similar Documents

Publication Publication Date Title
JP2017091377A (ja) 姿勢推定装置、姿勢推定方法、及び姿勢推定プログラム
WO2018219198A1 (zh) 一种人机交互方法、装置及人机交互终端
CN104167016B (zh) 一种基于rgb彩色与深度图像的三维运动重建方法
CN111582207A (zh) 图像处理方法、装置、电子设备及存储介质
CN109063584B (zh) 基于级联回归的面部特征点定位方法、装置、设备及介质
US20140185924A1 (en) Face Alignment by Explicit Shape Regression
CN110909580B (zh) 数据处理方法及装置、电子设备及存储介质
WO2022142214A1 (zh) 车辆位姿确定方法、车辆控制方法及相应的装置、车辆、存储介质
JP2019096113A (ja) キーポイントデータに関する加工装置、方法及びプログラム
JP2006228061A (ja) 顔追跡プログラムおよび顔追跡方法
CN109323709B (zh) 视觉里程计方法、装置和计算机可读存储介质
CN111199207B (zh) 基于深度残差神经网络的二维多人体姿态估计方法
CN110688929A (zh) 一种人体骨架关节点定位方法及装置
JP2018013999A (ja) 姿勢推定装置、方法、及びプログラム
JPWO2018087933A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6381368B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN112528811A (zh) 行为识别方法和装置
JP2015219868A (ja) 情報処理装置、情報処理方法、プログラム
Kogler et al. Enhancement of sparse silicon retina-based stereo matching using belief propagation and two-stage postfiltering
US11461914B2 (en) Measuring surface distances on human bodies
CN111339969B (zh) 人体姿势估计方法、装置、设备及存储介质
KR102333768B1 (ko) 딥러닝 기반 손 인식 증강현실 상호 작용 장치 및 방법
JP2017033556A (ja) 画像処理方法及び電子機器
TW202326518A (zh) 影像擴增方法以及裝置
Jin et al. DOPE++: 6D pose estimation algorithm for weakly textured objects based on deep neural networks