JP2016212688A - 関節位置推定装置、方法、及びプログラム - Google Patents

関節位置推定装置、方法、及びプログラム Download PDF

Info

Publication number
JP2016212688A
JP2016212688A JP2015096699A JP2015096699A JP2016212688A JP 2016212688 A JP2016212688 A JP 2016212688A JP 2015096699 A JP2015096699 A JP 2015096699A JP 2015096699 A JP2015096699 A JP 2015096699A JP 2016212688 A JP2016212688 A JP 2016212688A
Authority
JP
Japan
Prior art keywords
joint
joint position
position estimation
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015096699A
Other languages
English (en)
Inventor
和彦 村崎
Kazuhiko Murazaki
和彦 村崎
恭子 数藤
Kyoko Sudo
恭子 数藤
行信 谷口
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015096699A priority Critical patent/JP2016212688A/ja
Publication of JP2016212688A publication Critical patent/JP2016212688A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】関節が隠れている場合であっても、関節位置を精度よく推定できる。
【解決手段】第一関節位置推定部230が、領域画像の各々と、関節位置を推定するための予め学習された第一関節位置推定モデル250とに基づいて、領域画像についての人物の各関節の関節位置の候補を推定し、第二関節位置推定部240が、領域画像の各々に対し、推定された各関節の関節位置の候補に基づいて、各関節について、関節の関節位置の候補を基準として切り出された関節位置画像の各々と、当該関節について予め学習された第二関節位置推定モデル252とに基づいて、関節位置画像の各々についての各関節の関節位置を推定し、各関節に対し、推定された関節の関節位置の各々に基づいて、画像についての関節の関節位置を推定する。
【選択図】図4

Description

本発明は、関節位置推定装置、方法、及びプログラムに係り、特に、人体の関節位置を推定するための関節位置推定装置、方法、及びプログラムに関する。
安価な深度センサ付きカメラの普及に伴い、深度映像に基づいて映像に映る人物の姿勢を推定する手法は様々に提案されている。深度映像から人物姿勢を推定する手法として、大きく2つのアプローチが存在しており、1つは画素毎に対象画素が人体のどの部位に属するかクラス分けを行う手法(非特許文献1参照)、もう1つは画像特徴から各関節の3次元位置を直接推定する手法(非特許文献2参照)である。どちらも学習データを用いたパターン認識によって推定され、推定手法にはランダムフォレストなどの木構造を用いた識別器を適用する手法が主流であるが、最近では非特許文献1のようにConvolutional Neural Network(以下、CNNと称する)などの深層学習を用いた手法も提案されている。
M. Jiu, C. Wolf, G. Taylor, A. Baskurt, "Human body part estimation from depth images via spatially-constrained deep learning", Pattern Recognition Letters, Volume 50, 2014 R. Girshick, J. Shotton, P. Kohli, A. Criminisi, A. Fitzgibbon, "Efficient regression of general-activity human poses from depth images," ICCV2011
非特許文献1で提案されているCNNを用いた人体部位推定では、CNNによる深層学習によって深度画像から抽出される画像特徴をあらかじめ設定することなく、部位推定器の学習と同時に画像特徴をデータから学習することで従来よりも高精度な識別を実現している。しかしながら、画素毎に人体部位ラベルを与えるという枠組みから、オクルージョンなどによって映像中に映らない人体部位については推定が出来ないという問題がある。
一方、非特許文献2で提案されている人体姿勢推定手法では、深度画像の一部の領域を用いて直接3次元の関節位置を推定し、様々な領域からの投票によって関節位置を決定することで、オクルージョンの発生している見えない関節部位についても関節位置の推定が可能となっている。しかし、非特許文献2では、領域中の2点の深度の差分を計算するシンプルな特徴を用いているため、計算時間は少ないものの推定精度に課題がある。
本発明は、上記問題点を解決するために成されたものであり、関節が隠れている場合であっても、関節位置を精度よく推定できる関節位置推定装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る関節位置推定装置は、人物が撮像された深度画像から切り出された領域画像の各々と、深度画像についての各関節に対する相対位置を表す関節位置を推定するための予め学習された第一関節位置推定モデルとに基づいて、前記領域画像についての前記人物の各関節の関節位置の候補を推定する第一関節位置推定部と、前記領域画像の各々に対し、前記第一関節位置推定部によって推定された各関節の関節位置の候補に基づいて、各関節について、前記深度画像から、前記関節の関節位置の候補を基準として切り出された関節位置画像の各々と、前記関節について予め学習された、前記関節の周辺の深度画像についての各関節の関節位置を推定するための第二関節位置推定モデルとに基づいて、前記関節位置画像の各々についての各関節の関節位置を推定し、各関節に対し、推定された前記関節の関節位置の各々に基づいて、前記深度画像についての前記関節の関節位置を推定する第二関節位置推定部と、を含んで構成されている。
また、第1の発明に係る関節位置推定装置において、前記第一関節位置推定部は、前記深度画像から、ランダムに領域画像の各々を切り出すランダム領域切り出し部と、前記ランダム領域切り出し部によって切り出された領域画像の各々と、前記第一関節位置推定モデルとに基づいて、前記領域画像についての前記人物の各関節の関節位置の候補を推定する第一関節位置推定モデル適用部とを含み、前記第二関節位置推定部は、前記第一関節位置推定モデル適用部によって推定された各関節の関節位置の候補に基づいて、前記深度画像から、前記関節の関節位置の候補を基準とした関節位置画像の各々を切り出す領域切り出し部と、前記領域切り出し部によって切り出された前記関節の関節位置画像の各々と、前記関節についての前記第二関節位置推定モデルとに基づいて、前記関節の関節位置の候補を基準として切り出された前記関節位置画像の各々についての各関節の関節位置を推定する第二関節位置推定モデル適用部と、各関節に対し、前記第二関節位置推定モデル適用部によって推定された前記関節の関節位置の各々に基づいて、前記深度画像についての前記関節の関節位置を推定する推定関節位置統合部とを含むようにしてもよい。
第2の発明に係る関節位置推定方法は、第一関節位置推定部が、人物が撮像された深度画像から切り出された領域画像の各々と、深度画像についての各関節に対する相対位置を表す関節位置を推定するための予め学習された第一関節位置推定モデルとに基づいて、前記領域画像についての前記人物の各関節の関節位置の候補を推定するステップと、第二関節位置推定部が、前記領域画像の各々に対し、前記第一関節位置推定部によって推定された各関節の関節位置の候補に基づいて、各関節について、前記深度画像から、前記関節の関節位置の候補を基準として切り出された関節位置画像の各々と、前記関節について予め学習された、前記関節の周辺の深度画像についての各関節の関節位置を推定するための第二関節位置推定モデルとに基づいて、前記関節位置画像の各々についての各関節の関節位置を推定し、各関節に対し、推定された前記関節の関節位置の各々に基づいて、前記深度画像についての前記関節の関節位置を推定するステップと、を含んで実行することを特徴とする。
また、第2の発明に係る関節位置推定方法において、前記第一関節位置推定部は、ランダム領域切り出し部と、第一関節位置推定モデル適用部とを含み、前記第一関節位置推定部が推定するステップは、前記ランダム領域切り出し部が、前記深度画像から、ランダムに領域画像の各々を切り出すステップと、第一関節位置推定モデル適用部が、前記ランダム領域切り出し部によって切り出された領域画像の各々と、前記第一関節位置推定モデルとに基づいて、前記領域画像についての前記人物の各関節の関節位置の候補を推定するステップとを含み、前記第二関節位置推定部は、領域切り出し部と、第二関節位置推定モデル適用部とを含み、前記第二関節位置推定部が推定するステップは、領域切り出し部が、前記第一関節位置推定モデル適用部によって推定された各関節の関節位置の候補に基づいて、前記深度画像から、前記関節の関節位置の候補を基準とした関節位置画像の各々を切り出すステップと、第二関節位置推定モデル適用部が、前記領域切り出し部によって切り出された前記関節の関節位置画像の各々と、前記関節についての前記第二関節位置推定モデルとに基づいて、前記関節の関節位置の候補を基準として切り出された前記関節位置画像の各々についての各関節の関節位置を推定するステップと、推定関節位置統合部が、各関節に対し、前記第二関節位置推定モデル適用部によって推定された前記関節の関節位置の各々に基づいて、前記深度画像についての前記関節の関節位置を推定するステップとを含むようにしてもよい。
また第3の発明に係るプログラムは、コンピュータを、上記第1の発明に係る関節位置推定装置の各部として機能させるためのプログラムである。
本発明の関節位置推定装置、方法、及びプログラムによれば、領域画像の各々と、関節位置を推定するための予め学習された第一関節位置推定モデルとに基づいて、領域画像についての人物の各関節の関節位置の候補を推定し、領域画像の各々に対し、推定された各関節の関節位置の候補に基づいて、各関節について、関節の関節位置の候補を基準として関節位置画像を切り出し、各関節に対し、当該関節の関節位置画像の各々と、当該関節について予め学習された第二関節位置推定モデルとに基づいて、関節位置画像の各々についての各関節の関節位置を推定し、各関節に対し、推定された関節の関節位置の各々に基づいて、画像についての関節の関節位置を推定することにより、関節が隠れている場合であっても、関節位置を精度よく推定することができる、という効果が得られる。
本発明の実施の形態に係る関節位置学習装置の構成を示すブロック図である。 領域画像及び正解の関節の関節位置の一例を示す図である。 選ばれた画素を基準として切り出される領域の一例を示す図である。 本発明の実施の形態に係る関節位置推定装置の構成を示すブロック図である。 推定された各関節の関節位置の候補の一例を示す図である。 本発明の実施の形態に係る関節位置学習装置における関節位置学習処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る関節位置推定装置における関節位置推定処理ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。
本発明の実施の形態では、上記非特許文献2と同様に、深度画像の一部領域を入力として各関節の3次元位置を推定することでオクルージョンへの対応を行う。一部の領域を入力とした関節位置推定を対象画像から得られる複数の領域に対して適用し、得られる複数の関節位置候補を用いてそれらを統合することで推定結果を得る。また、関節位置の推定手段として、Convolutional Neural Network(以下、CNNと称する)と呼ばれる入力画像に対するフィルタの畳み込みを特徴抽出として用いる多層ニューラルネットを導入することで、推定に有用な画像特徴を学習用画像から学習し、高精度な関節位置推定を実現する。さらに、効率的かつ精度良く関節位置推定を行うために、2段階の関節位置推定処理を設定し、2段目の推定に用いる画像領域(関節位置)の設定と、各関節に適用する有効な推定器を動的に決定する仕組みを導入する。1段目の関節位置推定はランダムに切り出された領域の画像を用いて各関節の関節位置候補の推定を行い、2段目の関節位置推定は1段目に推定された関節位置候補の周辺画像を用いて関節位置推定を行う。その際、2段目に用いる推定器は各関節個別に学習された推定器を用いることで、各推定器が対象とする関節周辺の関節について推定精度の向上が期待でき、また関節間の関係性を推定器が暗に持つことで、オクルージョンされた関節についての推定精度向上も期待される。
<本発明の実施の形態に係る関節位置学習装置の構成>
次に、本発明の実施の形態に係る関節位置学習装置の構成について説明する。図4に示すように、本発明の実施の形態に係る関節位置学習装置100は、CPUと、RAMと、関節位置学習を実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。図1に示すように、関節位置学習装置100は、機能的には図1に示すように入力部10と、演算部20とを備えている。
入力部10は、人物が撮像された学習用深度画像を受け付ける。学習用深度画像は、深度センサ又は3Dモデリングソフトなどによってあらかじめ用意された、人物が映る深度付きの画像である。
演算部20は、第一関節位置推定モデル学習部30と、第二関節位置推定モデル学習部40部と、第一関節位置推定モデル50と、第二関節位置推定モデル52とを含んで構成されている。
以下に説明する第一関節位置推定モデル学習部30及び第二関節位置推定モデル学習部40では、学習用画像と対応する関節位置(関節位置ベクトル)の情報を用いて深層学習による第一関節位置推定モデル及び第二関節位置推定モデルの学習を行う。本実施の形態では、深層学習にはCNNを用いる。CNNでは、切り出された深度付き領域画像を入力とし、領域画像に対応する関節位置のベクトル(3×N次元:Nは推定する関節数を表す)を出力とするように学習される。多層ニューラルネットの構造は非特許文献3と同様のものを用いることができるが、これに限ったものではなく、入出力が同様であれば様々な構造のネットワークを用いることができる。なお、ニューラルネットによる推定器ではなく、特徴抽出器で抽出される特徴を求めておき、関節位置抽出器を学習するようにしてもよい。
[非特許文献3]:A. Toshev, and S. Christian, "Deeppose: Human pose estimation via deep neural networks." CVPR2014
第一関節位置推定モデル学習部30は、学習用深度画像から切り出された領域画像の各々と、領域画像の各々についての、人物の各関節に対する相対位置を表す関節位置とに基づいて、深度画像についての各関節の関節位置を推定するための第一関節位置推定モデルを学習する。第一関節位置推定モデル学習部30は、本実施の形態では、学習用深度画像の各関節の関節位置に基づき、関節位置推定モデルの学習に用いる領域画像の各々及び領域画像についての各関節の相対位置を表す関節位置ベクトルを生成し、それらを用いてCNNのパラメータ推定を行う。また、学習用データとしてランダムに切り出された領域画像を用いる。図2に領域画像及び正解の関節の関節位置の例を示す。
次に、第一関節位置推定モデル学習部30の具体的な構成について説明する。第一関節位置推定モデル学習部30は、第一学習用データ生成部32と、第一関節位置推定部34とを備えている。
第一学習用データ生成部32は、入力部10により受け付けた学習用深度画像から関節位置情報又は適当な深度の閾値を用いて人物の領域抽出を行い、領域画像の各々を生成する。第一学習用データ生成部32は、具体的には、学習用深度画像から得られた人物の領域からランダムな画素を選び、当該画素を中心に一辺Wの正方形の領域を抽出する。図3に選ばれた画素を基準として切り出される領域の例を示す。この時、切り出される領域の大きさWは選ばれた画素の深度をZとして、任意のパラメータCによってW=C/Zと定められる。これは、推定対象の位置によらず実空間での一定サイズの領域を抽出するための工夫である。そして、第一学習用データ生成部32は、抽出した領域画像に対して、中心画素からの各関節の相対位置を表す関節位置ベクトルを教師ベクトルとして保持する。このようにして得られる領域画像及び教師ベクトルのセットを、学習用深度画像N枚に対して、各M枚の領域画像分抽出し、計N×M枚の第一学習用データセットを生成する。
第一関節位置推定部34は、第一学習用データ生成部32によって生成された第一学習用データセットに基づいて、第一関節位置推定モデルを学習する。第一関節位置推定部34は、本実施の形態では、人物が撮像された深度画像から切り出された領域画像を入力すると、関節位置ベクトルを出力とする多層ニューラルネットを関節位置推定器として学習する。ニューラルネットのパラメータ推定には上記非特許文献3と同様にCNNの学習に一般的に用いられる誤差逆伝播法を用いる。そして、推定されたニューラルネットのパラメータを、第一関節位置推定モデル50として記憶する。
第二関節位置推定モデル学習部40は、各関節に対し、学習用深度画像が表す人物の当該関節の位置の周辺から切り出された周辺画像の各々と、周辺画像の各々についての各関節に対する相対位置を表す関節位置とに基づいて、当該関節の周辺の深度画像についての各関節の関節位置を推定するための第二関節位置推定モデルを学習する。第二関節位置推定モデル学習部40では、当該関節の位置の周辺から切り出された周辺画像の各々と、周辺画像の各々についての各関節に対する相対位置を表す関節位置とを用いて、第一関節位置推定モデル学習部30とほぼ同様の手法により第二関節位置推定器を学習する。第二関節位置推定モデル52は、特定の関節ごとに第二関節位置推定器を学習することにより、N個の第二関節位置推定器を学習する。また、第二関節位置推定モデル学習部40において学習される第二関節位置推定モデル52は、全関節について学習を行った後に、学習に用いていないテストデータを用いて推定精度を評価し、精度が閾値を下回る関節については推定対象外とする。そのため、第二関節位置推定モデル52を用いて推定される関節の数は、各関節に対応する第二関節位置推定器によって異なる。
次に、第二関節位置推定モデル学習部40の具体的な構成について説明する。第二関節位置推定モデル学習部40は、第二学習用データ生成部42と、第二関節位置推定部44と、推定対象関節決定部46とを備えている。
第二学習用データ生成部42では、各関節に対し、入力部10により受け付けた学習用深度画像から、学習用深度画像が表す人物の当該関節の位置の周辺を切り抜いた周辺画像の各々を生成する。ここでは、特定の関節の正解となる関節位置の情報を用いて、関節位置を中心にとったランダムなガウスノイズを加えることによって周辺画像の各々を得る。次に、得られた周辺画像の画素を中心とする一辺Wの正方形を抽出する。この時の領域サイズWは正解となる関節位置の深度をZとして、W=C/Zによって決定する。そして、第一学習用データ生成部32と同様に、切り出された周辺画像に対応する各関節の相対位置を表す関節位置ベクトルを教師ベクトルとして保持し、第二学習用データセットとする。また、この時生成された第二学習用データセットの一部をテスト用データセットとして取り出す。
第二関節位置推定部44では、第一関節位置推定部34と同様の手法に従って、各関節に対し、当該関節の周辺画像について第二学習用データ生成部42で生成された第二学習用データセット(テスト用データセットを除いたもの)に基づいて、ニューラルネットのパラメータの推定を行い、第二関節位置推定モデル52として記憶する。
推定対象関節決定部46では、各関節に対し、第二学習用データ生成部42によって生成された当該関節のテスト用データセットと、第二関節位置推定部44によって当該関節について学習された第二関節位置推定モデル52とを用いて、当該関節の周辺画像における各関節の位置推定精度を評価する。当該関節に対するテスト用データセットを入力として、当該関節について、第二関節位置推定モデル52の当該関節の第二関節位置推定器により各関節の関節位置を推定する。次に、推定された各関節の関節位置と、学習用深度画像が表す人物の正解となる各関節の関節位置との誤差を算出する。そして、当該誤差の平均が閾値以下の関節のみを、第二関節位置推定モデル52の当該関節の第二関節位置推定器における推定対象関節として設定する。
<本発明の実施の形態に係る関節位置推定装置の構成>
次に、本発明の実施の形態に係る関節位置推定装置の構成について説明する。図4に示すように、本発明の実施の形態に係る関節位置推定装置200は、CPUと、RAMと、後述する関節位置推定処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この関節位置推定装置200は、機能的には図4に示すように入力部210と、演算部220と、出力部260とを備えている。
関節位置推定装置200は、以下に説明するように、関節位置の推定対象となる人物の映る深度画像を入力として、深度画像が表す人物の各関節の3次元位置を推定する。
入力部210は、人物が撮像された深度画像を受け付ける。
演算部20は、前景抽出部228と、第一関節位置推定部230と、第二関節位置推定部240と、第一関節位置推定モデル250と、第二関節位置推定モデル252とを含んで構成されている。
第一関節位置推定モデル250には、第一関節位置推定モデル50と同じものが記憶されている。
第二関節位置推定モデル252には、第二関節位置推定モデル52と同じものが記憶されている。
まず、前景抽出部228において、入力部210により受け付けた深度画像から予め設定された深度の範囲にある領域の画像を抽出する。これは、簡単な背景除去を行うためのもので、撮影環境が既知であればそれを用いた背景除去を適用しても良いし、人物検出器などを用いて大まかな領域選択を行っても良い。ここで抽出された領域の深度情報を用いて以降の姿勢推定の処理を行う。
第一関節位置推定部230では、前景抽出部228により抽出された画像から切り出された領域画像の各々と、第一関節位置推定モデル250とに基づいて、領域画像の各々に対し、当該領域画像についての人物の各関節の関節位置の候補を推定する。
次に、第一関節位置推定部230の具体的な構成について説明する。第一関節位置推定部230は、ランダム領域切り出し部232と、第一関節位置推定モデル適用部234と、を備えている。
ランダム領域切り出し部232は、前景抽出部228により抽出された画像からランダムな画素を基準とする一辺Wの正方形の領域画像を切り出す。この時、上記関節位置学習装置100の第一学習用データ生成部32と同様に、領域サイズWは深度ZによってW=C/Zで決められる。そして、ランダム領域切り出し部232は、切り出した領域画像の各々をリサイズして、第一関節位置推定モデル適用部234の入力とする。
第一関節位置推定モデル適用部234は、ランダム領域切り出し部232で切り出された領域画像の各々と、第一関節位置推定モデル250とに基づいて、領域画像の各々に対し、当該領域画像についての人物の各関節の関節位置の候補を推定する。第一関節位置推定モデル適用部234では、具体的には、領域画像の中心画素に対する各関節の相対位置を表す関節位置を推定する。領域画像について、第一関節位置推定モデル250におけるニューラルネットのパラメータに基づいて、ニューラルネットの順伝播計算を行う。そして、各関節について出力された関節位置からなる関節位置ベクトルを、関節位置の候補として保持する。このように、ランダムに切り出された複数の領域画像に対して推定処理を行い、各関節に対し、深度画像についての当該関節の関節位置の複数の候補を得る。図5に推定された各関節の関節位置の候補のイメージを示す。
第二関節位置推定部240は、ランダム領域切り出し部232で切り出された領域画像の各々に対し、第一関節位置推定モデル適用部234によって推定された各関節の関節位置の候補に基づいて、人物の各関節について、入力部210で受け付けた深度画像から、当該関節の関節位置の候補を基準として関節位置画像の各々を切り出す。そして、当該関節の関節位置の候補を基準として切り出された関節位置画像の各々と、当該関節について予め学習された第二関節位置推定モデル252とに基づいて、当該関節の関節位置の候補を基準として切り出された関節位置画像の各々についての各関節の関節位置を推定し、各関節に対し、推定された当該関節の関節位置の各々に基づいて、深度画像についての当該関節の関節位置を推定する。
次に、第二関節位置推定部240の具体的な構成について説明する。第二関節位置推定部240は、領域切り出し部242と、第二関節位置推定モデル適用部244と、推定関節位置統合部246とを備えている。
領域切り出し部242は、第一関節位置推定モデル適用部234によって推定された各関節の関節位置の候補に基づいて、人物の各関節について、深度画像から、当該関節の関節位置の候補を基準とした関節位置画像の各々を切り出す。具体的には、各関節に対し、当該関節について推定された当該関節の関節位置の候補を中心とする正方形の領域を関節位置画像として切り出す。領域サイズWの決定はランダム領域切り出し部232と同様にして行うが、中心画素が、深度画像において深度が得られている処理対象領域に含まれない場合には、処理対象領域中で最も近傍の画素の深度を用いて領域サイズWを算出する。
第二関節位置推定モデル適用部244は、各関節に対し、当該関節について切り出された関節位置画像の各々と、当該関節の第二関節位置推定モデル252とに基づいて、当該関節の関節位置画像の各々について、各関節の関節位置を推定する。具体的には、ニューラルネットのパラメータ推定を行い、第二関節位置推定モデル252の当該関節に対応する第二関節位置推定器において推定対象として設定されている各関節に対する関節位置を得る。
推定関節位置統合部246では、各関節に対し、第二関節位置推定モデル適用部244によって推定された、当該関節の関節位置の各々に基づいて、当該関節の関節位置の各々を統合することにより、深度画像についての当該関節の関節位置を推定して、推定結果を出力部260に出力する。具体的には、関節位置画像の各々について推定された各関節の関節位置を、深度画像にプロットし、プロットされた各関節の関節位置の各々に基づいて、各関節に対し、ロバスト推定を用いて外れ値を除去した平均値を算出し、当該関節の関節位置の推定結果とする。なお、推定対象が動画である場合、前フレームでの推定結果に基づいてMeanShiftなどの追跡手法を用いても良い。ここで、統合された推定結果を用いて第二関節位置推定部240による推定を繰り返し適用しても良い。第二関節位置推定モデル252は入力とする関節位置画像が対応する各関節の関節位置に近いほど高精度な推定が期待できるため、関節位置推定を繰り返し行うことによって、より高精度な関節位置推定を行うことができる。
<本発明の実施の形態に係る関節位置学習装置の作用>
次に、本発明の実施の形態に係る関節位置学習装置100の作用について説明する。入力部10において学習用深度画像を受け付けると、関節位置学習装置100は、図6に示す関節位置学習処理ルーチンを実行する。
まず、ステップS100では、入力部10により受け付けた学習用深度画像から人物の領域抽出を行い、抽出された人物領域から、領域画像の各々を生成する。
次に、ステップS102では、ステップS100で生成した領域画像の各々に対して、関節位置ベクトルを教師ベクトルとして保持し、第一学習用データセットを生成する。
ステップS104では、ステップS102で生成された第一学習用データセットに基づいて、第一関節位置推定モデル50を学習する。
ステップS106では、各関節に対し、入力部10により受け付けた学習用深度画像から、人物の当該関節の位置の周辺を切り抜いた周辺画像の各々を生成する。
ステップS108では、各関節に対し、ステップS106で生成した周辺画像に対応する各関節の相対位置を表す関節位置ベクトルを教師ベクトルとして保持し、第二学習用データセット及びテスト用データセットを生成する。
ステップS110では、各関節に対し、ステップS108で生成された第二学習用データセットに基づいて、第二関節位置推定モデル52を学習する。
ステップS112では、各関節に対し、テスト用データセットと、第二関節位置推定部44によって当該関節について学習された第二関節位置推定モデル52とを用いて、当該関節の周辺画像における各関節の位置推定精度を評価する。
ステップS114では、評価結果に基づいて、第二関節位置推定モデル52の各関節の第二関節位置推定器における推定対象関節を設定し、処理を終了する。
以上説明したように、本発明の実施の形態に係る関節位置学習装置によれば、学習用深度画像から切り出された領域画像の各々と、領域画像の各々についての関節位置とに基づいて、深度画像についての各関節の関節位置を推定するための第一関節位置推定モデルを学習し、各関節に対し、当該関節の位置の周辺から切り出された周辺画像の各々と、周辺画像の各々についての各関節に対する関節位置とに基づいて、当該関節の周辺の深度画像についての各関節の関節位置を推定するための第二関節位置推定モデルを学習することにより、関節が隠れている場合であっても、関節位置を精度よく推定するための関節位置推定モデルを学習することができる。
<本発明の実施の形態に係る関節位置推定装置の作用>
次に、本発明の実施の形態に係る関節位置推定装置200の作用について説明する。関節位置学習装置100によって学習された第一関節位置推定モデル50と同じものが第一関節位置推定モデル250に記憶される。また、関節位置学習装置100によって学習された関節毎の第二関節位置推定モデル52と同じもの、及び推定対象関節の設定と同じものが、第二関節位置推定モデル252に記憶される。また、入力部210において人物が撮像された深度画像を受け付けると、関節位置推定装置200は、図6に示す関節位置推定処理ルーチンを実行する。
まず、ステップS200では、入力部210において受け付けた深度画像から予め設定された深度の範囲にある領域の画像を抽出する。
次に、ステップS202では、ステップS200で抽出された領域の画像からランダムな画素を基準とする一辺Wの正方形の領域画像の各々を切り出す。
ステップS204では、ステップS202で切り出された領域画像の各々に対し、第一関節位置推定モデル250に基づいて、当該領域画像の各関節の関節位置の候補を推定する。
ステップS206では、ステップS202で切り出された領域画像から処理対象の領域画像を選択する。
ステップS208では、ステップS206で選択された領域画像に対し、ステップS204で推定された各関節の関節位置の候補に基づいて、人物の各関節について、深度画像から、当該関節の関節位置の候補を基準として関節位置画像の各々を切り出す。
ステップS210では、全ての領域画像について処理を終了したかを判定し、終了していればステップS212へ移行し、終了していなければステップS206へ戻って処理を終了していない領域画像を選択する。
ステップS212では、各関節のうち何れか1つの関節を指定する。
ステップS214では、ステップS208で指定された関節に対し、ステップS208で当該関節の関節位置の候補を基準として切り出された関節位置画像の各々と、当該関節に対する第二関節位置推定モデル252とに基づいて、当該関節の関節位置画像の各々について各関節の関節位置を推定する。
ステップS218では、全ての関節について処理を終了したかを判定し、終了していればステップS220へ移行し、終了していなければステップS212へ戻って指定されていない関節を指定する。
ステップS219では、各関節に対し、ステップS214で推定された当該関節の関節位置の各々を統合することにより、深度画像についての当該関節の関節位置を推定する。
ステップS220では、ステップS219で推定された画像についての各関節の関節位置の推定結果を出力部260に出力し、処理を終了する。
以上説明したように、本発明の実施の形態に係る関節位置推定装置によれば、領域画像の各々と、関節位置を推定するための予め学習された第一関節位置推定モデル250とに基づいて、領域画像についての人物の各関節の関節位置の候補を推定し、領域画像の各々に対し、推定された各関節の関節位置の候補に基づいて、各関節について、関節の関節位置の候補を基準として関節位置画像を切り出し、各関節に対し、当該関節の関節位置画像の各々と、当該関節について予め学習された第二関節位置推定モデル252とに基づいて、関節位置画像の各々についての各関節の関節位置を推定し、各関節に対し、推定された関節の関節位置の各々に基づいて、画像についての関節の関節位置を推定することにより、関節が隠れている場合であっても、関節位置を精度よく推定することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、第二関節位置推定モデル252において推定対象として設定されている各関節の全ての関節位置を推定する場合を例に説明したが、これに限定されるものではなく、関節位置画像の周辺の各関節に限って関節位置を推定するようにしてもよい。
10、210 入力部
20、220 演算部
30 第一関節位置推定モデル学習部
32 第一学習用データ生成部
34 第一関節位置推定部
40 第二関節位置推定モデル学習部
42 第二学習用データ生成部
44 第二関節位置推定部
46 推定対象関節決定部
50、250 第一関節位置推定モデル
52、252 第二関節位置推定モデル
100 関節位置学習装置
200 関節位置推定装置
228 前景抽出部
230 第一関節位置推定部
232 ランダム領域切り出し部
234 第一関節位置推定モデル適用部
240 第二関節位置推定部
242 領域切り出し部
244 第二関節位置推定モデル適用部
246 推定関節位置統合部
260 出力部

Claims (5)

  1. 人物が撮像された深度画像から切り出された領域画像の各々と、深度画像についての各関節に対する相対位置を表す関節位置を推定するための予め学習された第一関節位置推定モデルとに基づいて、前記領域画像についての前記人物の各関節の関節位置の候補を推定する第一関節位置推定部と、
    前記領域画像の各々に対し、前記第一関節位置推定部によって推定された各関節の関節位置の候補に基づいて、各関節について、前記深度画像から、前記関節の関節位置の候補を基準として切り出された関節位置画像の各々と、前記関節について予め学習された、前記関節の周辺の深度画像についての各関節の関節位置を推定するための第二関節位置推定モデルとに基づいて、前記関節位置画像の各々についての各関節の関節位置を推定し、
    各関節に対し、推定された前記関節の関節位置の各々に基づいて、前記深度画像についての前記関節の関節位置を推定する第二関節位置推定部と、
    を含む関節位置推定装置。
  2. 前記第一関節位置推定部は、
    前記深度画像から、ランダムに領域画像の各々を切り出すランダム領域切り出し部と、
    前記ランダム領域切り出し部によって切り出された領域画像の各々と、前記第一関節位置推定モデルとに基づいて、前記領域画像についての前記人物の各関節の関節位置の候補を推定する第一関節位置推定モデル適用部とを含み、
    前記第二関節位置推定部は、
    前記第一関節位置推定モデル適用部によって推定された各関節の関節位置の候補に基づいて、前記深度画像から、前記関節の関節位置の候補を基準とした関節位置画像の各々を切り出す領域切り出し部と、
    前記領域切り出し部によって切り出された前記関節の関節位置画像の各々と、前記関節についての前記第二関節位置推定モデルとに基づいて、前記関節の関節位置の候補を基準として切り出された前記関節位置画像の各々についての各関節の関節位置を推定する第二関節位置推定モデル適用部と、
    各関節に対し、前記第二関節位置推定モデル適用部によって推定された前記関節の関節位置の各々に基づいて、前記深度画像についての前記関節の関節位置を推定する推定関節位置統合部とを含む請求項1に記載の関節位置推定装置。
  3. 第一関節位置推定部が、人物が撮像された深度画像から切り出された領域画像の各々と、深度画像についての各関節に対する相対位置を表す関節位置を推定するための予め学習された第一関節位置推定モデルとに基づいて、前記領域画像についての前記人物の各関節の関節位置の候補を推定するステップと、
    第二関節位置推定部が、前記領域画像の各々に対し、前記第一関節位置推定部によって推定された各関節の関節位置の候補に基づいて、各関節について、前記深度画像から、前記関節の関節位置の候補を基準として切り出された関節位置画像の各々と、前記関節について予め学習された、前記関節の周辺の深度画像についての各関節の関節位置を推定するための第二関節位置推定モデルとに基づいて、前記関節位置画像の各々についての各関節の関節位置を推定し、各関節に対し、推定された前記関節の関節位置の各々に基づいて、前記深度画像についての前記関節の関節位置を推定するステップと、
    を含む関節位置推定方法。
  4. 前記第一関節位置推定部は、ランダム領域切り出し部と、第一関節位置推定モデル適用部とを含み、
    前記第一関節位置推定部が推定するステップは、
    前記ランダム領域切り出し部が、前記深度画像から、ランダムに領域画像の各々を切り出すステップと、
    第一関節位置推定モデル適用部が、前記ランダム領域切り出し部によって切り出された領域画像の各々と、前記第一関節位置推定モデルとに基づいて、前記領域画像についての前記人物の各関節の関節位置の候補を推定するステップとを含み、
    前記第二関節位置推定部は、領域切り出し部と、第二関節位置推定モデル適用部とを含み、
    前記第二関節位置推定部が推定するステップは、
    領域切り出し部が、前記第一関節位置推定モデル適用部によって推定された各関節の関節位置の候補に基づいて、前記深度画像から、前記関節の関節位置の候補を基準とした関節位置画像の各々を切り出すステップと、
    第二関節位置推定モデル適用部が、前記領域切り出し部によって切り出された前記関節の関節位置画像の各々と、前記関節についての前記第二関節位置推定モデルとに基づいて、前記関節の関節位置の候補を基準として切り出された前記関節位置画像の各々についての各関節の関節位置を推定するステップと、
    推定関節位置統合部が、各関節に対し、前記第二関節位置推定モデル適用部によって推定された前記関節の関節位置の各々に基づいて、前記深度画像についての前記関節の関節位置を推定するステップとを含む請求項3に記載の関節位置推定方法。
  5. コンピュータを、請求項1又は請求項2に記載の関節位置推定装置の各部として機能させるためのプログラム。
JP2015096699A 2015-05-11 2015-05-11 関節位置推定装置、方法、及びプログラム Pending JP2016212688A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015096699A JP2016212688A (ja) 2015-05-11 2015-05-11 関節位置推定装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015096699A JP2016212688A (ja) 2015-05-11 2015-05-11 関節位置推定装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2016212688A true JP2016212688A (ja) 2016-12-15

Family

ID=57551747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015096699A Pending JP2016212688A (ja) 2015-05-11 2015-05-11 関節位置推定装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2016212688A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6392478B1 (ja) * 2018-04-26 2018-09-19 株式会社 ディー・エヌ・エー 情報処理装置、情報処理プログラム、及び、情報処理方法
WO2018173108A1 (ja) * 2017-03-21 2018-09-27 富士通株式会社 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム
JP2018156451A (ja) * 2017-03-17 2018-10-04 株式会社東芝 ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム
WO2018207351A1 (ja) 2017-05-12 2018-11-15 富士通株式会社 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
WO2018207365A1 (ja) 2017-05-12 2018-11-15 富士通株式会社 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
JP2019003299A (ja) * 2017-06-13 2019-01-10 コニカミノルタ株式会社 画像認識装置および画像認識方法
JP2019057247A (ja) * 2017-09-22 2019-04-11 アイシン精機株式会社 画像処理装置及びプログラム
CN109905593A (zh) * 2018-11-06 2019-06-18 华为技术有限公司 一种图像处理方法和装置
WO2019193899A1 (ja) * 2018-04-05 2019-10-10 コニカミノルタ株式会社 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル
WO2020084667A1 (ja) * 2018-10-22 2020-04-30 富士通株式会社 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置
WO2020228217A1 (zh) * 2019-05-13 2020-11-19 河北工业大学 移乘搬运护理机器人的人体姿态视觉识别方法、存储介质及电子装置
JP2022541709A (ja) * 2020-06-19 2022-09-27 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド 姿勢検出およびビデオ処理方法、装置、電子機器並びに記憶媒体

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156451A (ja) * 2017-03-17 2018-10-04 株式会社東芝 ネットワーク学習装置、ネットワーク学習システム、ネットワーク学習方法およびプログラム
US10803388B2 (en) 2017-03-17 2020-10-13 Canon Medical Systems Corporation Network training device, network training system, network training method, and computer program product
JPWO2018173108A1 (ja) * 2017-03-21 2020-01-23 富士通株式会社 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム
WO2018173108A1 (ja) * 2017-03-21 2018-09-27 富士通株式会社 関節位置推定装置、関節位置推定方法及び関節位置推定プログラム
US11157796B2 (en) 2017-03-21 2021-10-26 Fujitsu Limited Joint position estimation device, joint position estimation method, and joint position estimation program
WO2018207351A1 (ja) 2017-05-12 2018-11-15 富士通株式会社 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
WO2018207365A1 (ja) 2017-05-12 2018-11-15 富士通株式会社 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
US11138419B2 (en) 2017-05-12 2021-10-05 Fujitsu Limited Distance image processing device, distance image processing system, distance image processing method, and non-transitory computer readable recording medium
US11087493B2 (en) 2017-05-12 2021-08-10 Fujitsu Limited Depth-image processing device, depth-image processing system, depth-image processing method, and recording medium
JP2019003299A (ja) * 2017-06-13 2019-01-10 コニカミノルタ株式会社 画像認識装置および画像認識方法
JP2019057247A (ja) * 2017-09-22 2019-04-11 アイシン精機株式会社 画像処理装置及びプログラム
JP7211415B2 (ja) 2018-04-05 2023-01-24 コニカミノルタ株式会社 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル
JPWO2019193899A1 (ja) * 2018-04-05 2021-04-01 コニカミノルタ株式会社 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル
WO2019193899A1 (ja) * 2018-04-05 2019-10-10 コニカミノルタ株式会社 演算装置の学習方法、学習装置、学習プログラム、および学習済みモデル
JP6392478B1 (ja) * 2018-04-26 2018-09-19 株式会社 ディー・エヌ・エー 情報処理装置、情報処理プログラム、及び、情報処理方法
JP2019191974A (ja) * 2018-04-26 2019-10-31 株式会社 ディー・エヌ・エー 情報処理装置、情報処理プログラム、及び、情報処理方法
JP7014304B2 (ja) 2018-10-22 2022-02-01 富士通株式会社 認識方法、認識プログラム、認識装置および学習方法
JPWO2020084667A1 (ja) * 2018-10-22 2021-09-02 富士通株式会社 認識方法、認識プログラム、認識装置および学習方法
WO2020084667A1 (ja) * 2018-10-22 2020-04-30 富士通株式会社 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置
CN109905593A (zh) * 2018-11-06 2019-06-18 华为技术有限公司 一种图像处理方法和装置
CN109905593B (zh) * 2018-11-06 2021-10-15 华为技术有限公司 一种图像处理方法和装置
US11917288B2 (en) 2018-11-06 2024-02-27 Huawei Technologies Co., Ltd. Image processing method and apparatus
WO2020228217A1 (zh) * 2019-05-13 2020-11-19 河北工业大学 移乘搬运护理机器人的人体姿态视觉识别方法、存储介质及电子装置
JP2022541709A (ja) * 2020-06-19 2022-09-27 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド 姿勢検出およびビデオ処理方法、装置、電子機器並びに記憶媒体

Similar Documents

Publication Publication Date Title
JP2016212688A (ja) 関節位置推定装置、方法、及びプログラム
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
EP3327668B1 (en) Image-processing device and method for foreground mask correction for object segmentation
US9478039B1 (en) Background modeling and foreground extraction method based on depth image
US10169676B2 (en) Shape-based registration for non-rigid objects with large holes
US9330470B2 (en) Method and system for modeling subjects from a depth map
US9710960B2 (en) Closed-form 3D model generation of non-rigid complex objects from incomplete and noisy scans
KR101901586B1 (ko) 로봇 위치 추정 장치 및 그 방법
CA2687913A1 (en) Estimation of image relations from point correspondences between images
KR20120048370A (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
US9589369B2 (en) Method and arrangement for improved image matching
CN107590444B (zh) 静态障碍物的检测方法、装置及存储介质
JP2014137756A5 (ja)
KR102110459B1 (ko) 3차원 이미지 생성 방법 및 장치
JP6166297B2 (ja) 姿勢推定装置
JP2022027464A (ja) 映像の深度推定に関する方法及び装置
WO2023015938A1 (zh) 三维点检测的方法、装置、电子设备及存储介质
JP4691570B2 (ja) 画像処理装置およびオブジェクト推定プログラム
JP6573196B2 (ja) 距離情報補正装置、距離情報補正方法及び距離情報補正プログラム
KR101148029B1 (ko) 3d 카메라를 이용한 영상인식장치 및 방법
JP4836065B2 (ja) エッジトラッキング方法及びそのコンピュータプログラム
JP2017084065A (ja) なりすまし検出装置
KR101217231B1 (ko) 물체 인식 방법 및 시스템
JP6958277B2 (ja) 異常判定方法及び装置
JP2015228188A (ja) 画像処理装置、画像処理方法及びプログラム