JP2018013999A - 姿勢推定装置、方法、及びプログラム - Google Patents

姿勢推定装置、方法、及びプログラム Download PDF

Info

Publication number
JP2018013999A
JP2018013999A JP2016143768A JP2016143768A JP2018013999A JP 2018013999 A JP2018013999 A JP 2018013999A JP 2016143768 A JP2016143768 A JP 2016143768A JP 2016143768 A JP2016143768 A JP 2016143768A JP 2018013999 A JP2018013999 A JP 2018013999A
Authority
JP
Japan
Prior art keywords
joint
placement
representing
score
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016143768A
Other languages
English (en)
Inventor
和彦 村崎
Kazuhiko Murazaki
和彦 村崎
悠 米本
Haruka Yonemoto
悠 米本
数藤 恭子
Kyoko Sudo
恭子 数藤
杵渕 哲也
Tetsuya Kinebuchi
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016143768A priority Critical patent/JP2018013999A/ja
Publication of JP2018013999A publication Critical patent/JP2018013999A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像に写る人の姿勢に偏りがある場合に、関節の位置を精度良く推定することができるようにする。【解決手段】関節尤度算出部320が、入力画像中の各画素について、関節推定器に基づいて、関節を表す複数の関節ラベルの各々に対する関節位置のスコアと配置関係のスコアとを算出する。疑似関節画像生成部280が、3次元モーションキャプチャデータと特定のカメラパラメータとに基づいて、3次元モーションキャプチャデータから各関節の2次元位置情報を表す複数の疑似関節画像を生成する。関節配置関係パラメータ算出部282が、各関節について、生成された複数の疑似関節画像に基づいて、第1の統計値と第2の統計値とを算出する。関節配置最適化部322が、関節位置のスコア及び配置関係のスコアと、第1の統計値及び第2の統計値とを含む、各関節の位置に対する評価関数を最適化するように、入力画像中の各関節の位置を算出する。【選択図】図1

Description

本発明は、姿勢推定装置、方法、及びプログラムに関する。
近年、画像認識技術の発展に伴い、人が写る画像・映像から人体の骨格姿勢を推定する手法が高度化しており、様々に提案されている。人物姿勢推定のアプローチは大きく2つあり、人体のモデルをあらかじめ持っておきそのモデルのあてはめによって推定を行うアプローチ(例えば、非特許文献1を参照。)、人体の形状についての知識を明示的に用いることなく、画像特徴から関節位置がどこにあるのかを直接推定するアプローチ(例えば、非特許文献2を参照。)である。近年ではいずれのアプローチにおいても深層学習を用いた手法が高精度を示している。
Chen, Xianjie, and Alan L. Yuille. "Articulated pose estimation by a graphical model with image dependent pairwise relations." Advances in Neural Information Processing Systems. 2014. Tompson, Jonathan, et al. "Efficient object localization using convolutional networks." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015.
単視点の画像・映像のみから人の骨格姿勢を推定する手法は、その見えの多様性から十分な精度での推定が難しいのが現状である。一方で、監視映像のようなカメラが固定されている状況においては、固定カメラからの人の見え方には偏りがあり、姿勢推定がより容易になると考えられる。また、推定対象がとっている行動があらかじめわかっている場合、同様に取りうる姿勢には偏りがあるため、その情報を活用できると考えられる。しかし、上記非特許文献1、2などの従来手法の枠組みでは、データの偏りを学習するために大量の画像に人体姿勢情報を付与する必要があり大きなコストがかかる。このようにラベル付けされた学習用データのない特定のシーンでの姿勢推定においてそのシーンでの姿勢情報の偏りを推定時に活用することが課題となっている。
本発明は上記問題点を考慮してなされたものであり、画像に写る人の姿勢に偏りがある場合に、関節の位置を精度良く推定することができる、姿勢推定装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の姿勢推定装置は、入力画像中の各画素について、予め求められた関節推定器に基づいて、関節を表す複数の関節ラベルの各々に対する、前記画素が前記関節ラベルが表す関節の関節位置である尤度を表す関節位置のスコアと、隣接する関節間の配置関係を表す複数の配置関係クラスの各々についての前記画素に位置する前記関節ラベルが表す関節と隣接する関節との間の配置関係が前記配置関係クラスとなる尤度を表す配置関係のスコアとを算出する関節尤度算出部と、人物について計測された各関節の位置を表す3次元モーションキャプチャデータと、姿勢推定対象の人物が写る画像を撮像するカメラの予め定められた特定のカメラパラメータとに基づいて、あるいは、予め定められた人物の特定の行動パターンについて計測された前記関節の位置を表す3次元モーションキャプチャデータと、前記カメラの予め定められた複数のカメラパラメータとに基づいて、前記3次元モーションキャプチャデータから各関節の2次元位置情報を表す複数の疑似関節画像を生成する疑似関節画像生成部と、各関節について、前記疑似関節画像生成部によって生成された前記複数の疑似関節画像に基づいて、前記関節の子関節に対する前記配置関係クラスの各々を条件とした前記関節の親関節に対する前記配置関係クラスの各々の頻度を表す第1の統計値と、前記関節の親関節に対する前記配置関係クラスの各々を条件とした前記親関節の子関節である前記関節に対する前記配置関係クラスの各々の頻度を表す第2の統計値とを算出する関節配置関係パラメータ算出部と、前記関節尤度算出部によって算出された前記関節位置のスコア及び前記配置関係のスコアと、前記関節配置関係パラメータ算出部によって算出された前記第1の統計値及び前記第2の統計値とを含む、各関節の位置に対する評価関数を最適化するように、前記入力画像中の各関節の位置を算出する関節配置最適化部と、を備える。
本発明の姿勢推定装置の前記評価関数は、前記第1の統計値を用いて表され、かつ前記複数の関節の各々についての隣接する関節との間の配置関係の尤もらしさを表すスコアと、前記第2の統計値を用いて表され、かつ相互に隣接する関節のペアの間の配置関係の尤もらしさを表すスコアとを含むようにしてもよい。
本発明の姿勢推定装置の前記評価関数は、隣接する前記関節のペアの関節間の距離と予め設定された距離との差分が大きいほど、小さくなるように設定された、関節間の距離に関するスコアを更に含むようにしてもよい。
本発明の姿勢推定装置の前記関節配置最適化部は、各関節をノードとし、隣接する関節間をエッジで結合した木構造を表す骨格モデルの葉ノードから根ノードまで順に対象ノードとし、前記評価関数を最適化するように、前記対象ノードが表す関節の位置、及び前記対象ノードが表す関節の、隣接関節に対する配置関係を計算することを繰り返すようにしてもよい。
また、本発明の姿勢推定方法は、関節尤度算出部が、入力画像中の各画素について、予め求められた関節推定器に基づいて、関節を表す複数の関節ラベルの各々に対する、前記画素が前記関節ラベルが表す関節の関節位置である尤度を表す関節位置のスコアと、隣接する関節間の配置関係を表す複数の配置関係クラスの各々についての前記画素に位置する前記関節ラベルが表す関節と隣接する関節との間の配置関係が前記配置関係クラスとなる尤度を表す配置関係のスコアとを算出するステップと、疑似関節画像生成部が、人物について計測された各関節の位置を表す3次元モーションキャプチャデータと、姿勢推定対象の人物が写る画像を撮像するカメラの予め定められた特定のカメラパラメータとに基づいて、あるいは、予め定められた人物の特定の行動パターンについて計測された前記関節の位置を表す3次元モーションキャプチャデータと、前記カメラの予め定められた複数のカメラパラメータとに基づいて、前記3次元モーションキャプチャデータから各関節の2次元位置情報を表す複数の疑似関節画像を生成するステップと、関節配置関係パラメータ算出部が、各関節について、前記疑似関節画像生成部によって生成された前記複数の疑似関節画像に基づいて、前記関節の子関節に対する前記配置関係クラスの各々を条件とした前記関節の親関節に対する前記配置関係クラスの各々の頻度を表す第1の統計値と、前記関節の親関節に対する前記配置関係クラスの各々を条件とした前記親関節の子関節である前記関節に対する前記配置関係クラスの各々の頻度を表す第2の統計値とを算出するステップと、関節配置最適化部が、前記関節尤度算出部によって算出された前記関節位置のスコア及び前記配置関係のスコアと、前記関節配置関係パラメータ算出部によって算出された前記第1の統計値及び前記第2の統計値とを含む、各関節の位置に対する評価関数を最適化するように、前記入力画像中の各関節の位置を算出するステップと、を含む。
また、本発明のプログラムは、コンピュータを、本発明の姿勢推定装置の各部として機能させるためのプログラムである。
本発明によれば、入力画像中の各画素について、予め求められた関節推定器に基づいて、関節位置のスコアと配置関係のスコアとを算出し、3次元モーションキャプチャデータと特定のカメラパラメータとに基づいて3次元モーションキャプチャデータから各関節の2次元位置情報を表す複数の疑似関節画像を生成し、各関節について、複数の疑似関節画像に基づいて、関節の親関節に対する配置関係クラスの各々の頻度を表す第1の統計値と、親関節の子関節である関節に対する配置関係クラスの各々の頻度を表す第2の統計値とを算出し、算出された関節位置のスコア及び配置関係のスコアと、算出された第1の統計値及び第2の統計値とを含む、各関節の位置に対する評価関数を最適化するように、入力画像中の各関節の位置を算出することにより、画像に写る人の姿勢に偏りがある場合に、関節の位置を精度良く推定することができる、という効果が得られる。
本実施形態の姿勢推定装置の概略構成の一例を示す構成図である。 簡易化された骨格モデルの一例を示す図である。 本実施形態の関節推定器学習部の概略構成の一例を示す構成図である。 配置関係クラスの一例を示す図である。 本実施形態の関節配置関係学習部の概略構成の一例を示す構成図である。 本実施形態の関節位置推定部の概略構成の一例を示す構成図である。 本実施形態の姿勢推定装置の関節推定器学習部における関節推定器学習処理の流れの一例を示すフローチャートである。 本実施形態の姿勢推定装置の関節配置関係学習部における関節配置関係学習処理の流れの一例を示すフローチャートである。 本実施形態の姿勢推定装置の関節位置推部における関節位置推定処理の流れの一例を示すフローチャートである。
本発明の実施の形態では、画像を入力として画像に写る人物の骨格姿勢を推定する。具体的には、上記非特許文献1に示されるような画像特徴から関節ラベルを推定する関節推定器を用いて、推定された関節位置をつなぎ合わせた際に尤もらしい配置関係となるような姿勢推定を行う。
本発明の実施の形態では、画像特徴と関節ラベルとの関係については、人手によって関節ラベルが付与された既存のデータが数多くあるためそれらによって学習を行うが、取りうる姿勢が制限されるような特定のシーンにおけるラベル付けデータを大量に作製するにはコストがかかるため、モーションキャプチャデータを用いた疑似的な学習データの作製を行う。
モーションキャプチャデータは関節位置の3次元情報を含むため、制限されているカメラ配置、又は自由なカメラ配置において関節位置のカメラ映像への写り方をシミュレートすることができる。このようにしてシミュレートされた関節位置情報を用いて、特定のシーンにおける関節位置の尤もらしい配置関係を学習する。
また、入力画像に対して人体の姿勢を推定する際には、上記の画像特徴と関節との関係に基づく関節推定器によって各画素について関節らしさを表す尤度を算出し、それらの見た目による関節らしさと各関節間の配置関係に基づいた特定シーンにおける姿勢らしさを足し合わせて尤もらしい姿勢を推定する。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態は本発明を限定するものではない。
図1は、本実施形態の姿勢推定装置100の概略構成の一例を示す構成図である。図1に示すように本実施形態の姿勢推定装置100は、入力部10と、演算部20と、出力部40とを備える。
入力部10は、訓練画像及び関節位置データである学習データを受け付ける。学習データは、後述する関節推定器学習部24において用いられる。また、入力部10は、3次元モーションキャプチャデータ及びカメラパラメータを受け付ける。3次元モーションキャプチャデータ及びカメラパラメータは、後述する関節配置関係学習部28において用いられる。また、入力部10は、入力画像を受け付ける。入力画像は、後述する関節位置推定部32において用いられる。
演算部20は、骨格モデル記憶部22と、関節推定器学習部24と、関節推定器記憶部26と、関節配置関係学習部28と、関節配置関係パラメータ記憶部30と、関節位置推定部32とを備えている。
骨格モデル記憶部22には、各関節をノードとし、隣接する関節間をエッジで結合した木構造を表す骨格モデルが格納されている。図2に、骨格モデルの一例を示す。本実施形態では、図2に示すように、推定対象の人体の関節が木構造によって事前に定義されている。木構造の根ノードは頭部を表し、葉ノードは、手足の端点を表す。また、エッジによって結ばれている2つの関節を、隣接する関節と称し、その中で根側を親関節、葉側を子関節と称する。本実施形態では、図2に示した骨格モデルを用いており、関節としては、「頭」、「首」、「肩」、「肘」、「手」、「腿」、「膝」、及び「足」を採用している。
関節推定器学習部24は、図3に示すように、入力部10により受け付けた、訓練画像及び関節位置データの組み合わせである学習データと、骨格モデル記憶部22に格納された骨格モデルとに基づいて、機械学習を用いて関節推定器を学習する。
関節推定器は、画像中の各画素について、関節を表す複数の関節ラベルの各々に対し、当該画素が、当該関節ラベルが表す関節の関節位置である尤度を表す関節位置のスコアを算出する。また、本実施の形態の関節推定器は、画像中の各画素について、隣接する関節間の配置関係を表す複数の配置関係クラスの各々及び関節ラベルの各々について、当該画素に位置する当該関節ラベルが表す関節と隣接する関節との間の配置関係が、当該配置関係クラスとなる尤度を表す配置関係のスコアを算出する。
このように、関節推定器によって、入力画像中の各画素について、関節ラベルに属する尤度が算出されると共に、関節ラベルだけでなく隣接する関節との配置関係についてもクラス分けが行われ、配置関係クラスに属する尤度が算出される。
図4に、配置関係クラスの一例を示す。本実施の形態では、図4に示すように、入力部10により受け付けた学習データの関節位置データに含まれる関節位置情報を用いて、予め隣接する関節間の相対的な配置を一定数のクラスにクラスタリングする。
そして、関節推定器学習部24は、関節ラベルと配置関係クラスとの組み合わせによって分けられたデータを1つのクラスとして多クラス識別を行う関節推定器を学習する。
学習された関節推定器は、後述する関節尤度算出部320において、画像中の各画素について各関節に属する尤度及び隣接する関節との配置関係が各配置関係クラスに属する尤度を算出する際に用いられる。
こうした推定を高精度に行う手法として深層学習を用いる方法が知られているが、画像の勾配を特徴としてBoostingやSupport Vector Machineを識別器として用いても良い。上記非特許文献1では、深層学習を用いて同様の関節の配置関係を判別する関節推定器の学習を行っている。
関節推定器記憶部26には、関節推定器学習部24によって学習された関節推定器が格納される。
関節配置関係学習部28は、入力部10により受け付けた、人物について計測された各関節の位置を表す複数の3次元モーションキャプチャデータと、姿勢推定対象の人物が写る画像を撮像するカメラの予め定められた特定のカメラパラメータとに基づいて、特定のシーンでカメラに写る関節配置をシミュレートし、シミュレートされた関節配置の偏りを学習する。関節配置関係学習部28は、図5に示すように、疑似関節画像生成部280と、関節配置関係パラメータ算出部282とを備える。
疑似関節画像生成部280は、入力部10により受け付けた複数の3次元モーションキャプチャデータと、カメラパラメータとに基づいて、3次元モーションキャプチャデータが表す各関節の3次元位置から、カメラに写る各関節の2次元位置情報を表す複数の疑似関節画像を生成する。
本実施の形態では、カメラパラメータには内部パラメータと外部パラメータとが含まれている。内部パラメータは、姿勢推定対象の人物が写る画像を撮像するカメラの画角、レンズゆがみ等である。また、外部パラメータは、撮像対象の人物に対するカメラの位置と向きである。
3次元モーションキャプチャデータは、例えば、人体にマーカーが付けられ、様々な人間の行動について記録されたデータとして、予め取得される。カメラパラメータが既知の場合、様々な人間の行動について記録された3次元モーションキャプチャデータに基づき、既知の視点からの関節位置の見え方をシミュレートすることができ、複数の疑似関節画像を生成することができる。なお、各関節の配置関係については、関節の配置関係クラスを用いて離散化する。
なお、本実施の形態では、カメラパラメータが既知である場合を例に説明するが、行動パターンが既知であるなどの場合にも人体姿勢の偏りがシミュレートできれば同様に適用可能である。この場合、疑似関節画像生成部280は、予め定められた人物の特定の行動パターンについて計測された関節の位置を表す複数の3次元モーションキャプチャデータと、カメラの予め定められた複数のカメラパラメータとに基づいて、複数の3次元モーションキャプチャデータから複数の疑似関節画像を生成する。
関節配置関係パラメータ算出部282は、各関節について、骨格モデル記憶部22に格納された骨格モデルと、疑似関節画像生成部280によって生成された複数の疑似関節画像とに基づいて、当該関節の隣接する関節に対する配置関係クラスの各々の頻度を算出する。
また、関節配置関係パラメータ算出部282は、各関節について、骨格モデル記憶部22に格納された骨格モデルと、疑似関節画像生成部280によって生成された複数の疑似関節画像とに基づいて、当該関節の子関節に対する配置関係クラスの各々を条件とした当該関節の親関節に対する配置関係クラスの各々の頻度を表す第1の統計値を算出する。
また、関節配置関係パラメータ算出部282は、各関節について、骨格モデル記憶部22に格納された骨格モデルと、複数の疑似関節画像とに基づいて、当該関節の親関節に対する配置関係クラスの各々を条件とした親関節の子関節である当該関節に対する配置関係クラスの各々の頻度を表す第2の統計値を算出する。
具体的には、関節配置関係パラメータ算出部282は、骨格モデル記憶部22に格納された骨格モデルと、疑似関節画像生成部280によりシミュレートによって得られた疑似関節画像とに基づいて、複数の疑似関節画像の各々について、隣接する関節の配置関係クラスを算出し、複数の疑似関節画像について配置関係クラスを数え上げることで、以下の(1)〜(3)に示す統計値を求め、関節配置関係パラメータとする。
(1)関節iの隣接する関節kに対する配置関係クラスmikがtとなる頻度
(2)第1の統計値:関節iの子関節に対する配置関係が既知の場合に、関節iの親関節p(i)に対する配置関係クラスmip(i)がtとなる頻度
(3)第2の統計値:関節kの親関節iに対する配置関係が既知の場合に、関節iの子関節kに対する配置関係クラスmikがtとなる頻度
関節配置関係パラメータ記憶部30には、関節配置関係パラメータ算出部282によって算出された関節配置関係パラメータが格納される。
関節位置推定部32は、入力部10により受け付けた入力画像と、関節推定器記憶部26に格納された関節推定器と、関節配置関係パラメータ記憶部30に格納された関節配置関係パラメータとに基づいて、入力画像に含まれる人体の姿勢推定を行う。関節位置推定部32は、図6に示すように、関節尤度算出部320と、関節配置最適化部322とを備えている。
関節尤度算出部320は、入力部10により受け付けた入力画像中の各画素について、関節推定器記憶部26に格納された関節推定器を用いて、各関節ラベル及び配置関係クラスについての尤度の計算を行い、関節位置のスコア及び配置関係のスコアとする。この場合、尤度の算出は各画素に対して行い、関節推定器の出力としては、ある画素lについて、関節ラベルjがiとなる尤度P(j=i│I(l))と、関節ラベルjがiとなるときの隣接する関節kに対する配置関係クラスmがtとなる尤度P(mik=t|j=i,I(l))とが得られる。
関節配置最適化部322は、関節尤度算出部320によって算出された関節位置のスコア及び配置関係のスコアと、関節配置関係パラメータ記憶部30に格納された第1の統計値及び第2の統計値とを含む、各関節の位置に対する評価関数を最適化するように、入力部10により受け付けた入力画像中の各関節の位置を算出する。本実施の形態では、以下の式(1)に示すような評価関数を最大化することを考える。

(1)
ここで、lが各関節の位置を表すベクトル、tが各隣接する関節ペアの配置関係クラスを示しており、Vは関節ノードの集合、εは隣接する関節のペアの集合を示し、ペアの中でもiが親関節、kが子関節を示している。また、Iは入力画像を示す。
また、上記式(1)では、Uは関節尤度算出部320によって算出された関節iの関節位置のスコアを表す。また、Rは関節尤度算出部320によって算出された、親関節iに対する子関節kの配置関係のスコア、及び子関節kに対する親関節iの配置関係のスコアを表す。
また、Jは、複数の関節の各々についての隣接する関節との間の配置関係の尤もらしさを表すスコアを表す。Jは、関節配置関係パラメータ記憶部30に格納された関節配置関係パラメータのうちの、第1の統計値を用いて表される。
また、Jは、相互に隣接する関節のペアの間の配置関係の尤もらしさを表すスコアを表す。Jは、関節配置関係パラメータ記憶部30に格納された関節配置関係パラメータのうちの、第2の統計値を用いて表される。
また、Rは、隣接する関節のペアの関節間の距離と予め設定された距離との差分が大きいほど、小さくなるように設定された、関節間の距離に関するスコアを表す。
上記式(1)の評価関数では、各関節についての関節位置のスコアUと、各関節についての隣接する関節との間の配置関係の尤もらしさを表すスコアJとが足し合わされ、また各隣接する関節のペアについて、関節間の距離に関するスコアRと、画像情報に基づく配置関係のスコアRと、相互に隣接する関節のペアの間の配置関係の尤もらしさを表すスコアJとが足し合わされる。
本実施の形態では、訓練画像及び関節位置データである学習データから直接学習される関節位置のスコアU、配置関係のスコアR及び関節間の距離に関するスコアRに加えて、特定シーンにおける姿勢の偏りに基づく関節配置関係に対する、複数の関節の各々についての隣接する関節との間の配置関係の尤もらしさを表すスコアJ及び相互に隣接する関節のペアの間の配置関係の尤もらしさを表すスコアJを考慮することで、特定シーンにおける姿勢の推定精度を高めることができる。
関節位置のスコアU及び配置関係のスコアRを以下の(2),(3)に示す。

(2)

(3)
ここで、w (U)及びwik (Ra)はスコア間の影響を調整するためのパラメータである。上記式に示すように、関節位置のスコアU及び配置関係のスコアRは、関節推定器の出力より算出される。また、関節間の距離に基づくスコアRは以下の式によって求められる。


(4)
ここで、〈 ,〉は内積処理を示す。また、ψは差分ベクトルに対して上式の変換を行う関数を示す。rは各隣接する関節のペアに対して事前に計算された平均的な差分ベクトルを示しており、関節間の距離に関するスコアRは、隣接する関節ペアとその配置関係クラスに対して関節位置の相対配置が標準的な相対配置rとずれるほど低いスコアが出力されるように設計されている。wik (Rd)及びwki (Rd)はスコア間の影響を調整するためのパラメータベクトルである。
また、隣接する関節の配置関係同士の尤もらしさを示す、複数の関節の各々についての隣接する関節との間の配置関係の尤もらしさを表すスコアJ及び相互に隣接する関節のペアの間の配置関係の尤もらしさを表すスコアJは以下の式(5)、(6)によって求められる。

(5)

(6)
ここで、C(i)は関節iの持つ子関節の集合、p(i)は関節iの親関節を示しており、Jは子関節との配置関係クラスが既知である場合に親関節との配置関係クラスがtとなる頻度に応じた尤度に基づき、Jは子関節から親関節への配置関係クラスが既知である場合に親関節から子関節への配置関係クラスがtとなる頻度に応じた尤度に基づいている。w (Ja)及びwik (Jc)はスコア間の影響を調整するためのパラメータベクトルである。
本実施の形態では、骨格モデルに木構造を用いているため、上記各スコアの合計値は動的計画法によって効率的に求めることができる。具体的には以下の式(7)、(8)を葉ノードから順に計算することによってスコアが最大となる対象ノードが表す関節iの関節位置が求められる。

(7)

(8)
従って、関節配置最適化部322は、骨格モデル記憶部22に格納された骨格モデルの葉ノードから根ノードまで順に対象ノードとし、上記式(7)及び(8)に示す評価関数を最適化するように、対象ノードが表す関節iの位置、及び対象ノードが表す関節iの、隣接関節c,kに対する配置関係クラスtic,tipを計算することを繰り返す。
ここで、上記式(7)に示すSic (C)は各関節の子関節への配置関係クラス毎に計算され、上記式(8)に示すSip (P)は各関節の親関節への配置関係クラス毎に計算される。葉ノードから順にそれぞれのスコアを最大化していくことで、対象ノードが表す関節の位置、子関節への配置関係クラス、及び親関節への配置関係クラスが決定される。最後に根ノードである頭部関節の位置lを以下の式(9)に示すスコアの最大化によって求めることで、対応する各関節位置を逆算していき、各関節位置を得ることができる。

(9)
なお、各スコアの影響の度合いを決める重みw(w (U),wik (Ra),wik (Rd),wki (Rd),w (Ja),wik (Jc))は人手によって値を設定しても良いし、Structured SVM等の手法を用いて学習データに基づいて決定しても良い。
出力部40は、関節配置最適化部322によって得られた関節位置と配置関係クラスとを出力する。
なお、本実施形態の姿勢推定装置100は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を備えたコンピュータにより実現されており、CPUが、ROMに記憶されているプログラムを実行することにより、後述する関節推定器学習処理、関節配置関係学習処理、及び関節位置推定処理が実行される。
次に、本実施形態の姿勢推定装置100の作用について説明する。
まず、関節推定器学習部24において実行される関節推定器学習処理について説明する。関節推定器学習部24は、入力部10が訓練画像及び関節位置データを受け付けると、図7に一例を示す関節推定器学習処理を実行する。
<関節推定器学習処理ルーチン>
ステップS100で、関節推定器学習部24は、入力部10から入力された訓練画像及び関節位置データを取得する。
次にステップS102で、関節推定器学習部24は、上記ステップS100で取得した訓練画像及び関節位置データに基づいて、機械学習を用いて関節推定器を学習する。
次にステップS102で、関節推定器学習部24は、上記ステップS102で得られた関節推定器を関節推定器記憶部26に格納して、関節推定器学習処理を終了する。
関節推定器記憶部26に関節推定器が格納され、入力部10が複数の3次元モーションキャプチャデータ及び特定のカメラパラメータを受け付けると、関節配置関係学習部28は、図8に一例を示す関節配置関係学習処理を実行する。
<関節配置関係学習処理ルーチン>
ステップS200で、疑似関節画像生成部280は、入力部10により受け付けた3次元モーションキャプチャデータと、カメラパラメータとを取得する。
次のステップS202で、疑似関節画像生成部280は、上記ステップS200で受け付けた3次元モーションキャプチャデータとカメラパラメータとに基づいて、3次元モーションキャプチャデータから各関節の2次元位置情報を表す複数の疑似関節画像を生成する。
次のステップS204で、関節配置関係パラメータ算出部282は、各関節について、骨格モデル記憶部22に格納された骨格モデルと、上記ステップS202で生成された複数の疑似関節画像に基づいて、関節配置関係パラメータを算出する。
次のステップS206で、関節配置関係パラメータ算出部282は、上記ステップS204で得られた関節配置関係パラメータを、関節配置関係パラメータ記憶部30に格納し、関節配置関係学習処理を終了する。
関節配置関係パラメータ記憶部30に関節配置関係パラメータが格納され、入力部10が入力画像を受け付けると、関節位置推定部32は、図9に一例を示す関節位置推定処理を実行する。
<関節位置推定処理ルーチン>
ステップS300で、関節尤度算出部320は、入力部10により受け付けた入力画像を取得する。
ステップS302で、関節尤度算出部320は、上記ステップS300で取得した入力画像中の各画素について、関節推定器記憶部26に格納された関節推定器を用いて、各関節の関節位置のスコアUと、各関節及び各配置関係のスコアRとを算出する。
ステップS304で、関節配置最適化部322は、上記ステップS302で算出された関節位置のスコアU及び配置関係のスコアRと、関節配置関係パラメータ記憶部30に格納された第1の統計値及び第2の統計値とを含む、各関節の位置に対する上記式(1)に示す評価関数を最適化するように、上記ステップS300で受け付けた入力画像中の各関節の位置を算出する。
ステップS306で、出力部40は、関節配置最適化部322によって得られた関節位置と配置関係クラスとを出力して、関節位置推定処理を終了する。
以上説明したように、本実施形態の姿勢推定装置100によれば、入力画像中の各画素について、予め求められた関節推定器に基づいて、関節位置のスコアと配置関係のスコアとを算出し、3次元モーションキャプチャデータと特定のカメラパラメータとに基づいて3次元モーションキャプチャデータから各関節の2次元位置情報を表す複数の疑似関節画像を生成し、各関節について、複数の疑似関節画像に基づいて、関節の親関節に対する配置関係クラスの各々の頻度を表す第1の統計値と、親関節の子関節である関節に対する配置関係クラスの各々の頻度を表す第2の統計値とを算出し、算出された関節位置のスコア及び配置関係のスコアと、算出された第1の統計値及び第2の統計値とを含む、各関節の位置に対する評価関数を最適化するように、入力画像中の各関節の位置を算出することにより、画像に写る人の姿勢に偏りがある場合に、関節の位置を精度良く推定することができる。
また、本実施形態の姿勢推定装置100によれば、例えば人物を撮影しているカメラと床面との関係が既知である等の条件により、人物が予め取りうる姿勢の偏りがわかっている場合、その情報を活用して精度良く姿勢推定を行うことができる。特に、監視カメラ映像を対象として人物の姿勢推定を行う場合、カメラに写る人の取りうる姿勢はそのカメラ配置によって限定されており、大きな精度向上が期待される。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記の実施の形態において、上記式(1)に示す評価関数を最適化する場合を例に説明したが、これに限定されるものではなく、例えば、評価関数には関節間の距離に関するスコアRが含まれていなくともよい。
また、本実施形態において、関節配置最適化部322は、関節位置と配置関係クラスとを推定する場合を例に説明したが、これに限定されるものではなく、例えば、関節位置のみを推定してもよい。
また、本実施形態では、関節推定器学習部24、関節配置関係学習部28、及び関節位置推定部32が1つの装置(姿勢推定装置100)内に備えられている場合を例に説明したが、関節推定器学習部24、関節配置関係学習部28、及び関節位置推定部32を別々の装置として構成してもよい。
上述の姿勢推定装置100は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 入力部
20 演算部
22 骨格モデル記憶部
24 関節推定器学習部
26 関節推定器記憶部
28 関節配置関係学習部
30 関節配置関係パラメータ記憶部
32 関節位置推定部
40 出力部
100 姿勢推定装置
280 疑似関節画像生成部
282 関節配置関係パラメータ算出部
320 関節尤度算出部
322 関節配置最適化部

Claims (6)

  1. 入力画像中の各画素について、予め求められた関節推定器に基づいて、関節を表す複数の関節ラベルの各々に対する、前記画素が前記関節ラベルが表す関節の関節位置である尤度を表す関節位置のスコアと、隣接する関節間の配置関係を表す複数の配置関係クラスの各々についての前記画素に位置する前記関節ラベルが表す関節と隣接する関節との間の配置関係が前記配置関係クラスとなる尤度を表す配置関係のスコアとを算出する関節尤度算出部と、
    人物について計測された各関節の位置を表す3次元モーションキャプチャデータと、姿勢推定対象の人物が写る画像を撮像するカメラの予め定められた特定のカメラパラメータとに基づいて、あるいは、予め定められた人物の特定の行動パターンについて計測された前記関節の位置を表す3次元モーションキャプチャデータと、前記カメラの予め定められた複数のカメラパラメータとに基づいて、前記3次元モーションキャプチャデータから各関節の2次元位置情報を表す複数の疑似関節画像を生成する疑似関節画像生成部と、
    各関節について、
    前記疑似関節画像生成部によって生成された前記複数の疑似関節画像に基づいて、
    前記関節の子関節に対する前記配置関係クラスの各々を条件とした前記関節の親関節に対する前記配置関係クラスの各々の頻度を表す第1の統計値と、前記関節の親関節に対する前記配置関係クラスの各々を条件とした前記親関節の子関節である前記関節に対する前記配置関係クラスの各々の頻度を表す第2の統計値とを算出する関節配置関係パラメータ算出部と、
    前記関節尤度算出部によって算出された前記関節位置のスコア及び前記配置関係のスコアと、前記関節配置関係パラメータ算出部によって算出された前記第1の統計値及び前記第2の統計値とを含む、各関節の位置に対する評価関数を最適化するように、
    前記入力画像中の各関節の位置を算出する関節配置最適化部と、
    を含む姿勢推定装置。
  2. 前記評価関数は、前記第1の統計値を用いて表され、かつ前記複数の関節の各々についての隣接する関節との間の配置関係の尤もらしさを表すスコアと、前記第2の統計値を用いて表され、かつ相互に隣接する関節のペアの間の配置関係の尤もらしさを表すスコアとを含む請求項1記載の姿勢推定装置。
  3. 前記評価関数は、隣接する前記関節のペアの関節間の距離と予め設定された距離との差分が大きいほど、小さくなるように設定された、関節間の距離に関するスコアを更に含む
    請求項1又は2に記載の姿勢推定装置。
  4. 前記関節配置最適化部は、
    各関節をノードとし、隣接する関節間をエッジで結合した木構造を表す骨格モデルの葉ノードから根ノードまで順に対象ノードとし、
    前記評価関数を最適化するように、前記対象ノードが表す関節の位置、及び前記対象ノードが表す関節の、隣接関節に対する配置関係を計算することを繰り返す
    請求項1〜請求項3の何れか1項に記載の姿勢推定装置。
  5. 関節尤度算出部が、入力画像中の各画素について、予め求められた関節推定器に基づいて、関節を表す複数の関節ラベルの各々に対する、前記画素が前記関節ラベルが表す関節の関節位置である尤度を表す関節位置のスコアと、隣接する関節間の配置関係を表す複数の配置関係クラスの各々についての前記画素に位置する前記関節ラベルが表す関節と隣接する関節との間の配置関係が前記配置関係クラスとなる尤度を表す配置関係のスコアとを算出するステップと、
    疑似関節画像生成部が、人物について計測された各関節の位置を表す3次元モーションキャプチャデータと、姿勢推定対象の人物が写る画像を撮像するカメラの予め定められた特定のカメラパラメータとに基づいて、あるいは、予め定められた人物の特定の行動パターンについて計測された前記関節の位置を表す3次元モーションキャプチャデータと、前記カメラの予め定められた複数のカメラパラメータとに基づいて、前記3次元モーションキャプチャデータから各関節の2次元位置情報を表す複数の疑似関節画像を生成するステップと、
    関節配置関係パラメータ算出部が、
    各関節について、
    前記疑似関節画像生成部によって生成された前記複数の疑似関節画像に基づいて、
    前記関節の子関節に対する前記配置関係クラスの各々を条件とした前記関節の親関節に対する前記配置関係クラスの各々の頻度を表す第1の統計値と、前記関節の親関節に対する前記配置関係クラスの各々を条件とした前記親関節の子関節である前記関節に対する前記配置関係クラスの各々の頻度を表す第2の統計値とを算出するステップと、
    関節配置最適化部が、前記関節尤度算出部によって算出された前記関節位置のスコア及び前記配置関係のスコアと、前記関節配置関係パラメータ算出部によって算出された前記第1の統計値及び前記第2の統計値とを含む、各関節の位置に対する評価関数を最適化するように、前記入力画像中の各関節の位置を算出するステップと、
    を含む姿勢推定方法。
  6. コンピュータを、請求項1〜請求項4の何れか1項に記載の姿勢推定装置の各部として機能させるためのプログラム。
JP2016143768A 2016-07-21 2016-07-21 姿勢推定装置、方法、及びプログラム Pending JP2018013999A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016143768A JP2018013999A (ja) 2016-07-21 2016-07-21 姿勢推定装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016143768A JP2018013999A (ja) 2016-07-21 2016-07-21 姿勢推定装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2018013999A true JP2018013999A (ja) 2018-01-25

Family

ID=61019548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016143768A Pending JP2018013999A (ja) 2016-07-21 2016-07-21 姿勢推定装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2018013999A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133331A (ja) * 2018-01-30 2019-08-08 コニカミノルタ株式会社 画像認識装置、画像認識方法、および、画像認識プログラム
WO2020070856A1 (ja) * 2018-10-04 2020-04-09 三菱電機株式会社 座標値統合装置、座標値統合システム、座標値統合方法、及び座標値統合プログラム
WO2020070857A1 (ja) * 2018-10-04 2020-04-09 三菱電機株式会社 座標値統合装置、座標値統合システム、座標値統合方法、及び座標値統合プログラム
JP2020086511A (ja) * 2018-11-15 2020-06-04 株式会社ドワンゴ データ補正装置およびプログラム
KR20200076276A (ko) * 2018-12-19 2020-06-29 전자부품연구원 관절 간 거리 정보를 이용한 영상 기반 사람 자세 및 형상 모델 복원 장치 및 방법
JP6723486B1 (ja) * 2019-07-10 2020-07-15 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
JP2021086322A (ja) * 2019-11-26 2021-06-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
KR20210074165A (ko) * 2019-12-11 2021-06-21 한국전자기술연구원 관절 간 상대 거리 정보를 이용한 다시점 영상 기반 사람 자세 및 형상 모델 복원 장치 및 방법
KR102325072B1 (ko) * 2020-09-18 2021-11-11 주식회사 위딧 포즈 매칭 방법 및 이를 수행하기 위한 장치

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133331A (ja) * 2018-01-30 2019-08-08 コニカミノルタ株式会社 画像認識装置、画像認識方法、および、画像認識プログラム
WO2020070856A1 (ja) * 2018-10-04 2020-04-09 三菱電機株式会社 座標値統合装置、座標値統合システム、座標値統合方法、及び座標値統合プログラム
WO2020070857A1 (ja) * 2018-10-04 2020-04-09 三菱電機株式会社 座標値統合装置、座標値統合システム、座標値統合方法、及び座標値統合プログラム
JP2020086511A (ja) * 2018-11-15 2020-06-04 株式会社ドワンゴ データ補正装置およびプログラム
KR102170888B1 (ko) 2018-12-19 2020-10-28 한국전자기술연구원 관절 간 거리 정보를 이용한 영상 기반 사람 자세 및 형상 모델 복원 장치 및 방법
KR20200076276A (ko) * 2018-12-19 2020-06-29 전자부품연구원 관절 간 거리 정보를 이용한 영상 기반 사람 자세 및 형상 모델 복원 장치 및 방법
JP6723486B1 (ja) * 2019-07-10 2020-07-15 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
JP2021086322A (ja) * 2019-11-26 2021-06-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7422456B2 (ja) 2019-11-26 2024-01-26 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
KR20210074165A (ko) * 2019-12-11 2021-06-21 한국전자기술연구원 관절 간 상대 거리 정보를 이용한 다시점 영상 기반 사람 자세 및 형상 모델 복원 장치 및 방법
KR102338488B1 (ko) 2019-12-11 2021-12-13 한국전자기술연구원 관절 간 상대 거리 정보를 이용한 다시점 영상 기반 사람 자세 및 형상 모델 복원 장치 및 방법
WO2021256640A1 (ko) * 2019-12-11 2021-12-23 한국전자기술연구원 관절 간 상대 거리 정보를 이용한 다시점 영상 기반 사람 자세 및 형상 모델 복원 장치 및 방법
KR102325072B1 (ko) * 2020-09-18 2021-11-11 주식회사 위딧 포즈 매칭 방법 및 이를 수행하기 위한 장치

Similar Documents

Publication Publication Date Title
JP2018013999A (ja) 姿勢推定装置、方法、及びプログラム
CN108369643B (zh) 用于3d手部骨架跟踪的方法和系统
Yang et al. End-to-end learning of deformable mixture of parts and deep convolutional neural networks for human pose estimation
Zhang et al. Body meshes as points
CN112163537B (zh) 一种行人异常行为检测方法、系统、终端以及存储介质
WO2021190321A1 (zh) 图像处理方法和装置
Qiu et al. AirDOS: Dynamic SLAM benefits from articulated objects
JP2019079487A (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
Bultmann et al. Real-time multi-view 3D human pose estimation using semantic feedback to smart edge sensors
Li et al. MannequinChallenge: Learning the depths of moving people by watching frozen people
Martínez-González et al. Residual pose: A decoupled approach for depth-based 3D human pose estimation
JP7055867B2 (ja) 人体認識方法、機器及び記憶媒体
Singh et al. Fast semantic-aware motion state detection for visual slam in dynamic environment
Li et al. Sparse-to-local-dense matching for geometry-guided correspondence estimation
JP7498404B2 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
Degol et al. Feats: Synthetic feature tracks for structure from motion evaluation
Haker et al. Self-organizing maps for pose estimation with a time-of-flight camera
JP2021149687A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
Du The computer vision simulation of athlete’s wrong actions recognition model based on artificial intelligence
Reddy et al. Deformable 3D CAD models in mobile augmented reality for tele-assistance
JP2009048305A (ja) 形状解析プログラム及び形状解析装置
Ryu et al. Skeleton-based Human Action Recognition Using Spatio-Temporal Geometry (ICCAS 2019)
JP2018180894A (ja) 情報処理装置、情報処理方法及びプログラム
Moliner et al. Better prior knowledge improves human-pose-based extrinsic camera calibration