JP2016099982A - 行動認識装置、行動学習装置、方法、及びプログラム - Google Patents

行動認識装置、行動学習装置、方法、及びプログラム Download PDF

Info

Publication number
JP2016099982A
JP2016099982A JP2014239329A JP2014239329A JP2016099982A JP 2016099982 A JP2016099982 A JP 2016099982A JP 2014239329 A JP2014239329 A JP 2014239329A JP 2014239329 A JP2014239329 A JP 2014239329A JP 2016099982 A JP2016099982 A JP 2016099982A
Authority
JP
Japan
Prior art keywords
posture
image data
feature amount
photographer
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014239329A
Other languages
English (en)
Inventor
悠 米本
Haruka Yonemoto
悠 米本
和彦 村崎
Kazuhiko Murazaki
和彦 村崎
達哉 大澤
Tatsuya Osawa
達哉 大澤
恭子 数藤
Kyoko Sudo
恭子 数藤
潤 島村
Jun Shimamura
潤 島村
行信 谷口
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014239329A priority Critical patent/JP2016099982A/ja
Publication of JP2016099982A publication Critical patent/JP2016099982A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】視点や撮影者の体格の違いよる動作の見えの違いに対して頑健に、撮影者の行動を認識できるようにする。【解決手段】カメラ位置姿勢推定部22によって、三次元画像データに基づいて、カメラの位置姿勢を推定し、骨格姿勢抽出部23によって、体型パラメータを用いて、撮影者の骨格姿勢パラメータを抽出する。姿勢特徴量抽出部26によって、抽出された骨格姿勢パラメータに基づいて、撮影者の姿勢特徴量を抽出し、画像特徴量抽出部27によって、二次元画像データに基づいて、画像特徴量を抽出する。行動認識部28によって、抽出された姿勢特徴量及び画像特徴量と、識別器パラメータとに基づいて、撮影者の行動を認識する。【選択図】図3

Description

本発明は、行動認識装置、行動学習装置、方法、及びプログラムに係り、特に、カメラの撮影者の行動を認識するための行動認識装置、行動学習装置、方法、及びプログラムに関する。
近年、産業分野では、ハンズフリーで作業が可能なことから、頭部装着型カメラの活用への関心が高まっている。現状では、記録や作業現場共有などの用途が主であるが、今後は作業者の置かれている環境や作業者自身の行動を自動認識し、適切な指示を出すことによって作業を効率化することが望まれる。
コンピュータビジョン分野では、頭部に装着されたカメラから得られる映像を用いて、撮影者の行動や状況を理解する研究がなされており、例えば、次のような研究成果が報告されている。
撮影者の手の動きの特徴量を、画像上の二次元的な動きを取得し、それをテンプレートとして学習することで、撮影者の行動を認識するという方法が提案されている(例えば、非特許文献1参照)。
また、従来から多く行われている固定カメラを用いる行動認識では、深度センサーからの入力を用いて推定された全身骨格姿勢から、姿勢特徴量を算出し、行動を認識するという方法が提案されている(例えば、非特許文献2参照)。
S.Sundaram " High level activity recognition using low resolution wearable vision" IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, 2009. L.Xia "View Invariant Human Action Recognition Using Histograms of 3D Joints" CVPRW, 2012.
上記の非特許文献1のような、撮影者の二次元的な手の動きに注目した方法では、視点の違いや撮影者間の体格の違いによる動作の見えの違いに対応することが難しい。例えば、全く同じ様に手を動作させていたとしても、見る角度が変わることで、同じ動きに関して全く異なる特徴が得られてしまうため、わずかな学習データセットしか期待できない場合、人間の多種多様な行動を認識することができないという問題を有している。
一方で、上記の非特許文献2のように撮影向きや体格に依存しない特徴量として骨格姿勢を取得する場合、前記のような課題を解決することが可能である。非特許文献2中で用いられている姿勢推定では、まず初期処理として、得られる3次元入力画像から全身の構造をとらえて被写体の身体の部位検出を行い、それらの部位の位置情報を用いて、尤もらしい全身骨格姿勢を推定するという手法がとられている。そのため、全身が隠れず写っている場合には姿勢推定が可能であるが、本発明で想定しているような、カメラが頭部に装着されており、動作者(撮影者)の体が部分的にしか見えないような状況では、同様の方法では部位の検出をすることができず、また、部分的な関節位置のみからでは頑健な骨格姿勢を推定することが困難である。
本発明は、上述のような従来技術の問題点を解決するためになされたものであって、撮影者の体の一部分しか映りこんでいない映像からであっても、視点や撮影者の体格の違いよる動作の見えの違いに対して頑健に、撮影者の行動を認識することができる行動認識装置、方法、およびプログラムを提供することを目的とする。
また、撮影者の体の一部分しか映りこんでいない映像からであっても、視点や撮影者の体格の違いよる動作の見えの違いに対して頑健に、撮影者の行動を認識するための識別器パラメータを学習することができる行動学習装置、方法、およびプログラムを提供することを目的とする。
上記目的を達成するために、本発明の行動認識装置は、撮影者側からカメラにより撮影した三次元画像データ及び二次元画像データのペアを受け付ける入力部と、前記三次元画像データに基づいて、前記カメラの位置姿勢を推定するカメラ位置姿勢推定部と、前記カメラ位置姿勢推定部によって推定された前記カメラの位置姿勢と、予め求められた前記撮影者の体型を表す体型パラメータと、前記三次元画像データとに基づいて、前記撮影者の骨格姿勢を表す骨格姿勢パラメータを抽出する骨格姿勢抽出部と、前記骨格姿勢抽出部によって抽出された前記骨格姿勢パラメータに基づいて、前記撮影者の姿勢特徴量を抽出する姿勢特徴量抽出部と、前記二次元画像データに基づいて、画像特徴量を抽出する画像特徴量抽出部と、前記姿勢特徴量抽出部によって抽出された前記姿勢特徴量及び前記画像特徴量抽出部によって抽出された前記画像特徴量と、前記撮影者の行動を識別するための予め学習された識別器パラメータとに基づいて、前記撮影者の行動を認識する行動認識部と、を含んで構成されている。
本発明に係る行動認識方法は、入力部によって、撮影者側からカメラにより撮影した三次元画像データ及び二次元画像データのペアを受け付け、カメラ位置姿勢推定部によって、前記三次元画像データに基づいて、前記カメラの位置姿勢を推定し、骨格姿勢抽出部によって、前記カメラ位置姿勢推定部によって推定された前記カメラの位置姿勢と、予め求められた前記撮影者の体型を表す体型パラメータと、前記三次元画像データとに基づいて、前記撮影者の骨格姿勢を表す骨格姿勢パラメータを抽出し、姿勢特徴量抽出部によって、前記骨格姿勢抽出部によって抽出された前記骨格姿勢パラメータに基づいて、前記撮影者の姿勢特徴量を抽出し、画像特徴量抽出部によって、前記二次元画像データに基づいて、画像特徴量を抽出し、行動認識部によって、前記姿勢特徴量抽出部によって抽出された前記姿勢特徴量及び前記画像特徴量抽出部によって抽出された前記画像特徴量と、前記撮影者の行動を識別するための予め学習された識別器パラメータとに基づいて、前記撮影者の行動を認識する。
本発明に係る行動学習装置は、行動ラベルが予め付与された、撮影者側からカメラにより撮影した三次元画像データ及び二次元画像データのペアを受け付ける入力部と、前記三次元画像データに基づいて、前記カメラの位置姿勢を推定するカメラ位置姿勢推定部と、前記カメラ位置姿勢推定部によって推定された前記カメラの位置姿勢と、予め求められた前記撮影者の体型を表す体型パラメータと、前記三次元画像データとに基づいて、前記撮影者の骨格姿勢を表す骨格姿勢パラメータを抽出する骨格姿勢抽出部と、前記骨格姿勢抽出部によって抽出された前記骨格姿勢パラメータに基づいて、前記撮影者の姿勢特徴量を抽出する姿勢特徴量抽出部と、前記二次元画像データに基づいて、画像特徴量を抽出する画像特徴量抽出部と、前記姿勢特徴量抽出部によって抽出された前記姿勢特徴量及び前記画像特徴量抽出部によって抽出された前記画像特徴量と、前記行動ラベルとに基づいて、前記撮影者の行動を識別するための識別器パラメータを学習する識別器パラメータ学習部と、を含んで構成されている。
本発明に係る行動学習方法は、入力部によって、行動ラベルが予め付与された、撮影者側からカメラにより撮影した三次元画像データ及び二次元画像データのペアを受け付け、カメラ位置姿勢推定部によって、前記三次元画像データに基づいて、前記カメラの位置姿勢を推定し、骨格姿勢抽出部によって、前記カメラ位置姿勢推定部によって推定された前記カメラの位置姿勢と、予め求められた前記撮影者の体型を表す体型パラメータと、前記三次元画像データとに基づいて、前記撮影者の骨格姿勢を表す骨格姿勢パラメータを抽出し、姿勢特徴量抽出部によって、前記骨格姿勢抽出部によって抽出された前記骨格姿勢パラメータに基づいて、前記撮影者の姿勢特徴量を抽出し、画像特徴量抽出部によって、前記二次元画像データに基づいて、画像特徴量を抽出し、識別器パラメータ学習部によって、前記姿勢特徴量抽出部によって抽出された前記姿勢特徴量及び前記画像特徴量抽出部によって抽出された前記画像特徴量と、前記行動ラベルとに基づいて、前記撮影者の行動を識別するための識別器パラメータを学習する。
また、本発明のプログラムは、コンピュータを、上記の行動認識装置、又は上記の行動学習装置の各部として機能させるためのプログラムである。
以上説明したように、本発明の行動認識装置、方法、及びプログラムによれば、推定されたカメラの位置姿勢と、撮影者の体型パラメータと、三次元画像データとに基づいて、撮影者の骨格姿勢パラメータを抽出して、撮影者の姿勢特徴量を抽出し、二次元画像データに基づいて、画像特徴量を抽出し、抽出された姿勢特徴量及び画像特徴量と、識別器パラメータとに基づいて、撮影者の行動を認識することにより、撮影者の体の一部分しか映りこんでいない映像からであっても、視点や撮影者の体格の違いよる動作の見えの違いに対して頑健に、撮影者の行動を認識することができる、という効果が得られる。
本発明の行動学習装置、方法、及びプログラムによれば、推定されたカメラの位置姿勢と、撮影者の体型パラメータと、三次元画像データとに基づいて、撮影者の骨格姿勢パラメータを抽出して、撮影者の姿勢特徴量を抽出し、二次元画像データに基づいて、画像特徴量を抽出し、抽出された姿勢特徴量及び画像特徴量と、行動ラベルとに基づいて、識別器パラメータを学習することにより、撮影者の体の一部分しか映りこんでいない映像からであっても、視点や撮影者の体格の違いよる動作の見えの違いに対して頑健に、撮影者の行動を認識するための識別器パラメータを学習することができる、という効果が得られる。
本発明の実施の形態の行動学習装置の機能構成を示すブロック図である。 行動ラベルデータの一例を示す図である。 本発明の実施の形態の行動認識装置の機能構成を示すブロック図である。 本発明の実施の形態の行動学習装置における行動学習処理ルーチンの内容を示すフローチャートである。 本発明の実施の形態の行動学習装置における骨格姿勢パラメータを抽出する処理ルーチンの内容を示すフローチャートである。 本発明の実施の形態の行動認識装置における行動学習処理ルーチンの内容を示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本実施の形態の概要>
本発明の実施の形態では、撮影者側から撮影した一人称三次元映像から適切な特徴を抽出し、それらの特徴を用いて撮影者の行動を学習し、新たに入力のあった映像に対して撮影者の行動を認識する。
視点や撮影者の体格の違いによる動作の見えの違いに頑健な行動認識をするための手段として、体の一部分のみしか映りこんでいない映像から骨格姿勢を取得し、姿勢特徴量を用いて行動認識を行うことを特徴とする。姿勢特徴は、見る方向によらず、同じ動作について同じ特徴量を取得することが可能であり、撮影視点が大きく変化する一人称映像において、頑健に行動認識を行うことを可能にする。
撮影者の体の一部分のみしか映っていない映像から、頑健に骨格情報を取得する手段として、あらかじめ取得した撮影者の体型パラメータと、カメラ位置姿勢情報を事前知識とした骨格姿勢推定を行うことを特徴とする。体型パラメータは、各関節間の長さや、腕の太さといったパラメータで、あらかじめこれらを取得しておくことで推定対象となる可能な姿勢のバリエーションを制限し、より精度の高い姿勢追跡を可能にする。また、カメラの位置姿勢情報を取得することで、骨格姿勢追跡時に前時刻からのカメラ運動を考慮しなくてよいため、カメラ運動と姿勢変化を同時に考慮して姿勢追跡する場合に比べ、頑健な追跡が可能となる。
本発明の実施の形態では、行動認識における学習のフェーズに対応する行動学習装置と、認識のフェーズに対応する行動認識装置との2つに分かれている。
<行動学習装置の構成>
本実施の形態の行動学習装置100は、CPUと、RAMと、後述する行動学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することができる。この行動学習装置100は、機能的には、図1に示すように、入力部10と、演算部20と、出力部30とを備えている。
入力部10は、撮影者側からカメラにより撮影された各時刻の三次元画像データ及び二次元画像データを受け付ける。例えば、ステレオカメラにより撮影された各時刻の三次元画像データ及び二次元画像データを受け付ける。また、各時刻の三次元画像データには、図2に示すように、各時刻の撮影者の行動ラベルが予め対応付けられている。入力部10で受け付けたラベル付きの各時刻の三次元画像データ及び二次元画像データは、三次元映像ラベルデータ記憶部21に記憶される。
演算部20は、三次元映像ラベルデータ記憶部21、カメラ位置姿勢推定部22、骨格姿勢抽出部23、骨格姿勢パラメータ記憶部24、フレーム分割部25、姿勢特徴量抽出部26、画像特徴量抽出部27、及び識別器パラメータ学習部28を備えている。
カメラ位置姿勢推定部22は、三次元映像ラベルデータ記憶部21に記憶された各時刻の三次元画像データに基づいて、例えば、非特許文献3のようなICPアルゴリズムを用いて、各時刻でのカメラ位置姿勢を推定する。
[非特許文献3]:R.A. Newcombe, S.Izadi, O.Hilliges, D.Molyneux, D.Kim, A.J. Davison, P.Kohli, J.Shotton, S.Hodges and A. Fitxgibbon “Kinect Fusion: Real-time Dense Surface Mapping and Tracking”, Proc. IEEE Int. Symp. Mixed and Augmented Reality (ISMAR), 2011.
骨格姿勢抽出部23は、カメラ位置姿勢推定部22で推定されたカメラ位置と、予め取得した骨格モデル及び撮影者の体型を表す体型パラメータと、三次元映像ラベルデータ記憶部21に記憶された各時刻の三次元画像データに基づいて、各時刻の撮影者の骨格姿勢を表す骨格姿勢パラメータを抽出し、骨格姿勢パラメータ記憶部24に格納する。
フレーム分割部25は、各時刻の三次元画像データ及び二次元画像データの連続するフレームを、行動認識用の識別器への入力単位である識別単位ごとに分割する。
姿勢特徴量抽出部26は、骨格姿勢抽出部23で抽出された各時刻の骨格姿勢パラメータに基づいて、例えば、上記の非特許文献2に記載の方法と同様の方法を用いて、識別単位ごとに、HOJ3Dなどの姿勢特徴量を抽出する。
画像特徴量抽出部27は、識別単位ごとに分割された各時刻の二次元画像データに基づいて、例えば、非特許文献4の方法でSIFT特徴量などの画像特徴量を抽出し、非特許文献5のような方法で量子化することにより、識別単位ごとに、画像特徴量を抽出する。
[非特許文献4]:D. G. Lowe "Object recognition from local scale-invariant features" The Proceedings of the Seventh IEEE International Conference on Computer Vision, 1999.
[非特許文献5]: Chih-Fong Tsai “Bag-of-Words Representation in Image Annotation: A Review” ISRN Artificial Intelligence, 2012
識別器パラメータ学習部28は、姿勢特徴量抽出部26によって抽出された識別単位毎の姿勢特徴量、及び画像特徴量抽出部27によって抽出された識別単位毎の画像特徴量を連結して、識別単位毎の特徴量ベクトルを生成し、識別単位毎の特徴量ベクトルと、三次元映像ラベルデータ記憶部21に記憶されている各時刻の行動ラベルから得られる、識別単位に対応する行動ラベルの情報とに基づいて、撮影者の行動認識をするための識別器のパラメータを学習する。学習された識別器のパラメータは、出力部30により出力され、行動認識装置200の識別器パラメータ記憶部127に記憶する。
<行動認識装置の構成>
本実施の形態の行動認識装置200は、CPUと、RAMと、後述する行動認識処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することができる。この行動認識装置200は、機能的には、図3に示すように、入力部110と、演算部120と、出力部130とを備えている。
入力部110は、撮影者側からカメラにより撮影された各時刻の三次元画像データ及び二次元画像データを受け付ける。例えば、撮影者の頭部に装着されたステレオカメラ等の画像センサーにより撮影された各時刻の三次元画像データ及び二次元画像データを受け付ける。あるいは、撮影者の頭部に装着された深度カメラにより撮影された各時刻の三次元画像データ、及び撮影者の頭部に装着されたカメラにより撮影された各時刻の二次元画像データを受け付ける。
演算部120は、カメラ位置姿勢推定部121、骨格姿勢抽出部122、骨格姿勢パラメータ記憶部123、フレーム分割部124、姿勢特徴量抽出部125、画像特徴量抽出部126、識別器パラメータ記憶部127、及び行動認識部128を備えている。
カメラ位置姿勢推定部121は、入力部110により受け付けた各時刻の三次元画像データから、各時刻でのカメラの位置姿勢を推定する。
骨格姿勢抽出部122は、カメラ位置姿勢推定部121によって推定されたカメラ位置姿勢と、予め取得した骨格モデル及び撮影者の体型パラメータと、入力部110により受け付けた各時刻の三次元画像データとに基づいて、各時刻の撮影者の骨格姿勢パラメータを推定する。
フレーム分割部124は、フレーム分割部25と同様に、入力部110により受け付けた各時刻の三次元画像データ及び二次元画像データの連続するフレームを、識別単位ごとに分割する。
姿勢特徴量抽出部125は、姿勢特徴量抽出部26と同様に、骨格姿勢抽出部122で抽出された骨格姿勢パラメータに基づいて、例えば、上記の非特許文献2に記載の方法と同様の方法を用いて、識別単位ごとに、HOJ3Dなどの姿勢特徴量を抽出する。
画像特徴量抽出部126は、画像特徴量抽出部27と同様に、識別単位ごとに分割された各時刻の二次元画像データに基づいて、例えば、非特許文献4の方法でSIFT特徴量などの画像特徴量を抽出し、非特許文献5のような方法で量子化することにより、識別単位ごとに、画像特徴量を抽出する。
行動認識部128は、姿勢特徴量抽出部26によって抽出された識別単位毎の姿勢特徴量、及び画像特徴量抽出部27によって抽出された識別単位毎の画像特徴量を連結して、識別単位毎の特徴量ベクトルを生成し、識別単位毎の特徴量ベクトルと、識別器パラメータ記憶部127に記憶された識別器パラメータとに基づいて、識別単位毎に、撮影者の行動認識を行う。
<行動学習装置の作用>
次に、本発明の実施形態に係る行動学習装置100の作用の一例を詳細に説明する。本発明の実施の形態の目的は、一人称映像から撮影者の行動を推定することである。
本実施形態では、カメラ内部パラメータ(焦点距離や投影中心といった、個々のカメラに特有のパラメータ)は事前にキャリブレーション済みであるとする。また、本実施形態では、一例として、カメラ位置姿勢推定部22、121において、ICPアルゴリズムを用いる場合について説明を行う。
本実施形態では、骨格モデルは、木構造であらわされるものとし、頭部をすべての関節の親ノード(ルート)とする。また、頭部装着型カメラの多くが個人専用デバイスを想定して作られていることから、影者の腕の長さや太さといった体型パラメータはあらかじめ得られているものとする。
本実施形態では、姿勢特徴量としてHOJ3Dを、識別単位ごとの画像特徴量としてSIFT特徴量を用いて説明を行う。
まず、各時刻の行動ラベル付きの学習用三次元画像データ及び学習用二次元画像データが行動学習装置100に入力されると、行動学習装置100は、各時刻の行動ラベル付きの学習用三次元画像データ及び学習用二次元画像データを、三次元映像ラベルデータ記憶部21に格納する。そして、行動学習装置100のROMに記憶された行動学習プログラムを、CPUが実行することにより、図4に示す行動学習処理ルーチンが実行される。
まず、ステップS301において、三次元映像ラベルデータ記憶部21から、学習用二次元画像データIt(t=1,2,3、・・・、T)と学習用三次元画像データDt(t=1,2,3、・・・、T)を取得する。ここで、tはフレーム番号であり、時刻に対応している。各時刻の画像データには、上記図2に示すような行動に関するラベルが付与されている。ここで、行動の集合をAとしたとき、撮影者の行動をa∈Aと表す。
次に、ステップS302において、カメラ位置姿勢推定部22により、各時刻tについて、学習用三次元画像データDtから、カメラの位置姿勢を推定する。初期時刻t=0の場合は、カメラ位置を原点とし、x、y、z軸についての回転角をそれぞれ0とする。以後のカメラの位置姿勢はt=0のカメラ位置からの相対的な位置姿勢として推定される。これらのパラメータは、本実施形態では、上記の非特許文献3のようなICPアルゴリズムを用いて求める。
次に、ステップS303において、骨格姿勢抽出部23により、各時刻tについて、撮影者の骨格姿勢パラメータを抽出する。
ステップS303は、図5に示す処理ルーチンにより実現される。
まず、ステップS401において、三次元画像データDtが読み込まれる。骨格姿勢パラメータは、
と表す。ここで、jは各関節のインデックスである。θt jは、x軸、y軸、z軸についての回転角度を表し、全関節の親となる関節(ルート)のみ三次元座標位置とx軸、y軸、z軸についての回転角を持つものとする。
ステップS402では、ルートの骨格姿勢パラメータを、上記ステップS302で得られたカメラ位置姿勢のパラメータをもとに計算する。本実施の形態では、カメラ位置をルート位置に補正するパラメータCを用いて、
とする。パラメータCは、あらかじめカメラ装着位置から算出されているものとする。
ステップS403では、t=0であるか否かを判定する。t=0である場合には、ステップS405において、骨格姿勢パラメータのルート以外のθtを初期化して、骨格姿勢パラメータの候補を生成する。本実施形態では、決められたポーズを表すθinitで置き換える。
t≠0の場合には、ステップS404において、骨格姿勢パラメータ記憶部24に記憶されているt−1フレームでの骨格姿勢パラメータを用いて、骨格姿勢パラメータのルート以外のθtを更新して、骨格姿勢パラメータの候補を生成する。本実施形態では、例えば、パーティクルフィルタを用いて以下の式に従って更新する。
ここで、vtは、平均0で共分散がΣ2となる3次元正規分布に従うシステムノイズである。本実施形態では、パーティクルフィルタを用いたが、前時刻の状態から現時刻の状態を推定する非特許文献7のような他の時系列フィルタを用いることができるのは当然である。
[非特許文献6]:K.Erleben, J.Sporring, K.Henriksen and H.Dohlmann “Phisics-Based Animation” Cengage Learning, Chap3, 2005.
[非特許文献7]:Iason Oikonomidis, Nikolaos Kyriazis, Antonis Argyros “Efficient Model-based 3D Tracking of Hand Articulations using Kinect” Proc. the British Machine Vision Conference(BMVC), 2011.
ステップS406では、骨格モデル、体型パラメータ、及び上記ステップS404又はS405で得られた骨格姿勢パラメータの候補から、撮影者の体積をボクセルで表現する。体型パラメータは、撮影者の各関節位置の長さや腕等の太さを表すパラメータである。骨格姿勢パラメータの候補θtと各関節の長さのパラメータから例えば非特許文献6のフォワードキネマティクスを用いて関節位置Ptを算出する。さらに腕等の太さを表すパラメータと各関節位置Ptを用いて、各関節位置周辺をボクセル化する。
次に、ステップS407では、上記ステップS406で得られた各ボクセルの中心を、カメラの内部パラメータと、上記ステップ302で推定されたカメラの位置姿勢のパラメータから取得されるカメラ外部パラメータとから、二次元画像データ上に投影する。このとき、カメラのカメラ座標系におけるz座標と各ボクセルの中心位置のz座標からカメラからの距離を計算し、距離に応じた濃淡情報で表されているDtと同様の三次元画像データRtを得る。
ステップS408では、上記ステップS401で読み込んだ三次元画像データDtから動物体の領域のみを切り出す。例えば、上記非特許文献3のようなKinect Fusionといった手法を用いて三次元の背景マップを構築し、ルート位置(カメラ位置)から投影される背景マップの三次元画像データと三次元画像データDtとの差分をとることで、背景に属さない動物体のみを切り出す。切り出された動物体を含む三次元画像データをDt’とする。
ステップS409では、上記ステップS407で得られた三次元画像データRtと上記ステップS408で得られた三次元画像データDt’との一致度を計算することにより、実際の姿勢と、推定された姿勢の一致度を計算する。本実施形態では、入力画像It、動物体のみ含まれる三次元画像データDt’、ボクセル中心を投影することで得られた三次元画像データRtから、上記の非特許文献7と同様の評価式を用いて、一致度を計算する。
ステップS410では、パラメータ更新を続けるかどうかの判定を行う。上記ステップS409での評価式の値があらかじめ決められた閾値εより小さいか、もしくは、三次元画像データDtに対する骨格姿勢パラメータθtの更新回数が、あらかじめ決められた最大更新回数Mより大きければ、ステップS411において、現時点の骨格姿勢パラメータの候補を、時刻tの骨格姿勢パラメータとして保存し、一方、条件を満たさない場合は、上記ステップS404へ戻る。
ステップS412では、次フレームがあるかどうかを判定する。次フレームがある場合には、上記ステップS401へ戻り処理を続け、ない場合には処理を終了する。
次に、上記図4のステップS304では、フレーム分割部25が、三次元画像データ及び二次元画像データの連続するフレームを、識別器入力単位である識別単位に分割する。本実施の形態では、あるフレームtから固定長Lフレームの部分t+Lフレームで分割し、識別単位として扱う。
そして、ステップS305では、上記ステップS303で得られた各時刻の骨格姿勢パラメータから、識別単位毎に、上記ステップS304で分割された各フレームに対して姿勢特徴量を取得する。本実施形態では、上記非特許文献2のような方法を用いて、HOJ3D特徴量を計算する。
次のステップS306では、上記ステップS301で読み込んだ各時刻の二次元画像データに基づいて、識別単位毎に、上記ステップS304で分割された各フレームに対して画像特徴量を抽出する。本実施形態では、非特許文献3のような方法でSIFT特徴量を各フレームで計算し、非特許文献4のような方法を用いて、量子化を行った後画像特徴量とする。これらの画像特徴量として、例えば非特許文献8のような方法で、STIPといった別の特徴量を用いることができることは当然である。
[非特許文献8]:I.Laptev et al. ”Local Descriptors for Spatio-temporal Recognition” Spatial Coherence for Visual Motion Analysis Lecture Notes in Computer Science Volume 3667, 2006, pp 91-103.
ステップS307では、上記ステップS305で得られた識別単位毎の姿勢特徴量と、上記ステップS306で得られた識別単位毎の画像特徴量と、三次元映像ラベルデータ記憶部21に記憶された各時刻の行動ラベルデータaとに基づいて、識別器パラメータの学習を行う。本実施形態では、ナイーブベイズ分類器により、各識別単位の特徴量ベクトルから行動ラベルを予測する。つまり、ある識別単位における姿勢特徴量と画像特徴量を合わせた特徴ベクトルをd、行動ラベルをaとしたとき、P(a|d)(a∈A)を最大化するようなaを出力する。
ここで、P(a)に一様分布、P(d|a)には、例えば正規分布を仮定し、対数尤度
を最大化するような、正規分布のパラメータ(平均、分散)を求めればよい。ここでDataは、Data={(d1、a1)、(d2、a2)、…、(dl、al);al∈A}であらわされる学習データで、alは、l番目の識別単位における行動ラベルで、識別単位に含まれる各時刻の行動ラベルのうち、最も多いラベルを取るものとする。学習されたパラメータは、行動認識装置200に入力され、識別器パラメータ記憶部127に記憶される。本実施形態にはナイーブベイズ分類器を用いたが、HMMや対数線形モデルといった他の分類器を用いることができるのは当然である。
<行動認識装置の作用>
次に、本発明の実施形態に係る行動認識装置200の作用の一例を詳細に説明する。
まず、各時刻の三次元画像データ及び二次元画像データが行動認識装置200に入力されると、行動認識装置200のROMに記憶された行動認識プログラムを、CPUが実行することにより、図6に示す行動認識処理ルーチンが実行される。
まず、ステップS501において、二次元画像データIt(t=1,2,3、・・・、T)と三次元画像データDt(t=1,2,3、・・・、T)を取得する。
ステップS502では、上記ステップS302と同様に、カメラ位置姿勢推定部121により、各時刻tについて、三次元画像データDtから、ICPアルゴリズムを用いて、カメラ位置姿勢を推定する。
次に、ステップS503において、骨格姿勢抽出部122により、上記図5に示す処理ルーチンと同じ処理ルーチンを実行することにより、各時刻tについて、撮影者の骨格姿勢パラメータを抽出する。
次に、ステップS504では、フレーム分割部124が、三次元画像データ及び二次元画像データの連続するフレームを、識別器入力単位である識別単位に分割する。本実施の形態では、あるフレームtから固定長Lフレームの部分t+Lフレームで分割し、識別単位として扱う。
ステップS505では、上記ステップS503で得られた各時刻の骨格姿勢パラメータから、識別単位毎に、上記ステップS504で分割された各フレームに対して姿勢特徴量を取得する。本実施形態では、上記非特許文献2のような方法を用いて、HOJ3D特徴量を計算する。
次のステップS506では、上記ステップS501で読み込んだ各時刻の二次元画像データに基づいて、識別単位毎に、上記ステップS504で分割された各フレームに対して画像特徴量を抽出する。本実施形態では、上記ステップ306で抽出した画像特徴量と同じものを用い、量子化されたSIFT特徴量を用いる。
ステップS507では、上記ステップS505で得られた識別単位毎の姿勢特徴量と、上記ステップS506で得られた識別単位毎の画像特徴量と、識別器パラメータ記憶部127に記憶された識別器のパラメータとに基づいて、識別単位毎に、撮影者の行動ラベルを予測する。つまり、
を得る。
ステップS508では、処理の終了判定を行う。次の時刻の三次元画像データ及び二次元画像データがあれば、上記ステップS501へ戻って処理を続ける。次の時刻の三次元画像データ及び二次元画像データがない場合、処理を終了する。
以上説明したように、本実施の形態に係る行動認識装置によれば、推定された各時刻のカメラの位置姿勢と、撮影者の体型パラメータと、各時刻の三次元画像データとに基づいて、各時刻の撮影者の骨格姿勢パラメータを抽出して、各識別単位の撮影者の姿勢特徴量を抽出し、各時刻の二次元画像データに基づいて、各識別単位の画像特徴量を抽出し、抽出された姿勢特徴量及び画像特徴量と、識別器パラメータとに基づいて、撮影者の行動を認識することにより、撮影者の体の一部分しか映りこんでいない映像からであっても、頭部装着型の三次元映像入力装置(例えば、ステレオカメラ等)を用いて撮影した映像から、視点や撮影者の体格の違いよる動作の見えの違いに対して頑健に、撮影者の行動を認識することができる。
また、本実施の形態に係る行動学習装置によれば、推定された各時刻のカメラの位置姿勢と、撮影者の体型パラメータと、各時刻の三次元画像データとに基づいて、各時刻の撮影者の骨格姿勢パラメータを抽出して、識別単位の撮影者の姿勢特徴量を抽出し、各時刻の二次元画像データに基づいて、識別単位の画像特徴量を抽出し、抽出された姿勢特徴量及び画像特徴量と、行動ラベルとに基づいて、識別器パラメータを学習することにより、撮影者の体の一部分しか映りこんでいない映像からであっても、視点や撮影者の体格の違いよる動作の見えの違いに対して頑健に、撮影者の行動を認識するための識別器パラメータを学習することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、行動学習装置と行動認識装置とを一つの装置として実装するようにしてもよい。
また、上記図1で示した装置における各部の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、図4、図5、図6で示した処理の手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えばFDや、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
10、110 入力部
20、120 演算部
21 三次元映像ラベルデータ記憶部
22、121 カメラ位置姿勢推定部
23、122 骨格姿勢抽出部
24、123 骨格姿勢パラメータ記憶部
25、124 フレーム分割部
26、125 姿勢特徴量抽出部
27、126 画像特徴量抽出部
28 識別器パラメータ学習部
30、130 出力部
100 行動学習装置
127 識別器パラメータ記憶部
128 行動認識部
200 行動認識装置

Claims (8)

  1. 撮影者側からカメラにより撮影した三次元画像データ及び二次元画像データのペアを受け付ける入力部と、
    前記三次元画像データに基づいて、前記カメラの位置姿勢を推定するカメラ位置姿勢推定部と、
    前記カメラ位置姿勢推定部によって推定された前記カメラの位置姿勢と、予め求められた前記撮影者の体型を表す体型パラメータと、前記三次元画像データとに基づいて、前記撮影者の骨格姿勢を表す骨格姿勢パラメータを抽出する骨格姿勢抽出部と、
    前記骨格姿勢抽出部によって抽出された前記骨格姿勢パラメータに基づいて、前記撮影者の姿勢特徴量を抽出する姿勢特徴量抽出部と、
    前記二次元画像データに基づいて、画像特徴量を抽出する画像特徴量抽出部と、
    前記姿勢特徴量抽出部によって抽出された前記姿勢特徴量及び前記画像特徴量抽出部によって抽出された前記画像特徴量と、前記撮影者の行動を識別するための予め学習された識別器パラメータとに基づいて、前記撮影者の行動を認識する行動認識部と、
    を含む行動認識装置。
  2. 前記入力部は、各時刻の三次元画像データ及び二次元画像データのペアを受け付け、
    前記カメラ位置姿勢推定部は、各時刻の前記三次元画像データに基づいて、各時刻の前記カメラの位置姿勢を推定し、
    前記姿勢特徴量抽出部は、前記カメラ位置姿勢推定部によって推定された各時刻の前記カメラの位置姿勢と、前記体型パラメータと、各時刻の前記三次元画像データとに基づいて、各時刻の前記撮影者の骨格姿勢パラメータを抽出し、
    前記姿勢特徴量抽出部は、前記骨格姿勢抽出部によって抽出された各時刻の前記骨格姿勢パラメータに基づいて、識別単位の各々の前記撮影者の姿勢特徴量を抽出し、
    前記画像特徴量抽出部は、各時刻の前記二次元画像データに基づいて、識別単位の各々の画像特徴量を抽出し、
    前記行動認識部は、識別単位の各々について、前記識別単位の姿勢特徴量、及び前記識別単位の画像特徴量と、前記識別器パラメータとに基づいて、前記識別単位の前記撮影者の行動を認識する
    請求項1記載の行動認識装置。
  3. 前記骨格姿勢抽出部は、
    一時刻前の前記撮影者の骨格姿勢を表す骨格姿勢パラメータに基づいて、抽出対象時刻の骨格姿勢パラメータの候補を複数生成し、
    生成された複数の骨格姿勢パラメータの候補の各々について、前記骨格姿勢パラメータの候補と前記抽出対象時刻の前記カメラの位置姿勢とに基づいて、前記撮影者を表す三次元画像データを生成し、
    生成された複数の骨格姿勢パラメータの候補の各々について、前記骨格姿勢パラメータの候補に基づいて生成された前記撮影者を表す三次元画像データと、前記抽出対象時刻の三次元画像データから抽出された動物体領域の三次元画像データとの一致度を計算し、
    生成された複数の骨格姿勢パラメータの候補の各々について計算された一致度に基づいて、前記抽出対象時刻の骨格姿勢パラメータを抽出する請求項2記載の行動認識装置。
  4. 行動ラベルが予め付与された、撮影者側からカメラにより撮影した三次元画像データ及び二次元画像データのペアを受け付ける入力部と、
    前記三次元画像データに基づいて、前記カメラの位置姿勢を推定するカメラ位置姿勢推定部と、
    前記カメラ位置姿勢推定部によって推定された前記カメラの位置姿勢と、予め求められた前記撮影者の体型を表す体型パラメータと、前記三次元画像データとに基づいて、前記撮影者の骨格姿勢を表す骨格姿勢パラメータを抽出する骨格姿勢抽出部と、
    前記骨格姿勢抽出部によって抽出された前記骨格姿勢パラメータに基づいて、前記撮影者の姿勢特徴量を抽出する姿勢特徴量抽出部と、
    前記二次元画像データに基づいて、画像特徴量を抽出する画像特徴量抽出部と、
    前記姿勢特徴量抽出部によって抽出された前記姿勢特徴量及び前記画像特徴量抽出部によって抽出された前記画像特徴量と、前記行動ラベルとに基づいて、前記撮影者の行動を識別するための識別器パラメータを学習する識別器パラメータ学習部と、
    を含む行動学習装置。
  5. 前記入力部は、各時刻の行動ラベルが予め付与された各時刻の三次元画像データ及び二次元画像データのペアを受け付け、
    前記カメラ位置姿勢推定部は、各時刻の前記三次元画像データに基づいて、各時刻の前記カメラの位置姿勢を推定し、
    前記姿勢特徴量抽出部は、前記カメラ位置姿勢推定部によって推定された各時刻の前記カメラの位置姿勢と、前記体型パラメータと、各時刻の前記三次元画像データとに基づいて、各時刻の前記撮影者の骨格姿勢パラメータを抽出し、
    前記姿勢特徴量抽出部は、前記骨格姿勢抽出部によって抽出された各時刻の前記骨格姿勢パラメータに基づいて、識別単位の各々の前記撮影者の姿勢特徴量を抽出し、
    前記画像特徴量抽出部は、各時刻の前記二次元画像データに基づいて、識別単位の各々の画像特徴量を抽出し、
    前記行動認識部は、識別単位の各々についての、前記識別単位の姿勢特徴量、及び前記識別単位の画像特徴量と、前記識別単位に対応する各時刻の行動ラベルとに基づいて、前記識別器パラメータを学習する
    請求項4記載の行動学習装置。
  6. 入力部によって、撮影者側からカメラにより撮影した三次元画像データ及び二次元画像データのペアを受け付け、
    カメラ位置姿勢推定部によって、前記三次元画像データに基づいて、前記カメラの位置姿勢を推定し、
    骨格姿勢抽出部によって、前記カメラ位置姿勢推定部によって推定された前記カメラの位置姿勢と、予め求められた前記撮影者の体型を表す体型パラメータと、前記三次元画像データとに基づいて、前記撮影者の骨格姿勢を表す骨格姿勢パラメータを抽出し、
    姿勢特徴量抽出部によって、前記骨格姿勢抽出部によって抽出された前記骨格姿勢パラメータに基づいて、前記撮影者の姿勢特徴量を抽出し、
    画像特徴量抽出部によって、前記二次元画像データに基づいて、画像特徴量を抽出し、
    行動認識部によって、前記姿勢特徴量抽出部によって抽出された前記姿勢特徴量及び前記画像特徴量抽出部によって抽出された前記画像特徴量と、前記撮影者の行動を識別するための予め学習された識別器パラメータとに基づいて、前記撮影者の行動を認識する
    行動認識方法。
  7. 入力部によって、行動ラベルが予め付与された、撮影者側からカメラにより撮影した三次元画像データ及び二次元画像データのペアを受け付け、
    カメラ位置姿勢推定部によって、前記三次元画像データに基づいて、前記カメラの位置姿勢を推定し、
    骨格姿勢抽出部によって、前記カメラ位置姿勢推定部によって推定された前記カメラの位置姿勢と、予め求められた前記撮影者の体型を表す体型パラメータと、前記三次元画像データとに基づいて、前記撮影者の骨格姿勢を表す骨格姿勢パラメータを抽出し、
    姿勢特徴量抽出部によって、前記骨格姿勢抽出部によって抽出された前記骨格姿勢パラメータに基づいて、前記撮影者の姿勢特徴量を抽出し、
    画像特徴量抽出部によって、前記二次元画像データに基づいて、画像特徴量を抽出し、
    識別器パラメータ学習部によって、前記姿勢特徴量抽出部によって抽出された前記姿勢特徴量及び前記画像特徴量抽出部によって抽出された前記画像特徴量と、前記行動ラベルとに基づいて、前記撮影者の行動を識別するための識別器パラメータを学習する
    行動学習方法。
  8. コンピュータを、請求項1〜請求項3の何れか1項記載の行動認識装置、又は請求項4もしくは5記載の行動学習装置の各部として機能させるためのプログラム。
JP2014239329A 2014-11-26 2014-11-26 行動認識装置、行動学習装置、方法、及びプログラム Pending JP2016099982A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014239329A JP2016099982A (ja) 2014-11-26 2014-11-26 行動認識装置、行動学習装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014239329A JP2016099982A (ja) 2014-11-26 2014-11-26 行動認識装置、行動学習装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2016099982A true JP2016099982A (ja) 2016-05-30

Family

ID=56077259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014239329A Pending JP2016099982A (ja) 2014-11-26 2014-11-26 行動認識装置、行動学習装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2016099982A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222665A (zh) * 2019-06-14 2019-09-10 电子科技大学 一种基于深度学习和姿态估计的监控中人体动作识别方法
WO2019198696A1 (ja) * 2018-04-11 2019-10-17 株式会社アジラ 行動推定装置
JP2019185420A (ja) * 2018-04-11 2019-10-24 株式会社アジラ 行動推定装置
CN110546679A (zh) * 2017-04-10 2019-12-06 富士通株式会社 识别装置、识别系统,识别方法以及识别程序
CN111028339A (zh) * 2019-12-06 2020-04-17 国网浙江省电力有限公司培训中心 一种行为动作建模方法、装置、电子设备和存储介质
CN111523384A (zh) * 2020-03-19 2020-08-11 浙江省北大信息技术高等研究院 一种基于视觉的会议防偷拍方法、装置、存储介质及终端
JP2020198133A (ja) * 2020-09-09 2020-12-10 三菱電機株式会社 動作特定装置、動作特定方法及び動作特定プログラム
US11048924B1 (en) 2018-05-27 2021-06-29 Asilla, Inc. Action-estimating device
CN113271848A (zh) * 2019-02-05 2021-08-17 株式会社日立制作所 身体健康状态影像分析装置、方法以及系统
CN113627326A (zh) * 2021-08-10 2021-11-09 国网福建省电力有限公司营销服务中心 一种基于可穿戴设备和人体骨架的行为识别方法
JP6972434B1 (ja) * 2020-07-30 2021-11-24 三菱電機株式会社 行動特定装置、行動特定方法及び行動特定プログラム
DE112019006583T5 (de) 2019-01-07 2021-12-16 Mitsubishi Electric Corporation Bewegungsidentifizierungseinrichtung, Bewegungsidentifizierungsverfahren und Bewegungsidentifizierungsprogramm
DE112019007857T5 (de) 2019-12-26 2022-08-25 Mitsubishi Electric Corporation Bewegungsanalysesystem und bewegungsanalyseprogramm

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110546679A (zh) * 2017-04-10 2019-12-06 富士通株式会社 识别装置、识别系统,识别方法以及识别程序
CN110546679B (zh) * 2017-04-10 2022-11-01 富士通株式会社 识别装置、识别系统,识别方法以及存储介质
WO2019198696A1 (ja) * 2018-04-11 2019-10-17 株式会社アジラ 行動推定装置
JP2019185420A (ja) * 2018-04-11 2019-10-24 株式会社アジラ 行動推定装置
US11482046B2 (en) 2018-04-11 2022-10-25 Asilla, Inc. Action-estimating device
US11048924B1 (en) 2018-05-27 2021-06-29 Asilla, Inc. Action-estimating device
DE112019006583T5 (de) 2019-01-07 2021-12-16 Mitsubishi Electric Corporation Bewegungsidentifizierungseinrichtung, Bewegungsidentifizierungsverfahren und Bewegungsidentifizierungsprogramm
CN113271848B (zh) * 2019-02-05 2024-01-02 株式会社日立制作所 身体健康状态影像分析装置、方法以及系统
CN113271848A (zh) * 2019-02-05 2021-08-17 株式会社日立制作所 身体健康状态影像分析装置、方法以及系统
CN110222665B (zh) * 2019-06-14 2023-02-24 电子科技大学 一种基于深度学习和姿态估计的监控中人体动作识别方法
CN110222665A (zh) * 2019-06-14 2019-09-10 电子科技大学 一种基于深度学习和姿态估计的监控中人体动作识别方法
CN111028339B (zh) * 2019-12-06 2024-03-29 国网浙江省电力有限公司培训中心 一种行为动作建模方法、装置、电子设备和存储介质
CN111028339A (zh) * 2019-12-06 2020-04-17 国网浙江省电力有限公司培训中心 一种行为动作建模方法、装置、电子设备和存储介质
DE112019007857T5 (de) 2019-12-26 2022-08-25 Mitsubishi Electric Corporation Bewegungsanalysesystem und bewegungsanalyseprogramm
CN111523384A (zh) * 2020-03-19 2020-08-11 浙江省北大信息技术高等研究院 一种基于视觉的会议防偷拍方法、装置、存储介质及终端
WO2022024294A1 (ja) * 2020-07-30 2022-02-03 三菱電機株式会社 行動特定装置、行動特定方法及び行動特定プログラム
JP6972434B1 (ja) * 2020-07-30 2021-11-24 三菱電機株式会社 行動特定装置、行動特定方法及び行動特定プログラム
JP7080285B2 (ja) 2020-09-09 2022-06-03 三菱電機株式会社 動作特定装置、動作特定方法及び動作特定プログラム
JP2020198133A (ja) * 2020-09-09 2020-12-10 三菱電機株式会社 動作特定装置、動作特定方法及び動作特定プログラム
CN113627326A (zh) * 2021-08-10 2021-11-09 国网福建省电力有限公司营销服务中心 一种基于可穿戴设备和人体骨架的行为识别方法
CN113627326B (zh) * 2021-08-10 2024-04-12 国网福建省电力有限公司营销服务中心 一种基于可穿戴设备和人体骨架的行为识别方法

Similar Documents

Publication Publication Date Title
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
CN108369643B (zh) 用于3d手部骨架跟踪的方法和系统
CN107466411B (zh) 二维红外深度感测
Baak et al. A data-driven approach for real-time full body pose reconstruction from a depth camera
CN104573614B (zh) 用于跟踪人脸的设备和方法
US9189855B2 (en) Three dimensional close interactions
JP5812599B2 (ja) 情報処理方法及びその装置
Ding et al. STFC: Spatio-temporal feature chain for skeleton-based human action recognition
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
JP2007004767A (ja) 画像認識装置、方法およびプログラム
JP2009020761A (ja) 画像処理装置及びその方法
JP6487642B2 (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2014085933A (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP4938748B2 (ja) 画像認識装置及びプログラム
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
Darujati et al. Facial motion capture with 3D active appearance models
JP2010211732A (ja) 物体認識装置および方法
CN110910426A (zh) 动作过程和动作趋势识别方法、存储介质和电子装置
KR101868520B1 (ko) 손 제스처 인식 방법 및 그 장치
Arowolo et al. Development of a human posture recognition system for surveillance application
JP2016162425A (ja) 骨格姿勢推定装置、方法、及びプログラム