JP2013257656A - Motion similarity calculation device, motion similarity calculation method, and computer program - Google Patents

Motion similarity calculation device, motion similarity calculation method, and computer program Download PDF

Info

Publication number
JP2013257656A
JP2013257656A JP2012132229A JP2012132229A JP2013257656A JP 2013257656 A JP2013257656 A JP 2013257656A JP 2012132229 A JP2012132229 A JP 2012132229A JP 2012132229 A JP2012132229 A JP 2012132229A JP 2013257656 A JP2013257656 A JP 2013257656A
Authority
JP
Japan
Prior art keywords
motion
distance
feature amount
data
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012132229A
Other languages
Japanese (ja)
Other versions
JP5837860B2 (en
Inventor
Kenho Jo
建鋒 徐
Emi Meido
絵美 明堂
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012132229A priority Critical patent/JP5837860B2/en
Publication of JP2013257656A publication Critical patent/JP2013257656A/en
Application granted granted Critical
Publication of JP5837860B2 publication Critical patent/JP5837860B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve robustness when calculating motion similarity between motion data pieces.SOLUTION: A motion similarity calculation device comprises: a spatial feature amount calculation unit 12 that calculates a spatial feature amount representing spatial distribution of motions in a principal component space from a motion data piece; a temporal feature amount calculation unit 13 that calculates a temporal feature amount representing temporal distribution of motions in the principal component space from the motion data piece; and a similarity calculation unit 14 that calculates motion similarity using a distance between spatial feature amounts and a distance between temporal feature amounts calculated for two motion data pieces, respectively.

Description

本発明は、動き類似度算出装置、動き類似度算出方法およびコンピュータプログラムに関する。   The present invention relates to a motion similarity calculation device, a motion similarity calculation method, and a computer program.

近年、モーションキャプチャ(motion capture)データを取得する方法として、マーカーを関節部位等に付けた人物を撮影した映像からモーションキャプチャデータを取得する方法や、RGBカメラと深度センサーを組み合わせた深度センサーシステムによって深度センサーシステムから人物までの距離を計測してモーションキャプチャデータを取得する方法などが知られている。前者の方法では、モーションキャプチャデータとして、例えば、図6に例示されるような人体スケルトン型動きデータが定義される。後者の方法としては、例えば、「Kinect(登録商標)センサー」と呼ばれるものが知られている。   In recent years, as a method of acquiring motion capture data, a method of acquiring motion capture data from an image of a person with a marker attached to a joint part or the like, or a depth sensor system combining an RGB camera and a depth sensor A method of acquiring motion capture data by measuring a distance from a depth sensor system to a person is known. In the former method, for example, human skeleton type motion data as illustrated in FIG. 6 is defined as the motion capture data. As the latter method, for example, a so-called “Kinect (registered trademark) sensor” is known.

ここでは、人体の姿勢(ポーズ)の動きを表現するデータとして、図6に例示される人体スケルトン型動きデータについて説明する。図6は、人体スケルトン型動きデータの定義例の概略図である。人体スケルトン型動きデータは、人の骨格を基に、骨及び骨の連結点(ジョイント)を用い、一ジョイントを根(ルート)とし、ルートからジョイント経由で順次連結される骨の構造を木(ツリー)構造として定義される。図6には、人体スケルトン型動きデータの定義の一部分のみを示している。図6において、ジョイント100は腰の部分であり、ルートとして定義される。ジョイント101は左腕の肘の部分、ジョイント102は左腕の手首の部分、ジョイント103は右腕の肘の部分、ジョイント104は右腕の手首の部分、ジョイント105は左足の膝の部分、ジョイント106は左足の足首の部分、ジョイント107は右足の膝の部分、ジョイント108は右足の足首の部分、ジョイント109は鎖骨の部分、ジョイント110、111は肩の部分、ジョイント112は首の部分、ジョイント113、114は股関節の部分、である。   Here, the human skeleton type motion data illustrated in FIG. 6 will be described as data representing the motion of the posture (pose) of the human body. FIG. 6 is a schematic diagram of a definition example of human skeleton type motion data. Human body skeleton-type motion data is based on the human skeleton, using bone and bone connection points (joints), with one joint as the root (root), and the structure of bones sequentially connected from the root via the joint (tree) Tree) structure. FIG. 6 shows only a part of the definition of the human body skeleton type motion data. In FIG. 6, a joint 100 is a waist part and is defined as a root. Joint 101 is the elbow portion of the left arm, Joint 102 is the wrist portion of the left arm, Joint 103 is the elbow portion of the right arm, Joint 104 is the wrist portion of the right arm, Joint 105 is the knee portion of the left foot, and Joint 106 is the left foot portion. Ankle part, joint 107 is right leg knee part, joint 108 is right leg ankle part, joint 109 is clavicle part, joints 110 and 111 are shoulder parts, joint 112 is neck part, joints 113 and 114 are The hip joint part.

スケルトン型動きデータは、スケルトン型対象物の各ジョイントの動きを記録したデータであり、スケルトン型対象物としては人体や動物、ロボットなどが適用可能である。スケルトン型動きデータとしては、各ジョイントの位置情報や角度情報、速度情報、加速度情報などが利用可能である。ここでは、人体スケルトン型動きデータとして、人体スケルトンの角度情報と加速度情報を例に挙げて説明する。   The skeleton type motion data is data that records the movement of each joint of the skeleton type object, and a human body, an animal, a robot, or the like is applicable as the skeleton type object. As the skeleton type motion data, position information, angle information, speed information, acceleration information, and the like of each joint can be used. Here, human body skeleton angle data and acceleration information will be described as an example of human body skeleton type motion data.

人体スケルトン型角度情報データは、人の一連の動きを複数のポーズの連続により表すものであり、人の基本ポーズ(neutral pose)を表す基本ポーズデータと、実際の人の動きの中の各ポーズを表すポーズ毎のフレームデータとを有する。基本ポーズデータは、基本ポーズのときのルートの位置及び各ジョイントの位置、並びに各骨の長さなどの情報を有する。基本ポーズデータにより基本ポーズが特定される。フレームデータは、基本ポーズからの移動量をジョイント毎に表す。ここでは、移動量として角度情報を利用する。各フレームデータにより、基本ポーズに対して各移動量が加味された各ポーズが特定される。これにより、各フレームデータによって特定される各ポーズの連続により、人の一連の動きが特定される。なお、人体スケルトン型角度情報データは、人の動きをカメラ撮影した映像からモーションキャプチャ処理によって作成したり、或いは、キーフレームアニメーションの手作業によって作成したりすることができる。   Human body skeleton-type angle information data represents a series of movements of a person by a series of multiple poses. Basic pose data that represents a person's basic pose and each pose in the actual movement of the person. Frame data for each pose. The basic pose data includes information such as the position of the root and the position of each joint in the basic pose, and the length of each bone. The basic pose is specified by the basic pose data. The frame data represents the amount of movement from the basic pose for each joint. Here, angle information is used as the movement amount. Each frame data identifies each pose in which each movement amount is added to the basic pose. Thereby, a series of movements of a person is specified by the continuation of each pose specified by each frame data. The human skeleton-type angle information data can be created by a motion capture process from an image obtained by photographing a person's movement with a camera, or can be created manually by key frame animation.

人体スケルトン型加速度情報データは、人の各ジョイントの加速度をポーズ毎のフレームデータと複数のポーズの連続により表すものである。なお、人体スケルトン型加速度情報データは、加速度計で記録したり、映像や動きデータから算出したりすることができる。   The human body skeleton type acceleration information data represents the acceleration of each joint of a person by continuous frame data for each pose and a plurality of poses. The human skeleton-type acceleration information data can be recorded by an accelerometer, or calculated from video and motion data.

従来、二つの動きの間の類似度を算出する従来の技術としては、おおよそ次の2つのステップ1、2から構成される。   Conventionally, the conventional technique for calculating the degree of similarity between two movements generally includes the following two steps 1 and 2.

ステップ1:二つのモーションキャプチャデータの各フレーム間の距離を算出する。例えば非特許文献1には、フレーム間の距離を算出する方法として以下の二通りが記載されている。
(フレーム間の距離を算出する方法1)
人体スケルトン型動きデータにおいて、ジョイント毎に角度の距離を定義し、各ジョイントを重み付け平均する。
(フレーム間の距離を算出する方法2)
人体スケルトン型動きデータを潜在空間に変更し、潜在空間の座標同士でEuclidean距離を算出する。
また、非特許文献2及び特許文献1に記載される従来技術では、各関節の動きの特徴量を算出し、その特徴量同士の距離を定義し、各ジョイントを重み付け平均する。
Step 1: The distance between each frame of two motion capture data is calculated. For example, Non-Patent Document 1 describes the following two methods for calculating the distance between frames.
(Method 1 for calculating the distance between frames)
In the human skeleton type motion data, the angle distance is defined for each joint, and each joint is weighted averaged.
(Method 2 for calculating the distance between frames)
The human skeleton type motion data is changed to the latent space, and the Euclidean distance is calculated between the coordinates of the latent space.
In the prior art described in Non-Patent Document 2 and Patent Document 1, feature quantities of movements of the joints are calculated, distances between the feature quantities are defined, and each joint is weighted averaged.

ステップ2:二つの動きの間の類似度を算出する際に、全てのフレームを考慮する。例えば非特許文献3に記載されるように最も一般的な方法である、はDTW(Dynamic Time Warping)を用いる。   Step 2: Consider all frames when calculating the similarity between two movements. For example, as described in Non-Patent Document 3, the most common method is DTW (Dynamic Time Warping).

特開2010−033163号公報JP 2010-033163 A

B.J.H. van Basten, A. Egges, “Evaluating distance metrics for animation blending,” ICFDG 2009, pp. 199-206.B.J.H. van Basten, A. Egges, “Evaluating distance metrics for animation blending,” ICFDG 2009, pp. 199-206. Meinard Muller, Tido Roder, and Michael Clausen, “Efficient content-based retrieval of motion capture data,” ACM SIGGRAPH 2005, pp. 677-685.Meinard Muller, Tido Roder, and Michael Clausen, “Efficient content-based retrieval of motion capture data,” ACM SIGGRAPH 2005, pp. 677-685. Armin Bruderlin and Lance Williams, “Motion signal preprocess,” ACM SIGGRAPH 1995, pp. 97-104.Armin Bruderlin and Lance Williams, “Motion signal preprocess,” ACM SIGGRAPH 1995, pp. 97-104. Yossi Rubner; Carlo Tomasi, Leonidas J. Guibas (1998). "A Metric for Distributions with Applications to Image Databases". Proceedings ICCV 1998: 59-66Yossi Rubner; Carlo Tomasi, Leonidas J. Guibas (1998). "A Metric for Distributions with Applications to Image Databases". Proceedings ICCV 1998: 59-66

しかし、上述した従来の動き類似度算出技術では、以下に示すような課題がある。
(1)異なるモーションキャプチャシステムで取得したモーションキャプチャデータに対して、共通的に動きの類似度を算出することが難しい。例えば、人体スケルトン型動きデータの骨構造の定義が異なると、従来の技術では適用できない。
(2)モーションキャプチャデータを取得するための撮影の環境(被写体である人物、撮影距離、撮影角度など)が異なると、共通的に動きの類似度を算出することが難しい。
(3)入力データの種類(例えば、人体スケルトン型動きデータ、深度センサーシステムで取得したモーションキャプチャデータ、RGB画像データ、距離画像データなど)が異なると、共通的に動きの類似度を算出することが難しい。
(4)モーションキャプチャシステムなどで取得したデータがノイズを含んでいると、ロバストな類似度を算出することが難しい。
However, the conventional motion similarity calculation technique described above has the following problems.
(1) It is difficult to calculate motion similarity in common for motion capture data acquired by different motion capture systems. For example, if the definition of the bone structure of the human skeleton type motion data is different, it cannot be applied by the conventional technique.
(2) If the shooting environment for acquiring motion capture data (such as a person who is a subject, shooting distance, shooting angle, etc.) is different, it is difficult to calculate the similarity of motion in common.
(3) When the types of input data (for example, human skeleton type motion data, motion capture data acquired by a depth sensor system, RGB image data, distance image data, etc.) are different, the similarity of motion is commonly calculated. Is difficult.
(4) If data acquired by a motion capture system or the like includes noise, it is difficult to calculate a robust similarity.

本発明は、このような事情を考慮してなされたもので、ロバスト性を向上させた動き類似度算出装置、動き類似度算出方法およびコンピュータプログラムを提供することを課題とする。   The present invention has been made in view of such circumstances, and it is an object of the present invention to provide a motion similarity calculation device, a motion similarity calculation method, and a computer program with improved robustness.

上記の課題を解決するために、本発明に係る動き類似度算出装置は、動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出する空間的特徴量算出部と、動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出する時間的特徴量算出部と、二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出する類似度算出部と、を備えたことを特徴とする。   In order to solve the above problems, a motion similarity calculation device according to the present invention includes a spatial feature amount calculation unit that calculates a spatial feature amount representing a spatial distribution of motion in a principal component space from motion data, and , A temporal feature amount calculation unit that calculates a temporal feature amount representing temporal distribution of motion in the principal component space from the motion data, and a distance between the spatial feature amounts calculated for each of the two motion data And a similarity calculation unit that calculates the similarity of motion using the distance between the temporal feature amounts.

本発明に係る動き類似度算出装置において、前記空間的特徴量算出部は、動きデータ内の各フレームの動きの主成分についてのフレーム間の距離を用いてヒストグラムを算出する、ことを特徴とする。   In the motion similarity calculation apparatus according to the present invention, the spatial feature amount calculation unit calculates a histogram using a distance between frames with respect to a main component of motion of each frame in motion data. .

本発明に係る動き類似度算出装置において、前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、隣り合う極値間のフレーム数が一定数になるように、フレーム間距離の値を補間または間引く、ことを特徴とする。   In the motion similarity calculation apparatus according to the present invention, the temporal feature amount calculation unit calculates a distance between the reference frame in the motion data and each of the other frames, and calculates an extreme value from the calculated inter-frame distance. The inter-frame distance value is interpolated or thinned out so that the number of frames between adjacent extreme values is constant.

本発明に係る動き類似度算出装置において、前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、極値の間隔が極端に短い場合には当該極値を削除し、極値の間隔が極端に長い場合には適切な極値を挿入する、ことを特徴とする。   In the motion similarity calculation apparatus according to the present invention, the temporal feature amount calculation unit calculates a distance between the reference frame in the motion data and each of the other frames, and calculates an extreme value from the calculated inter-frame distance. In addition, when the interval between extreme values is extremely short, the extreme value is deleted, and when the interval between extreme values is extremely long, an appropriate extreme value is inserted.

本発明に係る動き類似度算出装置において、前記類似度算出部は、空間的特徴量の間の距離と時間的特徴量の間の距離に対して重み付け平均値を算出する、ことを特徴とする。   In the motion similarity calculation apparatus according to the present invention, the similarity calculation unit calculates a weighted average value for a distance between a spatial feature and a distance between temporal features. .

本発明に係る動き類似度算出方法は、動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、を含むことを特徴とする。   The motion similarity calculation method according to the present invention includes a step of calculating a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data, and a temporal motion of the motion in the principal component space from the motion data. Calculate the similarity of motion using the step of calculating the temporal feature value representing the distribution and the distance between the spatial feature values calculated for each of the two motion data and the distance between the temporal feature values. And a step of performing.

本発明に係るコンピュータプログラムは、動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、をコンピュータに実行させるためのコンピュータプログラムであることを特徴とする。   The computer program according to the present invention calculates a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data, and represents a temporal distribution of motion in the principal component space from the motion data. Calculating a temporal feature, and calculating a motion similarity using a distance between the spatial feature calculated for each of the two motion data and a distance between the temporal features Is a computer program for causing a computer to execute.

本発明によれば、動きデータ間の動きの類似度を算出する際に、ロバスト性を向上させることができるという効果が得られる。   According to the present invention, it is possible to improve the robustness when calculating the similarity of motion between motion data.

本発明の一実施形態に係る動き類似度算出装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the motion similarity calculation apparatus 1 which concerns on one Embodiment of this invention. 図1に示す空間的特徴量算出部12の構成を示すブロック図である。It is a block diagram which shows the structure of the spatial feature-value calculation part 12 shown in FIG. ヒストグラムの例である。It is an example of a histogram. 本発明の一実施形態に係る時間的特徴量算出処理を説明するためのグラフ図である。It is a graph for demonstrating the temporal feature-value calculation process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る主成分分析方法の手順を示す概略図である。It is the schematic which shows the procedure of the principal component analysis method which concerns on one Embodiment of this invention. 人体スケルトン型動きデータの定義例である。It is a definition example of human body skeleton type motion data.

以下、図面を参照し、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る動き類似度算出装置1の構成を示すブロック図である。図1において、動き類似度算出装置1は、入力部11と空間的特徴量算出部12と時間的特徴量算出部13と類似度算出部14と出力部15を有する。本実施形態に係る動き類似度算出装置1は、動きデータ間の動きの類似度を算出する。動きデータは、人物の動きを表すデータである。動きデータとしては、モーションキャプチャデータ、RGB画像データ、又は距離画像データなどがある。以下の説明では、動きデータの一例として、モーションキャプチャデータを用いて説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a motion similarity calculation apparatus 1 according to an embodiment of the present invention. In FIG. 1, the motion similarity calculation device 1 includes an input unit 11, a spatial feature value calculation unit 12, a temporal feature value calculation unit 13, a similarity calculation unit 14, and an output unit 15. The motion similarity calculation device 1 according to the present embodiment calculates the similarity of motion between motion data. The motion data is data representing the motion of a person. The motion data includes motion capture data, RGB image data, distance image data, and the like. In the following description, motion capture data is used as an example of motion data.

[入力部]
入力部11は、動きデータとしてモーションキャプチャデータを入力する。モーションキャプチャデータの種類としては、例えば、人体スケルトン型動きデータや、深度センサーシステムで取得したモーションキャプチャデータなどがある。
[Input section]
The input unit 11 inputs motion capture data as motion data. The types of motion capture data include, for example, human skeleton type motion data and motion capture data acquired by a depth sensor system.

[空間的特徴量算出部]
図2は、図1に示す空間的特徴量算出部12の構成を示すブロック図である。図2において、空間的特徴量算出部12は、物理量変更部21と主成分分析部22とヒストグラム算出部23を有する。空間的特徴量算出部12は、入力部11から入力されたモーションキャプチャデータが表す人物の動きについての空間的特徴量を算出する。空間的特徴量は、動きの空間的な分布を表す。空間的特徴量の算出では、比較的大きな動きを重視し、比較的細かい動きを無視する。また、主成分分析とヒストグラムの算出によって、ロバスト性を向上させる。
[Spatial feature calculation unit]
FIG. 2 is a block diagram showing a configuration of the spatial feature quantity calculation unit 12 shown in FIG. In FIG. 2, the spatial feature quantity calculation unit 12 includes a physical quantity change unit 21, a principal component analysis unit 22, and a histogram calculation unit 23. The spatial feature amount calculation unit 12 calculates a spatial feature amount regarding the movement of the person represented by the motion capture data input from the input unit 11. The spatial feature amount represents a spatial distribution of motion. In the calculation of the spatial feature amount, a relatively large movement is emphasized, and a relatively fine movement is ignored. In addition, robustness is improved by principal component analysis and histogram calculation.

[物理量変更部]
物理量変更部21は、入力されたモーションキャプチャデータから、主成分分析部22に入力するデータを生成する。以下、人体スケルトン型動きデータを用いて、主成分分析部22に入力するデータを生成する実施例を説明する。
[Physical quantity change part]
The physical quantity changing unit 21 generates data to be input to the principal component analyzing unit 22 from the input motion capture data. Hereinafter, an embodiment in which data to be input to the principal component analysis unit 22 is generated using human body skeleton type motion data will be described.

物理量変更部21は、人体スケルトン型動きデータが表す動きの期間において、各ジョイントがルートに対してどの位置で動いているのかを算出する。ここでは、人体スケルトン型動きデータの一種である人体スケルトン型角度情報データを用いて、時刻tにおけるジョイント相対位置を算出する。ジョイント相対位置は、ルートに対するジョイントの相対的な位置である。   The physical quantity changing unit 21 calculates at which position each joint is moving with respect to the root during the motion period represented by the human skeleton-type motion data. Here, the joint relative position at time t is calculated using human skeleton type angle information data which is a kind of human skeleton type motion data. The joint relative position is a relative position of the joint with respect to the root.

まず、物理量変更部21は、人体スケルトン型角度情報データ内の基本ポーズデータとフレームデータを用いて、ジョイント位置を算出する。基本ポーズデータは、基本ポーズのときのルートの位置及び各ジョイントの位置、並びに各骨の長さなど、基本ポーズを特定する情報を有する。フレームデータは、ジョイント毎に、基本ポーズからの移動量の情報を有する。ここでは、移動量として角度情報を利用する。この場合、時刻tにおけるk番目のジョイントの位置p(t)は、(1)式および(2)式により算出される。p(t)は3次元座標で表される。なお、時刻tはフレームデータの時刻である。本実施形態では、時刻tを単に「フレームインデックス」として扱う。これにより、時刻tは、0,1,2,・・・,T−1の値をとる。Tは、人体スケルトン型角度情報データに含まれるフレームの個数である。 First, the physical quantity changing unit 21 calculates the joint position using the basic pose data and the frame data in the human body skeleton type angle information data. The basic pose data includes information for specifying the basic pose, such as the position of the root and the position of each joint in the basic pose, and the length of each bone. The frame data has information on the amount of movement from the basic pose for each joint. Here, angle information is used as the movement amount. In this case, the position p k (t) of the k-th joint at time t is calculated by the equations (1) and (2). p k (t) is represented by three-dimensional coordinates. Note that time t is the time of the frame data. In the present embodiment, time t is simply handled as a “frame index”. Thereby, the time t takes values of 0, 1, 2,..., T−1. T is the number of frames included in the human skeleton-type angle information data.

Figure 2013257656
Figure 2013257656

Figure 2013257656
Figure 2013257656

但し、0番目(i=0)のジョイントはルートである。Raxis i−1,i(t)は、i番目のジョイントとその親ジョイント(「i−1」番目のジョイント)間の座標回転マトリックスであり、基本ポーズデータに含まれる。各ジョイントにはローカル座標系が定義されており、座標回転マトリックスは親子関係にあるジョイント間のローカル座標系の対応関係を表す。R(t)は、i番目のジョイントのローカル座標系におけるi番目のジョイントの回転マトリックスであり、フレームデータに含まれる角度情報である。T(t)は、i番目のジョイントとその親ジョイント間の遷移マトリックスであり、基本ポーズデータに含まれる。遷移マトリックスは、i番目のジョイントとその親ジョイント間の骨の長さを表す。 However, the 0th (i = 0) joint is the root. R axis i-1, i (t) is a coordinate rotation matrix between the i-th joint and its parent joint ("i-1" -th joint), and is included in the basic pose data. A local coordinate system is defined for each joint, and the coordinate rotation matrix represents the correspondence of the local coordinate system between joints in a parent-child relationship. R i (t) is a rotation matrix of the i-th joint in the local coordinate system of the i-th joint, and is angle information included in the frame data. T i (t) is a transition matrix between the i-th joint and its parent joint, and is included in the basic pose data. The transition matrix represents the bone length between the i-th joint and its parent joint.

次いで、物理量変更部21は、時刻tにおける、ルートに対するk番目のジョイントの相対位置(ジョイント相対位置)p’(t)を(3)式により算出する。 Next, the physical quantity changing unit 21 calculates the relative position (joint relative position) p ′ k (t) of the k-th joint with respect to the root at time t by using Equation (3).

Figure 2013257656
Figure 2013257656

但し、proot(t)は時刻tにおけるルート(0番目のジョイント)の位置(p(t))である。 Here, p root (t) is the position (p 0 (t)) of the route (0th joint) at time t.

これにより、時刻tのフレーム「x(t)」は、「x(t)={p’(t),p’(t),・・・,p’(t)}」と表される。但し、Kは、ルートを除いたジョイントの個数である。は転置行列を表す。 Thus, the frame “x (t)” at time t is expressed as “x (t) = {p ′ 1 (t), p ′ 2 (t),..., P ′ K (t)} T ”. expressed. K is the number of joints excluding the root. T represents a transposed matrix.

[主成分分析部]
主成分分析部22は、物理量変更部21が生成したジョイント相対位置データに対して、主成分分析処理を行う。ここでは、時刻tのフレーム「x(t)」を用いて、ジョイント相対位置データ「X」を「X={x(t1),x(t2),・・・,x(tN)}と表す。但し、Nは、ジョイント相対位置データに含まれるフレームの個数である。Xは、M行N列の行列である(但し、M=3×K)。
[Principal component analysis section]
The principal component analysis unit 22 performs principal component analysis processing on the joint relative position data generated by the physical quantity changing unit 21. Here, using the frame “x (t)” at time t, the joint relative position data “X” is expressed as “X = {x (t1), x (t2),..., X (tN)}”. Where N is the number of frames included in the joint relative position data, and X is a matrix of M rows and N columns (where M = 3 × K).

主成分分析処理では、Xに対して主成分分析処理を行い、Xを主成分空間へ変換する。   In the principal component analysis processing, principal component analysis processing is performed on X, and X is converted into a principal component space.

ここで、主成分分析方法を説明する。
まず、(4)式により、Xから平均値を除いたN行M列の行列Dを算出する。
Here, the principal component analysis method will be described.
First, the matrix D of N rows and M columns obtained by subtracting the average value from X is calculated by the equation (4).

Figure 2013257656
Figure 2013257656

次いで、(5)式により、N行M列の行列Dに対して特異値分解(Singular Value Decomposition)を行う。   Next, singular value decomposition (Singular Value Decomposition) is performed on the matrix D of N rows and M columns according to the equation (5).

Figure 2013257656
Figure 2013257656

但し、Uは、N行N列のユニタリ行列である。Σは、N行M列の負でない対角要素を降順にもつ対角行列であり、主成分空間の座標の分散を表す。Vは、M行M列のユニタリ行列であり、主成分に対する係数(principal component)である。   However, U is a unitary matrix of N rows and N columns. Σ is a diagonal matrix having non-negative diagonal elements of N rows and M columns in descending order, and represents the variance of the coordinates of the principal component space. V is a unitary matrix of M rows and M columns, and is a coefficient (principal component) for the principal component.

次いで、(6)式により、N行M列の行列Dを主成分空間へ変換する。M行N列の行列Yは、主成分空間の座標を表す。   Next, the matrix D of N rows and M columns is converted into the principal component space by the equation (6). The matrix Y with M rows and N columns represents the coordinates of the principal component space.

Figure 2013257656
Figure 2013257656

主成分分析処理では、主成分空間の座標を表す行列(主成分座標行列)Yと、主成分に対する係数の行列(主成分係数行列)Vをメモリに保存する。   In the principal component analysis process, a matrix (principal component coordinate matrix) Y representing coordinates of the principal component space and a matrix of principal components (principal component coefficient matrix) V are stored in a memory.

なお、元空間の座標を表す行列Xと主成分座標行列Yは、(6)式と(7)式により相互に変換することができる。   Note that the matrix X representing the coordinates of the original space and the principal component coordinate matrix Y can be converted into each other by the equations (6) and (7).

Figure 2013257656
Figure 2013257656

また、上位のr個の主成分によって、(8)式により変換することができる。   Moreover, it can convert by (8) Formula by the upper r main components.

Figure 2013257656
Figure 2013257656

但し、Vは、主成分係数行列V内の上位のr個の行から成るM行r列の行列である。Yは、主成分座標行列Y内の上位のr個の列から成るr行N列の行列である。Xは、復元されたM行N列の行列である。 Here, V r is a matrix of M rows and r columns composed of upper r rows in the principal component coefficient matrix V. Y r is an r-row N-column matrix composed of the upper r columns in the principal component coordinate matrix Y. X ~ is a matrix of reconstructed M rows and N columns.

なお、元空間の一部の自由度だけを主成分分析処理することも可能である。例えば、足に関するジョイント相対位置データのみから生成したM’行N列の行列X’に対して、(4)式、(5)式及び(6)式により主成分分析処理を行う。また、ジョイント相対位置データ内の一部のフレームだけを主成分分析処理することも可能である。例えば、最初のN’個のフレームのみから生成したM行N’列の行列X’に対して、(4)式、(5)式及び(6)式により主成分分析処理を行う。   Note that it is also possible to perform principal component analysis processing on only some degrees of freedom of the original space. For example, the principal component analysis process is performed on the M ′ × N matrix X ′ generated only from the joint relative position data regarding the foot using the equations (4), (5), and (6). It is also possible to perform principal component analysis processing on only some frames in the joint relative position data. For example, the principal component analysis processing is performed on the M × N ′ matrix X ′ generated from only the first N ′ frames by the equations (4), (5), and (6).

[ヒストグラム算出部]
ヒストグラム算出部23は、主成分分析部22が算出した主成分座標行列Yを用いて、ヒストグラムを算出する。このヒストグラムが本実施形態に係る空間的特徴量である。そのヒストグラム算出処理では、主成分座標行列Y内の上位のr個の列から成るr行N列の行列Yを用いて、ヒストグラムを算出する。rの値は任意に設定可能とする。
[Histogram calculation unit]
The histogram calculation unit 23 calculates a histogram using the principal component coordinate matrix Y calculated by the principal component analysis unit 22. This histogram is a spatial feature amount according to the present embodiment. In the histogram calculation process, a histogram is calculated using a matrix Y r of r rows and N columns composed of the upper r columns in the principal component coordinate matrix Y. The value of r can be set arbitrarily.

行列Yは、ジョイント相対位置データXと同様にN個のフレームを有し、「Y={y(t1),y(t2),・・・,y(tN)}と表される。ヒストグラム算出部23は、行列Yのフレームの全組合せに対して、(9)式によりユークリッド距離を算出する。 The matrix Y r has N frames like the joint relative position data X, and is expressed as “Y r = {y r (t1), y r (t2),..., Y r (tN)}”. is. histogram calculation unit 23 that is, for all combinations of the frame of the matrix Y r, calculates the Euclidean distance by equation (9).

Figure 2013257656
Figure 2013257656

次いで、ヒストグラム算出部23は、算出したユークリッド距離d(i,j)を用いて、所定のビン数のヒストグラム(度数分布図)のデータを算出する。ヒストグラムは度数分布を表す棒状のグラフである。図3はヒストグラムの例である。本実施形態では、ヒストグラムの横軸にユークリッド距離d(i,j)、縦軸に各ユークリッド距離d(i,j)の度数を示す。このとき、ユークリッド距離d(i,j)の最大値と最小値に基づいて、横軸に表すビンの幅を等間隔に設定する。これにより、例えば、64個のビンから構成されるヒストグラム「H={h(1),h(2),・・・,h(64)}が算出される。   Next, the histogram calculator 23 calculates data of a histogram (frequency distribution diagram) of a predetermined number of bins using the calculated Euclidean distance d (i, j). The histogram is a bar graph representing the frequency distribution. FIG. 3 is an example of a histogram. In the present embodiment, the horizontal axis of the histogram shows the Euclidean distance d (i, j), and the vertical axis shows the frequency of each Euclidean distance d (i, j). At this time, based on the maximum value and the minimum value of the Euclidean distance d (i, j), the widths of the bins represented on the horizontal axis are set at equal intervals. Thereby, for example, a histogram “H = {h (1), h (2),..., H (64)}” composed of 64 bins is calculated.

以上が空間的特徴量算出部12の説明である。   The above is the description of the spatial feature quantity calculation unit 12.

[時間的特徴量算出部]
時間的特徴量算出部13は、入力部11から入力されたモーションキャプチャデータが表す人物の動きについての時間的特徴量を算出する。時間的特徴量は、動きの時間的な分布を表す。
[Temporal feature value calculation unit]
The temporal feature amount calculation unit 13 calculates a temporal feature amount regarding the movement of the person represented by the motion capture data input from the input unit 11. The temporal feature amount represents a temporal distribution of motion.

まず、時間的特徴量算出部13は、モーションキャプチャデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出する。本実施形態では、時間的に最初のフレーム(第1フレーム)を基準フレームとする。この結果、第1フレームとそれ以外の各フレームとの間の距離「D={d(t2),d(t3),・・・,d(tN)}が算出される。なお、フレーム間距離の算出方法としては、非特許文献1に記載される方法を用いることができる。又は、上記主成分分析部22が算出した主成分座標行列Yを用いて、(9)式によりユークリッド距離として算出してもよい。   First, the temporal feature amount calculator 13 calculates the distance between the reference frame in the motion capture data and each of the other frames. In the present embodiment, the first frame (first frame) in time is used as the reference frame. As a result, the distances “D = {d (t2), d (t3),..., D (tN)}” between the first frame and the other frames are calculated. As a calculation method, a method described in Non-Patent Document 1 can be used, or, as a principal component coordinate matrix Y calculated by the principal component analysis unit 22, the Euclidean distance is calculated by Equation (9). May be.

次いで、時間的特徴量算出部13は、算出したフレーム間距離Dから極値を求める。このとき、図4に例示されるように、最初のフレーム間距離301(第1フレームと第2フレーム間の距離)と最後のフレーム間距離306(第1フレームと第Nフレーム間の距離)も極値として追加する。これにより、図4の例では6個の極値301〜306が求まる。なお、極値の間隔に激しい変化がある場合には解消することが好ましい。このために、極値の間隔が極端に短い場合には当該極値を削除する。逆に、極値の間隔が極端に長い場合には適切な極値を挿入する。   Next, the temporal feature quantity calculation unit 13 obtains an extreme value from the calculated inter-frame distance D. At this time, as illustrated in FIG. 4, the first inter-frame distance 301 (the distance between the first frame and the second frame) and the last inter-frame distance 306 (the distance between the first frame and the Nth frame) are also obtained. Add as extreme value. Thereby, in the example of FIG. 4, six extreme values 301 to 306 are obtained. In addition, it is preferable to eliminate when there is a drastic change in the interval between extreme values. For this reason, when the interval between extreme values is extremely short, the extreme value is deleted. Conversely, if the interval between extreme values is extremely long, an appropriate extreme value is inserted.

次いで、時間的特徴量算出部13は、フレーム間距離「D={d(t2),d(t3),・・・,d(tN)}に対して、隣り合う極値間のフレーム数(距離の値の数)が一定数(任意に設定可能な値とする)になるように、フレーム間距離の値を補間または間引く。この調整後のフレーム間距離を時間的特徴量「F={f(1),f(2),・・・,f(N’)}」とする。この時間的特徴量Fによれば、同じ形の動きに対して動きの速さで区別しないようにする効果がある。   Next, the temporal feature quantity calculation unit 13 calculates the number of frames between adjacent extreme values (D = {d (t2), d (t3),. The inter-frame distance value is interpolated or thinned out so that the distance value number) is a fixed number (a value that can be arbitrarily set). f (1), f (2),..., f (N ′)} ”. According to this temporal feature amount F, there is an effect of not distinguishing the movements of the same shape by the speed of movement.

[類似度算出部]
類似度算出部14は、入力部11が入力した二つのモーションキャプチャデータに関し、一方のモーションキャプチャデータが表す人物の動きと、もう一方のモーションキャプチャデータが表す人物の動きとの類似度を算出する。この類似度算出処理では、各モーションキャプチャデータに関して、空間的特徴量算出部12が算出した空間的特徴量と、時間的特徴量算出部13が算出した時間的特徴量とを用いる。以下、本実施形態に係る類似度算出方法を説明する。
[Similarity calculation unit]
The similarity calculation unit 14 calculates the similarity between the motion of the person represented by one motion capture data and the motion of the person represented by the other motion capture data regarding the two motion capture data input by the input unit 11. . In the similarity calculation process, the spatial feature amount calculated by the spatial feature amount calculation unit 12 and the temporal feature amount calculated by the temporal feature amount calculation unit 13 are used for each motion capture data. Hereinafter, the similarity calculation method according to the present embodiment will be described.

ここでは、第1のモーションキャプチャデータに関して、空間的特徴量(ヒストグラム「H1={h1(1),h1(2),・・・,h1(64)})と時間的特徴量(フレーム間距離「F1={f1(1),f1(2),・・・,f1(N)}」とする。第2のモーションキャプチャデータに関して、空間的特徴量(ヒストグラム「H2={h2(1),h2(2),・・・,h2(64)})と時間的特徴量(フレーム間距離「F2={f2(1),f2(2),・・・,f2(M)}」とする。   Here, with respect to the first motion capture data, a spatial feature amount (histogram “H1 = {h1 (1), h1 (2),..., H1 (64)})” and a temporal feature amount (interframe distance). “F1 = {f1 (1), f1 (2),..., F1 (N)}” For the second motion capture data, a spatial feature (histogram “H2 = {h2 (1), h2 (2),..., h2 (64)}) and temporal features (interframe distances “F2 = {f2 (1), f2 (2),..., f2 (M)}”). .

まず、類似度算出部14は、第1、第2のモーションキャプチャデータの空間的特徴量(ヒストグラムH1、H2)を用いて、ヒストグラムH1とヒストグラムH2との間の距離を算出する。このヒストグラム間距離の算出処理では、例えば非特許文献4に記載されるEMD(Earth Mover’s Distance)という距離の定義を用いて、ヒストグラムH1とヒストグラムH2との間の距離を算出することができる。このEMDを用いたヒストグラム間距離の算出結果をEMD(H1,H2)とする。EMDを用いたヒストグラム間距離は、値が小さいほど類似度が大きいことを表す。   First, the similarity calculation unit 14 calculates the distance between the histogram H1 and the histogram H2 using the spatial feature amounts (histograms H1 and H2) of the first and second motion capture data. In the calculation process of the distance between histograms, the distance between the histogram H1 and the histogram H2 can be calculated using the definition of distance called EMD (Earth Mover's Distance) described in Non-Patent Document 4, for example. The calculation result of the distance between histograms using this EMD is defined as EMD (H1, H2). The distance between histograms using EMD indicates that the smaller the value, the greater the similarity.

次いで、類似度算出部14は、第1、第2のモーションキャプチャデータの時間的特徴量(フレーム間距離F1、F2)を用いて、(10)式により距離D1(F1、F2)を算出する。   Next, the similarity calculation unit 14 calculates the distance D1 (F1, F2) by the expression (10) using the temporal feature amounts (interframe distances F1, F2) of the first and second motion capture data. .

Figure 2013257656
Figure 2013257656

又、類似度算出部14は、第1、第2のモーションキャプチャデータの時間的特徴量(フレーム間距離F1、F2)を用いて、(11)式により距離D2(F1、F2)を算出する。この距離D2(F1、F2)は、第1、第2のモーションキャプチャデータのうち、時間的に長い方のモーションキャプチャデータに対して、距離の算出を開始するフレームをK(任意に設定可能な値とする)個だけずらして算出される。   Further, the similarity calculation unit 14 calculates the distance D2 (F1, F2) by the equation (11) using the temporal feature amounts (interframe distances F1, F2) of the first and second motion capture data. . This distance D2 (F1, F2) is K (arbitrarily settable) as a frame from which the distance calculation is started with respect to the longer one of the first and second motion capture data. It is calculated by shifting the value).

Figure 2013257656
Figure 2013257656

類似度算出部14は、距離D1(F1、F2)と距離D2(F1、F2)のうち、値が小さい方(類似度が大きい方)を時間的特徴量間の距離D(F1、F2)とする。   The similarity calculation unit 14 selects a distance D1 (F1, F2) between temporal feature values of the distance D1 (F1, F2) and the distance D2 (F1, F2), whichever has a smaller value (a higher similarity). And

次いで、類似度算出部14は、空間的特徴量間の距離(ヒストグラム間距離EMD(H1,H2))と時間的特徴量間の距離D(F1、F2)を用いて、(12)式により、類似度(similarity)を算出する。     Next, the similarity calculation unit 14 uses the distance between the spatial feature amounts (inter-histogram distance EMD (H1, H2)) and the distance D (F1, F2) between the temporal feature amounts according to the equation (12). The similarity is calculated.

Figure 2013257656
Figure 2013257656

但し、αは重み係数であり、0から1までの範囲で任意に設定可能な値とする。   However, α is a weighting factor and is a value that can be arbitrarily set in the range from 0 to 1.

[出力部]
出力部15は、類似度算出部14が算出した類似度を出力する。これにより、入力部11が入力した二つのモーションキャプチャデータに関する動きの類似度が出力される。
[Output section]
The output unit 15 outputs the similarity calculated by the similarity calculation unit 14. Thereby, the similarity of the motion regarding the two motion capture data input by the input unit 11 is output.

なお、上述した実施形態では、モーションキャプチャデータを用いて主成分分析処理を行う実施例を説明したが、他の種類の動きデータを用いて主成分分析処理を行う実施例を、以下に図5を参照して説明する。図5は、本発明の一実施形態に係る主成分分析方法の手順を示す概略図である。   In the above-described embodiment, an example in which principal component analysis processing is performed using motion capture data has been described. However, an example in which principal component analysis processing is performed using other types of motion data is described below with reference to FIG. Will be described with reference to FIG. FIG. 5 is a schematic diagram showing a procedure of a principal component analysis method according to an embodiment of the present invention.

(ステップS1)入力部11は、動きデータとして、RGB画像データ又は距離画像データを入力する。RGB画像データは、RGBカメラで撮像された動画像データであり、フレーム内の画素値はRGB画素値である。距離画像データは、深度センサーシステムで取得された深度情報を有する動画像データであり、フレーム内の画素値は深度値である。 (Step S1) The input unit 11 inputs RGB image data or distance image data as motion data. The RGB image data is moving image data captured by an RGB camera, and the pixel values in the frame are RGB pixel values. The distance image data is moving image data having depth information acquired by the depth sensor system, and the pixel value in the frame is a depth value.

(ステップS2)物理量変更部21は、入力部11が入力した動きデータを記憶する。この動きデータは、図5に示されるように、N個のフレームから構成される。i番目のフレームのサイズMである画素数Mは、フレームの縦の画素数「height」と横の画素数「width」との積「M=height×width」である。但し、「1≦i≦N」である。これにより、任意のサイズの画像から構成される動きデータに対して適用可能とする。 (Step S2) The physical quantity changing unit 21 stores the motion data input by the input unit 11. This motion data is composed of N frames as shown in FIG. The number of pixels M which is the size M of the i-th frame is the product “M = height × width” of the number of vertical pixels “height” and the number of horizontal pixels “width”. However, “1 ≦ i ≦ N”. Thereby, it can be applied to motion data composed of images of an arbitrary size.

(ステップS3)物理量変更部21は、行列B’を生成する。行列B’の列は、動きデータ内のフレームの時系列の順序で、N個のフレームの画素値ベクトルが配列される。従って、行列B’のi列目の列ベクトルは、i番目のフレームの画素値ベクトルViである。画素値ベクトルViは、i番目のフレームを構成するM個の画素の画素値が、各画素のフレーム内の位置に基づく所定の順序で、ベクトルの要素として配列されている。これにより、行列B’は、M行N列の行列となる。 (Step S3) The physical quantity changing unit 21 generates a matrix B ′. In the column of the matrix B ′, pixel value vectors of N frames are arranged in the time-series order of the frames in the motion data. Therefore, the column vector of the i-th column of the matrix B ′ is the pixel value vector Vi of the i-th frame. In the pixel value vector Vi, the pixel values of M pixels constituting the i-th frame are arranged as vector elements in a predetermined order based on the positions of the pixels in the frame. Thereby, the matrix B ′ becomes a matrix of M rows and N columns.

(ステップS4)主成分分析部22は、行列B’の分散共分散行列Sの固有値λi(i=1,2,・・・)と固有ベクトルvi(i=1,2,・・・)を算出する。分散共分散行列SのサイズはM行M列である。 (Step S4) The principal component analysis unit 22 calculates the eigenvalue λi (i = 1, 2,...) And the eigenvector vi (i = 1, 2,...) Of the variance-covariance matrix S of the matrix B ′. To do. The size of the variance-covariance matrix S is M rows and M columns.

(ステップS5)主成分分析部22は、行列B’の分散共分散行列Sの固有値λiと固有ベクトルviを用いて、固有値ごとに、固有値と固有ベクトルを主成分の空間の値(主成分得点)に変換した時系列データ(主成分得点の時系列)を生成する。一つの主成分得点の時系列は、動きデータ内のフレーム数と同じN個のデータから構成される。 (Step S5) The principal component analysis unit 22 uses the eigenvalues λi and eigenvectors vi of the variance-covariance matrix S of the matrix B ′ to convert the eigenvalues and eigenvectors into the principal component space values (principal component scores) for each eigenvalue. Generate converted time series data (time series of principal component scores). A time series of one principal component score is composed of N pieces of data that are the same as the number of frames in the motion data.

ヒストグラム算出部23は、主成分分析部22が作成した第i主成分得点の時系列(i=1,2,・・・)のうち、上位のr個の主成分得点の時系列を用いて、ヒストグラムを算出する。   The histogram calculation unit 23 uses the time series of the r highest principal component scores among the time series (i = 1, 2,...) Of the i-th principal component score created by the principal component analysis unit 22. Calculate a histogram.

次に、図5のステップS4の一実施例を説明する。一般に、動画像のサイズ(画素数)Mは、例えば携帯電話機に付属のカメラで簡易に撮影する場合を想定すると、縦×横=(height×width=M)=320×240=8万画素程度、フレーム数(時系列数)N=300程度、であることが考えられる。すなわち、「M>N」であることが想定される。この場合、演算量の削減の観点から、M行M列の分散共分散行列Sの固有値問題を直接解くのではなく、後述するようにN行N列の行列Cの固有値問題を解いて、この結果から分散共分散行列Sの固有値と固有ベクトルを、固有値の大きい方から所定数分だけを算出することが好ましい。以下に、この実施例を説明する。   Next, an example of step S4 in FIG. 5 will be described. In general, the size (number of pixels) M of a moving image is about vertical × horizontal = (height × width = M) = 320 × 240 = 80,000 pixels, for example, when it is assumed that the camera attached to the mobile phone is simply captured. It can be considered that the number of frames (number of time series) is about N = 300. That is, it is assumed that “M> N”. In this case, from the viewpoint of reducing the amount of computation, instead of directly solving the eigenvalue problem of the M-column and M-column variance-covariance matrix S, the eigenvalue problem of the N-row N-column matrix C is solved as described later. From the result, it is preferable to calculate the eigenvalues and eigenvectors of the variance-covariance matrix S by a predetermined number from the larger eigenvalue. This embodiment will be described below.

ステップS3で求められたM行N列の行列B’は(13)式で表される。   The matrix B ′ of M rows and N columns obtained in step S3 is expressed by equation (13).

Figure 2013257656
Figure 2013257656

この行列B’の行平均(フレーム方向に対する平均)をM行N列の行列meanとして(14)式で表す。   The row average (average with respect to the frame direction) of this matrix B ′ is expressed by equation (14) as a matrix mean of M rows and N columns.

Figure 2013257656
Figure 2013257656

そして、行列B’から1行ずつ抽出して、行列meanの対応する行の平均ベクトルを引いて,行方向に結合した行列Bを(15)式で定義する。   Then, the matrix B extracted from the matrix B ′ row by row, subtracting the average vector of the corresponding row of the matrix mean, and defining the matrix B coupled in the row direction is defined by equation (15).

Figure 2013257656
Figure 2013257656

この行列Bを利用して、分散共分散行列Sを表すと(16)式となる。   When this matrix B is used to express the variance-covariance matrix S, equation (16) is obtained.

Figure 2013257656
Figure 2013257656

そして、固有方程式は(17)式となる。   And the eigen equation becomes the equation (17).

Figure 2013257656
Figure 2013257656

この(17)式の固有方程式に対して両辺に左から行列Bを掛けて、「Bv=u」とすると(18)式となる。   When this characteristic equation (17) is multiplied by the matrix B from the left on both sides and “Bv = u” is obtained, equation (18) is obtained.

Figure 2013257656
Figure 2013257656

(18)式は、行列(N^−1)BB^T(行列Cとする)の固有方程式である。この行列Cに対する固有ベクトルuを求めてから、固有ベクトルuを使って分散共分散行列Sの固有値vを求める。このときの行列の大きさを考えると、N行N列となっており、一般に画素値ベクトルの次元数Mよりもフレーム数Nの方が圧倒的に小さいことから、分散共分散行列Sから直接的に固有値を求めるよりも、はるかに少ない演算量で算出できる。   Equation (18) is an eigen equation of the matrix (N ^ -1) BB ^ T (denoted as matrix C). After obtaining the eigenvector u for the matrix C, the eigenvalue v of the variance-covariance matrix S is obtained using the eigenvector u. Considering the size of the matrix at this time, it is N rows and N columns, and generally the number of frames N is overwhelmingly smaller than the number of dimensions M of the pixel value vector. Therefore, it can be calculated with a much smaller amount of computation than when the eigenvalue is obtained.

固有ベクトルuから、分散共分散行列Sの固有ベクトルvを求めるには、(18)式に左から行列B^Tを掛ける。これにより、(19)式が得られる。   In order to obtain the eigenvector v of the variance-covariance matrix S from the eigenvector u, the matrix B ^ T is multiplied from the left in the equation (18). Thereby, the equation (19) is obtained.

Figure 2013257656
Figure 2013257656

この(19)式から、B^Tuが、分散共分散行列Sの固有ベクトルvであることが分かる。但し、規格化はされていないので規格化すると、分散共分散行列Sの固有ベクトルvは(20)式となる。   From this equation (19), it can be seen that B ^ Tu is the eigenvector v of the variance-covariance matrix S. However, since normalization is not performed, the eigenvector v of the variance-covariance matrix S is expressed by the equation (20).

Figure 2013257656
Figure 2013257656

このように、N行N列の行列Cの固有ベクトルuを求め、この固有ベクトルuを用いて、M行M列の分散共分散行列Sの固有ベクトルvを求めることができる。但し、分散共分散行列SのM個の固有値のうち、固有値の大きい方からN番目以降の固有値は0と考える。この方法によれば、一般に想定されるような大容量の動画像に対しても主成分分析処理が実計算上可能である。   In this way, the eigenvector u of the matrix C of N rows and N columns can be obtained, and the eigenvector v of the variance-covariance matrix S of M rows and M columns can be obtained using this eigenvector u. However, of the M eigenvalues of the variance-covariance matrix S, the Nth and subsequent eigenvalues from the larger eigenvalue are considered to be zero. According to this method, the principal component analysis process can be actually performed even for a large-capacity moving image as generally assumed.

なお、画像の解像度を下げてMを小さくしたり、又は、フレームレートを下げてNを小さくしたり、又は、その両方を行ったりしてもよい。また、動画像のサイズが「M<N」である場合には、M行M列の分散共分散行列Sの固有値問題を直接的に解いてもよい。   Note that M may be reduced by reducing the resolution of the image, or N may be reduced by reducing the frame rate, or both. In addition, when the size of the moving image is “M <N”, the eigenvalue problem of the variance-covariance matrix S of M rows and M columns may be directly solved.

上述した実施形態によれば、二つの動きデータに対し、それぞれに空間的特徴量と時間的特徴量を算出し、その空間的特徴量間の距離と時間的特徴量間の距離を用いて動きの類似度を算出する。これにより、異なるモーションキャプチャシステムで取得したモーションキャプチャデータに対しても、共通的に動きの類似度を算出することができるという効果が得られる。又、モーションキャプチャデータを取得するための撮影の環境(被写体である人物、撮影距離、撮影角度など)が異なる場合であっても、共通的に動きの類似度を算出することができるという効果が得られる。又、入力する動きデータの種類(例えば、人体スケルトン型動きデータ、深度センサーシステムで取得したモーションキャプチャデータ、RGB画像データ、距離画像データなど)が異なる場合であっても、共通的に動きの類似度を算出することができるという効果が得られる。このように本実施形態によれば、動きデータ間の動きの類似度を算出する際に、ロバスト性を向上させることが可能となる。   According to the above-described embodiment, spatial feature amounts and temporal feature amounts are calculated for the two motion data, respectively, and the motion between the spatial feature amounts and the distance between the temporal feature amounts is used. The similarity is calculated. Thereby, the effect that the similarity of motion can be calculated in common for motion capture data acquired by different motion capture systems can be obtained. In addition, even when the shooting environment for acquiring the motion capture data (person who is the subject, shooting distance, shooting angle, etc.) is different, the similarity of motion can be calculated in common. can get. Even if the types of motion data to be input (for example, human skeleton motion data, motion capture data acquired by a depth sensor system, RGB image data, distance image data, etc.) are different, similar motions are commonly shared The effect that the degree can be calculated is obtained. As described above, according to the present embodiment, it is possible to improve the robustness when calculating the similarity of motion between motion data.

又、本実施形態によれば以下に示すような効果が得られる。従来、コンピューターグラフィックス(CG)キャラクターをユーザの動きに合わせて動かす技術が知られている。そして、CGキャラクターの動きの基となるデータベースに対して、ユーザの個性的な動きを追加することで、CGキャラクターの動きに親しみを感じさせる効果を加えることが期待できる。このとき、ユーザの動きと、データベース中のモーションキャプチャデータの動きとの類似度を用いて両者の動きを認識し、ユーザの個性的な動きをデータベースに追加することが考えられる。ここで、本実施形態によれば、ユーザの動きを任意のモーションキャプチャシステムで取得すればよいので、ユーザにとって非常に使い勝手がよくなるという効果が得られる。   Further, according to the present embodiment, the following effects can be obtained. Conventionally, a technique for moving a computer graphics (CG) character in accordance with a user's movement is known. Then, by adding the individual movement of the user to the database on which the movement of the CG character is based, it can be expected to add an effect that makes the movement of the CG character feel familiar. At this time, it is conceivable to recognize the movement of the user using the similarity between the movement of the user and the motion capture data in the database, and add the user's unique movement to the database. Here, according to the present embodiment, since the user's motion may be acquired by an arbitrary motion capture system, an effect that the user can use it very much is obtained.

以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.

また、図1に示す動き類似度算出装置1の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、動き類似度算出処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Also, a program for realizing the function of the motion similarity calculation device 1 shown in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Thus, the motion similarity calculation process may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices.
“Computer-readable recording medium” refers to a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a DVD (Digital Versatile Disk), and a built-in computer system. A storage device such as a hard disk.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

1…動き類似度算出装置、11…入力部、12…空間的特徴量算出部、13…時間的特徴量算出部、14…類似度算出部、15…出力部、21…物理量変更部、22…主成分分析部、23…ヒストグラム算出部 DESCRIPTION OF SYMBOLS 1 ... Motion similarity calculation apparatus, 11 ... Input part, 12 ... Spatial feature-value calculation part, 13 ... Temporal feature-value calculation part, 14 ... Similarity calculation part, 15 ... Output part, 21 ... Physical-quantity change part, 22 ... Principal component analysis unit, 23 ... Histogram calculation unit

Claims (7)

動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出する空間的特徴量算出部と、
動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出する時間的特徴量算出部と、
二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出する類似度算出部と、
を備えたことを特徴とする動き類似度算出装置。
A spatial feature amount calculating unit that calculates a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data;
A temporal feature amount calculating unit that calculates a temporal feature amount representing a temporal distribution of motion in the principal component space from the motion data;
A similarity calculation unit that calculates the similarity of motion using the distance between the spatial feature amount calculated for each of the two motion data and the distance between the temporal feature amounts;
A motion similarity calculation device comprising:
前記空間的特徴量算出部は、動きデータ内の各フレームの動きの主成分についてのフレーム間の距離を用いてヒストグラムを算出する、
ことを特徴とする請求項1に記載の動き類似度算出装置。
The spatial feature amount calculation unit calculates a histogram using a distance between frames with respect to a main component of motion of each frame in motion data.
The motion similarity calculation apparatus according to claim 1, wherein:
前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、隣り合う極値間のフレーム数が一定数になるように、フレーム間距離の値を補間または間引く、
ことを特徴とする請求項1又は2に記載の動き類似度算出装置。
The temporal feature amount calculation unit calculates a distance between a reference frame in the motion data and each of the other frames, obtains an extreme value from the calculated inter-frame distance, and determines the number of frames between adjacent extreme values. Interpolate or decimate inter-frame distance values to be a constant,
The motion similarity calculation apparatus according to claim 1, wherein
前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、極値の間隔が極端に短い場合には当該極値を削除し、極値の間隔が極端に長い場合には適切な極値を挿入する、
ことを特徴とする請求項1から3のいずれか1項に記載の動き類似度算出装置。
The temporal feature amount calculation unit calculates a distance between a reference frame in motion data and each of the other frames, obtains an extreme value from the calculated inter-frame distance, and an extreme value interval is extremely short Deletes the extreme value and inserts an appropriate extreme value if the interval between extreme values is extremely long.
The motion similarity calculation apparatus according to any one of claims 1 to 3, wherein
前記類似度算出部は、空間的特徴量の間の距離と時間的特徴量の間の距離に対して重み付け平均値を算出する、
ことを特徴とする請求項1から4のいずれか1項に記載の動き類似度算出装置。
The similarity calculation unit calculates a weighted average value for the distance between the spatial feature and the distance between the temporal features.
The motion similarity calculation apparatus according to claim 1, wherein:
動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、
動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、
二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、
を含むことを特徴とする動き類似度算出方法。
Calculating a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data;
Calculating a temporal feature amount representing a temporal distribution of motion in the principal component space from the motion data;
Calculating a similarity of motion using a distance between the spatial feature amount calculated for each of the two motion data and a distance between the temporal feature amounts;
A motion similarity calculation method comprising:
動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、
動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、
二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、
をコンピュータに実行させるためのコンピュータプログラム。
Calculating a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data;
Calculating a temporal feature amount representing a temporal distribution of motion in the principal component space from the motion data;
Calculating a similarity of motion using a distance between the spatial feature amount calculated for each of the two motion data and a distance between the temporal feature amounts;
A computer program for causing a computer to execute.
JP2012132229A 2012-06-11 2012-06-11 Motion similarity calculation device, motion similarity calculation method, and computer program Active JP5837860B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012132229A JP5837860B2 (en) 2012-06-11 2012-06-11 Motion similarity calculation device, motion similarity calculation method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012132229A JP5837860B2 (en) 2012-06-11 2012-06-11 Motion similarity calculation device, motion similarity calculation method, and computer program

Publications (2)

Publication Number Publication Date
JP2013257656A true JP2013257656A (en) 2013-12-26
JP5837860B2 JP5837860B2 (en) 2015-12-24

Family

ID=49954065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012132229A Active JP5837860B2 (en) 2012-06-11 2012-06-11 Motion similarity calculation device, motion similarity calculation method, and computer program

Country Status (1)

Country Link
JP (1) JP5837860B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021829A1 (en) * 2014-08-07 2016-02-11 스타십벤딩머신 주식회사 Motion recognition method and motion recognition device
KR101765208B1 (en) * 2014-01-07 2017-08-04 한국전자통신연구원 Method and apparatus of generating dance motion based on pose and timing constraints
JP6489726B1 (en) * 2017-09-08 2019-03-27 株式会社Vrc 3D data system and 3D data processing method
CN112257642A (en) * 2020-10-30 2021-01-22 上海庞勃特科技有限公司 Human body continuous motion similarity evaluation method and evaluation device
WO2022168428A1 (en) * 2021-02-02 2022-08-11 ソニーグループ株式会社 Information processing method, information processing device, and program
JP2023010541A (en) * 2021-07-09 2023-01-20 株式会社日立製作所 Method and system for recognizing human activity in industrial environment
WO2024042843A1 (en) * 2022-08-24 2024-02-29 株式会社Jvcケンウッド Avatar control device, avatar control method, and avatar control program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11282214B2 (en) 2020-01-08 2022-03-22 Agt International Gmbh Motion matching analysis

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288600A (en) * 2002-03-28 2003-10-10 Daihatsu Motor Co Ltd Pedestrian recognizing apparatus and recognizing method
JP2004310606A (en) * 2003-04-09 2004-11-04 Toyota Motor Corp Variation information recognizing device, and variation information recognizing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288600A (en) * 2002-03-28 2003-10-10 Daihatsu Motor Co Ltd Pedestrian recognizing apparatus and recognizing method
JP2004310606A (en) * 2003-04-09 2004-11-04 Toyota Motor Corp Variation information recognizing device, and variation information recognizing method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101765208B1 (en) * 2014-01-07 2017-08-04 한국전자통신연구원 Method and apparatus of generating dance motion based on pose and timing constraints
WO2016021829A1 (en) * 2014-08-07 2016-02-11 스타십벤딩머신 주식회사 Motion recognition method and motion recognition device
US10713479B2 (en) 2014-08-07 2020-07-14 Starship Vending-Machine Corp. Motion recognition method and motion recognition device for recognizing motion of user received via NUI device by comparing with preset comparison target information
JP6489726B1 (en) * 2017-09-08 2019-03-27 株式会社Vrc 3D data system and 3D data processing method
CN112257642A (en) * 2020-10-30 2021-01-22 上海庞勃特科技有限公司 Human body continuous motion similarity evaluation method and evaluation device
CN112257642B (en) * 2020-10-30 2024-03-15 上海创屹科技有限公司 Human body continuous motion similarity evaluation method and evaluation device
WO2022168428A1 (en) * 2021-02-02 2022-08-11 ソニーグループ株式会社 Information processing method, information processing device, and program
JP2023010541A (en) * 2021-07-09 2023-01-20 株式会社日立製作所 Method and system for recognizing human activity in industrial environment
JP7265656B2 (en) 2021-07-09 2023-04-26 株式会社日立製作所 Methods and systems for recognizing human activity in industrial environments
WO2024042843A1 (en) * 2022-08-24 2024-02-29 株式会社Jvcケンウッド Avatar control device, avatar control method, and avatar control program

Also Published As

Publication number Publication date
JP5837860B2 (en) 2015-12-24

Similar Documents

Publication Publication Date Title
JP5837860B2 (en) Motion similarity calculation device, motion similarity calculation method, and computer program
US11967101B2 (en) Method and system for obtaining joint positions, and method and system for motion capture
CN110998659B (en) Image processing system, image processing method, and program
JP4930854B2 (en) Joint object position / posture estimation apparatus, method and program thereof
JP2023502795A (en) A real-time system for generating 4D spatio-temporal models of real-world environments
Wei et al. Videomocap: Modeling physically realistic human motion from monocular video sequences
JP6816058B2 (en) Parameter optimization device, parameter optimization method, program
JP7452016B2 (en) Learning data generation program and learning data generation method
JP5604225B2 (en) Human body posture estimation apparatus, human body posture estimation method, and computer program
JP2016099982A (en) Behavior recognition device, behaviour learning device, method, and program
Hu et al. Capturing small, fast-moving objects: Frame interpolation via recurrent motion enhancement
JP2020119127A (en) Learning data generation method, program, learning data generation device, and inference processing method
JP2014085933A (en) Three-dimensional posture estimation apparatus, three-dimensional posture estimation method, and program
CN111815768B (en) Three-dimensional face reconstruction method and device
JP3836814B2 (en) Image processing method, image processing apparatus, and image processing program
KR20100138658A (en) Data processing apparatus and method
US20230154091A1 (en) Joint rotation inferences based on inverse kinematics
WO2023185241A1 (en) Data processing method and apparatus, device and medium
CN114401446B (en) Human body posture migration method, device and system, electronic equipment and storage medium
CN115223240B (en) Motion real-time counting method and system based on dynamic time warping algorithm
JP2000353244A (en) Method for obtaining basic matrix, method for restoring euclidean three-dimensional information and device therefor
KR20210076559A (en) Apparatus, method and computer program for generating training data of human model
JP6357396B2 (en) Background difference device, method, and program
JP7501543B2 (en) Information processing device, information processing method, and information processing program
WO2023162223A1 (en) Training program, generation program, training method, and generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151106

R150 Certificate of patent or registration of utility model

Ref document number: 5837860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150