JP2013257656A - Motion similarity calculation device, motion similarity calculation method, and computer program - Google Patents
Motion similarity calculation device, motion similarity calculation method, and computer program Download PDFInfo
- Publication number
- JP2013257656A JP2013257656A JP2012132229A JP2012132229A JP2013257656A JP 2013257656 A JP2013257656 A JP 2013257656A JP 2012132229 A JP2012132229 A JP 2012132229A JP 2012132229 A JP2012132229 A JP 2012132229A JP 2013257656 A JP2013257656 A JP 2013257656A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- distance
- feature amount
- data
- temporal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、動き類似度算出装置、動き類似度算出方法およびコンピュータプログラムに関する。 The present invention relates to a motion similarity calculation device, a motion similarity calculation method, and a computer program.
近年、モーションキャプチャ(motion capture)データを取得する方法として、マーカーを関節部位等に付けた人物を撮影した映像からモーションキャプチャデータを取得する方法や、RGBカメラと深度センサーを組み合わせた深度センサーシステムによって深度センサーシステムから人物までの距離を計測してモーションキャプチャデータを取得する方法などが知られている。前者の方法では、モーションキャプチャデータとして、例えば、図6に例示されるような人体スケルトン型動きデータが定義される。後者の方法としては、例えば、「Kinect(登録商標)センサー」と呼ばれるものが知られている。 In recent years, as a method of acquiring motion capture data, a method of acquiring motion capture data from an image of a person with a marker attached to a joint part or the like, or a depth sensor system combining an RGB camera and a depth sensor A method of acquiring motion capture data by measuring a distance from a depth sensor system to a person is known. In the former method, for example, human skeleton type motion data as illustrated in FIG. 6 is defined as the motion capture data. As the latter method, for example, a so-called “Kinect (registered trademark) sensor” is known.
ここでは、人体の姿勢(ポーズ)の動きを表現するデータとして、図6に例示される人体スケルトン型動きデータについて説明する。図6は、人体スケルトン型動きデータの定義例の概略図である。人体スケルトン型動きデータは、人の骨格を基に、骨及び骨の連結点(ジョイント)を用い、一ジョイントを根(ルート)とし、ルートからジョイント経由で順次連結される骨の構造を木(ツリー)構造として定義される。図6には、人体スケルトン型動きデータの定義の一部分のみを示している。図6において、ジョイント100は腰の部分であり、ルートとして定義される。ジョイント101は左腕の肘の部分、ジョイント102は左腕の手首の部分、ジョイント103は右腕の肘の部分、ジョイント104は右腕の手首の部分、ジョイント105は左足の膝の部分、ジョイント106は左足の足首の部分、ジョイント107は右足の膝の部分、ジョイント108は右足の足首の部分、ジョイント109は鎖骨の部分、ジョイント110、111は肩の部分、ジョイント112は首の部分、ジョイント113、114は股関節の部分、である。
Here, the human skeleton type motion data illustrated in FIG. 6 will be described as data representing the motion of the posture (pose) of the human body. FIG. 6 is a schematic diagram of a definition example of human skeleton type motion data. Human body skeleton-type motion data is based on the human skeleton, using bone and bone connection points (joints), with one joint as the root (root), and the structure of bones sequentially connected from the root via the joint (tree) Tree) structure. FIG. 6 shows only a part of the definition of the human body skeleton type motion data. In FIG. 6, a
スケルトン型動きデータは、スケルトン型対象物の各ジョイントの動きを記録したデータであり、スケルトン型対象物としては人体や動物、ロボットなどが適用可能である。スケルトン型動きデータとしては、各ジョイントの位置情報や角度情報、速度情報、加速度情報などが利用可能である。ここでは、人体スケルトン型動きデータとして、人体スケルトンの角度情報と加速度情報を例に挙げて説明する。 The skeleton type motion data is data that records the movement of each joint of the skeleton type object, and a human body, an animal, a robot, or the like is applicable as the skeleton type object. As the skeleton type motion data, position information, angle information, speed information, acceleration information, and the like of each joint can be used. Here, human body skeleton angle data and acceleration information will be described as an example of human body skeleton type motion data.
人体スケルトン型角度情報データは、人の一連の動きを複数のポーズの連続により表すものであり、人の基本ポーズ(neutral pose)を表す基本ポーズデータと、実際の人の動きの中の各ポーズを表すポーズ毎のフレームデータとを有する。基本ポーズデータは、基本ポーズのときのルートの位置及び各ジョイントの位置、並びに各骨の長さなどの情報を有する。基本ポーズデータにより基本ポーズが特定される。フレームデータは、基本ポーズからの移動量をジョイント毎に表す。ここでは、移動量として角度情報を利用する。各フレームデータにより、基本ポーズに対して各移動量が加味された各ポーズが特定される。これにより、各フレームデータによって特定される各ポーズの連続により、人の一連の動きが特定される。なお、人体スケルトン型角度情報データは、人の動きをカメラ撮影した映像からモーションキャプチャ処理によって作成したり、或いは、キーフレームアニメーションの手作業によって作成したりすることができる。 Human body skeleton-type angle information data represents a series of movements of a person by a series of multiple poses. Basic pose data that represents a person's basic pose and each pose in the actual movement of the person. Frame data for each pose. The basic pose data includes information such as the position of the root and the position of each joint in the basic pose, and the length of each bone. The basic pose is specified by the basic pose data. The frame data represents the amount of movement from the basic pose for each joint. Here, angle information is used as the movement amount. Each frame data identifies each pose in which each movement amount is added to the basic pose. Thereby, a series of movements of a person is specified by the continuation of each pose specified by each frame data. The human skeleton-type angle information data can be created by a motion capture process from an image obtained by photographing a person's movement with a camera, or can be created manually by key frame animation.
人体スケルトン型加速度情報データは、人の各ジョイントの加速度をポーズ毎のフレームデータと複数のポーズの連続により表すものである。なお、人体スケルトン型加速度情報データは、加速度計で記録したり、映像や動きデータから算出したりすることができる。 The human body skeleton type acceleration information data represents the acceleration of each joint of a person by continuous frame data for each pose and a plurality of poses. The human skeleton-type acceleration information data can be recorded by an accelerometer, or calculated from video and motion data.
従来、二つの動きの間の類似度を算出する従来の技術としては、おおよそ次の2つのステップ1、2から構成される。
Conventionally, the conventional technique for calculating the degree of similarity between two movements generally includes the following two
ステップ1:二つのモーションキャプチャデータの各フレーム間の距離を算出する。例えば非特許文献1には、フレーム間の距離を算出する方法として以下の二通りが記載されている。
(フレーム間の距離を算出する方法1)
人体スケルトン型動きデータにおいて、ジョイント毎に角度の距離を定義し、各ジョイントを重み付け平均する。
(フレーム間の距離を算出する方法2)
人体スケルトン型動きデータを潜在空間に変更し、潜在空間の座標同士でEuclidean距離を算出する。
また、非特許文献2及び特許文献1に記載される従来技術では、各関節の動きの特徴量を算出し、その特徴量同士の距離を定義し、各ジョイントを重み付け平均する。
Step 1: The distance between each frame of two motion capture data is calculated. For example, Non-Patent
(
In the human skeleton type motion data, the angle distance is defined for each joint, and each joint is weighted averaged.
(
The human skeleton type motion data is changed to the latent space, and the Euclidean distance is calculated between the coordinates of the latent space.
In the prior art described in
ステップ2:二つの動きの間の類似度を算出する際に、全てのフレームを考慮する。例えば非特許文献3に記載されるように最も一般的な方法である、はDTW(Dynamic Time Warping)を用いる。
Step 2: Consider all frames when calculating the similarity between two movements. For example, as described in
しかし、上述した従来の動き類似度算出技術では、以下に示すような課題がある。
(1)異なるモーションキャプチャシステムで取得したモーションキャプチャデータに対して、共通的に動きの類似度を算出することが難しい。例えば、人体スケルトン型動きデータの骨構造の定義が異なると、従来の技術では適用できない。
(2)モーションキャプチャデータを取得するための撮影の環境(被写体である人物、撮影距離、撮影角度など)が異なると、共通的に動きの類似度を算出することが難しい。
(3)入力データの種類(例えば、人体スケルトン型動きデータ、深度センサーシステムで取得したモーションキャプチャデータ、RGB画像データ、距離画像データなど)が異なると、共通的に動きの類似度を算出することが難しい。
(4)モーションキャプチャシステムなどで取得したデータがノイズを含んでいると、ロバストな類似度を算出することが難しい。
However, the conventional motion similarity calculation technique described above has the following problems.
(1) It is difficult to calculate motion similarity in common for motion capture data acquired by different motion capture systems. For example, if the definition of the bone structure of the human skeleton type motion data is different, it cannot be applied by the conventional technique.
(2) If the shooting environment for acquiring motion capture data (such as a person who is a subject, shooting distance, shooting angle, etc.) is different, it is difficult to calculate the similarity of motion in common.
(3) When the types of input data (for example, human skeleton type motion data, motion capture data acquired by a depth sensor system, RGB image data, distance image data, etc.) are different, the similarity of motion is commonly calculated. Is difficult.
(4) If data acquired by a motion capture system or the like includes noise, it is difficult to calculate a robust similarity.
本発明は、このような事情を考慮してなされたもので、ロバスト性を向上させた動き類似度算出装置、動き類似度算出方法およびコンピュータプログラムを提供することを課題とする。 The present invention has been made in view of such circumstances, and it is an object of the present invention to provide a motion similarity calculation device, a motion similarity calculation method, and a computer program with improved robustness.
上記の課題を解決するために、本発明に係る動き類似度算出装置は、動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出する空間的特徴量算出部と、動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出する時間的特徴量算出部と、二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出する類似度算出部と、を備えたことを特徴とする。 In order to solve the above problems, a motion similarity calculation device according to the present invention includes a spatial feature amount calculation unit that calculates a spatial feature amount representing a spatial distribution of motion in a principal component space from motion data, and , A temporal feature amount calculation unit that calculates a temporal feature amount representing temporal distribution of motion in the principal component space from the motion data, and a distance between the spatial feature amounts calculated for each of the two motion data And a similarity calculation unit that calculates the similarity of motion using the distance between the temporal feature amounts.
本発明に係る動き類似度算出装置において、前記空間的特徴量算出部は、動きデータ内の各フレームの動きの主成分についてのフレーム間の距離を用いてヒストグラムを算出する、ことを特徴とする。 In the motion similarity calculation apparatus according to the present invention, the spatial feature amount calculation unit calculates a histogram using a distance between frames with respect to a main component of motion of each frame in motion data. .
本発明に係る動き類似度算出装置において、前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、隣り合う極値間のフレーム数が一定数になるように、フレーム間距離の値を補間または間引く、ことを特徴とする。 In the motion similarity calculation apparatus according to the present invention, the temporal feature amount calculation unit calculates a distance between the reference frame in the motion data and each of the other frames, and calculates an extreme value from the calculated inter-frame distance. The inter-frame distance value is interpolated or thinned out so that the number of frames between adjacent extreme values is constant.
本発明に係る動き類似度算出装置において、前記時間的特徴量算出部は、動きデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出し、算出したフレーム間距離から極値を求め、極値の間隔が極端に短い場合には当該極値を削除し、極値の間隔が極端に長い場合には適切な極値を挿入する、ことを特徴とする。 In the motion similarity calculation apparatus according to the present invention, the temporal feature amount calculation unit calculates a distance between the reference frame in the motion data and each of the other frames, and calculates an extreme value from the calculated inter-frame distance. In addition, when the interval between extreme values is extremely short, the extreme value is deleted, and when the interval between extreme values is extremely long, an appropriate extreme value is inserted.
本発明に係る動き類似度算出装置において、前記類似度算出部は、空間的特徴量の間の距離と時間的特徴量の間の距離に対して重み付け平均値を算出する、ことを特徴とする。 In the motion similarity calculation apparatus according to the present invention, the similarity calculation unit calculates a weighted average value for a distance between a spatial feature and a distance between temporal features. .
本発明に係る動き類似度算出方法は、動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、を含むことを特徴とする。 The motion similarity calculation method according to the present invention includes a step of calculating a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data, and a temporal motion of the motion in the principal component space from the motion data. Calculate the similarity of motion using the step of calculating the temporal feature value representing the distribution and the distance between the spatial feature values calculated for each of the two motion data and the distance between the temporal feature values. And a step of performing.
本発明に係るコンピュータプログラムは、動きデータから、主成分空間で動きの空間的な分布を表す空間的特徴量を算出するステップと、動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、をコンピュータに実行させるためのコンピュータプログラムであることを特徴とする。 The computer program according to the present invention calculates a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data, and represents a temporal distribution of motion in the principal component space from the motion data. Calculating a temporal feature, and calculating a motion similarity using a distance between the spatial feature calculated for each of the two motion data and a distance between the temporal features Is a computer program for causing a computer to execute.
本発明によれば、動きデータ間の動きの類似度を算出する際に、ロバスト性を向上させることができるという効果が得られる。 According to the present invention, it is possible to improve the robustness when calculating the similarity of motion between motion data.
以下、図面を参照し、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る動き類似度算出装置1の構成を示すブロック図である。図1において、動き類似度算出装置1は、入力部11と空間的特徴量算出部12と時間的特徴量算出部13と類似度算出部14と出力部15を有する。本実施形態に係る動き類似度算出装置1は、動きデータ間の動きの類似度を算出する。動きデータは、人物の動きを表すデータである。動きデータとしては、モーションキャプチャデータ、RGB画像データ、又は距離画像データなどがある。以下の説明では、動きデータの一例として、モーションキャプチャデータを用いて説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a motion
[入力部]
入力部11は、動きデータとしてモーションキャプチャデータを入力する。モーションキャプチャデータの種類としては、例えば、人体スケルトン型動きデータや、深度センサーシステムで取得したモーションキャプチャデータなどがある。
[Input section]
The
[空間的特徴量算出部]
図2は、図1に示す空間的特徴量算出部12の構成を示すブロック図である。図2において、空間的特徴量算出部12は、物理量変更部21と主成分分析部22とヒストグラム算出部23を有する。空間的特徴量算出部12は、入力部11から入力されたモーションキャプチャデータが表す人物の動きについての空間的特徴量を算出する。空間的特徴量は、動きの空間的な分布を表す。空間的特徴量の算出では、比較的大きな動きを重視し、比較的細かい動きを無視する。また、主成分分析とヒストグラムの算出によって、ロバスト性を向上させる。
[Spatial feature calculation unit]
FIG. 2 is a block diagram showing a configuration of the spatial feature
[物理量変更部]
物理量変更部21は、入力されたモーションキャプチャデータから、主成分分析部22に入力するデータを生成する。以下、人体スケルトン型動きデータを用いて、主成分分析部22に入力するデータを生成する実施例を説明する。
[Physical quantity change part]
The physical
物理量変更部21は、人体スケルトン型動きデータが表す動きの期間において、各ジョイントがルートに対してどの位置で動いているのかを算出する。ここでは、人体スケルトン型動きデータの一種である人体スケルトン型角度情報データを用いて、時刻tにおけるジョイント相対位置を算出する。ジョイント相対位置は、ルートに対するジョイントの相対的な位置である。
The physical
まず、物理量変更部21は、人体スケルトン型角度情報データ内の基本ポーズデータとフレームデータを用いて、ジョイント位置を算出する。基本ポーズデータは、基本ポーズのときのルートの位置及び各ジョイントの位置、並びに各骨の長さなど、基本ポーズを特定する情報を有する。フレームデータは、ジョイント毎に、基本ポーズからの移動量の情報を有する。ここでは、移動量として角度情報を利用する。この場合、時刻tにおけるk番目のジョイントの位置pk(t)は、(1)式および(2)式により算出される。pk(t)は3次元座標で表される。なお、時刻tはフレームデータの時刻である。本実施形態では、時刻tを単に「フレームインデックス」として扱う。これにより、時刻tは、0,1,2,・・・,T−1の値をとる。Tは、人体スケルトン型角度情報データに含まれるフレームの個数である。
First, the physical
但し、0番目(i=0)のジョイントはルートである。Raxis i−1,i(t)は、i番目のジョイントとその親ジョイント(「i−1」番目のジョイント)間の座標回転マトリックスであり、基本ポーズデータに含まれる。各ジョイントにはローカル座標系が定義されており、座標回転マトリックスは親子関係にあるジョイント間のローカル座標系の対応関係を表す。Ri(t)は、i番目のジョイントのローカル座標系におけるi番目のジョイントの回転マトリックスであり、フレームデータに含まれる角度情報である。Ti(t)は、i番目のジョイントとその親ジョイント間の遷移マトリックスであり、基本ポーズデータに含まれる。遷移マトリックスは、i番目のジョイントとその親ジョイント間の骨の長さを表す。 However, the 0th (i = 0) joint is the root. R axis i-1, i (t) is a coordinate rotation matrix between the i-th joint and its parent joint ("i-1" -th joint), and is included in the basic pose data. A local coordinate system is defined for each joint, and the coordinate rotation matrix represents the correspondence of the local coordinate system between joints in a parent-child relationship. R i (t) is a rotation matrix of the i-th joint in the local coordinate system of the i-th joint, and is angle information included in the frame data. T i (t) is a transition matrix between the i-th joint and its parent joint, and is included in the basic pose data. The transition matrix represents the bone length between the i-th joint and its parent joint.
次いで、物理量変更部21は、時刻tにおける、ルートに対するk番目のジョイントの相対位置(ジョイント相対位置)p’k(t)を(3)式により算出する。
Next, the physical
但し、proot(t)は時刻tにおけるルート(0番目のジョイント)の位置(p0(t))である。 Here, p root (t) is the position (p 0 (t)) of the route (0th joint) at time t.
これにより、時刻tのフレーム「x(t)」は、「x(t)={p’1(t),p’2(t),・・・,p’K(t)}T」と表される。但し、Kは、ルートを除いたジョイントの個数である。Tは転置行列を表す。 Thus, the frame “x (t)” at time t is expressed as “x (t) = {p ′ 1 (t), p ′ 2 (t),..., P ′ K (t)} T ”. expressed. K is the number of joints excluding the root. T represents a transposed matrix.
[主成分分析部]
主成分分析部22は、物理量変更部21が生成したジョイント相対位置データに対して、主成分分析処理を行う。ここでは、時刻tのフレーム「x(t)」を用いて、ジョイント相対位置データ「X」を「X={x(t1),x(t2),・・・,x(tN)}と表す。但し、Nは、ジョイント相対位置データに含まれるフレームの個数である。Xは、M行N列の行列である(但し、M=3×K)。
[Principal component analysis section]
The principal
主成分分析処理では、Xに対して主成分分析処理を行い、Xを主成分空間へ変換する。 In the principal component analysis processing, principal component analysis processing is performed on X, and X is converted into a principal component space.
ここで、主成分分析方法を説明する。
まず、(4)式により、Xから平均値を除いたN行M列の行列Dを算出する。
Here, the principal component analysis method will be described.
First, the matrix D of N rows and M columns obtained by subtracting the average value from X is calculated by the equation (4).
次いで、(5)式により、N行M列の行列Dに対して特異値分解(Singular Value Decomposition)を行う。 Next, singular value decomposition (Singular Value Decomposition) is performed on the matrix D of N rows and M columns according to the equation (5).
但し、Uは、N行N列のユニタリ行列である。Σは、N行M列の負でない対角要素を降順にもつ対角行列であり、主成分空間の座標の分散を表す。Vは、M行M列のユニタリ行列であり、主成分に対する係数(principal component)である。 However, U is a unitary matrix of N rows and N columns. Σ is a diagonal matrix having non-negative diagonal elements of N rows and M columns in descending order, and represents the variance of the coordinates of the principal component space. V is a unitary matrix of M rows and M columns, and is a coefficient (principal component) for the principal component.
次いで、(6)式により、N行M列の行列Dを主成分空間へ変換する。M行N列の行列Yは、主成分空間の座標を表す。 Next, the matrix D of N rows and M columns is converted into the principal component space by the equation (6). The matrix Y with M rows and N columns represents the coordinates of the principal component space.
主成分分析処理では、主成分空間の座標を表す行列(主成分座標行列)Yと、主成分に対する係数の行列(主成分係数行列)Vをメモリに保存する。 In the principal component analysis process, a matrix (principal component coordinate matrix) Y representing coordinates of the principal component space and a matrix of principal components (principal component coefficient matrix) V are stored in a memory.
なお、元空間の座標を表す行列Xと主成分座標行列Yは、(6)式と(7)式により相互に変換することができる。 Note that the matrix X representing the coordinates of the original space and the principal component coordinate matrix Y can be converted into each other by the equations (6) and (7).
また、上位のr個の主成分によって、(8)式により変換することができる。 Moreover, it can convert by (8) Formula by the upper r main components.
但し、Vrは、主成分係数行列V内の上位のr個の行から成るM行r列の行列である。Yrは、主成分座標行列Y内の上位のr個の列から成るr行N列の行列である。X〜は、復元されたM行N列の行列である。 Here, V r is a matrix of M rows and r columns composed of upper r rows in the principal component coefficient matrix V. Y r is an r-row N-column matrix composed of the upper r columns in the principal component coordinate matrix Y. X ~ is a matrix of reconstructed M rows and N columns.
なお、元空間の一部の自由度だけを主成分分析処理することも可能である。例えば、足に関するジョイント相対位置データのみから生成したM’行N列の行列X’に対して、(4)式、(5)式及び(6)式により主成分分析処理を行う。また、ジョイント相対位置データ内の一部のフレームだけを主成分分析処理することも可能である。例えば、最初のN’個のフレームのみから生成したM行N’列の行列X’に対して、(4)式、(5)式及び(6)式により主成分分析処理を行う。 Note that it is also possible to perform principal component analysis processing on only some degrees of freedom of the original space. For example, the principal component analysis process is performed on the M ′ × N matrix X ′ generated only from the joint relative position data regarding the foot using the equations (4), (5), and (6). It is also possible to perform principal component analysis processing on only some frames in the joint relative position data. For example, the principal component analysis processing is performed on the M × N ′ matrix X ′ generated from only the first N ′ frames by the equations (4), (5), and (6).
[ヒストグラム算出部]
ヒストグラム算出部23は、主成分分析部22が算出した主成分座標行列Yを用いて、ヒストグラムを算出する。このヒストグラムが本実施形態に係る空間的特徴量である。そのヒストグラム算出処理では、主成分座標行列Y内の上位のr個の列から成るr行N列の行列Yrを用いて、ヒストグラムを算出する。rの値は任意に設定可能とする。
[Histogram calculation unit]
The
行列Yrは、ジョイント相対位置データXと同様にN個のフレームを有し、「Yr={yr(t1),yr(t2),・・・,yr(tN)}と表される。ヒストグラム算出部23は、行列Yrのフレームの全組合せに対して、(9)式によりユークリッド距離を算出する。
The matrix Y r has N frames like the joint relative position data X, and is expressed as “Y r = {y r (t1), y r (t2),..., Y r (tN)}”. is.
次いで、ヒストグラム算出部23は、算出したユークリッド距離d(i,j)を用いて、所定のビン数のヒストグラム(度数分布図)のデータを算出する。ヒストグラムは度数分布を表す棒状のグラフである。図3はヒストグラムの例である。本実施形態では、ヒストグラムの横軸にユークリッド距離d(i,j)、縦軸に各ユークリッド距離d(i,j)の度数を示す。このとき、ユークリッド距離d(i,j)の最大値と最小値に基づいて、横軸に表すビンの幅を等間隔に設定する。これにより、例えば、64個のビンから構成されるヒストグラム「H={h(1),h(2),・・・,h(64)}が算出される。
Next, the
以上が空間的特徴量算出部12の説明である。
The above is the description of the spatial feature
[時間的特徴量算出部]
時間的特徴量算出部13は、入力部11から入力されたモーションキャプチャデータが表す人物の動きについての時間的特徴量を算出する。時間的特徴量は、動きの時間的な分布を表す。
[Temporal feature value calculation unit]
The temporal feature
まず、時間的特徴量算出部13は、モーションキャプチャデータ内の基準フレームとそれ以外の各フレームとの間の距離を算出する。本実施形態では、時間的に最初のフレーム(第1フレーム)を基準フレームとする。この結果、第1フレームとそれ以外の各フレームとの間の距離「D={d(t2),d(t3),・・・,d(tN)}が算出される。なお、フレーム間距離の算出方法としては、非特許文献1に記載される方法を用いることができる。又は、上記主成分分析部22が算出した主成分座標行列Yを用いて、(9)式によりユークリッド距離として算出してもよい。
First, the temporal
次いで、時間的特徴量算出部13は、算出したフレーム間距離Dから極値を求める。このとき、図4に例示されるように、最初のフレーム間距離301(第1フレームと第2フレーム間の距離)と最後のフレーム間距離306(第1フレームと第Nフレーム間の距離)も極値として追加する。これにより、図4の例では6個の極値301〜306が求まる。なお、極値の間隔に激しい変化がある場合には解消することが好ましい。このために、極値の間隔が極端に短い場合には当該極値を削除する。逆に、極値の間隔が極端に長い場合には適切な極値を挿入する。
Next, the temporal feature
次いで、時間的特徴量算出部13は、フレーム間距離「D={d(t2),d(t3),・・・,d(tN)}に対して、隣り合う極値間のフレーム数(距離の値の数)が一定数(任意に設定可能な値とする)になるように、フレーム間距離の値を補間または間引く。この調整後のフレーム間距離を時間的特徴量「F={f(1),f(2),・・・,f(N’)}」とする。この時間的特徴量Fによれば、同じ形の動きに対して動きの速さで区別しないようにする効果がある。
Next, the temporal feature
[類似度算出部]
類似度算出部14は、入力部11が入力した二つのモーションキャプチャデータに関し、一方のモーションキャプチャデータが表す人物の動きと、もう一方のモーションキャプチャデータが表す人物の動きとの類似度を算出する。この類似度算出処理では、各モーションキャプチャデータに関して、空間的特徴量算出部12が算出した空間的特徴量と、時間的特徴量算出部13が算出した時間的特徴量とを用いる。以下、本実施形態に係る類似度算出方法を説明する。
[Similarity calculation unit]
The
ここでは、第1のモーションキャプチャデータに関して、空間的特徴量(ヒストグラム「H1={h1(1),h1(2),・・・,h1(64)})と時間的特徴量(フレーム間距離「F1={f1(1),f1(2),・・・,f1(N)}」とする。第2のモーションキャプチャデータに関して、空間的特徴量(ヒストグラム「H2={h2(1),h2(2),・・・,h2(64)})と時間的特徴量(フレーム間距離「F2={f2(1),f2(2),・・・,f2(M)}」とする。 Here, with respect to the first motion capture data, a spatial feature amount (histogram “H1 = {h1 (1), h1 (2),..., H1 (64)})” and a temporal feature amount (interframe distance). “F1 = {f1 (1), f1 (2),..., F1 (N)}” For the second motion capture data, a spatial feature (histogram “H2 = {h2 (1), h2 (2),..., h2 (64)}) and temporal features (interframe distances “F2 = {f2 (1), f2 (2),..., f2 (M)}”). .
まず、類似度算出部14は、第1、第2のモーションキャプチャデータの空間的特徴量(ヒストグラムH1、H2)を用いて、ヒストグラムH1とヒストグラムH2との間の距離を算出する。このヒストグラム間距離の算出処理では、例えば非特許文献4に記載されるEMD(Earth Mover’s Distance)という距離の定義を用いて、ヒストグラムH1とヒストグラムH2との間の距離を算出することができる。このEMDを用いたヒストグラム間距離の算出結果をEMD(H1,H2)とする。EMDを用いたヒストグラム間距離は、値が小さいほど類似度が大きいことを表す。
First, the
次いで、類似度算出部14は、第1、第2のモーションキャプチャデータの時間的特徴量(フレーム間距離F1、F2)を用いて、(10)式により距離D1(F1、F2)を算出する。
Next, the
又、類似度算出部14は、第1、第2のモーションキャプチャデータの時間的特徴量(フレーム間距離F1、F2)を用いて、(11)式により距離D2(F1、F2)を算出する。この距離D2(F1、F2)は、第1、第2のモーションキャプチャデータのうち、時間的に長い方のモーションキャプチャデータに対して、距離の算出を開始するフレームをK(任意に設定可能な値とする)個だけずらして算出される。
Further, the
類似度算出部14は、距離D1(F1、F2)と距離D2(F1、F2)のうち、値が小さい方(類似度が大きい方)を時間的特徴量間の距離D(F1、F2)とする。
The
次いで、類似度算出部14は、空間的特徴量間の距離(ヒストグラム間距離EMD(H1,H2))と時間的特徴量間の距離D(F1、F2)を用いて、(12)式により、類似度(similarity)を算出する。
Next, the
但し、αは重み係数であり、0から1までの範囲で任意に設定可能な値とする。 However, α is a weighting factor and is a value that can be arbitrarily set in the range from 0 to 1.
[出力部]
出力部15は、類似度算出部14が算出した類似度を出力する。これにより、入力部11が入力した二つのモーションキャプチャデータに関する動きの類似度が出力される。
[Output section]
The
なお、上述した実施形態では、モーションキャプチャデータを用いて主成分分析処理を行う実施例を説明したが、他の種類の動きデータを用いて主成分分析処理を行う実施例を、以下に図5を参照して説明する。図5は、本発明の一実施形態に係る主成分分析方法の手順を示す概略図である。 In the above-described embodiment, an example in which principal component analysis processing is performed using motion capture data has been described. However, an example in which principal component analysis processing is performed using other types of motion data is described below with reference to FIG. Will be described with reference to FIG. FIG. 5 is a schematic diagram showing a procedure of a principal component analysis method according to an embodiment of the present invention.
(ステップS1)入力部11は、動きデータとして、RGB画像データ又は距離画像データを入力する。RGB画像データは、RGBカメラで撮像された動画像データであり、フレーム内の画素値はRGB画素値である。距離画像データは、深度センサーシステムで取得された深度情報を有する動画像データであり、フレーム内の画素値は深度値である。
(Step S1) The
(ステップS2)物理量変更部21は、入力部11が入力した動きデータを記憶する。この動きデータは、図5に示されるように、N個のフレームから構成される。i番目のフレームのサイズMである画素数Mは、フレームの縦の画素数「height」と横の画素数「width」との積「M=height×width」である。但し、「1≦i≦N」である。これにより、任意のサイズの画像から構成される動きデータに対して適用可能とする。
(Step S2) The physical
(ステップS3)物理量変更部21は、行列B’を生成する。行列B’の列は、動きデータ内のフレームの時系列の順序で、N個のフレームの画素値ベクトルが配列される。従って、行列B’のi列目の列ベクトルは、i番目のフレームの画素値ベクトルViである。画素値ベクトルViは、i番目のフレームを構成するM個の画素の画素値が、各画素のフレーム内の位置に基づく所定の順序で、ベクトルの要素として配列されている。これにより、行列B’は、M行N列の行列となる。
(Step S3) The physical
(ステップS4)主成分分析部22は、行列B’の分散共分散行列Sの固有値λi(i=1,2,・・・)と固有ベクトルvi(i=1,2,・・・)を算出する。分散共分散行列SのサイズはM行M列である。
(Step S4) The principal
(ステップS5)主成分分析部22は、行列B’の分散共分散行列Sの固有値λiと固有ベクトルviを用いて、固有値ごとに、固有値と固有ベクトルを主成分の空間の値(主成分得点)に変換した時系列データ(主成分得点の時系列)を生成する。一つの主成分得点の時系列は、動きデータ内のフレーム数と同じN個のデータから構成される。
(Step S5) The principal
ヒストグラム算出部23は、主成分分析部22が作成した第i主成分得点の時系列(i=1,2,・・・)のうち、上位のr個の主成分得点の時系列を用いて、ヒストグラムを算出する。
The
次に、図5のステップS4の一実施例を説明する。一般に、動画像のサイズ(画素数)Mは、例えば携帯電話機に付属のカメラで簡易に撮影する場合を想定すると、縦×横=(height×width=M)=320×240=8万画素程度、フレーム数(時系列数)N=300程度、であることが考えられる。すなわち、「M>N」であることが想定される。この場合、演算量の削減の観点から、M行M列の分散共分散行列Sの固有値問題を直接解くのではなく、後述するようにN行N列の行列Cの固有値問題を解いて、この結果から分散共分散行列Sの固有値と固有ベクトルを、固有値の大きい方から所定数分だけを算出することが好ましい。以下に、この実施例を説明する。 Next, an example of step S4 in FIG. 5 will be described. In general, the size (number of pixels) M of a moving image is about vertical × horizontal = (height × width = M) = 320 × 240 = 80,000 pixels, for example, when it is assumed that the camera attached to the mobile phone is simply captured. It can be considered that the number of frames (number of time series) is about N = 300. That is, it is assumed that “M> N”. In this case, from the viewpoint of reducing the amount of computation, instead of directly solving the eigenvalue problem of the M-column and M-column variance-covariance matrix S, the eigenvalue problem of the N-row N-column matrix C is solved as described later. From the result, it is preferable to calculate the eigenvalues and eigenvectors of the variance-covariance matrix S by a predetermined number from the larger eigenvalue. This embodiment will be described below.
ステップS3で求められたM行N列の行列B’は(13)式で表される。 The matrix B ′ of M rows and N columns obtained in step S3 is expressed by equation (13).
この行列B’の行平均(フレーム方向に対する平均)をM行N列の行列meanとして(14)式で表す。 The row average (average with respect to the frame direction) of this matrix B ′ is expressed by equation (14) as a matrix mean of M rows and N columns.
そして、行列B’から1行ずつ抽出して、行列meanの対応する行の平均ベクトルを引いて,行方向に結合した行列Bを(15)式で定義する。 Then, the matrix B extracted from the matrix B ′ row by row, subtracting the average vector of the corresponding row of the matrix mean, and defining the matrix B coupled in the row direction is defined by equation (15).
この行列Bを利用して、分散共分散行列Sを表すと(16)式となる。 When this matrix B is used to express the variance-covariance matrix S, equation (16) is obtained.
そして、固有方程式は(17)式となる。 And the eigen equation becomes the equation (17).
この(17)式の固有方程式に対して両辺に左から行列Bを掛けて、「Bv=u」とすると(18)式となる。 When this characteristic equation (17) is multiplied by the matrix B from the left on both sides and “Bv = u” is obtained, equation (18) is obtained.
(18)式は、行列(N^−1)BB^T(行列Cとする)の固有方程式である。この行列Cに対する固有ベクトルuを求めてから、固有ベクトルuを使って分散共分散行列Sの固有値vを求める。このときの行列の大きさを考えると、N行N列となっており、一般に画素値ベクトルの次元数Mよりもフレーム数Nの方が圧倒的に小さいことから、分散共分散行列Sから直接的に固有値を求めるよりも、はるかに少ない演算量で算出できる。 Equation (18) is an eigen equation of the matrix (N ^ -1) BB ^ T (denoted as matrix C). After obtaining the eigenvector u for the matrix C, the eigenvalue v of the variance-covariance matrix S is obtained using the eigenvector u. Considering the size of the matrix at this time, it is N rows and N columns, and generally the number of frames N is overwhelmingly smaller than the number of dimensions M of the pixel value vector. Therefore, it can be calculated with a much smaller amount of computation than when the eigenvalue is obtained.
固有ベクトルuから、分散共分散行列Sの固有ベクトルvを求めるには、(18)式に左から行列B^Tを掛ける。これにより、(19)式が得られる。 In order to obtain the eigenvector v of the variance-covariance matrix S from the eigenvector u, the matrix B ^ T is multiplied from the left in the equation (18). Thereby, the equation (19) is obtained.
この(19)式から、B^Tuが、分散共分散行列Sの固有ベクトルvであることが分かる。但し、規格化はされていないので規格化すると、分散共分散行列Sの固有ベクトルvは(20)式となる。 From this equation (19), it can be seen that B ^ Tu is the eigenvector v of the variance-covariance matrix S. However, since normalization is not performed, the eigenvector v of the variance-covariance matrix S is expressed by the equation (20).
このように、N行N列の行列Cの固有ベクトルuを求め、この固有ベクトルuを用いて、M行M列の分散共分散行列Sの固有ベクトルvを求めることができる。但し、分散共分散行列SのM個の固有値のうち、固有値の大きい方からN番目以降の固有値は0と考える。この方法によれば、一般に想定されるような大容量の動画像に対しても主成分分析処理が実計算上可能である。 In this way, the eigenvector u of the matrix C of N rows and N columns can be obtained, and the eigenvector v of the variance-covariance matrix S of M rows and M columns can be obtained using this eigenvector u. However, of the M eigenvalues of the variance-covariance matrix S, the Nth and subsequent eigenvalues from the larger eigenvalue are considered to be zero. According to this method, the principal component analysis process can be actually performed even for a large-capacity moving image as generally assumed.
なお、画像の解像度を下げてMを小さくしたり、又は、フレームレートを下げてNを小さくしたり、又は、その両方を行ったりしてもよい。また、動画像のサイズが「M<N」である場合には、M行M列の分散共分散行列Sの固有値問題を直接的に解いてもよい。 Note that M may be reduced by reducing the resolution of the image, or N may be reduced by reducing the frame rate, or both. In addition, when the size of the moving image is “M <N”, the eigenvalue problem of the variance-covariance matrix S of M rows and M columns may be directly solved.
上述した実施形態によれば、二つの動きデータに対し、それぞれに空間的特徴量と時間的特徴量を算出し、その空間的特徴量間の距離と時間的特徴量間の距離を用いて動きの類似度を算出する。これにより、異なるモーションキャプチャシステムで取得したモーションキャプチャデータに対しても、共通的に動きの類似度を算出することができるという効果が得られる。又、モーションキャプチャデータを取得するための撮影の環境(被写体である人物、撮影距離、撮影角度など)が異なる場合であっても、共通的に動きの類似度を算出することができるという効果が得られる。又、入力する動きデータの種類(例えば、人体スケルトン型動きデータ、深度センサーシステムで取得したモーションキャプチャデータ、RGB画像データ、距離画像データなど)が異なる場合であっても、共通的に動きの類似度を算出することができるという効果が得られる。このように本実施形態によれば、動きデータ間の動きの類似度を算出する際に、ロバスト性を向上させることが可能となる。 According to the above-described embodiment, spatial feature amounts and temporal feature amounts are calculated for the two motion data, respectively, and the motion between the spatial feature amounts and the distance between the temporal feature amounts is used. The similarity is calculated. Thereby, the effect that the similarity of motion can be calculated in common for motion capture data acquired by different motion capture systems can be obtained. In addition, even when the shooting environment for acquiring the motion capture data (person who is the subject, shooting distance, shooting angle, etc.) is different, the similarity of motion can be calculated in common. can get. Even if the types of motion data to be input (for example, human skeleton motion data, motion capture data acquired by a depth sensor system, RGB image data, distance image data, etc.) are different, similar motions are commonly shared The effect that the degree can be calculated is obtained. As described above, according to the present embodiment, it is possible to improve the robustness when calculating the similarity of motion between motion data.
又、本実施形態によれば以下に示すような効果が得られる。従来、コンピューターグラフィックス(CG)キャラクターをユーザの動きに合わせて動かす技術が知られている。そして、CGキャラクターの動きの基となるデータベースに対して、ユーザの個性的な動きを追加することで、CGキャラクターの動きに親しみを感じさせる効果を加えることが期待できる。このとき、ユーザの動きと、データベース中のモーションキャプチャデータの動きとの類似度を用いて両者の動きを認識し、ユーザの個性的な動きをデータベースに追加することが考えられる。ここで、本実施形態によれば、ユーザの動きを任意のモーションキャプチャシステムで取得すればよいので、ユーザにとって非常に使い勝手がよくなるという効果が得られる。 Further, according to the present embodiment, the following effects can be obtained. Conventionally, a technique for moving a computer graphics (CG) character in accordance with a user's movement is known. Then, by adding the individual movement of the user to the database on which the movement of the CG character is based, it can be expected to add an effect that makes the movement of the CG character feel familiar. At this time, it is conceivable to recognize the movement of the user using the similarity between the movement of the user and the motion capture data in the database, and add the user's unique movement to the database. Here, according to the present embodiment, since the user's motion may be acquired by an arbitrary motion capture system, an effect that the user can use it very much is obtained.
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.
また、図1に示す動き類似度算出装置1の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、動き類似度算出処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Also, a program for realizing the function of the motion
“Computer-readable recording medium” refers to a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a DVD (Digital Versatile Disk), and a built-in computer system. A storage device such as a hard disk.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
1…動き類似度算出装置、11…入力部、12…空間的特徴量算出部、13…時間的特徴量算出部、14…類似度算出部、15…出力部、21…物理量変更部、22…主成分分析部、23…ヒストグラム算出部
DESCRIPTION OF
Claims (7)
動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出する時間的特徴量算出部と、
二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出する類似度算出部と、
を備えたことを特徴とする動き類似度算出装置。 A spatial feature amount calculating unit that calculates a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data;
A temporal feature amount calculating unit that calculates a temporal feature amount representing a temporal distribution of motion in the principal component space from the motion data;
A similarity calculation unit that calculates the similarity of motion using the distance between the spatial feature amount calculated for each of the two motion data and the distance between the temporal feature amounts;
A motion similarity calculation device comprising:
ことを特徴とする請求項1に記載の動き類似度算出装置。 The spatial feature amount calculation unit calculates a histogram using a distance between frames with respect to a main component of motion of each frame in motion data.
The motion similarity calculation apparatus according to claim 1, wherein:
ことを特徴とする請求項1又は2に記載の動き類似度算出装置。 The temporal feature amount calculation unit calculates a distance between a reference frame in the motion data and each of the other frames, obtains an extreme value from the calculated inter-frame distance, and determines the number of frames between adjacent extreme values. Interpolate or decimate inter-frame distance values to be a constant,
The motion similarity calculation apparatus according to claim 1, wherein
ことを特徴とする請求項1から3のいずれか1項に記載の動き類似度算出装置。 The temporal feature amount calculation unit calculates a distance between a reference frame in motion data and each of the other frames, obtains an extreme value from the calculated inter-frame distance, and an extreme value interval is extremely short Deletes the extreme value and inserts an appropriate extreme value if the interval between extreme values is extremely long.
The motion similarity calculation apparatus according to any one of claims 1 to 3, wherein
ことを特徴とする請求項1から4のいずれか1項に記載の動き類似度算出装置。 The similarity calculation unit calculates a weighted average value for the distance between the spatial feature and the distance between the temporal features.
The motion similarity calculation apparatus according to claim 1, wherein:
動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、
二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、
を含むことを特徴とする動き類似度算出方法。 Calculating a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data;
Calculating a temporal feature amount representing a temporal distribution of motion in the principal component space from the motion data;
Calculating a similarity of motion using a distance between the spatial feature amount calculated for each of the two motion data and a distance between the temporal feature amounts;
A motion similarity calculation method comprising:
動きデータから、主成分空間で動きの時間的な分布を表す時間的特徴量を算出するステップと、
二つの動きデータについてそれぞれに算出された空間的特徴量の間の距離と時間的特徴量の間の距離とを用いて動きの類似度を算出するステップと、
をコンピュータに実行させるためのコンピュータプログラム。 Calculating a spatial feature amount representing a spatial distribution of motion in the principal component space from the motion data;
Calculating a temporal feature amount representing a temporal distribution of motion in the principal component space from the motion data;
Calculating a similarity of motion using a distance between the spatial feature amount calculated for each of the two motion data and a distance between the temporal feature amounts;
A computer program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012132229A JP5837860B2 (en) | 2012-06-11 | 2012-06-11 | Motion similarity calculation device, motion similarity calculation method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012132229A JP5837860B2 (en) | 2012-06-11 | 2012-06-11 | Motion similarity calculation device, motion similarity calculation method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013257656A true JP2013257656A (en) | 2013-12-26 |
JP5837860B2 JP5837860B2 (en) | 2015-12-24 |
Family
ID=49954065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012132229A Active JP5837860B2 (en) | 2012-06-11 | 2012-06-11 | Motion similarity calculation device, motion similarity calculation method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5837860B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016021829A1 (en) * | 2014-08-07 | 2016-02-11 | 스타십벤딩머신 주식회사 | Motion recognition method and motion recognition device |
KR101765208B1 (en) * | 2014-01-07 | 2017-08-04 | 한국전자통신연구원 | Method and apparatus of generating dance motion based on pose and timing constraints |
JP6489726B1 (en) * | 2017-09-08 | 2019-03-27 | 株式会社Vrc | 3D data system and 3D data processing method |
CN112257642A (en) * | 2020-10-30 | 2021-01-22 | 上海庞勃特科技有限公司 | Human body continuous motion similarity evaluation method and evaluation device |
WO2022168428A1 (en) * | 2021-02-02 | 2022-08-11 | ソニーグループ株式会社 | Information processing method, information processing device, and program |
JP2023010541A (en) * | 2021-07-09 | 2023-01-20 | 株式会社日立製作所 | Method and system for recognizing human activity in industrial environment |
WO2024042843A1 (en) * | 2022-08-24 | 2024-02-29 | 株式会社Jvcケンウッド | Avatar control device, avatar control method, and avatar control program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11282214B2 (en) | 2020-01-08 | 2022-03-22 | Agt International Gmbh | Motion matching analysis |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003288600A (en) * | 2002-03-28 | 2003-10-10 | Daihatsu Motor Co Ltd | Pedestrian recognizing apparatus and recognizing method |
JP2004310606A (en) * | 2003-04-09 | 2004-11-04 | Toyota Motor Corp | Variation information recognizing device, and variation information recognizing method |
-
2012
- 2012-06-11 JP JP2012132229A patent/JP5837860B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003288600A (en) * | 2002-03-28 | 2003-10-10 | Daihatsu Motor Co Ltd | Pedestrian recognizing apparatus and recognizing method |
JP2004310606A (en) * | 2003-04-09 | 2004-11-04 | Toyota Motor Corp | Variation information recognizing device, and variation information recognizing method |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101765208B1 (en) * | 2014-01-07 | 2017-08-04 | 한국전자통신연구원 | Method and apparatus of generating dance motion based on pose and timing constraints |
WO2016021829A1 (en) * | 2014-08-07 | 2016-02-11 | 스타십벤딩머신 주식회사 | Motion recognition method and motion recognition device |
US10713479B2 (en) | 2014-08-07 | 2020-07-14 | Starship Vending-Machine Corp. | Motion recognition method and motion recognition device for recognizing motion of user received via NUI device by comparing with preset comparison target information |
JP6489726B1 (en) * | 2017-09-08 | 2019-03-27 | 株式会社Vrc | 3D data system and 3D data processing method |
CN112257642A (en) * | 2020-10-30 | 2021-01-22 | 上海庞勃特科技有限公司 | Human body continuous motion similarity evaluation method and evaluation device |
CN112257642B (en) * | 2020-10-30 | 2024-03-15 | 上海创屹科技有限公司 | Human body continuous motion similarity evaluation method and evaluation device |
WO2022168428A1 (en) * | 2021-02-02 | 2022-08-11 | ソニーグループ株式会社 | Information processing method, information processing device, and program |
JP2023010541A (en) * | 2021-07-09 | 2023-01-20 | 株式会社日立製作所 | Method and system for recognizing human activity in industrial environment |
JP7265656B2 (en) | 2021-07-09 | 2023-04-26 | 株式会社日立製作所 | Methods and systems for recognizing human activity in industrial environments |
WO2024042843A1 (en) * | 2022-08-24 | 2024-02-29 | 株式会社Jvcケンウッド | Avatar control device, avatar control method, and avatar control program |
Also Published As
Publication number | Publication date |
---|---|
JP5837860B2 (en) | 2015-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5837860B2 (en) | Motion similarity calculation device, motion similarity calculation method, and computer program | |
US11967101B2 (en) | Method and system for obtaining joint positions, and method and system for motion capture | |
CN110998659B (en) | Image processing system, image processing method, and program | |
JP4930854B2 (en) | Joint object position / posture estimation apparatus, method and program thereof | |
JP2023502795A (en) | A real-time system for generating 4D spatio-temporal models of real-world environments | |
Wei et al. | Videomocap: Modeling physically realistic human motion from monocular video sequences | |
JP6816058B2 (en) | Parameter optimization device, parameter optimization method, program | |
JP7452016B2 (en) | Learning data generation program and learning data generation method | |
JP5604225B2 (en) | Human body posture estimation apparatus, human body posture estimation method, and computer program | |
JP2016099982A (en) | Behavior recognition device, behaviour learning device, method, and program | |
Hu et al. | Capturing small, fast-moving objects: Frame interpolation via recurrent motion enhancement | |
JP2020119127A (en) | Learning data generation method, program, learning data generation device, and inference processing method | |
JP2014085933A (en) | Three-dimensional posture estimation apparatus, three-dimensional posture estimation method, and program | |
CN111815768B (en) | Three-dimensional face reconstruction method and device | |
JP3836814B2 (en) | Image processing method, image processing apparatus, and image processing program | |
KR20100138658A (en) | Data processing apparatus and method | |
US20230154091A1 (en) | Joint rotation inferences based on inverse kinematics | |
WO2023185241A1 (en) | Data processing method and apparatus, device and medium | |
CN114401446B (en) | Human body posture migration method, device and system, electronic equipment and storage medium | |
CN115223240B (en) | Motion real-time counting method and system based on dynamic time warping algorithm | |
JP2000353244A (en) | Method for obtaining basic matrix, method for restoring euclidean three-dimensional information and device therefor | |
KR20210076559A (en) | Apparatus, method and computer program for generating training data of human model | |
JP6357396B2 (en) | Background difference device, method, and program | |
JP7501543B2 (en) | Information processing device, information processing method, and information processing program | |
WO2023162223A1 (en) | Training program, generation program, training method, and generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150123 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20150126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5837860 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |