JP2014115943A - Animation content generation device, animation content generation method, and computer program - Google Patents

Animation content generation device, animation content generation method, and computer program Download PDF

Info

Publication number
JP2014115943A
JP2014115943A JP2012271391A JP2012271391A JP2014115943A JP 2014115943 A JP2014115943 A JP 2014115943A JP 2012271391 A JP2012271391 A JP 2012271391A JP 2012271391 A JP2012271391 A JP 2012271391A JP 2014115943 A JP2014115943 A JP 2014115943A
Authority
JP
Japan
Prior art keywords
motion data
skeleton motion
skeleton
conversion
principal component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012271391A
Other languages
Japanese (ja)
Other versions
JP6001435B2 (en
Inventor
Kenho Jo
建鋒 徐
Emi Meido
絵美 明堂
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012271391A priority Critical patent/JP6001435B2/en
Publication of JP2014115943A publication Critical patent/JP2014115943A/en
Application granted granted Critical
Publication of JP6001435B2 publication Critical patent/JP6001435B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate animation content with a specific expression reflected, and further with improved robustness and adaptation to a noncyclical motion.SOLUTION: An animation content generation device includes: a leaning part 3 for using skeleton motion data of a learning-target specific expression and neutral skeleton motion data to calculate a parameter of a conversion function for converting the neutral skeleton motion data into the skeleton motion data of the specific expression in a primary component space of the skeleton motion data for each category of motion; a storage part 5 for storing the calculated parameter for each category of motion; an input part 2 for inputting neutral skeleton motion data of a conversion-target motion category; and a conversion part 4 for using the calculated parameter corresponding to the conversion-target motion category to convert the input neutral skeleton motion data into skeleton motion data of a specified specific expression in the primary component space by using the conversion function.

Description

本発明は、動画コンテンツ生成装置、動画コンテンツ生成方法およびコンピュータプログラムに関する。   The present invention relates to a moving image content generation device, a moving image content generation method, and a computer program.

近年、携帯端末上で動作する音声対話型のユーザインタフェースが商用化されているが、今後は対話内容だけでなく、「embodied conversational agent」と呼ばれるキャラクタ表示など、よりリッチな表現が可能な動画コンテンツに対するニーズが高まってくると考えられる。また、対話システムにおいて、キャラクタの可愛らしさや親近感を醸成する感情表現が反映されたビジュアルはユーザの満足度向上のために重要な要素であり、感情表現を反映させた動画コンテンツを生成する技術は重要となる。   In recent years, voice interactive user interfaces that run on mobile terminals have been commercialized, but in the future, not only conversation content but also video content that can be expressed more richly, such as displaying characters called "embodied conversational agent" It is thought that the need for will increase. Also, in the dialogue system, the visual that reflects the emotional expression that fosters the cuteness and familiarity of the character is an important element for improving the user's satisfaction, and the technology to generate video content that reflects the emotional expression is It becomes important.

コンピュータグラフィックスによる動画コンテンツの表示に使用されるコンテンツデータとしては、例えば、スケルトン型の動きデータ(以下、スケルトン動きデータと称する)が知られている。ここでは、人体の姿勢(ポーズ)の動きを表現するデータとして、図5に例示される人体のスケルトン動きデータについて説明する。図5は、人体のスケルトン動きデータの定義例の概略図である。スケルトン動きデータは、人の骨格を基に、骨及び骨の連結点(ジョイント)を用い、一ジョイントを根(ルート)とし、ルートからジョイント経由で順次連結される骨の構造を木(ツリー)構造として定義される。図5には、スケルトン動きデータの定義の一部分のみを示している。図5において、ジョイント100は腰の部分であり、ルートとして定義される。ジョイント101は左腕の肘の部分、ジョイント102は左腕の手首の部分、ジョイント103は右腕の肘の部分、ジョイント104は右腕の手首の部分、ジョイント105は左足の膝の部分、ジョイント106は左足の足首の部分、ジョイント107は右足の膝の部分、ジョイント108は右足の足首の部分、ジョイント109は鎖骨の部分、ジョイント110、111は肩の部分、ジョイント112は首の部分、ジョイント113、114は股関節の部分、である。   As content data used for displaying moving image content by computer graphics, for example, skeleton type motion data (hereinafter referred to as skeleton motion data) is known. Here, the skeleton motion data of the human body exemplified in FIG. 5 will be described as data representing the motion of the posture (pose) of the human body. FIG. 5 is a schematic diagram of a definition example of human skeleton motion data. Skeleton motion data is based on the human skeleton, using bone and bone connection points (joints), with one joint as the root (root), and the structure of bones that are sequentially connected from the root via the joint (tree) Defined as a structure. FIG. 5 shows only a part of the definition of the skeleton motion data. In FIG. 5, the joint 100 is a waist part and is defined as a root. Joint 101 is the elbow portion of the left arm, Joint 102 is the wrist portion of the left arm, Joint 103 is the elbow portion of the right arm, Joint 104 is the wrist portion of the right arm, Joint 105 is the knee portion of the left foot, and Joint 106 is the left foot portion. Ankle part, joint 107 is right leg knee part, joint 108 is right leg ankle part, joint 109 is clavicle part, joints 110 and 111 are shoulder parts, joint 112 is neck part, joints 113 and 114 are The hip joint part.

スケルトン動きデータは、スケルトン型対象物の各ジョイントの動きを記録したデータであり、スケルトン型対象物としては人体や動物、ロボットなどが適用可能である。スケルトン動きデータとしては、各ジョイントの位置情報や角度情報、速度情報、加速度情報などが利用可能である。ここでは、スケルトン動きデータとして、人体スケルトンの角度情報を例に挙げて説明する。   The skeleton movement data is data that records the movement of each joint of the skeleton type object, and a human body, an animal, a robot, or the like is applicable as the skeleton type object. As the skeleton motion data, position information, angle information, speed information, acceleration information, and the like of each joint can be used. Here, the human skeleton angle information will be described as an example of the skeleton motion data.

人体スケルトン型角度情報データは、人の一連の動きを複数のポーズの連続により表すものであり、人の基本ポーズ(neutral pose)を表す基本ポーズデータと、実際の人の動きの中の各ポーズを表すポーズ毎のフレームデータとを有する。基本ポーズデータは、基本ポーズのときのルートの位置及び各ジョイントの位置、並びに各骨の長さなどの情報を有する。基本ポーズデータにより基本ポーズが特定される。フレームデータは、基本ポーズからの移動量をジョイント毎に表す。ここでは、移動量として角度情報を利用する。各フレームデータにより、基本ポーズに対して各移動量が加味された各ポーズが特定される。これにより、各フレームデータによって特定される各ポーズの連続により、人の一連の動きが特定される。なお、人体スケルトン型角度情報データは、人の動きをカメラ撮影した映像からモーションキャプチャ処理によって作成したり、或いは、キーフレームアニメーションの手作業によって作成したりすることができる。   Human body skeleton-type angle information data represents a series of movements of a person by a series of multiple poses. Basic pose data that represents a person's basic pose and each pose in the actual movement of the person. Frame data for each pose. The basic pose data includes information such as the position of the root and the position of each joint in the basic pose, and the length of each bone. The basic pose is specified by the basic pose data. The frame data represents the amount of movement from the basic pose for each joint. Here, angle information is used as the movement amount. Each frame data identifies each pose in which each movement amount is added to the basic pose. Thereby, a series of movements of a person is specified by the continuation of each pose specified by each frame data. The human skeleton-type angle information data can be created by a motion capture process from an image obtained by photographing a person's movement with a camera, or can be created manually by key frame animation.

従来、特に感情表現が反映されていないニュートラルな動きと、特定の感情表現が反映された動きとの差分を学習させたモデルを作成し、このモデルを使用して、入力されたニュートラルな動きを変換する技術が知られている。例えば、非特許文献1の従来技術では、手首などの「End Effector関節」を対象にして、速度と空間の幅を学習させている。非特許文献2の従来技術では、主成分空間においてサイン関数で近似するモデルを学習させる。   Conventionally, a model has been created that learns the difference between a neutral movement that does not reflect emotional expression and a movement that reflects a specific emotional expression, and this model is used to change the input neutral movement. Techniques for converting are known. For example, in the prior art of Non-Patent Document 1, the speed and space width are learned for an “End Effector joint” such as a wrist. In the prior art of Non-Patent Document 2, a model approximated by a sine function is learned in the principal component space.

AMAYA, K., BRUDERLIN, A., AND CALVERT, T. 1996. Emotion from Motion. In Graphics Interface, 222-229.AMAYA, K., BRUDERLIN, A., AND CALVERT, T. 1996. Emotion from Motion. In Graphics Interface, 222-229. TROJE, N. 2002. Decomposing biological motion: A framework for analysis and synthesis of human gait patterns. In Journal of Vision. 2(5):371-387.TROJE, N. 2002. Decomposing biological motion: A framework for analysis and synthesis of human gait patterns. In Journal of Vision. 2 (5): 371-387.

しかし、上述した非特許文献1の従来技術では、各関節の相関性を考慮していないので、ニュートラルな動きと特定の感情表現が反映された動きの対応関係を関節空間でロバスト性を有するように求めることが難しい。また、非特許文献2の従来技術では、歩行などの周期的な動きには対応できるが、お辞儀などの非周期的な動きには不向きである。一般に対話システムでのユーザの動きは非周期的であることが多く、非特許文献2の従来技術では不十分である。   However, since the above-described conventional technique of Non-Patent Document 1 does not consider the correlation between the joints, the correspondence between the neutral movement and the movement reflecting the specific emotion expression seems to have robustness in the joint space. It is difficult to ask for. Further, the conventional technique of Non-Patent Document 2 can cope with periodic movements such as walking, but is not suitable for non-periodic movements such as bowing. In general, the movement of the user in the dialogue system is often aperiodic, and the conventional technology of Non-Patent Document 2 is insufficient.

本発明は、このような事情を考慮してなされたもので、特定の表現を反映させた動画コンテンツを生成する際に、ロバスト性の向上や非周期的な動きにも適応できる動画コンテンツ生成装置、動画コンテンツ生成方法およびコンピュータプログラムを提供することを課題とする。   The present invention has been made in consideration of such circumstances, and when generating moving image content reflecting a specific expression, the moving image content generating device can be adapted to improved robustness and aperiodic movement. It is an object to provide a moving image content generation method and a computer program.

上記の課題を解決するために、本発明に係る動画コンテンツ生成装置は、動きの種類毎に、学習対象の特定の表現のスケルトン動きデータとニュートラルのスケルトン動きデータを用いて、スケルトン動きデータの主成分空間で、前記ニュートラルのスケルトン動きデータを前記特定の表現のスケルトン動きデータに変換するための変換関数のパラメータを算出する学習部と、前記算出されたパラメータを動きの種類毎に記憶する記憶部と、変換対象の動きの種類のニュートラルのスケルトン動きデータを入力する入力部と、前記変換対象の動きの種類に対応する前記算出されたパラメータを用いて、前記変換関数により、前記入力されたニュートラルのスケルトン動きデータを主成分空間で、指定された特定の表現のスケルトン動きデータに変換する変換部と、を備えたことを特徴とする。   In order to solve the above-described problem, the video content generation device according to the present invention uses, for each type of motion, the skeleton motion data of the skeleton motion data using the skeleton motion data of the specific expression to be learned and the neutral skeleton motion data. A learning unit that calculates parameters of a conversion function for converting the neutral skeleton motion data into the skeleton motion data of the specific expression in a component space, and a storage unit that stores the calculated parameters for each type of motion An input unit that inputs neutral skeleton motion data of the type of motion to be converted, and the input neutral by the conversion function using the calculated parameter corresponding to the type of motion to be converted Skeleton motion data of the specified representation in the principal component space Characterized by comprising a conversion unit for converting.

本発明に係る動画コンテンツ生成装置において、前記学習部は、スケルトン動きデータの主成分空間でセグメント毎に線形回帰手法により、空間パラメータおよび時間パラメータを求めることを特徴とする。   In the moving image content generation device according to the present invention, the learning unit obtains a spatial parameter and a time parameter by a linear regression method for each segment in the principal component space of the skeleton motion data.

本発明に係る動画コンテンツ生成装置において、前記学習部は、線形回帰手法により前記空間パラメータを算出する際に、主成分座標の微分値を用い、前記変換部は、前記空間パラメータを用いて前記変換関数により、前記入力されたニュートラルのスケルトン動きデータの主成分座標の微分値に対して変換を行い、該変換された微分値を積分する、ことを特徴とする。   In the moving image content generation device according to the present invention, the learning unit uses a differential value of principal component coordinates when calculating the spatial parameter by a linear regression method, and the conversion unit uses the spatial parameter to perform the conversion. A function is used to convert the differential value of the principal component coordinates of the input neutral skeleton motion data, and integrate the converted differential value.

本発明に係る動画コンテンツ生成方法は、動きの種類毎に、学習対象の特定の表現のスケルトン動きデータとニュートラルのスケルトン動きデータを用いて、スケルトン動きデータの主成分空間で、前記ニュートラルのスケルトン動きデータを前記特定の表現のスケルトン動きデータに変換するための変換関数のパラメータを算出する学習ステップと、前記算出されたパラメータを動きの種類毎に記憶する記憶ステップと、変換対象の動きの種類のニュートラルのスケルトン動きデータを入力する入力ステップと、前記変換対象の動きの種類に対応する前記算出されたパラメータを用いて、前記変換関数により、前記入力されたニュートラルのスケルトン動きデータを主成分空間で、指定された特定の表現のスケルトン動きデータに変換する変換ステップと、を含むことを特徴とする。   The moving image content generation method according to the present invention uses the skeleton motion data of a specific expression to be learned and the neutral skeleton motion data for each type of motion, and the neutral skeleton motion in the principal component space of the skeleton motion data. A learning step for calculating a parameter of a conversion function for converting data into skeleton motion data of the specific expression, a storage step for storing the calculated parameter for each type of motion, and a type of motion to be converted Using the input step of inputting neutral skeleton motion data and the calculated parameter corresponding to the type of motion to be converted, the input neutral skeleton motion data is converted into a principal component space by the conversion function. , Convert to skeleton motion data of specified specific representation Characterized by comprising a conversion step, the.

本発明に係るコンピュータプログラムは、動きの種類毎に、学習対象の特定の表現のスケルトン動きデータとニュートラルのスケルトン動きデータを用いて、スケルトン動きデータの主成分空間で、前記ニュートラルのスケルトン動きデータを前記特定の表現のスケルトン動きデータに変換するための変換関数のパラメータを算出する学習ステップと、前記算出されたパラメータを動きの種類毎に記憶する記憶ステップと、変換対象の動きの種類のニュートラルのスケルトン動きデータを入力する入力ステップと、前記変換対象の動きの種類に対応する前記算出されたパラメータを用いて、前記変換関数により、前記入力されたニュートラルのスケルトン動きデータを主成分空間で、指定された特定の表現のスケルトン動きデータに変換する変換ステップと、をコンピュータに実行させるためのコンピュータプログラムであることを特徴とする。   The computer program according to the present invention uses, for each type of motion, the skeleton motion data of a specific expression to be learned and the neutral skeleton motion data to generate the neutral skeleton motion data in the principal component space of the skeleton motion data. A learning step for calculating a parameter of a conversion function for converting into the skeleton motion data of the specific expression, a storage step for storing the calculated parameter for each type of motion, and a neutral type of the type of motion to be converted Specifying the input neutral skeleton motion data in the principal component space by the conversion function using the input step of inputting skeleton motion data and the calculated parameter corresponding to the type of motion to be converted The skeleton motion data of the specified specific representation Characterized in that it is a computer program for executing a conversion step, to the computer.

本発明によれば、特定の表現を反映させた動画コンテンツを生成する際に、ロバスト性の向上や非周期的な動きにも適応できるという効果が得られる。   According to the present invention, it is possible to improve the robustness and adapt to non-periodic movement when generating moving image content reflecting a specific expression.

本発明の概念を説明するための説明図である。It is explanatory drawing for demonstrating the concept of this invention. 本発明の一実施形態に係る動画コンテンツ生成装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image content production | generation apparatus 1 which concerns on one Embodiment of this invention. セグメントの生成例を示すグラフ図である。It is a graph which shows the example of a production | generation of a segment. 時間軸の正規化例を示すグラフ図である。It is a graph which shows the example of normalization of a time axis. 人体のスケルトン動きデータの定義例の概略図である。It is the schematic of the example of a definition of the skeleton motion data of a human body.

以下、図面を参照し、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

はじめに図1を参照して本発明の概念を説明する。本発明では、学習データを用いて変換関数の学習を行う学習段階S1と、変換関数を用いて動き表現の変換を行う変換段階S2とを有する。学習段階S1では、特に感情表現が反映されていないニュートラルな動きデータと、特定の感情表現が反映された動きデータとを用いて変換関数の学習を行う。図1の例では、ニュートラルな動きデータと感情表現1が反映された動きデータとを用いて変換関数f1の学習が行われ、又、ニュートラルな動きデータと感情表現2が反映された動きデータとを用いて変換関数f2の学習が行われる。変換関数f1は、ニュートラルな動きデータに対して感情表現1を反映させるための変換関数である。変換関数f2は、ニュートラルな動きデータに対して感情表現2を反映させるための変換関数である。   First, the concept of the present invention will be described with reference to FIG. The present invention has a learning step S1 for learning a conversion function using learning data, and a conversion step S2 for converting a motion expression using the conversion function. In the learning stage S1, the conversion function is learned using neutral motion data that does not particularly reflect emotional expressions and motion data that reflects specific emotional expressions. In the example of FIG. 1, learning of the conversion function f1 is performed using the neutral motion data and the motion data reflecting the emotion expression 1, and the motion data reflecting the neutral motion data and the emotion expression 2 Is used to learn the conversion function f2. The conversion function f1 is a conversion function for reflecting the emotional expression 1 on the neutral motion data. The conversion function f2 is a conversion function for reflecting the emotion expression 2 on the neutral motion data.

次いで、変換段階S2では、ニュートラルな動きデータに対して、指定された表現を反映させるための変換関数を用いて動き表現の変換が行われる。図1の例では、ニュートラルな動きデータに対して、指定された感情表現1を反映させるための変換関数f1を用いて動き表現の変換が行われ、感情表現1が反映された動きデータが生成されている。又、ニュートラルな動きデータに対して、指定された感情表現2を反映させるための変換関数f2を用いて動き表現の変換が行われ、感情表現2が反映された動きデータが生成されている。   Next, in the conversion step S2, the motion expression is converted using a conversion function for reflecting the specified expression with respect to the neutral motion data. In the example of FIG. 1, the motion expression is converted to the neutral motion data by using the conversion function f1 for reflecting the designated emotion expression 1, and motion data reflecting the emotion expression 1 is generated. Has been. Also, the motion expression is converted to the neutral motion data using the conversion function f2 for reflecting the designated emotion expression 2, and the motion data reflecting the emotion expression 2 is generated.

図2は、本発明の一実施形態に係る動画コンテンツ生成装置1の構成を示すブロック図である。図2において、動画コンテンツ生成装置1は、入力部2と学習部3と変換部4と記憶部5と出力部6を備える。   FIG. 2 is a block diagram showing a configuration of the moving image content generation device 1 according to the embodiment of the present invention. In FIG. 2, the moving image content generation device 1 includes an input unit 2, a learning unit 3, a conversion unit 4, a storage unit 5, and an output unit 6.

[入力部]
入力部2は、学習用のスケルトン動きデータと、変換用のスケルトン動きデータとを入力する。入力部2は、学習用のスケルトン動きデータを学習部3へ出力し、変換用のスケルトン動きデータを変換部4へ出力する。学習用のスケルトン動きデータおよび変換用のスケルトン動きデータは、動きの種類で区別されている。動きの種類には、例えば、歩く動き、走る動き、跳ねる動き、頷く動き、首を振る動き、ノックする動きなど、様々な種類がある。
[Input section]
The input unit 2 inputs skeleton motion data for learning and skeleton motion data for conversion. The input unit 2 outputs the skeleton motion data for learning to the learning unit 3 and outputs the skeleton motion data for conversion to the conversion unit 4. The skeleton motion data for learning and the skeleton motion data for conversion are distinguished by the type of motion. There are various types of movements, such as walking movements, running movements, bouncing movements, crawl movements, swinging movements, and knocking movements.

学習用のスケルトン動きデータとしては、動きの種類毎に、特定の表現のスケルトン動きデータとニュートラルのスケルトン動きデータとが入力される。表現の種類には、例えば、感情の表現、性別の表現、年齢の表現、地域の表現など、様々な種類がある。感情の表現には、例えば、笑う表現、怒る表現、寂しい表現、落ち込む表現、喜ぶ表現など、様々な表現がある。ニュートラルのスケルトン動きデータは、特に表現が反映されていないスケルトン動きデータである。   As the skeleton motion data for learning, skeleton motion data of a specific expression and neutral skeleton motion data are input for each type of motion. There are various types of expression such as emotion expression, gender expression, age expression, and local expression. There are various expressions of emotions such as laughing expressions, angry expressions, lonely expressions, depressed expressions, and happy expressions. Neutral skeleton motion data is skeleton motion data that does not particularly reflect the expression.

変換用のスケルトン動きデータとしては、動きの種類毎に、ニュートラルのスケルトン動きデータが入力される。   As the skeleton motion data for conversion, neutral skeleton motion data is input for each type of motion.

また、入力部2は、変換用のスケルトン動きデータに対してどのような表現を反映させるのかを指定する表現指定データを入力する。この表現指定データは変換部4へ出力される。   The input unit 2 also inputs expression designation data that designates what kind of expression is to be reflected in the skeleton motion data for conversion. This expression designation data is output to the conversion unit 4.

[学習部]
図2に示されるように、学習部3は、物理量変換部11と主成分分析部12とセグメント生成部13と時間軸正規化部14と空間軸線形回帰部15と時間軸線形回帰部16を有する。学習部3は、動きの種類毎に、特定の表現のスケルトン動きデータとニュートラルのスケルトン動きデータを用いて、スケルトン動きデータの主成分空間でセグメント毎に線形回帰手法により、該ニュートラルのスケルトン動きデータを該特定の表現のスケルトン動きデータに変換するための変換関数のパラメータを算出する。以下、各部11〜16について詳細に説明する。なお、学習部3には、入力部2から、動きの種類毎に、特定の表現のスケルトン動きデータとニュートラルのスケルトン動きデータとが入力されるが、特に区別しないときは単にスケルトン動きデータと称する。
[Learning Department]
As shown in FIG. 2, the learning unit 3 includes a physical quantity conversion unit 11, a principal component analysis unit 12, a segment generation unit 13, a time axis normalization unit 14, a space axis linear regression unit 15, and a time axis linear regression unit 16. Have. For each type of motion, the learning unit 3 uses the skeleton motion data of a specific expression and the neutral skeleton motion data, and performs the linear skeleton motion data for each segment in the principal component space of the skeleton motion data by a linear regression method. Is converted into a skeleton motion data of the specific expression. Hereinafter, each part 11-16 is demonstrated in detail. The learning unit 3 receives skeleton motion data of a specific expression and neutral skeleton motion data for each type of motion from the input unit 2, but is simply referred to as skeleton motion data unless otherwise distinguished. .

[物理量変換部]
物理量変換部11は、入力されたスケルトン動きデータから、主成分分析部12に入力するデータを生成する。物理量変換部11は、スケルトン動きデータが表す動きの期間において、各ジョイントがルートに対してどの位置で動いているのかを算出する。ここでは、スケルトン動きデータの一種である人体スケルトン型角度情報データを用いて、時刻tにおけるジョイント相対位置を算出する。ジョイント相対位置は、ルートに対するジョイントの相対的な位置である。
[Physical quantity converter]
The physical quantity converter 11 generates data to be input to the principal component analyzer 12 from the input skeleton motion data. The physical quantity conversion unit 11 calculates at which position each joint is moving with respect to the root during the period of motion represented by the skeleton motion data. Here, the joint relative position at time t is calculated using human body skeleton-type angle information data which is a kind of skeleton motion data. The joint relative position is a relative position of the joint with respect to the root.

まず、物理量変換部11は、人体スケルトン型角度情報データ内の基本ポーズデータとフレームデータを用いて、ジョイント位置を算出する。基本ポーズデータは、基本ポーズのときのルートの位置及び各ジョイントの位置、並びに各骨の長さなど、基本ポーズを特定する情報を有する。フレームデータは、ジョイント毎に、基本ポーズからの移動量の情報を有する。ここでは、移動量として角度情報を利用する。この場合、時刻tにおけるk番目のジョイントの位置p(t)は、(1)式および(2)式により算出される。p(t)は3次元座標で表される。なお、時刻tはフレームデータの時刻である。本実施形態では、時刻tを単に「フレームインデックス」として扱う。これにより、時刻tは、0,1,2,・・・,T−1の値をとる。Tは、人体スケルトン型角度情報データに含まれるフレームの個数である。 First, the physical quantity converter 11 calculates the joint position using the basic pose data and the frame data in the human body skeleton type angle information data. The basic pose data includes information for specifying the basic pose, such as the position of the root and the position of each joint in the basic pose, and the length of each bone. The frame data has information on the amount of movement from the basic pose for each joint. Here, angle information is used as the movement amount. In this case, the position p k (t) of the k-th joint at time t is calculated by the equations (1) and (2). p k (t) is represented by three-dimensional coordinates. Note that time t is the time of the frame data. In the present embodiment, time t is simply handled as a “frame index”. Thereby, the time t takes values of 0, 1, 2,..., T−1. T is the number of frames included in the human skeleton-type angle information data.

Figure 2014115943
Figure 2014115943

Figure 2014115943
Figure 2014115943

但し、0番目(i=0)のジョイントはルートである。Raxis i−1,i(t)は、i番目のジョイントとその親ジョイント(「i−1」番目のジョイント)間の座標回転マトリックスであり、基本ポーズデータに含まれる。各ジョイントにはローカル座標系が定義されており、座標回転マトリックスは親子関係にあるジョイント間のローカル座標系の対応関係を表す。R(t)は、i番目のジョイントのローカル座標系におけるi番目のジョイントの回転マトリックスであり、フレームデータに含まれる角度情報である。T(t)は、i番目のジョイントとその親ジョイント間の遷移マトリックスであり、基本ポーズデータに含まれる。遷移マトリックスは、i番目のジョイントとその親ジョイント間の骨の長さを表す。 However, the 0th (i = 0) joint is the root. R axis i-1, i (t) is a coordinate rotation matrix between the i-th joint and its parent joint ("i-1" -th joint), and is included in the basic pose data. A local coordinate system is defined for each joint, and the coordinate rotation matrix represents the correspondence of the local coordinate system between joints in a parent-child relationship. R i (t) is a rotation matrix of the i-th joint in the local coordinate system of the i-th joint, and is angle information included in the frame data. T i (t) is a transition matrix between the i-th joint and its parent joint, and is included in the basic pose data. The transition matrix represents the bone length between the i-th joint and its parent joint.

次いで、物理量変換部11は、時刻tにおける、ルートに対するk番目のジョイントの相対位置(ジョイント相対位置)p’(t)を(3)式により算出する。 Next, the physical quantity conversion unit 11 calculates the relative position (joint relative position) p ′ k (t) of the k-th joint with respect to the root at time t using Equation (3).

Figure 2014115943
Figure 2014115943

但し、proot(t)は時刻tにおけるルート(0番目のジョイント)の位置(p(t))である。 Here, p root (t) is the position (p 0 (t)) of the route (0th joint) at time t.

これにより、時刻tのフレーム「x(t)」は、「x(t)={p’(t),p’(t),・・・,p’(t)}」と表される。但し、Kは、ルートを除いたジョイントの個数である。は転置行列を表す。 Thus, the frame “x (t)” at time t is expressed as “x (t) = {p ′ 1 (t), p ′ 2 (t),..., P ′ K (t)} T ”. expressed. K is the number of joints excluding the root. T represents a transposed matrix.

[主成分分析部]
主成分分析部12は、物理量変換部11が生成したジョイント相対位置データに対して、主成分分析処理を行う。ここでは、ある一つの動きの種類S(例えば、ノックする動き)について、ニュートラルのスケルトン動きデータに関するジョイント相対位置データX と、ある一つの表現(例えば、怒る表現)のスケルトン動きデータに関するジョイント相対位置データX とから構成される集合「X={X S1,X S2,・・・,X Ss,X S1,X S2,・・・,X Ss}を、主成分分析処理の対象にする。sはスケルトン動きデータのインデックスである。また、時刻tのフレーム「x(t)」を用いて、一つのジョイント相対位置データ「X 」を「X ={x(t1),x(t2),・・・,x(tL)}と表す。但し、eは0又は1である。Lは、一つのジョイント相対位置データに含まれるフレームの個数である。集合Xに含まれる全ジョイント相対位置データのフレーム総数をNとする。これにより、Xは、M行N列の行列で表される(但し、M=3×K)。
[Principal component analysis section]
The principal component analysis unit 12 performs principal component analysis processing on the joint relative position data generated by the physical quantity conversion unit 11. Here, for a certain motion type S (for example, knocking motion), the joint relative position data X 0 S regarding the neutral skeleton motion data and the joint regarding the skeleton motion data of a certain expression (for example, angry expression). set composed of the relative position data X 1 S 'X = {X 0 S1, X 0 S2, ···, X 0 Ss, X 1 S1, X 1 S2, ···, X 1 Ss} a, S is an index of skeleton motion data, and one joint relative position data “X e S ” is converted to “X e by using the frame“ x (t) ”at time t. S = {x (t1), x (t2),..., X (tL)} where e is 0 or 1. L is a frame included in one joint relative position data. The total number of frames of all joint relative position data included in the set X is N. Accordingly, X is represented by a matrix of M rows and N columns (where M = 3 × K).

主成分分析処理では、M行N列の行列Xに対して主成分分析処理を行い、Xを主成分空間へ変換する。なお、主成分分析処理については、例えば、インターネット<URL:http://en.wikipedia.org/wiki/Principal_components_analysis#Software.2Fsource_code>に「open source」が公開されており利用可能である。   In the principal component analysis process, the principal component analysis process is performed on the matrix X of M rows and N columns, and X is converted into the principal component space. For the principal component analysis processing, for example, “open source” is published on the Internet <URL: http://en.wikipedia.org/wiki/Principal_components_analysis#Software.2Fsource_code> and can be used.

ここで、主成分分析方法を説明する。
まず、(4)式により、Xから平均値を除いたN行M列の行列Dを算出する。
Here, the principal component analysis method will be described.
First, the matrix D of N rows and M columns obtained by subtracting the average value from X is calculated by the equation (4).

Figure 2014115943
Figure 2014115943

次いで、(5)式により、N行M列の行列Dに対して特異値分解(Singular Value Decomposition)を行う。なお、特異値分解処理については、例えば、インターネット<URL:http://www.gnu.org/software/gsl/>に「open source」が公開されており利用可能である。   Next, singular value decomposition (Singular Value Decomposition) is performed on the matrix D of N rows and M columns according to the equation (5). As for the singular value decomposition process, for example, “open source” is published on the Internet <URL: http://www.gnu.org/software/gsl/> and can be used.

Figure 2014115943
Figure 2014115943

但し、Uは、N行N列のユニタリ行列である。Σは、N行M列の負でない対角要素を降順にもつ対角行列であり、主成分空間の座標の分散を表す。Vは、M行M列のユニタリ行列であり、主成分に対する係数(principal component)である。   However, U is a unitary matrix of N rows and N columns. Σ is a diagonal matrix having non-negative diagonal elements of N rows and M columns in descending order, and represents the variance of the coordinates of the principal component space. V is a unitary matrix of M rows and M columns, and is a coefficient (principal component) for the principal component.

次いで、(6)式により、N行M列の行列Dを主成分空間へ変換する。M行N列の行列Yは、主成分空間の座標を表す。   Next, the matrix D of N rows and M columns is converted into the principal component space by the equation (6). The matrix Y with M rows and N columns represents the coordinates of the principal component space.

Figure 2014115943
Figure 2014115943

主成分分析処理では、主成分空間の座標を表す行列(主成分座標行列)Yと、主成分に対する係数の行列(主成分係数行列)Vを記憶部5に保存する。   In the principal component analysis processing, a matrix (principal component coordinate matrix) Y representing coordinates of the principal component space and a coefficient matrix (principal component coefficient matrix) V for the principal components are stored in the storage unit 5.

なお、元空間の座標を表す行列Xと主成分座標行列Yは、(6)式と(7)式により相互に変換することができる。   Note that the matrix X representing the coordinates of the original space and the principal component coordinate matrix Y can be converted into each other by the equations (6) and (7).

Figure 2014115943
Figure 2014115943

また、上位のr個の主成分によって、(8)式により変換することができる。   Moreover, it can convert by (8) Formula by the upper r main components.

Figure 2014115943
Figure 2014115943

但し、Vは、主成分係数行列V内の上位のr個の行から成るM行r列の行列である。Yは、主成分座標行列Y内の上位のr個の列から成るr行N列の行列である。Xは、復元されたM行N列の行列である。 Here, V r is a matrix of M rows and r columns composed of upper r rows in the principal component coefficient matrix V. Y r is an r-row N-column matrix composed of the upper r columns in the principal component coordinate matrix Y. X ~ is a matrix of reconstructed M rows and N columns.

主成分空間の座標Yは、各スケルトン動きデータに対応し、「Y={Yre S1,Yre S2,・・・,Yre Ss}と表される。そして、(8)式で復元されたXは、復元後の各スケルトン動きデータに対応し、「X={X〜e S1,X〜e S2,・・・,X〜e Ss}と表される。 The coordinate Y r of the principal component space corresponds to each skeleton motion data and is expressed as “Y r = {Y re S1 , Y re S2 ,..., Y re Ss }. restored X ~ correspond to the skeleton motion data after restoration, "X ~ = {X ~e S1, X ~e S2, ···, X ~e Ss} denoted.

[セグメント生成部]
セグメント生成部13は、主成分分析部12により算出された主成分座標行列Yのうち、スケルトン動きデータ毎に、一つの主成分座標Yを用いてセグメントを生成する。例えば、第2主成分座標Yを用いる。
[Segment generator]
The segment generation unit 13 generates a segment using one principal component coordinate Yr for each skeleton motion data in the principal component coordinate matrix Y calculated by the principal component analysis unit 12. For example, using the second principal component coordinate Y 2.

一スケルトン動きデータに対するセグメントの生成方法としては、当該スケルトン動きデータに関する主成分座標Yの極値を求め、該極値のフレームをセグメントの境界とする。また、当該スケルトン動きデータに関する最初のフレームと最後のフレームもセグメントの境界とする。但し、一セグメントの長さが短すぎる場合には(一セグメントの長さが規定の長さに満たない場合には)、後ろの境界を削除し、セグメントを長くする。図3は、セグメントの生成例を示すグラフ図である。図3の例は、ノックする動きのスケルトン動きデータに関するものであり、5個のスケルトン動きデータに関する各第2主成分座標Yがグラフ化されている。図3中の各グラフにおいて、丸印がセグメントの境界である。セグメント生成部13があるスケルトン動きデータに対して生成したセグメントは、当該スケルトン動きデータにおいて全ての主成分座標に共通である。 As a method of generating a segment for one skeleton motion data obtains an extreme value of the principal component coordinate Y r about the skeleton motion data, the boundary of the segment a frame of polar values. The first frame and the last frame related to the skeleton motion data are also segment boundaries. However, when the length of one segment is too short (when the length of one segment is less than the prescribed length), the rear boundary is deleted and the segment is lengthened. FIG. 3 is a graph showing an example of segment generation. Example of FIG. 3 relates skeleton motion data of the motion to knock, the second principal component coordinate Y 2 is graphed about five skeleton motion data. In each graph in FIG. 3, a circle is a segment boundary. The segment generated by the segment generation unit 13 for the skeleton motion data is common to all principal component coordinates in the skeleton motion data.

[時間軸正規化部]
時間軸正規化部14は、スケルトン動きデータ毎に、セグメント生成部13により生成されたセグメントに対して時間軸の正規化を行う。この時間軸の正規化は、一スケルトン動きデータに対して、第1主成分座標から第r主成分座標までそれぞれに行われる。一主成分座標に対する時間軸の正規化方法としては、当該主成分座標において、セグメント毎に、セグメント内のフレーム数がフレーム規定数(例えば、100フレーム)になるように、主成分座標の値を補間する。なお、この補間処理については、例えば「cubic spline interpolation」と呼ばれる技術が知られており、インターネット<URL:http://en.wikipedia.org/wiki/Spline_interpolation>に「open source」が公開されており利用可能である。
[Time axis normalization section]
The time axis normalization unit 14 normalizes the time axis for the segment generated by the segment generation unit 13 for each skeleton motion data. The normalization of the time axis is performed for each skeleton motion data from the first principal component coordinate to the r-th principal component coordinate. As a normalization method of the time axis with respect to one principal component coordinate, for each principal component coordinate, the value of the principal component coordinate is set so that the number of frames in the segment becomes a prescribed frame number (for example, 100 frames). Interpolate. For this interpolation processing, for example, a technique called “cubic spline interpolation” is known, and “open source” is published on the Internet <URL: http://en.wikipedia.org/wiki/Spline_interpolation>. It is available.

そして、セグメント毎に、補間前のフレーム数とフレーム規定数との比率(補間比率)を記憶部5に保存する。図4は、時間軸の正規化例を示すグラフ図である。図4の例は、ノックする動きのスケルトン動きデータに関するものであり、ニュートラルのスケルトン動きデータと怒る表現のスケルトン動きデータについて、5個ずつ、時間軸の正規化後の第2主成分座標Yがグラフ化されている。時間軸の正規化により、第1主成分座標から第r主成分座標までの各セグメント内のフレーム数は、全てのスケルトン動きデータに対して同じになる。 For each segment, the ratio (interpolation ratio) between the number of frames before interpolation and the prescribed number of frames is stored in the storage unit 5. FIG. 4 is a graph showing an example of time axis normalization. The example of FIG. 4 relates to the skeleton motion data of the knocking motion, and the second principal component coordinates Y 2 after normalization of the time axis for each of the skeleton motion data of the neutral and the skeleton motion data of the angry expression. Is graphed. By normalizing the time axis, the number of frames in each segment from the first principal component coordinate to the r-th principal component coordinate becomes the same for all the skeleton motion data.

[空間軸線形回帰部]
空間軸線形回帰部15は、セグメント毎に線形回帰手法により、ニュートラルのスケルトン動きデータを特定の表現のスケルトン動きデータに変換するための変換関数の空間パラメータを算出する。このとき、空間軸線形回帰部15は、主成分座標の微分値を用いて、(9)式により線形回帰演算を行う。これは、後述する変換部4での空間軸変換において、セグメント間のつなぎをスムーズにするために、主成分座標の微分値を用いて線形回帰演算を行い、その後、積分する処理に対応したものである。
[Spatial axis linear regression section]
The spatial axis linear regression unit 15 calculates a spatial parameter of a conversion function for converting neutral skeleton motion data into skeleton motion data of a specific expression by a linear regression method for each segment. At this time, the space axis linear regression unit 15 performs linear regression calculation according to equation (9) using the differential value of the principal component coordinates. This corresponds to the process of performing linear regression operation using the differential value of the principal component coordinates and then integrating in order to smooth the connection between segments in the spatial axis conversion in the conversion unit 4 described later. It is.

Figure 2014115943
Figure 2014115943

但し、q(t)は、特定の表現のスケルトン動きデータに関する、i番目のセグメントのt番目のフレームにおける第j主成分座標の微分値である。k(t)は、ニュートラルのスケルトン動きデータに関する、i番目のセグメントのt番目のフレームにおける第j主成分座標の微分値である。 Here, q i (t) is a differential value of the j-th principal component coordinate in the t-th frame of the i-th segment with respect to the skeleton motion data of a specific expression. k i (t) is a differential value of the j-th principal component coordinate in the t-th frame of the i-th segment with respect to the neutral skeleton motion data.

空間軸線形回帰部15は、上記(9)式を用いた線形回帰演算により、i番目のセグメントに関する空間パラメータa及びbを算出する。空間パラメータa及びbは記憶部5に保存される。 The spatial axis linear regression unit 15 calculates the spatial parameters a i and b i related to the i-th segment by linear regression calculation using the above equation (9). Spatial parameters a i and b i are stored in the storage unit 5.

[時間軸線形回帰部]
時間軸線形回帰部16は、セグメント毎に線形回帰手法により、ニュートラルのスケルトン動きデータを特定の表現のスケルトン動きデータに変換するための変換関数の時間パラメータを算出する。このとき、時間軸線形回帰部16は、時間軸正規化部14で算出されて記憶部5に保存されている各セグメントの補間比率を用いて、(10)式により線形回帰演算を行う。
[Time-axis linear regression section]
The time axis linear regression unit 16 calculates a time parameter of a conversion function for converting neutral skeleton motion data into skeleton motion data of a specific expression by a linear regression method for each segment. At this time, the time-axis linear regression unit 16 performs linear regression calculation according to equation (10) using the interpolation ratio of each segment calculated by the time-axis normalization unit 14 and stored in the storage unit 5.

Figure 2014115943
Figure 2014115943

但し、t は、特定の表現のスケルトン動きデータに関する、i番目のセグメントの補間比率である。t は、ニュートラルのスケルトン動きデータに関する、i番目のセグメントの補間比率である。 Here, t 1 i is the interpolation ratio of the i-th segment regarding the skeleton motion data of a specific expression. t 0 i is the interpolation ratio of the i-th segment with respect to the neutral skeleton motion data.

時間軸線形回帰部16は、上記(10)式を用いた線形回帰演算により、i番目のセグメントに関する時間パラメータm^を算出する。時間パラメータm^は記憶部5に保存される。 The time axis linear regression unit 16 calculates a time parameter m ^ i related to the i-th segment by linear regression calculation using the above equation (10). The time parameter m ^ i is stored in the storage unit 5.

以上が本実施形態に係る学習部3の説明である。学習部3によって、記憶部5には、動きの種類ごと、且つ、特定の表現ごとに、各セグメントiの空間パラメータa及びbならびに時間パラメータm^が保存される。 The above is the description of the learning unit 3 according to the present embodiment. The learning unit 3, the storage unit 5, each type of movement, and, for each specific expression, spatial parameters a i and b i and time parameters m ^ i for each segment i is stored.

[変換部]
図2に示されるように、変換部4は、物理量変換部11と主成分分析部12とセグメント生成部13と時間軸正規化部14と空間軸変換部21と時間軸変換部22と位置空間復元部23を有する。変換部4には、入力部2から、変換用のスケルトン動きデータおよび表現指定データが入力される。変換用のスケルトン動きデータは、動きの種類毎に、ニュートラルのスケルトン動きデータが入力される。表現指定データは、変換用のスケルトン動きデータに反映させる表現を示す。
[Conversion section]
As shown in FIG. 2, the conversion unit 4 includes a physical quantity conversion unit 11, a principal component analysis unit 12, a segment generation unit 13, a time axis normalization unit 14, a space axis conversion unit 21, a time axis conversion unit 22, and a position space. A restoration unit 23 is included. The conversion unit 4 receives skeleton motion data and expression designation data for conversion from the input unit 2. As the skeleton motion data for conversion, neutral skeleton motion data is input for each type of motion. The expression designation data indicates an expression to be reflected in the skeleton motion data for conversion.

変換部4は、変換用のスケルトン動きデータの動きの種類に対応し、且つ、表現指定データにより指定される表現に対応する、記憶部5内の各セグメントiの空間パラメータa及びbならびに時間パラメータm^を用いて、変換用のスケルトン動きデータを主成分空間でセグメント毎に変換する。 The conversion unit 4 corresponds to the type of motion of the skeleton motion data for conversion and corresponds to the expression specified by the expression specifying data, and the spatial parameters a i and b i of each segment i in the storage unit 5 and Using the time parameter m ^ i , the skeleton motion data for conversion is converted for each segment in the principal component space.

変換部4において、物理量変換部11、主成分分析部12、セグメント生成部13および時間軸正規化部14は、学習部3の対応する各部11、12、13および14と同じであるので、説明を省略する。以下、変換部4に係る空間軸変換部21、時間軸変換部22および位置空間復元部23について詳細に説明する。   In the conversion unit 4, the physical quantity conversion unit 11, the principal component analysis unit 12, the segment generation unit 13, and the time axis normalization unit 14 are the same as the corresponding units 11, 12, 13, and 14 of the learning unit 3. Is omitted. Hereinafter, the space axis conversion unit 21, the time axis conversion unit 22, and the position space restoration unit 23 according to the conversion unit 4 will be described in detail.

[空間軸変換部]
空間軸変換部21は、変換用のスケルトン動きデータの動きの種類に対応し、且つ、表現指定データにより指定される表現に対応する、記憶部5内の各セグメントiの空間パラメータa及びbを用いて、変換用のスケルトン動きデータを主成分空間でセグメント毎に変換する。このとき、空間軸変換部21は、主成分座標の微分値を用いて、(11)式により線形回帰演算を行う。
[Space axis conversion unit]
The spatial axis conversion unit 21 corresponds to the type of motion of the skeleton motion data for conversion, and corresponds to the expression specified by the expression specifying data, and the spatial parameters a i and b of each segment i in the storage unit 5. Using i , skeleton motion data for conversion is converted for each segment in the principal component space. At this time, the space axis conversion unit 21 performs linear regression calculation according to equation (11) using the differential value of the principal component coordinates.

Figure 2014115943
Figure 2014115943

但し、q(t)は、表現指定データにより指定される表現が反映されたスケルトン動きデータに関する、i番目のセグメントのt番目のフレームにおける第j主成分座標の微分値である。k(t)は、変換用のスケルトン動きデータに関する、i番目のセグメントのt番目のフレームにおける第j主成分座標の微分値である。a^、b^は、変換用のスケルトン動きデータの動きの種類に対応し、且つ、表現指定データにより指定される表現に対応する、記憶部5内のセグメントiの空間パラメータa、bである。 Here, q i (t) is a differential value of the j-th principal component coordinate in the t-th frame of the i-th segment with respect to the skeleton motion data reflecting the expression specified by the expression specifying data. k i (t) is a differential value of the j-th principal component coordinate in the t-th frame of the i-th segment regarding the skeleton motion data for conversion. a ^ i and b ^ i correspond to the type of motion of the skeleton motion data for conversion, and correspond to the expression specified by the expression specifying data, the spatial parameters a i of the segment i in the storage unit 5, b i .

空間軸変換部21は、(11)式により線形回帰演算で算出した全セグメントの微分値q(t)を対象にして積分を行う。この積分演算の初期値には、第1フレームの主成分座標を使用する。このように、主成分座標の微分値を用いて線形回帰演算を行い、その後、積分することにより、セグメント間のつなぎをスムーズにすることができる。 The space axis conversion unit 21 performs integration on the differential values q i (t) of all segments calculated by the linear regression calculation according to the equation (11). The principal component coordinates of the first frame are used as initial values for this integration calculation. As described above, the linear regression calculation is performed using the differential value of the principal component coordinates, and then integration is performed, whereby the connection between the segments can be made smooth.

[時間軸変換部]
時間軸変換部22は、変換用のスケルトン動きデータの動きの種類に対応し、且つ、表現指定データにより指定される表現に対応する、記憶部5内の各セグメントiの時間パラメータm^を用いて、空間軸変換部21により算出された主成分座標の積分値をセグメント毎に変換する。このとき、時間軸変換部22は、(12)式により補間比率を変換する。
[Time axis conversion unit]
The time axis conversion unit 22 sets the time parameter m ^ i of each segment i in the storage unit 5 corresponding to the type of motion of the skeleton motion data for conversion and corresponding to the expression specified by the expression specifying data. The integral value of the principal component coordinates calculated by the space axis conversion unit 21 is converted for each segment. At this time, the time axis conversion unit 22 converts the interpolation ratio according to equation (12).

Figure 2014115943
Figure 2014115943

但し、t は、表現指定データにより指定される表現が反映されたスケルトン動きデータに関する、i番目のセグメントの補間比率である。t は、変換用のスケルトン動きデータに関する、i番目のセグメントの補間比率である。m^は、変換用のスケルトン動きデータの動きの種類に対応し、且つ、表現指定データにより指定される表現に対応する、記憶部5内のセグメントiの時間パラメータである。 However, t 1 i is the interpolation ratio of the i-th segment regarding the skeleton motion data reflecting the expression specified by the expression specifying data. t 0 i is an interpolation ratio of the i-th segment regarding the skeleton motion data for conversion. m ^ i is a time parameter of the segment i in the storage unit 5 corresponding to the type of motion of the skeleton motion data for conversion and corresponding to the expression specified by the expression specifying data.

時間軸変換部22は、空間軸変換部21により算出された主成分座標の積分値に対して、(12)式により算出された補間比率t で時間軸のダウンサンプリングを行う。このダウンサンプリングには、上記「cubic spline interpolation」技術が利用可能である。 The time axis conversion unit 22 down-samples the time axis with respect to the integral value of the principal component coordinates calculated by the space axis conversion unit 21 at the interpolation ratio t 1 i calculated by the equation (12). The “cubic spline interpolation” technique can be used for this downsampling.

[位置空間復元部]
位置空間復元部23は、時間軸変換部22により変換された第1主成分座標から第r主成分座標までを対象にして、上記(8)式により位置空間へ変換する。
[Position space restoration section]
The position space restoration unit 23 converts the first principal component coordinates to the r-th principal component coordinates converted by the time axis conversion unit 22 into the position space according to the above equation (8).

上述した実施形態によれば、特定の表現を反映させた動画コンテンツを生成する際に、ロバスト性の向上や非周期的な動きに適応させる効果が得られる。また、ニュートラルのスケルトン動きデータに対して、指定された表現(例えば、特定の感情表現など)を反映させたスケルトン動きデータを自動的に生成することができるので、例えば対話システムなどにおいて、ユーザの満足度向上に寄与することができる。   According to the above-described embodiment, when moving image content reflecting a specific expression is generated, an effect of improving robustness and adapting to non-periodic movement can be obtained. In addition, since the skeleton motion data reflecting the specified expression (for example, specific emotion expression) can be automatically generated with respect to the neutral skeleton motion data, the user's It can contribute to the improvement of satisfaction.

以上が本実施形態に係る変換部4の説明である。変換部4によって、表現指定データにより指定される表現が変換用のスケルトン動きデータに反映された結果のスケルトン動きデータが得られる。出力部6は、その反映された結果のスケルトン動きデータを出力する。   The above is description of the conversion part 4 which concerns on this embodiment. The conversion unit 4 obtains skeleton motion data as a result in which the expression specified by the expression specifying data is reflected in the skeleton movement data for conversion. The output unit 6 outputs the skeleton motion data as the reflected result.

以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.

また、上述した動画コンテンツ生成装置1を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Further, a program for realizing the above-described moving image content generation device 1 may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Here, the “computer system” may include an OS and hardware such as peripheral devices.
“Computer-readable recording medium” refers to a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a DVD (Digital Versatile Disk), and a built-in computer system. A storage device such as a hard disk.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

1…動画コンテンツ生成装置、2…入力部、3…学習部、4…変換部、5…記憶部、6…出力部、11…物理量変換部、12…主成分分析部、13…セグメント生成部、14…時間軸正規化部、15…空間軸線形回帰部、16…時間軸線形回帰部、21…空間軸変換部、22…時間軸変換部、23…位置空間復元部 DESCRIPTION OF SYMBOLS 1 ... Moving image content production | generation apparatus, 2 ... Input part, 3 ... Learning part, 4 ... Conversion part, 5 ... Memory | storage part, 6 ... Output part, 11 ... Physical quantity conversion part, 12 ... Principal component analysis part, 13 ... Segment generation part , 14 ... time axis normalization unit, 15 ... space axis linear regression unit, 16 ... time axis linear regression unit, 21 ... space axis conversion unit, 22 ... time axis conversion unit, 23 ... position space restoration unit

Claims (5)

動きの種類毎に、学習対象の特定の表現のスケルトン動きデータとニュートラルのスケルトン動きデータを用いて、スケルトン動きデータの主成分空間で、前記ニュートラルのスケルトン動きデータを前記特定の表現のスケルトン動きデータに変換するための変換関数のパラメータを算出する学習部と、
前記算出されたパラメータを動きの種類毎に記憶する記憶部と、
変換対象の動きの種類のニュートラルのスケルトン動きデータを入力する入力部と、
前記変換対象の動きの種類に対応する前記算出されたパラメータを用いて、前記変換関数により、前記入力されたニュートラルのスケルトン動きデータを主成分空間で、指定された特定の表現のスケルトン動きデータに変換する変換部と、
を備えたことを特徴とする動画コンテンツ生成装置。
For each type of motion, using the skeleton motion data of a specific representation to be learned and the neutral skeleton motion data, the neutral skeleton motion data is converted into the skeleton motion data of the specific representation in the principal component space of the skeleton motion data. A learning unit that calculates a parameter of a conversion function for conversion into
A storage unit for storing the calculated parameters for each type of movement;
An input unit for inputting neutral skeleton motion data of the type of motion to be converted;
Using the calculated parameter corresponding to the type of motion to be converted, the input neutral skeleton motion data is converted into skeleton motion data of a specified specific representation in the principal component space by the conversion function. A conversion unit for conversion;
A moving image content generation device comprising:
前記学習部は、スケルトン動きデータの主成分空間でセグメント毎に線形回帰手法により、空間パラメータおよび時間パラメータを求めることを特徴とする請求項1に記載の動画コンテンツ生成装置。   The moving image content generation apparatus according to claim 1, wherein the learning unit obtains a spatial parameter and a time parameter by a linear regression method for each segment in the principal component space of the skeleton motion data. 前記学習部は、線形回帰手法により前記空間パラメータを算出する際に、主成分座標の微分値を用い、
前記変換部は、前記空間パラメータを用いて前記変換関数により、前記入力されたニュートラルのスケルトン動きデータの主成分座標の微分値に対して変換を行い、該変換された微分値を積分する、
ことを特徴とする請求項2に記載の動画コンテンツ生成装置。
The learning unit uses a differential value of principal component coordinates when calculating the spatial parameter by a linear regression method,
The conversion unit performs conversion on the differential value of principal component coordinates of the input neutral skeleton motion data by the conversion function using the spatial parameter, and integrates the converted differential value.
The moving image content generation device according to claim 2.
動きの種類毎に、学習対象の特定の表現のスケルトン動きデータとニュートラルのスケルトン動きデータを用いて、スケルトン動きデータの主成分空間で、前記ニュートラルのスケルトン動きデータを前記特定の表現のスケルトン動きデータに変換するための変換関数のパラメータを算出する学習ステップと、
前記算出されたパラメータを動きの種類毎に記憶する記憶ステップと、
変換対象の動きの種類のニュートラルのスケルトン動きデータを入力する入力ステップと、
前記変換対象の動きの種類に対応する前記算出されたパラメータを用いて、前記変換関数により、前記入力されたニュートラルのスケルトン動きデータを主成分空間で、指定された特定の表現のスケルトン動きデータに変換する変換ステップと、
を含むことを特徴とする動画コンテンツ生成方法。
For each type of motion, using the skeleton motion data of a specific representation to be learned and the neutral skeleton motion data, the neutral skeleton motion data is converted into the skeleton motion data of the specific representation in the principal component space of the skeleton motion data. A learning step for calculating parameters of a conversion function for conversion into
Storing the calculated parameters for each type of motion;
An input step for inputting neutral skeleton motion data of the type of motion to be converted;
Using the calculated parameter corresponding to the type of motion to be converted, the input neutral skeleton motion data is converted into skeleton motion data of a specified specific representation in the principal component space by the conversion function. A conversion step to convert;
A moving image content generation method comprising:
動きの種類毎に、学習対象の特定の表現のスケルトン動きデータとニュートラルのスケルトン動きデータを用いて、スケルトン動きデータの主成分空間で、前記ニュートラルのスケルトン動きデータを前記特定の表現のスケルトン動きデータに変換するための変換関数のパラメータを算出する学習ステップと、
前記算出されたパラメータを動きの種類毎に記憶する記憶ステップと、
変換対象の動きの種類のニュートラルのスケルトン動きデータを入力する入力ステップと、
前記変換対象の動きの種類に対応する前記算出されたパラメータを用いて、前記変換関数により、前記入力されたニュートラルのスケルトン動きデータを主成分空間で、指定された特定の表現のスケルトン動きデータに変換する変換ステップと、
をコンピュータに実行させるためのコンピュータプログラム。
For each type of motion, using the skeleton motion data of a specific representation to be learned and the neutral skeleton motion data, the neutral skeleton motion data is converted into the skeleton motion data of the specific representation in the principal component space of the skeleton motion data. A learning step for calculating parameters of a conversion function for conversion into
Storing the calculated parameters for each type of motion;
An input step for inputting neutral skeleton motion data of the type of motion to be converted;
Using the calculated parameter corresponding to the type of motion to be converted, the input neutral skeleton motion data is converted into skeleton motion data of a specified specific representation in the principal component space by the conversion function. A conversion step to convert;
A computer program for causing a computer to execute.
JP2012271391A 2012-12-12 2012-12-12 Video content generation apparatus, video content generation method, and computer program Expired - Fee Related JP6001435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012271391A JP6001435B2 (en) 2012-12-12 2012-12-12 Video content generation apparatus, video content generation method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012271391A JP6001435B2 (en) 2012-12-12 2012-12-12 Video content generation apparatus, video content generation method, and computer program

Publications (2)

Publication Number Publication Date
JP2014115943A true JP2014115943A (en) 2014-06-26
JP6001435B2 JP6001435B2 (en) 2016-10-05

Family

ID=51171844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012271391A Expired - Fee Related JP6001435B2 (en) 2012-12-12 2012-12-12 Video content generation apparatus, video content generation method, and computer program

Country Status (1)

Country Link
JP (1) JP6001435B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09153145A (en) * 1995-12-01 1997-06-10 Matsushita Electric Ind Co Ltd Agent display
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2012137937A (en) * 2010-12-27 2012-07-19 Kddi Corp Motion confirmation device and method
JP2012208548A (en) * 2011-03-29 2012-10-25 Copcom Co Ltd Program and image processing apparatus with program recording unit with the program recorded therein

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09153145A (en) * 1995-12-01 1997-06-10 Matsushita Electric Ind Co Ltd Agent display
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2012137937A (en) * 2010-12-27 2012-07-19 Kddi Corp Motion confirmation device and method
JP2012208548A (en) * 2011-03-29 2012-10-25 Copcom Co Ltd Program and image processing apparatus with program recording unit with the program recorded therein

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
木下 敬介: "主成分分析によるリアルタイムトーキングヘッドシステム", 電子情報通信学会技術研究報告 VOL.104 NO.525, vol. ヒューマン情報処理 HIP2004-71, JPN6016021562, 9 December 2004 (2004-12-09), JP, pages 47 - 52, ISSN: 0003334092 *

Also Published As

Publication number Publication date
JP6001435B2 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
US11908057B2 (en) Image regularization and retargeting system
US20180268262A1 (en) Information processing device and non-transitory computer readable medium
CN112005198A (en) Hand state reconstruction based on multiple inputs
JP2012083955A (en) Motion model learning device, three-dimensional attitude estimation device, motion model learning method, three-dimensional attitude estimation method and program
JP2013242757A (en) Image processing apparatus, image processing method, and computer program
JP2011186521A (en) Emotion estimation device and emotion estimation method
CN112215930A (en) Data processing method and device
Feng et al. Fast, automatic character animation pipelines
CN113903067A (en) Virtual object video generation method, device, equipment and medium
Krishna SignPose: Sign language animation through 3D pose lifting
Pan et al. Fast human motion transfer based on a meta network
JP6001435B2 (en) Video content generation apparatus, video content generation method, and computer program
CN116361512A (en) Virtual human model driving method and device based on characters and computer equipment
JP6092698B2 (en) Motion data segment determination device, motion data segment determination method, and computer program
US20220415085A1 (en) Method of machine learning and facial expression recognition apparatus
JP5124439B2 (en) Multidimensional time series data analysis apparatus and computer program
WO2022097371A1 (en) Recognition system, recognition method, program, learning method, trained model, distillation model and training data set generation method
CN114494542A (en) Character driving animation method and system based on convolutional neural network
US11893671B2 (en) Image regularization and retargeting system
CN114863013A (en) Target object three-dimensional model reconstruction method
CN112530027A (en) Three-dimensional point cloud repairing method and device and electronic equipment
JP2022018333A (en) Program, information processing method, information processing apparatus, and model generation method
JP2022092528A (en) Three-dimensional person attitude estimation apparatus, method, and program
JP2010231452A (en) Device and program for analysis of multi-dimensional time series data
JPWO2021192225A5 (en) Teacher data conversion device, teacher data conversion method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160901

R150 Certificate of patent or registration of utility model

Ref document number: 6001435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees