JP2008176696A - Cg character animation creation device - Google Patents

Cg character animation creation device Download PDF

Info

Publication number
JP2008176696A
JP2008176696A JP2007011332A JP2007011332A JP2008176696A JP 2008176696 A JP2008176696 A JP 2008176696A JP 2007011332 A JP2007011332 A JP 2007011332A JP 2007011332 A JP2007011332 A JP 2007011332A JP 2008176696 A JP2008176696 A JP 2008176696A
Authority
JP
Japan
Prior art keywords
character
feature
shape
correspondence table
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007011332A
Other languages
Japanese (ja)
Inventor
Misae Saito
美沙恵 齋藤
Kenji Miyamoto
健司 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2007011332A priority Critical patent/JP2008176696A/en
Publication of JP2008176696A publication Critical patent/JP2008176696A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To intuitively and interactively operate a 3DCG character having a juncture structure of a joint largely different from the human body by a physical motion. <P>SOLUTION: A video rendered by use of a controllable characteristic amount extracted from a measurement value of a shape of the body of every moment as one or more pieces of attitude information (a bend of the joint or a size of a portion) of the 3DCG character is displayed in real time. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、CGキャラクタアニメーションの作成装置およびCGキャラクタアニメーションの作成方法に関する。 The present invention relates to a CG character animation creation device and a CG character animation creation method.

CGアニメーションにおける人に似たCGキャラクタの動きを作成する方法としては、人体にモーションキャプチャ機器を装着して姿勢認識を行い、再構築する方法が一般的である。
Jinxiang.ChaiandJessicaK.Hodgins, Performance Animation from Low-dimensional Control Signals, ACM Transactions on Graphics (TOG), Proceedings of SIGGRAPH 2005,No. 3,pp.686-696. Norman I. Badler, Michael J. Hollick, John P. Granieri: Real-Time Control of a Virtual Human Using Minimal Sensors. Presence 2(1): 82-86 (1993) Semwal, S., Hightower, R., and Stansfield, S. 1998. Mapping algorithms for real-time control of an avatar using eight sensors. Presence 7, 1, 1-21. Yin, K., Pai, D. K. An interactive animation system. In Proc ACM SIGGRAPH/Eurographics Symposium on Computer Animation. pp.329-338. 2003.
As a method of creating a motion of a CG character similar to a person in CG animation, a method of performing posture recognition by attaching a motion capture device to a human body and reconstructing it is common.
Jinxiang.ChaiandJessicaK.Hodgins, Performance Animation from Low-dimensional Control Signals, ACM Transactions on Graphics (TOG), Proceedings of SIGGRAPH 2005, No. 3, pp.686-696. Norman I. Badler, Michael J. Hollick, John P. Granieri: Real-Time Control of a Virtual Human Using Minimal Sensors. Presence 2 (1): 82-86 (1993) Semwal, S., Hightower, R., and Stansfield, S. 1998. Mapping algorithms for real-time control of an avatar using eight sensors.Presence 7, 1, 1-21. Yin, K., Pai, DK An interactive animation system.In Proc ACM SIGGRAPH / Eurographics Symposium on Computer Animation.pp.329-338. 2003.

しかしながら、人体と大幅に形状の異なるキャラクタの動きを作成する方法としては、従来、マウス入力を用いたGUIアプリケーションでCGキャラクタの一連の動作を少しずつ変化させるなど、フレームごとの編集作業に頼らざるを得ないのが現状である。 However, as a method of creating a movement of a character whose shape is significantly different from that of the human body, it has traditionally been difficult to rely on frame-by-frame editing operations, such as changing a series of CG character movements with a GUI application using mouse input. It is the present condition that we do not get.

上記背景技術において、CGアニメーション作成には1コマずつ手作業で作成するため多大な時間を要し、作成者は編集機器などの専門的な技術が必要とされる。 In the background art described above, CG animation creation requires a lot of time because it is created manually one frame at a time, and the creator needs specialized techniques such as editing equipment.

請求項1記載の発明の装置は、利用者の身体またはその一部の位置と形状の情報を取得する形状取得手段と、形状情報から形状ごとに定まる1つまたは複数の量を特徴量として抽出する特徴量抽出手段と、特徴量をCGキャラクタの関節の角度ないしは部位の寸法を表す位置姿勢情報に変換する特徴量‐姿勢変換手段と、位置姿勢情報から表面形状を構成する表面形状構成手段と、表面形状を可視化して映像を得るレンダリング手段と、映像を表示する表示手段を備えることにより、上記目的を達成している。 The apparatus according to the first aspect of the present invention extracts shape acquisition means for acquiring information on the position and shape of a user's body or a part thereof, and one or more amounts determined for each shape from the shape information as feature amounts. Feature amount extraction means, feature amount-posture conversion means for converting the feature amount into position / posture information representing the angle of the joint or part of the CG character, and surface shape forming means for forming the surface shape from the position / posture information The above object is achieved by providing rendering means for visualizing the surface shape to obtain an image and display means for displaying the image.

上記構成によれば、特徴量抽出手段で取得した利用者の全身または身体の一部の動きを示す特徴量変化に応じてCGキャラクタの動きを制御することができる。ここで、特徴量‐姿勢変換手段は、人体の骨格とは異なる形を持つCGキャラクタの3次元位置姿勢情報への変換を可能にしている。 According to the above configuration, the movement of the CG character can be controlled in accordance with the change in the feature quantity indicating the movement of the whole body or part of the body of the user acquired by the feature quantity extraction unit. Here, the feature quantity-posture conversion means enables conversion of the CG character having a shape different from the skeleton of the human body into the three-dimensional position / posture information.

また、請求項2に記載するように、形状取得手段は、利用者の周囲に配置された単独または複数からなる撮影手段と、該撮影手段で取得した画像より位置および形状を推定する位置形状推定手段を備えてもよい。 According to a second aspect of the present invention, the shape acquisition means includes a single or a plurality of photographing means arranged around the user, and a position shape estimation that estimates a position and a shape from an image obtained by the photographing means. Means may be provided.

上記構成によれば、利用者に特別な機器を装着せずに利用者の位置姿勢推定を行うことができる。 According to the above configuration, the position and orientation of the user can be estimated without wearing a special device.

請求項3に記載するように、特徴量は各関節の屈曲の向きと大きさおよび位置を成分とする位置姿勢ベクトルであってもよい。 According to a third aspect of the present invention, the feature amount may be a position / orientation vector having the bending direction and magnitude and position of each joint as components.

上記構成により、利用者の動作を再現したCGキャラクタアニメーションを生成することができる。 With the above configuration, a CG character animation that reproduces the user's motion can be generated.

請求項4に記載するように、特徴量‐姿勢変換手段は、仮特徴量(パラメータ)を用いてCGキャラクタの位置姿勢情報を表す仮変換手段と、各パラメータをどの特徴量として具体化するかを記述する仮特徴量対応表と、仮特徴量対応表に従ってCGキャラクタの各位置姿勢情報中のパラメータに特徴量のどれかを代入する代入装置からなり、さらに、請求項1に記載の各手段に加えて仮特徴量対応表の内容を変更する仮特徴量対応表変更手段を備えてもよい。 As described in claim 4, the feature quantity-posture conversion means is a temporary conversion means that represents the position and orientation information of the CG character using the temporary feature quantity (parameter), and which feature quantity each parameter is embodied as 2. A provisional feature correspondence table that describes, and an assigning device that substitutes one of the feature quantities into a parameter in each position and orientation information of the CG character according to the provisional feature correspondence table, and each means according to claim 1. In addition, provisional feature value correspondence table changing means for changing the contents of the temporary feature value correspondence table may be provided.

上記構成により、CGキャラクタの部位の位置姿勢情報をどの特徴量に対応させるかの対応関係の割り当てを動的に切り替えることができる。ここで、CGキャラクタの部位は同じパラメータで支配されている位置姿勢情報を持つ関節達の集合である。 With the above configuration, it is possible to dynamically switch the assignment of the correspondence relationship to which feature amount the position / posture information of the part of the CG character corresponds. Here, the part of the CG character is a set of joints having position and orientation information controlled by the same parameters.

本発明のCGキャラクタアニメーション作成方法によれば、利用者の身体動作を直接キャラクタに伝えることで直観的にCGアニメーションを作成することができる。 According to the CG character animation creation method of the present invention, it is possible to intuitively create a CG animation by directly transmitting a user's body motion to the character.

図4は本発明の実施例の利用風景を示した図であり、利用者2はディスプレイ5に表示されるCGキャラクタ1を操作している。これは、後に述べる3つの実施例に共通している。図1は、請求項2に基づいて、CGキャラクタ1を制御するための処理の流れを示している。撮影手段11で利用者2を撮影し、その映像を位置形状推定手段6に送る。位置形状推定手段6で利用者2の位置形状情報を推定し、特徴量抽出手段17に送る。特徴量抽出手段17では、位置形状情報から特徴量を算出し、特徴量‐姿勢変換手段7に送る。特徴量‐姿勢変換手段7では、予め任意に定められた変換式に従って特徴量をCGキャラクタ1の位置姿勢情報に変換することでキャラクタの姿勢を生成し、表面形状構成手段8に送る。表面形状構成手段8では、予め決められたCGキャラクタ1の表面形状に従ってCGキャラクタ1の該姿勢における表面形状を決定しレンダリング手段9に送る。レンダリング手段9では、表面形状を可視化し、表示手段10に送る。表示手段10では、CGキャラクタ1の映像を表示する。 FIG. 4 is a diagram showing a usage scene of the embodiment of the present invention, and the user 2 operates the CG character 1 displayed on the display 5. This is common to the three embodiments described later. FIG. 1 shows a flow of processing for controlling the CG character 1 based on claim 2. The user 2 is photographed by the photographing means 11 and the video is sent to the position shape estimating means 6. The position shape estimation means 6 estimates the position shape information of the user 2 and sends it to the feature quantity extraction means 17. The feature quantity extraction unit 17 calculates a feature quantity from the position shape information and sends it to the feature quantity-posture conversion unit 7. The feature amount-posture conversion means 7 generates a character posture by converting the feature amount into position / posture information of the CG character 1 in accordance with a conversion formula arbitrarily determined in advance, and sends the character posture to the surface shape construction means 8. The surface shape forming means 8 determines the surface shape of the CG character 1 in the posture according to the surface shape of the CG character 1 determined in advance, and sends it to the rendering means 9. The rendering means 9 visualizes the surface shape and sends it to the display means 10. The display means 10 displays the video of the CG character 1.

図2は、請求項4に基づいて、特徴量−姿勢変換手段7の実装を示している。代入装置19は、仮特徴量対応表15から対応関係を参照して特徴量をCGキャラクタ1のパラメータに代入し仮変換手段16に送る。仮変換手段16は、CGキャラクタ1の位置姿勢情報を算出する。一方、仮特徴量対応表変更手段14は、仮特徴量対応表15の内容を変更する。 FIG. 2 shows an implementation of the feature quantity / attitude conversion means 7 based on claim 4. The assigning device 19 substitutes the feature quantity into the parameter of the CG character 1 with reference to the correspondence relationship from the temporary feature quantity correspondence table 15 and sends it to the temporary conversion means 16. The temporary conversion means 16 calculates the position / orientation information of the CG character 1. On the other hand, the temporary feature quantity correspondence table changing unit 14 changes the contents of the temporary feature quantity correspondence table 15.

図3は仮特徴量対応表変更手段14の実装を示す。撮影手段21で利用者2の映像を撮影し、追跡点検出手段12および表示手段20に送る。追跡点検出手段12で利用者2の身体の特定の点を追跡点として検出し、近接部位検出手段13と表示手段20に送る。表示手段20はCGキャラクタ1とライブの利用者2および追跡点を表示し、近接部位検出手段13はCGキャラクタ1の部位のパラメータ及び各部位から一定の距離にある利用者2の追跡点に対応する特徴量を組にして、仮特徴量対応表15に登録すると同時に表示手段20に当該部位の強調表示指令を送る。 FIG. 3 shows the implementation of the provisional feature value correspondence table changing means 14. The image of the user 2 is captured by the imaging unit 21 and sent to the tracking point detection unit 12 and the display unit 20. The tracking point detection unit 12 detects a specific point on the body of the user 2 as a tracking point and sends it to the proximity part detection unit 13 and the display unit 20. The display means 20 displays the CG character 1 and the live user 2 and the tracking point, and the proximity part detection means 13 corresponds to the parameter of the part of the CG character 1 and the tracking point of the user 2 at a certain distance from each part. The feature quantities to be paired are registered in the temporary feature quantity correspondence table 15 and simultaneously, a highlight display command for the part is sent to the display means 20.

本実施例1は、請求項2に記載の方法に基づいている。利用者2の身体のうち手によってCGキャラクタ1の動作を制御する例として、利用者2の指先にマーカを装着し、特徴量で制御する方法について述べる。 The first embodiment is based on the method described in claim 2. As an example of controlling the movement of the CG character 1 with the hand of the user 2's body, a method of mounting a marker on the fingertip of the user 2 and controlling with a feature value will be described.

図4は、本実施例1の使用時の概観を示した図である。利用者2を撮影するビデオカメラ3(撮影手段11)と、特徴量の抽出やCGキャラクタ1への位置姿勢情報の変換、CGキャラクタ1の表面形状の決定、CGキャラクタ1の可視化を行うコンピュータ4(追跡点検出手段12、位置形状推定手段6、特徴量抽出手段17、特徴量−姿勢変換手段7、表面形状構成手段8、レンダリング手段9)と、利用者2の手のライブ映像およびCGキャラクタ1の映像を映し出すディスプレイ5(表示手段10)を必要とする。 FIG. 4 is a diagram showing an overview when the first embodiment is used. A video camera 3 (photographing means 11) for photographing the user 2, and a computer 4 for extracting feature amounts, converting position and orientation information to the CG character 1, determining the surface shape of the CG character 1, and visualizing the CG character 1. (Tracking point detection means 12, position shape estimation means 6, feature quantity extraction means 17, feature quantity-posture conversion means 7, surface shape construction means 8, rendering means 9), live video and CG character of user 2's hand A display 5 (display means 10) for displaying one video is required.

本実施例1では、位置形状推定手段6と特徴量抽出手段17は以下で述べる移動回転屈伸アルゴリズムによって同時に実装される。ビデオカメラ3は利用者2の前面に配置され、利用者2の手を撮影する。本実施例1では利用者2は撮影する手のうちの親指、人差し指、中指にそれぞれ赤、緑、青のマーカ(22、23、24)を装着する。コンピュータ4で、仮特徴量対応表15によりCGキャラクタ1の各部位に対応する特徴点を取得する。 In the first embodiment, the position shape estimation unit 6 and the feature amount extraction unit 17 are simultaneously implemented by a moving rotation bending / stretching algorithm described below. The video camera 3 is disposed in front of the user 2 and photographs the user 2's hand. In the first embodiment, the user 2 wears red, green, and blue markers (22, 23, and 24) on the thumb, index finger, and middle finger of the hand to be photographed. The computer 4 obtains feature points corresponding to each part of the CG character 1 from the temporary feature value correspondence table 15.

本実施例1では、緑マーカ23はCGキャラクタ1の右腕、赤マーカ22はCGキャラクタ1の左腕、青マーカ24はCGキャラクタ1の両足にそれぞれ対応している。 In the first embodiment, the green marker 23 corresponds to the right arm of the CG character 1, the red marker 22 corresponds to the left arm of the CG character 1, and the blue marker 24 corresponds to both feet of the CG character 1.

部位ごとに予め定義された変換式により、特徴量の変化に応じてCGキャラクタ1の姿勢情報を計算して当該部位の関節を屈曲させる。マーカのライブ映像およびレンダリングにより可視化された変形後のCGキャラクタ1の映像をディスプレイ5に表示する。図5は、人差し指を上に伸ばしたときの手の様子とそのときのCGキャラクタ1の画像を示した図である。以下に上記各手段の詳細を示す。 The posture information of the CG character 1 is calculated according to the change of the feature amount by a conversion formula defined in advance for each part, and the joint of the part is bent. The live image of the marker and the image of the CG character 1 after the deformation visualized by rendering are displayed on the display 5. FIG. 5 is a diagram showing the state of the hand when the index finger is extended upward and the image of the CG character 1 at that time. Details of each of the above means will be described below.

追跡点検出手段12では、ビデオカメラ3で撮影した映像から赤、緑、青マーカ(22、23、24)の色を検索してそれぞれの座標を取得する。 The tracking point detection means 12 retrieves the colors of the red, green, and blue markers (22, 23, 24) from the video imaged by the video camera 3 and obtains the respective coordinates.

「指先が手の回転中心を通る線上のみを移動しこれらの線が互いになす角が変わらない」と仮定する。このとき移動回転屈伸アルゴリズムは、手の回転中心の初期値と各フレームでの赤、緑、青の3つのマーカの映像中の位置を与えられたとき、各フレームでの位置形状として手の移動L、特徴量として手の回転σおよび指の屈伸a1、a2、a3を次のように算出する. It is assumed that “the fingertip moves only on a line passing through the center of rotation of the hand and the angle between these lines does not change”. At this time, the moving rotation flexion / stretching algorithm, when given the initial value of the rotation center of the hand and the position of the three markers of red, green and blue in each frame, moves the hand as the position shape in each frame. L, hand rotation σ and finger bending a 1 , a 2 , a 3 as feature quantities are calculated as follows.

あるフレームにおける手の回転中心Pと3つのマーカQi(i=1,2,3)及び次のフレームにおける3つのマーカQi'(i=1,2,3)の位置がわかっている時、前者のフレームにおけるa1、a2、a3および後者のフレームでの回転中心P'とPとの差l=P'−P(座標成分ごとの差)は次のようにして算出できる。 When the position of the rotation center P of the hand in one frame and the three markers Q i (i = 1,2,3) and the three markers Q i ′ (i = 1,2,3) in the next frame are known The difference 1 = P′−P (difference for each coordinate component) between a 1 , a 2 , a 3 in the former frame and the rotation centers P ′ and P in the latter frame can be calculated as follows.

まず次のフレームの回転中心P'からの各マーカの相対位置qi'=Qi'−P'を今のフレームのマーカの回転中心からの相対位置qi=Qi−Pで表すと数1のようになることに着目する。(未知数はai(i=1,2,3)、θ、l)

Figure 2008176696
First, the relative position q i '= Q i ' −P 'of each marker from the rotation center P ′ of the next frame is expressed as a relative position q i = Q i −P from the rotation center of the marker of the current frame. Note that it looks like 1. (The unknown is a i (i = 1,2,3), θ, l)
Figure 2008176696

θ<<0であるからsinθ〜θ、cosθ〜1と仮定すると数1は線型方程式であるので代数的に解くことができてai(i=1,2,3)、θおよびlが得られる。さらにこのとき次のフレームにおける手の回転中心P'はP'=P+lによって計算できる。これによりPの初期値から上記の手続きを繰り返すことにより全てのフレームのai(i=1,2,3)が、また各フレームでのθ、lを累積することでσ、Lが得られる。 Assuming that θ << 0 and sin θ˜θ and cos θ˜1, Equation 1 is a linear equation and can be solved algebraically to obtain a i (i = 1,2,3), θ and l. It is done. Further, at this time, the rotation center P ′ of the hand in the next frame can be calculated by P ′ = P + 1. Thus, by repeating the above procedure from the initial value of P, a i (i = 1, 2, 3) of all frames can be obtained, and σ and L can be obtained by accumulating θ and l in each frame. .

特徴量−姿勢変換手段7では、移動回転屈伸アルゴリズムで算出したσ,L, ai(i=1,2,3)をCGキャラクタ1の関節の角度(φ,ψ)(球面座標)で表される位置姿勢情報に変換する。例えば、bを基準長として、φ=(π/2)ai/b、ψ=θのようにして変換を行う。 In the feature quantity-posture conversion means 7, σ, L, a i (i = 1, 2, 3) calculated by the moving rotation flexion / extension algorithm are expressed as joint angles (φ, ψ) (spherical coordinates) of the CG character 1. To position and orientation information. For example, with b as the reference length, conversion is performed as follows: φ = (π / 2) a i / b, ψ = θ.

実施例1の使用方法として、利用者2はディスプレイ5に表示されたCGキャラクタ1の映像を見ながら指間の角度を一定にして親指、人差し指、中指を曲げるだけでCGキャラクタ1のそれぞれ右腕、左腕、両足を操作することができる。 As a method of use of the first embodiment, the user 2 can watch the video of the CG character 1 displayed on the display 5 while keeping the angle between the fingers constant and bending the thumb, forefinger, and middle finger. The left arm and both feet can be operated.

本実施例2は、請求項3に記載の方法に基づいている。利用者2の身体のうち手によってCGキャラクタ1の動作を制御する例として、データグラブによるCGキャラクタ操作を可能にする方法について述べる。データグラブの位置姿勢取得やCGキャラクタ1への位置姿勢情報の変換、CGキャラクタ1の表面形状の決定、CGキャラクタ1の可視化を行うコンピュータ4(形状取得手段18、特徴量−姿勢変換手段7、表面形状構成手段8、レンダリング手段9)と、CGキャラクタ映像を映し出すディスプレイ5(表示手段10)を必要とする。 The second embodiment is based on the method described in claim 3. As an example of controlling the movement of the CG character 1 by the hand of the user 2's body, a method for enabling a CG character operation by a data grab will be described. Computer 4 (shape acquisition means 18, feature quantity-attitude conversion means 7, which obtains the position and orientation of the data grab, converts the position and orientation information into the CG character 1, determines the surface shape of the CG character 1, and visualizes the CG character 1, Surface shape forming means 8, rendering means 9) and display 5 (display means 10) for displaying a CG character image are required.

実施例2により、実際のパペット操作と同じ手動作で仮想的にパペットを操っているかのようなリアリティのある動きを得る事ができる。 According to the second embodiment, it is possible to obtain a realistic movement as if the puppet is virtually operated by the same manual operation as the actual puppet operation.

本実施例3は、請求項4に記載の方法に基づいている。利用者2の手動作で利用者2とCGキャラクタ1の対応する部位を決定する方法を実施した例について述べる。利用者2を撮影するビデオカメラ28(撮影手段21)と、追跡点の検出や追跡点と部位の対応付けを行うコンピュータ4(追跡点検出手段12、近接部位検出手段13)と、利用者2の映像、追跡点およびCGキャラクタ1の映像を映し出すディスプレイ29(表示手段20)を必要とする。 The third embodiment is based on the method described in claim 4. An example will be described in which a method of determining the corresponding parts of the user 2 and the CG character 1 by the user's 2 manual operation is described. A video camera 28 (imaging means 21) for photographing the user 2, a computer 4 (tracking point detection means 12, proximity part detection means 13) for detecting tracking points and associating tracking points with parts, and a user 2 A display 29 (display means 20) for displaying the image of the image, the tracking point, and the image of the CG character 1 is required.

本実施例3では利用者2は撮影する手のうちの親指、人差し指、中指にそれぞれ赤、青、緑、黄色のマーカ(22、23、24、31)を装着し、このマーカをそれぞれa1、a2、a3、θの追跡点(25、26、27、30)とする。 In the third embodiment, the user 2 wears red, blue, green, and yellow markers (22, 23, 24, and 31) on the thumb, index finger, and middle finger of the hands to be photographed, and each of these markers is a 1. , A 2 , a 3 , θ tracking points (25, 26, 27, 30).

コンピュータ4で、各色の追跡点(25、26、27、30)と重なった、CGキャラクタ1の部位のパラメータと重ねられた追跡点に対応する特徴量を組として仮特徴量対応表15に登録すると同時に、当該部位をディスプレイ29に強調表示する。例として、組(α,σ)(β,a1)(γ,a2)および(η,a3)を登録した仮特徴量対応表15を図6に示す。 The computer 4 registers in the temporary feature correspondence table 15 a set of feature amounts corresponding to the tracking points (25, 26, 27, 30) of each color and corresponding to the tracking points overlapped with the parameters of the part of the CG character 1. At the same time, the part is highlighted on the display 29. As an example, FIG. 6 shows a temporary feature value correspondence table 15 in which the sets (α, σ) (β, a 1 ) (γ, a 2 ) and (η, a 3 ) are registered.

代入装置19は、仮変換手段16の各パラメータに、仮特徴量対応表15にそのパラメータとの組として記された特徴量を代入してCGキャラクタ1の位置姿勢情報を計算する。例えば、仮特徴量対応表15が図6のようであったとき、首の角度ψneck=α/πの中のパラメータαにσが代入され、結果、ψneck=σ/πとなる。 The assigning device 19 calculates the position / orientation information of the CG character 1 by substituting the feature quantity described as a pair with the parameter in the provisional feature quantity correspondence table 15 into each parameter of the provisional conversion means 16. For example, when the temporary feature value correspondence table 15 is as shown in FIG. 6, σ is substituted for the parameter α in the neck angle ψ neck = α / π, and as a result, ψ neck = σ / π.

図7は、実施例3の使用時の状況を示した図である。ディスプレイ29に出力した画面内で、緑マーカの追跡点26をCGキャラクタ1の左腕に重ねて対応を指定している様子である。これにより、人差し指でCGキャラクタ1の左腕が動かせるようになる。このように、実施例3により、利用者2はCGキャラクタ1の各部位をどの特徴量で動かすかを直観的な動作で指定できる。 FIG. 7 is a diagram illustrating a situation when the third embodiment is used. In the screen output to the display 29, the tracking point 26 of the green marker is overlapped with the left arm of the CG character 1 to specify the correspondence. Thereby, the left arm of the CG character 1 can be moved with the index finger. As described above, according to the third embodiment, the user 2 can specify the feature amount to move each part of the CG character 1 by an intuitive operation.

CGキャラクタ1を制御するための処理の流れを示す図である。It is a figure which shows the flow of the process for controlling CG character 1. FIG. 特徴量−姿勢変換手段7の実装を示す図である。It is a figure which shows mounting of the feature-value-and-orientation conversion means 7. 仮特徴量対応表変更手段14の実装を示す図である。It is a figure which shows mounting of the temporary feature-value correspondence table change means. 実施例1の概観を示す図である。1 is a diagram showing an overview of Example 1. FIG. CGキャラクタ1と利用者2の状況を示した図である。It is the figure which showed the situation of the CG character 1 and the user 2. FIG. 仮特徴量対応表15の例である。It is an example of the temporary feature amount correspondence table 15. 実施例3の使用時の状況を示した図である。It is the figure which showed the condition at the time of use of Example 3. FIG.

符号の説明Explanation of symbols

1 CGキャラクタ
2 利用者
3 ビデオカメラ
4 コンピュータ
5 ディスプレイ
6 位置形状推定手段
7 特徴量−姿勢変換手段
8 表面形状構成手段
9 レンダリング手段
10 表示手段
11 撮影手段
12 追跡点検出手段
13 近接部位検出手段
14 仮特徴量対応表変更手段
15 仮特徴量対応表
16 仮変換手段
17 特徴量抽出手段
18 形状取得手段
19 代入装置
20 表示手段
21 撮影手段
22 赤マーカ
23 緑マーカ
24 青マーカ
25 赤マーカの追跡点
26 緑マーカの追跡点
27 青マーカの追跡点
28 ビデオカメラ
29 ディスプレイ
30 黄マーカの追跡点
31 黄マーカ
DESCRIPTION OF SYMBOLS 1 CG character 2 User 3 Video camera 4 Computer 5 Display 6 Position shape estimation means 7 Feature-posture conversion means 8 Surface shape formation means 9 Rendering means 10 Display means 11 Imaging means 12 Tracking point detection means 13 Proximal part detection means 14 Temporary feature quantity correspondence table changing means 15 Temporary feature quantity correspondence table 16 Temporary conversion means 17 Feature quantity extraction means 18 Shape acquisition means 19 Substitution device 20 Display means 21 Imaging means 22 Red marker 23 Green marker 24 Blue marker 25 Red marker tracking point 26 Green marker tracking point 27 Blue marker tracking point 28 Video camera 29 Display 30 Yellow marker tracking point 31 Yellow marker

Claims (4)

利用者の身体またはその一部の位置と形状の情報を取得する形状取得手段と、形状情報から形状ごとに定まる1つまたは複数の量を特徴量として抽出する特徴量抽出手段と、特徴量をCGキャラクタの関節の角度ないしは部位の寸法を表す位置姿勢情報に変換する特徴量‐姿勢変換手段と、位置姿勢情報から表面形状を構成する表面形状構成手段と、表面形状を可視化して映像を得るレンダリング手段と、映像を表示する表示手段を有することを特徴とするCGキャラクタアニメーション作成装置。 Shape acquisition means for acquiring information on the position and shape of the user's body or part thereof, feature quantity extraction means for extracting one or more quantities determined for each shape from the shape information as feature quantities, and feature quantities Feature amount-posture conversion means for converting into position and orientation information representing the angle of the CG character's joint or part, surface shape forming means for forming the surface shape from the position and orientation information, and visualizing the surface shape to obtain an image A CG character animation creating apparatus comprising rendering means and display means for displaying video. 請求項1において、形状取得手段は、利用者の周囲に配置された単独または複数からなる撮影手段と、該撮影手段で取得した画像より位置および形状を推定する位置形状推定手段からなることを特徴とする装置。 2. The shape acquisition means according to claim 1, comprising a single or a plurality of photographing means arranged around the user, and a position shape estimation means for estimating a position and a shape from an image obtained by the photographing means. Equipment. 請求項1において、特徴量は各関節の屈曲の向きと大きさおよび位置を成分とする位置姿勢ベクトルであることを特徴とする装置。 2. The apparatus according to claim 1, wherein the feature amount is a position / orientation vector having components of a bending direction, a magnitude, and a position of each joint. 請求項1において、特徴量‐姿勢変換手段は、仮特徴量(パラメータ)を用いてCGキャラクタの位置姿勢情報を表す仮変換手段と、各パラメータをどの特徴量として具体化するかを記述する仮特徴量対応表と、仮特徴量対応表に従ってCGキャラクタの各位置姿勢情報中のパラメータに特徴量のどれかを代入する代入装置からなり、さらに、請求項1に記載の各手段に加えて仮特徴量対応表の内容を変更する仮特徴量対応表変更手段からなることを特徴とする装置。 The feature amount-posture conversion unit according to claim 1 is a temporary conversion unit that expresses the position and orientation information of the CG character using the temporary feature amount (parameter), and a temporary amount that describes each parameter as a feature amount. 2. A feature quantity correspondence table, and a substitution device for substituting one of the feature quantities into parameters in each position / orientation information of the CG character according to the provisional feature quantity correspondence table, and in addition to each means according to claim 1, An apparatus characterized by comprising provisional feature value correspondence table changing means for changing the contents of the feature value correspondence table.
JP2007011332A 2007-01-22 2007-01-22 Cg character animation creation device Pending JP2008176696A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007011332A JP2008176696A (en) 2007-01-22 2007-01-22 Cg character animation creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007011332A JP2008176696A (en) 2007-01-22 2007-01-22 Cg character animation creation device

Publications (1)

Publication Number Publication Date
JP2008176696A true JP2008176696A (en) 2008-07-31

Family

ID=39703653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007011332A Pending JP2008176696A (en) 2007-01-22 2007-01-22 Cg character animation creation device

Country Status (1)

Country Link
JP (1) JP2008176696A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014513836A (en) * 2011-04-21 2014-06-05 マイクロソフト コーポレーション Color channel and light marker
KR20190022811A (en) * 2016-06-30 2019-03-06 스냅 인코포레이티드 Avatar-based ideogram generation
JP2020046958A (en) * 2018-09-19 2020-03-26 大日本印刷株式会社 Content creation device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014513836A (en) * 2011-04-21 2014-06-05 マイクロソフト コーポレーション Color channel and light marker
KR20190022811A (en) * 2016-06-30 2019-03-06 스냅 인코포레이티드 Avatar-based ideogram generation
KR102241428B1 (en) 2016-06-30 2021-04-16 스냅 인코포레이티드 Avatar-based ideogram generation
KR20210043021A (en) * 2016-06-30 2021-04-20 스냅 인코포레이티드 Avatar based ideogram generation
KR102372756B1 (en) 2016-06-30 2022-03-10 스냅 인코포레이티드 Avatar based ideogram generation
JP2020046958A (en) * 2018-09-19 2020-03-26 大日本印刷株式会社 Content creation device
JP7196487B2 (en) 2018-09-19 2022-12-27 大日本印刷株式会社 Content creation device

Similar Documents

Publication Publication Date Title
JP7273880B2 (en) Virtual object driving method, device, electronic device and readable storage medium
KR101687017B1 (en) Hand localization system and the method using head worn RGB-D camera, user interaction system
Zheng et al. Hybridfusion: Real-time performance capture using a single depth sensor and sparse imus
JP7249390B2 (en) Method and system for real-time 3D capture and live feedback using a monocular camera
JP5422735B2 (en) Computer-aided analysis method for real-time use of image sequences including variable postures
Roth et al. A simplified inverse kinematic approach for embodied VR applications
CN110825234A (en) Projection type augmented reality tracking display method and system for industrial scene
CN108564643B (en) Performance capture system based on UE engine
Bellarbi et al. Hand gesture interaction using color-based method for tabletop interfaces
JP2007333690A (en) Motion capture system, method, and program
JP5526465B2 (en) Nail position data detection device, nail position data detection method, and nail position data detection program
Moeslund et al. Multiple cues used in model-based human motion capture
JP4938748B2 (en) Image recognition apparatus and program
JP2020052979A (en) Information processing device and program
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
Liu et al. Hand pose estimation from rgb images based on deep learning: A survey
JPH10240908A (en) Video composing method
JP2008176696A (en) Cg character animation creation device
US11275434B2 (en) Information processing apparatus, information processing method, and storage medium
Michoud et al. Real-time and markerless 3D human motion capture using multiple views
CN111179341B (en) Registration method of augmented reality equipment and mobile robot
Poppe et al. Towards real-time body pose estimation for presenters in meeting environments
JP6632298B2 (en) Information processing apparatus, information processing method and program
CN111860275A (en) Gesture recognition data acquisition system and method
Cha et al. Mobile. Egocentric human body motion reconstruction using only eyeglasses-mounted cameras and a few body-worn inertial sensors