JP2008176696A - Cg character animation creation device - Google Patents
Cg character animation creation device Download PDFInfo
- Publication number
- JP2008176696A JP2008176696A JP2007011332A JP2007011332A JP2008176696A JP 2008176696 A JP2008176696 A JP 2008176696A JP 2007011332 A JP2007011332 A JP 2007011332A JP 2007011332 A JP2007011332 A JP 2007011332A JP 2008176696 A JP2008176696 A JP 2008176696A
- Authority
- JP
- Japan
- Prior art keywords
- character
- feature
- shape
- correspondence table
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、CGキャラクタアニメーションの作成装置およびCGキャラクタアニメーションの作成方法に関する。 The present invention relates to a CG character animation creation device and a CG character animation creation method.
CGアニメーションにおける人に似たCGキャラクタの動きを作成する方法としては、人体にモーションキャプチャ機器を装着して姿勢認識を行い、再構築する方法が一般的である。
しかしながら、人体と大幅に形状の異なるキャラクタの動きを作成する方法としては、従来、マウス入力を用いたGUIアプリケーションでCGキャラクタの一連の動作を少しずつ変化させるなど、フレームごとの編集作業に頼らざるを得ないのが現状である。 However, as a method of creating a movement of a character whose shape is significantly different from that of the human body, it has traditionally been difficult to rely on frame-by-frame editing operations, such as changing a series of CG character movements with a GUI application using mouse input. It is the present condition that we do not get.
上記背景技術において、CGアニメーション作成には1コマずつ手作業で作成するため多大な時間を要し、作成者は編集機器などの専門的な技術が必要とされる。 In the background art described above, CG animation creation requires a lot of time because it is created manually one frame at a time, and the creator needs specialized techniques such as editing equipment.
請求項1記載の発明の装置は、利用者の身体またはその一部の位置と形状の情報を取得する形状取得手段と、形状情報から形状ごとに定まる1つまたは複数の量を特徴量として抽出する特徴量抽出手段と、特徴量をCGキャラクタの関節の角度ないしは部位の寸法を表す位置姿勢情報に変換する特徴量‐姿勢変換手段と、位置姿勢情報から表面形状を構成する表面形状構成手段と、表面形状を可視化して映像を得るレンダリング手段と、映像を表示する表示手段を備えることにより、上記目的を達成している。 The apparatus according to the first aspect of the present invention extracts shape acquisition means for acquiring information on the position and shape of a user's body or a part thereof, and one or more amounts determined for each shape from the shape information as feature amounts. Feature amount extraction means, feature amount-posture conversion means for converting the feature amount into position / posture information representing the angle of the joint or part of the CG character, and surface shape forming means for forming the surface shape from the position / posture information The above object is achieved by providing rendering means for visualizing the surface shape to obtain an image and display means for displaying the image.
上記構成によれば、特徴量抽出手段で取得した利用者の全身または身体の一部の動きを示す特徴量変化に応じてCGキャラクタの動きを制御することができる。ここで、特徴量‐姿勢変換手段は、人体の骨格とは異なる形を持つCGキャラクタの3次元位置姿勢情報への変換を可能にしている。 According to the above configuration, the movement of the CG character can be controlled in accordance with the change in the feature quantity indicating the movement of the whole body or part of the body of the user acquired by the feature quantity extraction unit. Here, the feature quantity-posture conversion means enables conversion of the CG character having a shape different from the skeleton of the human body into the three-dimensional position / posture information.
また、請求項2に記載するように、形状取得手段は、利用者の周囲に配置された単独または複数からなる撮影手段と、該撮影手段で取得した画像より位置および形状を推定する位置形状推定手段を備えてもよい。 According to a second aspect of the present invention, the shape acquisition means includes a single or a plurality of photographing means arranged around the user, and a position shape estimation that estimates a position and a shape from an image obtained by the photographing means. Means may be provided.
上記構成によれば、利用者に特別な機器を装着せずに利用者の位置姿勢推定を行うことができる。 According to the above configuration, the position and orientation of the user can be estimated without wearing a special device.
請求項3に記載するように、特徴量は各関節の屈曲の向きと大きさおよび位置を成分とする位置姿勢ベクトルであってもよい。 According to a third aspect of the present invention, the feature amount may be a position / orientation vector having the bending direction and magnitude and position of each joint as components.
上記構成により、利用者の動作を再現したCGキャラクタアニメーションを生成することができる。 With the above configuration, a CG character animation that reproduces the user's motion can be generated.
請求項4に記載するように、特徴量‐姿勢変換手段は、仮特徴量(パラメータ)を用いてCGキャラクタの位置姿勢情報を表す仮変換手段と、各パラメータをどの特徴量として具体化するかを記述する仮特徴量対応表と、仮特徴量対応表に従ってCGキャラクタの各位置姿勢情報中のパラメータに特徴量のどれかを代入する代入装置からなり、さらに、請求項1に記載の各手段に加えて仮特徴量対応表の内容を変更する仮特徴量対応表変更手段を備えてもよい。
As described in
上記構成により、CGキャラクタの部位の位置姿勢情報をどの特徴量に対応させるかの対応関係の割り当てを動的に切り替えることができる。ここで、CGキャラクタの部位は同じパラメータで支配されている位置姿勢情報を持つ関節達の集合である。 With the above configuration, it is possible to dynamically switch the assignment of the correspondence relationship to which feature amount the position / posture information of the part of the CG character corresponds. Here, the part of the CG character is a set of joints having position and orientation information controlled by the same parameters.
本発明のCGキャラクタアニメーション作成方法によれば、利用者の身体動作を直接キャラクタに伝えることで直観的にCGアニメーションを作成することができる。 According to the CG character animation creation method of the present invention, it is possible to intuitively create a CG animation by directly transmitting a user's body motion to the character.
図4は本発明の実施例の利用風景を示した図であり、利用者2はディスプレイ5に表示されるCGキャラクタ1を操作している。これは、後に述べる3つの実施例に共通している。図1は、請求項2に基づいて、CGキャラクタ1を制御するための処理の流れを示している。撮影手段11で利用者2を撮影し、その映像を位置形状推定手段6に送る。位置形状推定手段6で利用者2の位置形状情報を推定し、特徴量抽出手段17に送る。特徴量抽出手段17では、位置形状情報から特徴量を算出し、特徴量‐姿勢変換手段7に送る。特徴量‐姿勢変換手段7では、予め任意に定められた変換式に従って特徴量をCGキャラクタ1の位置姿勢情報に変換することでキャラクタの姿勢を生成し、表面形状構成手段8に送る。表面形状構成手段8では、予め決められたCGキャラクタ1の表面形状に従ってCGキャラクタ1の該姿勢における表面形状を決定しレンダリング手段9に送る。レンダリング手段9では、表面形状を可視化し、表示手段10に送る。表示手段10では、CGキャラクタ1の映像を表示する。
FIG. 4 is a diagram showing a usage scene of the embodiment of the present invention, and the
図2は、請求項4に基づいて、特徴量−姿勢変換手段7の実装を示している。代入装置19は、仮特徴量対応表15から対応関係を参照して特徴量をCGキャラクタ1のパラメータに代入し仮変換手段16に送る。仮変換手段16は、CGキャラクタ1の位置姿勢情報を算出する。一方、仮特徴量対応表変更手段14は、仮特徴量対応表15の内容を変更する。
FIG. 2 shows an implementation of the feature quantity / attitude conversion means 7 based on
図3は仮特徴量対応表変更手段14の実装を示す。撮影手段21で利用者2の映像を撮影し、追跡点検出手段12および表示手段20に送る。追跡点検出手段12で利用者2の身体の特定の点を追跡点として検出し、近接部位検出手段13と表示手段20に送る。表示手段20はCGキャラクタ1とライブの利用者2および追跡点を表示し、近接部位検出手段13はCGキャラクタ1の部位のパラメータ及び各部位から一定の距離にある利用者2の追跡点に対応する特徴量を組にして、仮特徴量対応表15に登録すると同時に表示手段20に当該部位の強調表示指令を送る。
FIG. 3 shows the implementation of the provisional feature value correspondence table changing means 14. The image of the
本実施例1は、請求項2に記載の方法に基づいている。利用者2の身体のうち手によってCGキャラクタ1の動作を制御する例として、利用者2の指先にマーカを装着し、特徴量で制御する方法について述べる。
The first embodiment is based on the method described in
図4は、本実施例1の使用時の概観を示した図である。利用者2を撮影するビデオカメラ3(撮影手段11)と、特徴量の抽出やCGキャラクタ1への位置姿勢情報の変換、CGキャラクタ1の表面形状の決定、CGキャラクタ1の可視化を行うコンピュータ4(追跡点検出手段12、位置形状推定手段6、特徴量抽出手段17、特徴量−姿勢変換手段7、表面形状構成手段8、レンダリング手段9)と、利用者2の手のライブ映像およびCGキャラクタ1の映像を映し出すディスプレイ5(表示手段10)を必要とする。
FIG. 4 is a diagram showing an overview when the first embodiment is used. A video camera 3 (photographing means 11) for photographing the
本実施例1では、位置形状推定手段6と特徴量抽出手段17は以下で述べる移動回転屈伸アルゴリズムによって同時に実装される。ビデオカメラ3は利用者2の前面に配置され、利用者2の手を撮影する。本実施例1では利用者2は撮影する手のうちの親指、人差し指、中指にそれぞれ赤、緑、青のマーカ(22、23、24)を装着する。コンピュータ4で、仮特徴量対応表15によりCGキャラクタ1の各部位に対応する特徴点を取得する。
In the first embodiment, the position shape estimation unit 6 and the feature
本実施例1では、緑マーカ23はCGキャラクタ1の右腕、赤マーカ22はCGキャラクタ1の左腕、青マーカ24はCGキャラクタ1の両足にそれぞれ対応している。
In the first embodiment, the
部位ごとに予め定義された変換式により、特徴量の変化に応じてCGキャラクタ1の姿勢情報を計算して当該部位の関節を屈曲させる。マーカのライブ映像およびレンダリングにより可視化された変形後のCGキャラクタ1の映像をディスプレイ5に表示する。図5は、人差し指を上に伸ばしたときの手の様子とそのときのCGキャラクタ1の画像を示した図である。以下に上記各手段の詳細を示す。
The posture information of the
追跡点検出手段12では、ビデオカメラ3で撮影した映像から赤、緑、青マーカ(22、23、24)の色を検索してそれぞれの座標を取得する。
The tracking point detection means 12 retrieves the colors of the red, green, and blue markers (22, 23, 24) from the video imaged by the
「指先が手の回転中心を通る線上のみを移動しこれらの線が互いになす角が変わらない」と仮定する。このとき移動回転屈伸アルゴリズムは、手の回転中心の初期値と各フレームでの赤、緑、青の3つのマーカの映像中の位置を与えられたとき、各フレームでの位置形状として手の移動L、特徴量として手の回転σおよび指の屈伸a1、a2、a3を次のように算出する. It is assumed that “the fingertip moves only on a line passing through the center of rotation of the hand and the angle between these lines does not change”. At this time, the moving rotation flexion / stretching algorithm, when given the initial value of the rotation center of the hand and the position of the three markers of red, green and blue in each frame, moves the hand as the position shape in each frame. L, hand rotation σ and finger bending a 1 , a 2 , a 3 as feature quantities are calculated as follows.
あるフレームにおける手の回転中心Pと3つのマーカQi(i=1,2,3)及び次のフレームにおける3つのマーカQi'(i=1,2,3)の位置がわかっている時、前者のフレームにおけるa1、a2、a3および後者のフレームでの回転中心P'とPとの差l=P'−P(座標成分ごとの差)は次のようにして算出できる。
When the position of the rotation center P of the hand in one frame and the three markers Q i (i = 1,2,3) and the three markers Q i ′ (i = 1,2,3) in the next frame are known The
まず次のフレームの回転中心P'からの各マーカの相対位置qi'=Qi'−P'を今のフレームのマーカの回転中心からの相対位置qi=Qi−Pで表すと数1のようになることに着目する。(未知数はai(i=1,2,3)、θ、l)
θ<<0であるからsinθ〜θ、cosθ〜1と仮定すると数1は線型方程式であるので代数的に解くことができてai(i=1,2,3)、θおよびlが得られる。さらにこのとき次のフレームにおける手の回転中心P'はP'=P+lによって計算できる。これによりPの初期値から上記の手続きを繰り返すことにより全てのフレームのai(i=1,2,3)が、また各フレームでのθ、lを累積することでσ、Lが得られる。
Assuming that θ << 0 and sin θ˜θ and cos θ˜1,
特徴量−姿勢変換手段7では、移動回転屈伸アルゴリズムで算出したσ,L, ai(i=1,2,3)をCGキャラクタ1の関節の角度(φ,ψ)(球面座標)で表される位置姿勢情報に変換する。例えば、bを基準長として、φ=(π/2)ai/b、ψ=θのようにして変換を行う。
In the feature quantity-posture conversion means 7, σ, L, a i (i = 1, 2, 3) calculated by the moving rotation flexion / extension algorithm are expressed as joint angles (φ, ψ) (spherical coordinates) of the
実施例1の使用方法として、利用者2はディスプレイ5に表示されたCGキャラクタ1の映像を見ながら指間の角度を一定にして親指、人差し指、中指を曲げるだけでCGキャラクタ1のそれぞれ右腕、左腕、両足を操作することができる。
As a method of use of the first embodiment, the
本実施例2は、請求項3に記載の方法に基づいている。利用者2の身体のうち手によってCGキャラクタ1の動作を制御する例として、データグラブによるCGキャラクタ操作を可能にする方法について述べる。データグラブの位置姿勢取得やCGキャラクタ1への位置姿勢情報の変換、CGキャラクタ1の表面形状の決定、CGキャラクタ1の可視化を行うコンピュータ4(形状取得手段18、特徴量−姿勢変換手段7、表面形状構成手段8、レンダリング手段9)と、CGキャラクタ映像を映し出すディスプレイ5(表示手段10)を必要とする。
The second embodiment is based on the method described in
実施例2により、実際のパペット操作と同じ手動作で仮想的にパペットを操っているかのようなリアリティのある動きを得る事ができる。 According to the second embodiment, it is possible to obtain a realistic movement as if the puppet is virtually operated by the same manual operation as the actual puppet operation.
本実施例3は、請求項4に記載の方法に基づいている。利用者2の手動作で利用者2とCGキャラクタ1の対応する部位を決定する方法を実施した例について述べる。利用者2を撮影するビデオカメラ28(撮影手段21)と、追跡点の検出や追跡点と部位の対応付けを行うコンピュータ4(追跡点検出手段12、近接部位検出手段13)と、利用者2の映像、追跡点およびCGキャラクタ1の映像を映し出すディスプレイ29(表示手段20)を必要とする。
The third embodiment is based on the method described in
本実施例3では利用者2は撮影する手のうちの親指、人差し指、中指にそれぞれ赤、青、緑、黄色のマーカ(22、23、24、31)を装着し、このマーカをそれぞれa1、a2、a3、θの追跡点(25、26、27、30)とする。
In the third embodiment, the
コンピュータ4で、各色の追跡点(25、26、27、30)と重なった、CGキャラクタ1の部位のパラメータと重ねられた追跡点に対応する特徴量を組として仮特徴量対応表15に登録すると同時に、当該部位をディスプレイ29に強調表示する。例として、組(α,σ)(β,a1)(γ,a2)および(η,a3)を登録した仮特徴量対応表15を図6に示す。
The
代入装置19は、仮変換手段16の各パラメータに、仮特徴量対応表15にそのパラメータとの組として記された特徴量を代入してCGキャラクタ1の位置姿勢情報を計算する。例えば、仮特徴量対応表15が図6のようであったとき、首の角度ψneck=α/πの中のパラメータαにσが代入され、結果、ψneck=σ/πとなる。
The assigning device 19 calculates the position / orientation information of the
図7は、実施例3の使用時の状況を示した図である。ディスプレイ29に出力した画面内で、緑マーカの追跡点26をCGキャラクタ1の左腕に重ねて対応を指定している様子である。これにより、人差し指でCGキャラクタ1の左腕が動かせるようになる。このように、実施例3により、利用者2はCGキャラクタ1の各部位をどの特徴量で動かすかを直観的な動作で指定できる。
FIG. 7 is a diagram illustrating a situation when the third embodiment is used. In the screen output to the
1 CGキャラクタ
2 利用者
3 ビデオカメラ
4 コンピュータ
5 ディスプレイ
6 位置形状推定手段
7 特徴量−姿勢変換手段
8 表面形状構成手段
9 レンダリング手段
10 表示手段
11 撮影手段
12 追跡点検出手段
13 近接部位検出手段
14 仮特徴量対応表変更手段
15 仮特徴量対応表
16 仮変換手段
17 特徴量抽出手段
18 形状取得手段
19 代入装置
20 表示手段
21 撮影手段
22 赤マーカ
23 緑マーカ
24 青マーカ
25 赤マーカの追跡点
26 緑マーカの追跡点
27 青マーカの追跡点
28 ビデオカメラ
29 ディスプレイ
30 黄マーカの追跡点
31 黄マーカ
DESCRIPTION OF
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007011332A JP2008176696A (en) | 2007-01-22 | 2007-01-22 | Cg character animation creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007011332A JP2008176696A (en) | 2007-01-22 | 2007-01-22 | Cg character animation creation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008176696A true JP2008176696A (en) | 2008-07-31 |
Family
ID=39703653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007011332A Pending JP2008176696A (en) | 2007-01-22 | 2007-01-22 | Cg character animation creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008176696A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014513836A (en) * | 2011-04-21 | 2014-06-05 | マイクロソフト コーポレーション | Color channel and light marker |
KR20190022811A (en) * | 2016-06-30 | 2019-03-06 | 스냅 인코포레이티드 | Avatar-based ideogram generation |
JP2020046958A (en) * | 2018-09-19 | 2020-03-26 | 大日本印刷株式会社 | Content creation device |
-
2007
- 2007-01-22 JP JP2007011332A patent/JP2008176696A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014513836A (en) * | 2011-04-21 | 2014-06-05 | マイクロソフト コーポレーション | Color channel and light marker |
KR20190022811A (en) * | 2016-06-30 | 2019-03-06 | 스냅 인코포레이티드 | Avatar-based ideogram generation |
KR102241428B1 (en) | 2016-06-30 | 2021-04-16 | 스냅 인코포레이티드 | Avatar-based ideogram generation |
KR20210043021A (en) * | 2016-06-30 | 2021-04-20 | 스냅 인코포레이티드 | Avatar based ideogram generation |
KR102372756B1 (en) | 2016-06-30 | 2022-03-10 | 스냅 인코포레이티드 | Avatar based ideogram generation |
JP2020046958A (en) * | 2018-09-19 | 2020-03-26 | 大日本印刷株式会社 | Content creation device |
JP7196487B2 (en) | 2018-09-19 | 2022-12-27 | 大日本印刷株式会社 | Content creation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7273880B2 (en) | Virtual object driving method, device, electronic device and readable storage medium | |
KR101687017B1 (en) | Hand localization system and the method using head worn RGB-D camera, user interaction system | |
Zheng et al. | Hybridfusion: Real-time performance capture using a single depth sensor and sparse imus | |
JP7249390B2 (en) | Method and system for real-time 3D capture and live feedback using a monocular camera | |
JP5422735B2 (en) | Computer-aided analysis method for real-time use of image sequences including variable postures | |
Roth et al. | A simplified inverse kinematic approach for embodied VR applications | |
CN110825234A (en) | Projection type augmented reality tracking display method and system for industrial scene | |
CN108564643B (en) | Performance capture system based on UE engine | |
Bellarbi et al. | Hand gesture interaction using color-based method for tabletop interfaces | |
JP2007333690A (en) | Motion capture system, method, and program | |
JP5526465B2 (en) | Nail position data detection device, nail position data detection method, and nail position data detection program | |
Moeslund et al. | Multiple cues used in model-based human motion capture | |
JP4938748B2 (en) | Image recognition apparatus and program | |
JP2020052979A (en) | Information processing device and program | |
JP2016071645A (en) | Object three-dimensional model restoration method, device, and program | |
Liu et al. | Hand pose estimation from rgb images based on deep learning: A survey | |
JPH10240908A (en) | Video composing method | |
JP2008176696A (en) | Cg character animation creation device | |
US11275434B2 (en) | Information processing apparatus, information processing method, and storage medium | |
Michoud et al. | Real-time and markerless 3D human motion capture using multiple views | |
CN111179341B (en) | Registration method of augmented reality equipment and mobile robot | |
Poppe et al. | Towards real-time body pose estimation for presenters in meeting environments | |
JP6632298B2 (en) | Information processing apparatus, information processing method and program | |
CN111860275A (en) | Gesture recognition data acquisition system and method | |
Cha et al. | Mobile. Egocentric human body motion reconstruction using only eyeglasses-mounted cameras and a few body-worn inertial sensors |