JP2015176495A - オブジェクトのモーションの生成方法,プログラム,及び記憶媒体 - Google Patents
オブジェクトのモーションの生成方法,プログラム,及び記憶媒体 Download PDFInfo
- Publication number
- JP2015176495A JP2015176495A JP2014054040A JP2014054040A JP2015176495A JP 2015176495 A JP2015176495 A JP 2015176495A JP 2014054040 A JP2014054040 A JP 2014054040A JP 2014054040 A JP2014054040 A JP 2014054040A JP 2015176495 A JP2015176495 A JP 2015176495A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- character
- point
- interest
- motion data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【解決手段】三次元空間におけるオブジェクトのモーションデータを生成する際に、前記モーションデータが定義するモーションには、少なくとも移動、回転、及び変形のいずれか1つを含み、第1のオブジェクトが連携オブジェクトと関連して動くように前記第1のオブジェクトのモーションを定義した第1のモーションデータを補正することによって、第2のオブジェクトのための第2のモーションデータを生成し、前記第1のオブジェクトと前記連携オブジェクトとの第1の位置関係を有し、前記第2のオブジェクトと前記連携オブジェクトとの第2の位置関係を、前記第1の位置関係に適合させる。
【選択図】図9
Description
まず,標準的な体型のキャラクタ(例えば,図3(b)のオリジナルキャラクタ320)を使って,正しいモーションを作る。ここで言う「正しい」とは,物体(例えば,図3(b)のペットボトル330)とキャラクタの部位(例えば,図3(b)のオリジナルキャラクタ320の口321)との位置関係が正しい(この例の場合には,ペットボトルの先端部331が口に接触している)という意味である。前記の携帯電話の例では,ボタンと人差し指の位置が合っていることを意味する(不図示)。また,ここで使用したキャラクタ320を,「オリジナルキャラクタ」(320)と呼ぶことにする。
・キャラクタのどの部位を着目点にするか。
・キャラクタのどの部位を移動部位にするか。
ユーザは,例えば次の手順でモーション付き物体を使うことができる。
1) 使いたいキャラクタとモーション付き物体を選ぶ。
2) モーション付き物体が持っているモーションデータの中から,キャラクタに適用したいものを選ぶ。すると,そのキャラクタに合うように補正(後述)が掛かった状態で,そのキャラクタにモーションが適用される。
上述のように,キャラクタのモーションは,複数のポーズが時系列に並んだものとして扱うことができる。したがって,モーションの補正は,個々のポーズに対する補正として実行することができる。
1) オリジナルキャラクタにポーズデータを適用し,物体と着目点との位置関係を求める。
2) カレントキャラクタにポーズデータを適用し,物体と着目点との位置関係を求める。
3) 上記オリジナルキャラクタにおける位置関係1)と,カレントキャラクタにおける位置関係2)との差異を求め,これを「変位量」とする。
4) カレントキャラクタの移動部位を動かすべき量「移動量」を上記変位量から求める。移動部位を移動量だけ移動させことにより,上記変位量が0(又は最小)となるようにする。移動部位の移動にはIK(inverse kinematics)を使う。すなわち,カレントキャラクタの移動部位をIKによって移動させることによって,物体または着目点が移動し,上記変位量が0(又は最小)となる。なお,IKについては,当業者に周知の技術であるため,説明は省略する。
1. ポーズやモーションの作成
モーション(ポーズ)を一から作る代わりに,モーション付き物体が持っているモーション(ポーズ)を適用することで,欲しいモーション(ポーズ)が簡単に得られ,繁雑な位置合わせが不要になる(または,位置あわせを無視できる程度のモーション(ポーズ)が得られる)。
2. ポーズやモーションの適用
モーション(ポーズ)を,元のキャラクタとは異なる体型のキャラクタに適用しても,部位の位置関係に不整合を生じない(または,無視できる程度の不整合に留めることが容易にできる)。
3. モーションのディテール
本補正手法の特徴として,着目点と物体との位置を合わせるのではなく,両者の位置関係を同じ(又は,非常に近い)状態にするという点が挙げられる。この特徴により,オリジナルキャラクタのモーションのディテール(物体と着目点との間の微妙な位置変化)が,モーションの補正後も再現される(または,再現されやすい)。
部位の移動にはIK(inverse kinematics)を使うことができるが,IKの種類には「フルボディIK」と「部分IK」がある。フルボディIKでは,1か所を動かすと全身の部位が追随して動く。これに対して,部分IKでは限定された部位のみが動く。例えば,肩から手首までの部分IKの場合,右手を動かしたときに右肩から先のみが動く。フルボディIKでも,固定点を適切に設定することで,部分IKと同等の挙動をさせることができる。例えば,右肩の位置を固定すれば,右手を動かしたときに追随して動くのは右肩から先のみとなり,前述の部分IKの例と同等になる。
物体をキャラクタにアタッチさせる場合と,アタッチさせない場合とがある。アタッチされた物体は,キャラクタが移動したりポーズを変えたりしても,アタッチ先の部位と一体となって動く。アタッチの有無の例については,後述の「モーション補正の例」において更に詳述する。
移動部位を動かすべき方向は,着目点が存在する部位,又は物体がアタッチされた部位との位置関係によって,正反対の方向となる。着目点が存在する部位が移動部位の移動に追随する場合に,移動部位を動かすべき方向を,「正」方向と定義する。これに対して,物体がアタッチされた部位が移動部位の移動に追随する場合は,移動部位を動かすべき方向が反対になり,この方向を「逆」方向と定義する。移動方向の正逆の例を以下に示す。
・正方向:既に述べた「携帯電話」がこれに該当する。
・逆方向:既に述べた「ペットボトル」がこれに該当する。
1つのモーション補正情報の中で複数の移動部位を指定し,着目点が追随する移動部位と,物体アタッチ先部位が追随する移動部位の両方を使うこともできる(後述の例「刀」を参照)。前者の移動部位は正方向に移動させる。後者の移動部位は逆方向に移動させる。なお,両者を移動させた結果が正しい(物体と着目点との位置関係が正しい)状態になるためには,それぞれの移動量に係数を掛けて移動量を小さくすることが必要になる。この係数を「ウェイト値」と呼ぶことにする。ウェイト値の和が1になるように設定することで,正しい補正結果が得られる。
移動部位のみではポーズを補正しきれない場合がある。後述の例「自転車」では,カレントキャラクタの腕が短いと,手を移動部位としてポーズを補正しても,手がハンドルに届かない場合がある。このような場合に,さらに移動補助部位として胸等の移動を併用し,手がハンドルに届くように補正することが望ましい。
着目点の位置は,予めキャラクタに設定されていることが望ましい。適切な位置に着目点がない場合もある。この場合には,既存の複数の着目点の位置を合成して代用することができる。これを「合成着目点」と呼ぶことにする。合成の方法は,着目点の座標値の平均をとってもよい。
補正処理「モーション補正処理の概要」の1)で,オリジナルキャラクタにポーズを適用し,物体と着目点との位置関係を求めているが,これを以下の処理に置き換えることができる。
a) 前もって,モーションの全フレームについて,オリジナルキャラクタにポーズを適用したときの,物体の座標系における着目点の位置を求め,これをデータとして保存しておく。
b) 補正処理実行時に,保存しておいたデータから,該当するフレームの,物体の座標系における着目点の位置を読み出して使う。
大きさ0の物体を使うことができる。あるいは物体を表示しないこともできる。物体に対して,このような取り扱いをすることによって,物体を使わないモーションにも本手法の補正を適用することができる。例えば,合掌ポーズで両手の位置がずれるのを補正できる。
タイムライン(時間軸)上で,モーション毎(フレーム毎)に補正率(補正の程度)を変化させてもよい。
物体と着目点との距離に応じて補正率を変えてもよい。
モーション補正の例を以下に説明する。表の1つの行が「モーション補正情報」1個に相当する。各モーション補正情報は,上の行から順に適用される。なお,下記のモーション補正の例は,表1のような部分IKを使うことを想定している。
例えば,左手で持った携帯電話のボタンを,右手の人差し指で押す例を以下に示す。携帯電話は,左手にアタッチされているとする。
上述したように,右手に持ったボトルを口に運び飲み物を飲む例を以下に示す。ペットボトルは右手にアタッチされているとする。
刀を正面に構え,上段に振りかぶり,振り降ろす例を以下に示す。刀は左手にアタッチされているとする。
トロンボーンの演奏を行う場合を想定する。右腕の曲げ伸ばし,頭や上体を動かす等を行っても良い。この場合には,物体自体がモーション(トロンボーン可動部の伸び縮み)を持っても良い。トロンボーンは左手にアタッチされているとする。
自転車を漕ぐ。物体が動き(ペダルの回転,車輪の回転等)を持っても良い。自転車の全体の移動が伴う。
立った状態から椅子に座るまでのモーションを生成する場合以下に示す。座ったとき足が床に着くことがを想定している。
立った状態から椅子に座るまでモーションを生成する場合を以下に示す。座ったとき足が床から浮くことを想定している。
右手でドアノブを握り,ドアを開けて部屋に入る動作を示す。物体がモーション(ドアノブの回転,ドアの開閉等)を持っている。
BOpoi:オリジナルキャラクタの,着目点が乗るボーン。
BCpoi:カレントキャラクタの,着目点が乗るボーン。
M'bp:ワールド座標系におけるボーンBOpoiの位置・向きを表すマトリクス(4×4行列)。
Mbp:ワールド座標系におけるボーンBCpoiの位置・向きを表すマトリクス(4×4行列)。
U'poi:ボーンBOpoiの座標系における着目点の位置を表すベクトル(3次元ベクトル)。
Upoi:ボーンBCpoiの座標系における着目点の位置を表すベクトル(3次元ベクトル)。
V'poi:ワールド座標系におけるオリジナルキャラクタの着目点の位置を表すベクトル(3次元ベクトル)。
Vpoi:ワールド座標系におけるカレントキャラクタの着目点の位置を表すベクトル(3次元ベクトル)。
BOobj:オリジナルキャラクタの,物体のアタッチ先ボーン。
BCobj:カレントキャラクタの,物体のアタッチ先ボーン。
M'bo:ワールド座標系におけるボーンBOobjの位置・向きを表すマトリクス(4×4行列)。
Mbo:ワールド座標系におけるボーンBCobjの位置・向きを表すマトリクス(4×4行列)。
L'obj:ボーンBOobjの座標系における物体の位置・向きを表すマトリクス(4×4行列)。
Lobj:ボーンBCobjの座標系における物体の位置・向きを表すマトリクス(4×4行列)。
M'obj:ワールド座標系におけるオリジナルキャラクタの物体の位置・向きを表すマトリクス(4×4行列)。
Mobj:ワールド座標系におけるカレントキャラクタの物体の位置・向きを表すマトリクス(4×4行列)。
V'poi_obj:物体座標系におけるオリジナルキャラクタの着目点の位置を表すベクトル(3次元ベクトル)。
Kr:補正率。補正を掛ける程度を表し0以上1以下の値を持つ。0が補正なし,1が完全補正を意味する。
Ks:補正の正逆係数。補正方向の正逆を表し,1または-1の値を持つ。正方向であれば-1,逆方向であれば1。
Kw:補正のウェイト値。物体アタッチ先部位と着目点部位の両方を移動させる場合に,両者の移動量の割合を調整する値。
Mhf:ワールド座標系における手(又は足)ノードの向きを表すマトリクス(3×3行列)。
図10は,カレントキャラクタのポーズの補正に関する詳細なフローチャートを示している。
オリジナルキャラクタにポーズを適用する。これによりM'bpとM'boが決まる。
U'poiは,キャラクタ毎に決まった値を持っているので,その値を使う。
L'objは,オリジナルキャラクタを使ってモーションを作った際の値を使う。
M'objを次式で求める。
M'obj=L'objM'bo (1)
ステップS1022で,オリジナルキャラクタの着目点の位置を求める:
V'poiを次式で求める。
V'poi=U'poiM'bp (2)
ステップS1024で,カレントキャラクタの着目点の位置を求める:
カレントキャラクタにポーズを適用する。これによりMbpとMboが決まる。
Upoiは,キャラクタ毎に決まった値を持っているので,その値を使う。
Lobjは,カレントキャラクタに対する物体のアタッチ状態を使う。
Vpoiを次式で求める。
Vpoi=UpoiMbp (3)
ステップS1026で,カレントキャラクタの物体の位置・向きを求める:
Mobjを次式で求める。
Mobj=LobjMbo (4)
ステップS1030で,物体座標系における,着目点のあるべき位置Ptを求める。
Pt=KrV'poiM'obj -1+(1-Kr)VpoiMobj -1 (5)
ステップs1040で,ワールド座標系における,着目点のあるべき位置からのずれVdを求める。
Vd=Vpoi-PtMobj (6)
ステップS1050で,移動部位が手又は足であるかを判断する。「はい」であればステップS1052に進む。「いいえ」であれば,ステップS1054に進む。
Vm=KsKwVd (7)
正逆係数Ksを決めるのに必要な移動方向の正逆の判定方法は,図11を用いて後述する。
ステップS1060で,移動補助部位があるかを判断する。「はい」であれば,S1070に進む。「いいえ」であれば,終了する。
カレントキャラクタにポーズを適用する。これによりMbpとMboが決まる。
Upoiは,キャラクタ毎に決まった値を持っているので,その値を使う。
Lobjは,カレントキャラクタに対する物体のアタッチ状態を使う。
Vpoiを次式で求める。
Vpoi=UpoiMbp
ステップS1084で,カレントキャラクタの物体の位置・向きを求める:
Mobjを次式で求める。
Mobj=LobjMbo
ステップS1086で,ワールド座標系における,着目点のあるべき位置からのずれVdを求める。
Vd=Vpoi-PtMobj
ステップS1088で,Vdがeps以下か又はcounterの値がN以上かを判断する。epsは位置合わせの許容値で,予め決められた値である。epsの値としては,キャラクタの身長の1/2000程度としてもよい。Nは移動補助部位の最大移動回数で,予め決められた値である。Nの値としては,3程度としてもよい。
Vm=KsVd
正逆係数Ksを決めるのに必要な移動方向の正逆の判定方法は,図11を用いて後述する。
(物体をアタッチしない場合の処理)
なお,物体をアタッチしない場合(物体が椅子の場合など)には,上記「補正処理」に対して,以下の変更を加える。
(事前計算の利用)
式(5)の中のV'poiM'obj -1については,カレントキャラクタについての情報を含まないので,事前に計算することができる。
V'poi_obj=V'poiM'obj -1 (8)
V'poi_objは,物体座標系におけるオリジナルキャラクタの着目点の位置を意味する。V'poi_objをモーションの全フレームについて事前計算して保存しておく。モーション補正実行時には,保存しておいたV'poi_objを使う。
・オリジナルキャラクタに対するポーズ適用。
・式(1),(2)の計算。
・U'poi,L'objの値。
以上が,ポーズの補正フローの詳細である。
以上説明した処理を用いた以下の実施例を説明する。
図13は,フルートを吹くポーズを示した図である。図13(a)は,オリジナルキャラクタ1300がフルート1309を吹いているポーズを示している。フルート1309が右手1302にアタッチされている。左手1303は,フルートの適正な位置に添えられている。口1304は,フルートの吹き口1305に対して適正な位置にある。
図14は,ペットボトルの栓を開けるポーズを示している。図14(a)は,オリジナルキャラクタ1400の右手1402にペットボトル1409がアタッチされている。左手1404がペットボトルの栓1408に添えられている。
図15は,シャベルを持ったキャラクタのポーズを補正する例を示している。図15(a)は,オリジナルキャラクタ1500がシャベル1509を両手で持っているポーズを示している。右手1504にシャベル1509がアタッチされている。左手1502は,シャベルの柄の中間位置1508を握っている。
以上説明した実施例の方法は,コンピュータにより実行され得る。また,実施例の方法は,コンピュータに実行させるプログラムとして,インプリメントされてもよい。
310:物体(ペットボトル)
320:オリジナルキャラクタ
420b:カレントキャラクタ
Claims (13)
- 三次元空間におけるオブジェクトのモーションデータを,コンピュータが生成する方法であって,前記モーションデータが定義するモーションは,少なくとも移動,回転,及び変形のいずれか1つを含み,
当該方法は,
第1のオブジェクトが連携オブジェクトと関連して動くように前記第1のオブジェクトのモーションを定義した第1のモーションデータを補正することによって,第2のオブジェクトのための第2のモーションデータを生成するステップであって,前記第1のオブジェクトと前記連携オブジェクトとの第1の位置関係を有し,前記第2のオブジェクトと前記連携オブジェクトとの第2の位置関係を,前記第1の位置関係に適合させる,ステップ,
を有する方法。 - 前記第1の位置関係は,前記連携オブジェクトからみた前記第1のオブジェクトの着目点の第1の相対的な位置であり,
前記第2の位置関係は,前記連携オブジェクトからみた前記第2のオブジェクトの着目点の第2の相対的な位置である,
請求項1記載の方法。 - 前記第2のモーションデータを生成するステップは,
前記第1の相対的な位置と前記第2の相対的な位置との変位量が最小化するように,前記第1のオブジェクトの所定の移動部位に対応する前記第2のオブジェクトの移動部位の位置を移動させるステップ,
を含む,請求項2記載の方法。 - 前記第2のモーションデータを生成するステップは,
前記第2のモーションデータを適用した際の前記第2のオブジェクトのモーションが,時間軸上で滑らかとなるよう,前記第2のオブジェクトのモーションデータを平滑化する,
請求項1ないし3のうちいずれか1項記載の方法。 - 前記連携オブジェクトは,大きさが零であるか,又は非表示とされる,請求項1ないし4のうちいずれか1項記載の方法。
- 前記第1のオブジェクトの前記所定の移動部位は,複数の候補が存在し,予め定められた優先度に基づいて,前記複数の候補から順次選択され利用される,
請求項3記載の方法。 - 前記第1のオブジェクトの着目点は,前記連携オブジェクトに,予め関連付けられており,
前記第2のオブジェクトの着目点は,予め関連付けられた前記第1のオブジェクトの着目点に基づいて特定される,請求項1ないし6のうちいずれか1項記載の方法。 - 前記第1のモーションデータは,前記連携オブジェクトに,予め関連付けられている,請求項1ないし7のうちいずれか1項記載の方法。
- 請求項1ないし8のうちいずれか1項記載の方法をコンピュータに実行させるためのプログラム。
- 前記連携オブジェクトを定義するデータと,
請求項8記載の方法により前記連携オブジェクトに関連付けられた1つ以上の前記第1のモーションデータと,
を有するファイルのデータ構造。 - 請求項10記載のデータ構造を有するファイルを記憶した記憶媒体。
- 三次元空間におけるオブジェクトのモーションデータを含むデータ構造であって,前記モーションデータが定義するモーションは,少なくとも移動,回転,及び変形のいずれか1つを含み,
当該データ構造は,
第1のオブジェクトが連携オブジェクトと関連して動くように前記第1のオブジェクトのモーションを定義した第1のモーションデータと,
前記連携オブジェクトを三次元空間上で定義する連携オブジェクト定義データと,
を有し,
前記第1のモーションデータ及び前記連携オブジェクト定義データは,第2のオブジェクトのモーションを定義する第2のモーションデータを生成するために用いられる,
データ構造。 - 請求項12記載のデータ構造を有する,記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014054040A JP6431265B2 (ja) | 2014-03-17 | 2014-03-17 | オブジェクトのモーションの生成方法,プログラム,及び記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014054040A JP6431265B2 (ja) | 2014-03-17 | 2014-03-17 | オブジェクトのモーションの生成方法,プログラム,及び記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015176495A true JP2015176495A (ja) | 2015-10-05 |
JP6431265B2 JP6431265B2 (ja) | 2018-11-28 |
Family
ID=54255601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014054040A Active JP6431265B2 (ja) | 2014-03-17 | 2014-03-17 | オブジェクトのモーションの生成方法,プログラム,及び記憶媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6431265B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018028809A (ja) * | 2016-08-18 | 2018-02-22 | 株式会社カプコン | ゲームプログラムおよびゲームシステム |
JP2020177347A (ja) * | 2019-04-16 | 2020-10-29 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
JP2022080984A (ja) * | 2020-11-19 | 2022-05-31 | 株式会社コーエーテクモゲームス | プログラム、情報処理方法及び情報処理装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11144086A (ja) * | 1997-11-07 | 1999-05-28 | Namco Ltd | 画像生成装置及び情報記憶媒体 |
JPH11232478A (ja) * | 1998-02-17 | 1999-08-27 | Nec Corp | 動画生成システム、動画生成方法及び記録媒体 |
JP2002052242A (ja) * | 2000-01-28 | 2002-02-19 | Square Co Ltd | 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法 |
JP2011065578A (ja) * | 2009-09-18 | 2011-03-31 | Konami Digital Entertainment Co Ltd | 画像生成装置、画像生成方法、ならびに、プログラム |
JP2011253308A (ja) * | 2010-06-01 | 2011-12-15 | Copcom Co Ltd | プログラム、当該プログラムを記録した記録媒体、および、当該プログラムを実行するコンピュータ |
-
2014
- 2014-03-17 JP JP2014054040A patent/JP6431265B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11144086A (ja) * | 1997-11-07 | 1999-05-28 | Namco Ltd | 画像生成装置及び情報記憶媒体 |
JPH11232478A (ja) * | 1998-02-17 | 1999-08-27 | Nec Corp | 動画生成システム、動画生成方法及び記録媒体 |
JP2002052242A (ja) * | 2000-01-28 | 2002-02-19 | Square Co Ltd | 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法 |
JP2011065578A (ja) * | 2009-09-18 | 2011-03-31 | Konami Digital Entertainment Co Ltd | 画像生成装置、画像生成方法、ならびに、プログラム |
JP2011253308A (ja) * | 2010-06-01 | 2011-12-15 | Copcom Co Ltd | プログラム、当該プログラムを記録した記録媒体、および、当該プログラムを実行するコンピュータ |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018028809A (ja) * | 2016-08-18 | 2018-02-22 | 株式会社カプコン | ゲームプログラムおよびゲームシステム |
JP2020177347A (ja) * | 2019-04-16 | 2020-10-29 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
JP7214548B2 (ja) | 2019-04-16 | 2023-01-30 | 日産自動車株式会社 | 情報処理装置及び情報処理方法 |
JP2022080984A (ja) * | 2020-11-19 | 2022-05-31 | 株式会社コーエーテクモゲームス | プログラム、情報処理方法及び情報処理装置 |
JP7312737B2 (ja) | 2020-11-19 | 2023-07-21 | 株式会社コーエーテクモゲームス | プログラム、情報処理方法及び情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6431265B2 (ja) | 2018-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7872653B2 (en) | Mesh puppetry | |
JP3996015B2 (ja) | 姿勢認識装置及び自律ロボット | |
KR20210011984A (ko) | 이미지 처리 방법 및 장치, 이미지 디바이스, 및 저장 매체 | |
JP7126812B2 (ja) | 検出装置、検出システム、画像処理装置、検出方法、画像処理プログラム、画像表示方法、及び画像表示システム | |
JP6431265B2 (ja) | オブジェクトのモーションの生成方法,プログラム,及び記憶媒体 | |
CN112602090A (zh) | 用于插值不同输入的方法和系统 | |
WO2022143178A1 (zh) | 一种运动重定向方法、装置、电子设备及存储介质 | |
CN110020600B (zh) | 生成用于训练人脸对齐模型的数据集的方法 | |
US6608624B1 (en) | Method for accelerating 3D animation production | |
CN107080940A (zh) | 基于深度相机Kinect的体感交互转换方法及装置 | |
WO2012111622A1 (ja) | 動作モデリング装置及び方法、並びにプログラム | |
TW201401224A (zh) | 二維角色表現三維動作之系統及方法 | |
JP4435212B2 (ja) | 姿勢認識装置及び自律ロボット | |
CN105488834B (zh) | 角色面部朝向的调整方法及装置 | |
Neff et al. | Methods for exploring expressive stance | |
WO2021240848A1 (ja) | 3次元アバター生成装置、3次元アバター生成方法及び3次元アバター生成プログラム | |
Feng et al. | Automating the transfer of a generic set of behaviors onto a virtual character | |
KR20210091955A (ko) | 운동 자세 교정 프로그램 | |
CN113313009A (zh) | 连拍的输出图像方法、装置、终端及可读存储介质 | |
KR102438488B1 (ko) | 3d 마커리스 모션 캡처 기반 3d 아바타 생성 장치 및 방법 | |
CN101540057B (zh) | 虚拟动物驱动方法和装置 | |
US10083536B2 (en) | System for mapping animation from a source character to a destination character while conserving angular configuration | |
JP2011215709A (ja) | 漫画作成支援装置、漫画作成支援方法及びプログラム | |
CN112270764B (zh) | 一种用于合影的虚拟人姿态生成方法 | |
JPH09212676A (ja) | 画像合成方法及び画像合成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180517 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180925 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20181004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6431265 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |